OpenAI推出GPT-4 Turbo with Vision,能够在处理文本的同时处理视觉数据
科技IT 2024-04-13 user6583
4月11日消息,据外媒报道,OpenAI正式推出GPT-4 Turbo with Vision(GPT-4V),标志着其人工智能大语言模型的进步。此新版本通过集成Vision增强了GPT-4 Turbo的功能,从而能够在处理文本的同时处理视觉数据。这一发展可能会彻底改变开发人员使用人工智能的方式,特别是在需要分析图像的应用程序中。
GPT-4V引入了几个关键功能,旨在简化开发过程。值得注意的是,它支持JSON模式和函数调用,便于更容易地与现有的代码库集成。该模型在其前身GPT-4 Turbo的上下文窗口中维护了令人印象深刻的128000个令牌,允许在单个请求中进行广泛的数据处理。开发人员现在可以通过直接链接或传递base64编码的图像来输入图像,从而扩展了该模型在各种应用程序中的实用性。
GPT-4V的一个突出方面是其解释和分析图像的能力。虽然它可以识别图像中的对象,但注意一些限制是很重要的。例如,模型可能难以确定特定项目在视野内的精确位置或颜色。这一限制突显了人工智能对复杂视觉环境的理解现状,这一挑战仍然是一个积极研发的领域。
The End
相关阅读
- IDC:预计到2027年,中国在AI领域的投资规模将达到381亿美元
- 比特网早报:微软成为史上第二家市值突破4万亿美元公司,OpenAI年化收入达到120亿美元
- 三星代工业务再遭打击,AMD放弃采用其4nm制程技术
- NVIDIA 面向生成式 AI 打造强大的以太网网络
- Ceva助力欧冶半导体下一代 ADAS 芯片组实现更智能、更安全的电动汽车
- 从AI到空天地一体:数码视讯参编重磅行业标准发布
- 比特网早报:夸克发布首个高考志愿大模型,英伟达拟在欧洲建20座AI工厂
- 环旭电子推出EMVCo认证智能平板POS,整合销售与支付解决方案
- 易用全能 京瓷ECOSYS MA3500cifx如何成为高效办公助手!
- 是德科技和爱立信在2024年IEEE国际通信大会上联合展示Pre-6G网络