研究发现:AI聊天机器人变得越强就越有可能胡说八道
科技IT 2024-10-06 user15688
9月26日消息,据外媒报道,经过对三个主流AI聊天机器人的升级和扩展版本的研究,发现这些机器人更倾向于提供错误答案,而不是承认自己的无知。评估还揭示了人们在识别这些错误答案方面的不足。
大模型作为驱动聊天机器人的核心,有时会出错或对查询产生奇怪的“幻觉”反应。西班牙瓦伦西亚人工智能研究所的José Hernández-Orallo及其同事对这些错误进行了深入分析,以观察随着模型规模的增大――使用更多的训练数据、涉及更多的参数或决策节点并消耗更多的计算能力――这些错误是如何变化的。他们还探讨了错误的可能性是否与人对问题难度的感知相匹配,以及人们识别错误答案的能力如何。这项研究于9月25日发表在《自然》杂志上。
该团队发现,正如预期的那样,更大、更精细的LLM版本由于采用了诸如基于人类反馈的强化学习等微调方法,变得更加准确。这是个好消息。但它们变得不那么可靠:在所有不准确的回答中,错误答案的比例有所增加,团队报告称,因为模型不太可能避免回答问题,例如,通过说他们不知道,或者改变话题。
“如今它们几乎回答所有问题。这意味着更多正确的答案,但也有更多不正确的答案。”Hernández-Orallo说。
The End
相关阅读
- 比特早报:微软开发成本更低的人工智能,锐捷网络推出AI Fabric智算中心网络解决方案
- 消息称美国批准三星、SK海力士向中国工厂出口芯片制造设备
- AGIC通用人工智能展与IOTE物联网展携手圆满落幕,物联网科技盛宴精彩纷呈!
- Akamai“三位一体”云战略,助力企业构建竞争优势
- 谷歌与台积电达成合作:首款芯片为Tensor G5、3nm工艺制造
- Ceva 推出面向 FiRa 2.0 的下一代低功耗超宽带 IP
- 华大电子重磅亮相Seamless 2025,用芯助力数字安全新时代
- DigiKey 宣布与超低功耗 IC 供应商 Ambiq 建立全球合作伙伴关系
- 比特网早报:OpenAI急招安全防范负责人,阿里通义千问推出Qwen Code v0.5.0版本
- 芯原成都获评“年度技术赋能企业”