DeepMind利用可微缓存技术革新人工智能
科技IT 2025-01-05 erej8986
12月28日消息,谷歌的DeepMind团队推出了一种名为“可微缓存增强”(Differentiable Cache Augmentation)的创新方法,旨在显著提高大型语言模型(LLMs)的推理能力,同时不增加计算需求。
这种开创性的方法代表着在优化人工智能以应对复杂任务方面迈出了重要一步,实现了效率与性能的平衡。
LLMs在解决语言处理、数学和逻辑推理中的复杂问题方面发挥着核心作用。随着这些模型的复杂性不断增加,研究人员面临着在保持效率的同时实现高性能的挑战。
现有方法通常依赖于在任务执行过程中生成中间步骤,这会增加延迟并降低计算效率。这些局限性阻碍了LLMs处理需要大量推理或更长依赖关系任务的能力。
DeepMind的新技术采用了一个经过训练的协处理器,该协处理器使用潜在嵌入来增强LLM的键值(kv)内存缓存。关键的是,基础LLM保持冻结状态,而协处理器则异步进行训练。
该过程分为三个阶段:
冻结的LLM从输入序列生成一个键值对(kv)缓存。
协处理器使用可训练的软标记来处理这个缓存,从而生成丰富的潜在嵌入。
增强的缓存被反馈到LLM中,提高了输出的质量。
The End
相关阅读
- 台积电A14/A16工艺放弃使用High NA EUV光刻机技术
- 全“芯”上市 研华首款国产Type7核心模块SOM-GH590,搭载海光3000系列处理器,助力网络应用“芯”升级
- Gartner:2026年将有超过80%的企业使用生成式AI的API或模型
- 西部数据iNAND AT EU552 UFS 3.1嵌入式闪存驱动器获“年度影响力产品奖”
- 帝奥微LED驱动芯片荣获2025年度创新力汽车芯片奖!
- 从决策式AI进阶到生成式AI,SSD将变得更为重要
- 比特网早报:302款生成式人工智能服务已备案,Nullmax发布A2000多模态大模型智驾方案
- Gartner发布中国混合云成本管理的三大策略
- 您准备好在您的工厂实现自动化程度更高的实时的智能决策吗?
- 白宫与英特尔谈判内容曝光:特朗普政府或将入股芯片制造巨头