DeepMind利用可微缓存技术革新人工智能
科技IT 2025-01-05 erej8986
12月28日消息,谷歌的DeepMind团队推出了一种名为“可微缓存增强”(Differentiable Cache Augmentation)的创新方法,旨在显著提高大型语言模型(LLMs)的推理能力,同时不增加计算需求。
这种开创性的方法代表着在优化人工智能以应对复杂任务方面迈出了重要一步,实现了效率与性能的平衡。
LLMs在解决语言处理、数学和逻辑推理中的复杂问题方面发挥着核心作用。随着这些模型的复杂性不断增加,研究人员面临着在保持效率的同时实现高性能的挑战。
现有方法通常依赖于在任务执行过程中生成中间步骤,这会增加延迟并降低计算效率。这些局限性阻碍了LLMs处理需要大量推理或更长依赖关系任务的能力。
DeepMind的新技术采用了一个经过训练的协处理器,该协处理器使用潜在嵌入来增强LLM的键值(kv)内存缓存。关键的是,基础LLM保持冻结状态,而协处理器则异步进行训练。
该过程分为三个阶段:
冻结的LLM从输入序列生成一个键值对(kv)缓存。
协处理器使用可训练的软标记来处理这个缓存,从而生成丰富的潜在嵌入。
增强的缓存被反馈到LLM中,提高了输出的质量。
The End
相关阅读
- 艾睿电子联合安森美在PCIM Asia 展览会 展示智能制造应用自主移动机器人平台
- 2026年企业IT布局重心转移,AI Agent成智能化升级关键抓手
- 美国政府点名特斯拉参与 LG 新能源 43 亿美元电池项目:实现本土 LFP 制造
- 5G+AI双剑合璧:移远通信以“数智双擎”,破局FWA智能连接新赛道
- 京东 × 宇树全国首店今日在北京开业,民众可体验并下单多款明星机器人产品
- 比特网科技:华为:2024年是原生鸿蒙的关键一年,奥特曼公布OpenAI新产品
- 瑞芯微开发者大会:AIoT 2.0“新风口”已至!
- 三安与意法半导体重庆8英寸碳化硅晶圆合资厂正式通线
- TI如何助力边缘AI从高端专属走向大众普及?
- e络盟现货供应适用于各种应用的示波器