速度比GPU快10倍,初创公司Groq推出的LPU火出圈
科技IT 2024-02-21 yu66841
如今,AI芯片市场主要由英伟达主导,H100也公认是训练大语言模型最需要的GPU。
然而,AI市场在被看好的同时,微软、谷歌、AMD、英特尔等巨头也纷纷发力AI芯片业务。
就在大家纷纷发力AI芯片业务的时候,初创公司Groq推出新型的自研芯片的消息,更是赚足了眼球。
据悉,这款LPU(Language Processing Unit)自研芯片主要用于大模型推理加速,而Groq是一家由谷歌TPU团队的成立的初创公司。
LPU芯片推理速度较英伟达GPU提高10倍、成本只有其1/10;运行的大模型生成速度接近每秒500 tokens,碾压ChatGPT-3.5大约40 tokens/秒的速度。
根据Anyscale的LLMPerf排行显示,在Groq LPU推理引擎上运行的Llama 2 70B,输出tokens吞吐量快了18倍,优于其他所有云推理供应商。
同时,根据Anyscale的LLMPerf排行显示,在Groq LPU推理引擎上运行的Llama 2 70B,输出tokens吞吐量快了18倍,优于其他所有云推理供应商。
The End
相关阅读
- 生成式AI时代下的企业,该如何充分挖掘数据价值?
- Alat 推出电气化和人工智能基础设施业务以增强可持续制造能力
- 高通中国区董事长孟悖5G与AI的融合正加速企业数字化转型步伐
- 比特早报:AI冲击好莱坞,马斯克宣布本周xAI将开源Grok
- TinySwitch-5可在经典反激式架构中实现高达190W的输出功率和92%的效率
- 比特网早报:我国已建成高质量数据集总量超500PB,豆包手机助手回应“侵犯用户隐私”
- 高通推出下一代XR和AR平台,支持打造沉浸式体验和更轻薄的设备
- 智联万物 芯创未来 EIS 中国电子通信半导体数智创新峰会重磅启幕!!
- 国产内存加速!曝长鑫拟停产DDR4:全力进军DDR5
- 国际半导体低温键合会议首次来华