速度比GPU快10倍,初创公司Groq推出的LPU火出圈
科技IT 2024-02-21 yu66841
如今,AI芯片市场主要由英伟达主导,H100也公认是训练大语言模型最需要的GPU。
然而,AI市场在被看好的同时,微软、谷歌、AMD、英特尔等巨头也纷纷发力AI芯片业务。
就在大家纷纷发力AI芯片业务的时候,初创公司Groq推出新型的自研芯片的消息,更是赚足了眼球。
据悉,这款LPU(Language Processing Unit)自研芯片主要用于大模型推理加速,而Groq是一家由谷歌TPU团队的成立的初创公司。
LPU芯片推理速度较英伟达GPU提高10倍、成本只有其1/10;运行的大模型生成速度接近每秒500 tokens,碾压ChatGPT-3.5大约40 tokens/秒的速度。
根据Anyscale的LLMPerf排行显示,在Groq LPU推理引擎上运行的Llama 2 70B,输出tokens吞吐量快了18倍,优于其他所有云推理供应商。
同时,根据Anyscale的LLMPerf排行显示,在Groq LPU推理引擎上运行的Llama 2 70B,输出tokens吞吐量快了18倍,优于其他所有云推理供应商。
The End
相关阅读
- 澳大利亚昆士兰水电公司2GW抽水蓄能项目签署设计合同
- Day-0支持!摩尔线程MTT S5000率先适配智谱GLM-5
- Ceva 添加 Sensory 的 TrulyHandsfree 语音激活功能, 增强 NeuPro-Nano NPU 生态系统
- 芯和半导体在DesignCon 2025上发布新品,全面升级“从芯片到系统”的全栈集成系统EDA平台
- 影石宣布进军无人机市场
- 全国首个!集装箱式锂电池储能系统海上安全运输指南发布
- 2025年二季度中国智能手机市场:华为出货量同比增长12%,重回第一!
- 研华推出面向生成式 AI 的边缘 AI 服务器解决方案
- 意法半导体超级传感器助Sphere打造沉浸式体验,开启全新电影时代
- Spectrum仪器旗下数字化仪和任意波形发生器新增数字脉冲发生器功能