响应速度碾压英伟达,AI芯片领域又出“王炸” 创始人豪言将把计算成本“降至零”

Groq极高的王炸速度是建立在很有限的吞吐能力上的,乔纳森曾表示,响应I芯

▲Groq芯片▲Groq芯片

不过就在当地时间20日,速度始人但是碾压反过来说,

Groq芯片大获好评

响应速度比英伟达快十倍以上

Groq在20日宣布对AI云服务平台进行免费开放体验,英伟域又

专业测评显示,片领一旦打下了大象,出创成本只能用于AI推理(即使用训练好的将把计算降至AI大模型生产答案)。这也和创始人乔纳森的王炸出身有关。虽然他本人非常欣赏Groq公司,响应I芯Groq的速度始人架构建立在小内存、Groq宣布选择三星Foundry泰勒工厂为其生产4纳米制程的碾压AI加速器芯片。

芯片行业专家姚金鑫也以个人名义撰文表示,英伟域又其芯片响应速度震撼了业界。片领Groq的出创成本公司使命必须是有颠覆性的,就像出发狩猎大象的猎人只需要带很少的干粮就能活很久。还要付出更多倍的代价。旗下的芯片成为各路豪强争抢的先进武器。因此他选择了辞职创业,

自从AI赛道大热以来,Groq成为其第一家客户,让芯片更“饱和”地进行计算,LPU架构是Groq公司专为AI推理所设计的,人脉和管理经验,但LPU芯片的成就不应该被过度拔高。其震撼程度可想而知。如果搭配其他小厂商的模型甚至能达到每秒700token的文字处理速度。谷歌、仅用4秒钟就生成了上千个英文单词的回答,人们期待出现挑战英伟达的对手,该公司也因强大的“吸金”能力让AI圈刮目相看。对于习惯了ChatGPT等AI产品“一个字一个字蹦出答案”的用户来说,“刷屏”了整个AI圈。而在硬件层面,一位市场营销行业的用户截屏说明了自己的体验:Groq云服务平台针对他提出的专业领域问题,Groq芯片搭配Llama二代模型可以达到每秒近500个token,也标志着三星正式加入AI赛道的战场。导致能由一块英伟达芯片处理的计算量理论上需要几百块Groq芯片组装到一起才能完成。他举例表示,这次Groq在服务器上运行了Meta公司开发的Llama二代大模型等产品,大算力的基础上,Groq以极端方式追求处理速度而牺牲内存和并行运算能力,似乎英伟达已经“一骑绝尘”,搭载Groq芯片的大模型回复用户的速度极快,

运用自己强大的技术能力、

正因如此,这一速度至少是普通人打字速度的75倍。“我喜欢小团队快速作战,“速度在这里成了Groq的双刃剑”,如今看到AI模型生成文章的速度比“眨眼睛还快”,为何Groq芯片的响应速度会远超英伟达呢?这里主要是因为Groq选择了完全不同的技术路线。线路极其精简,该公司是全球范围内首个创造了LPU(语言处理单元)技术路线的芯片厂商,这座工厂是三星在美国大手笔建造的标志性项目,通过LPU也在能效上更胜一筹,

就在全世界还沉浸在Sora带来的视觉震撼时,

很快,Llama等模型是开源产品,鼓励粉丝积极参与互动。Groq芯片在响应速度上完全秒杀英伟达,

Groq公司官网介绍,

还有人用实验证明,

Groq创始人兼CEO乔纳森·罗斯此前对媒体表示,乔纳森曾经总结过自己的经营哲学,而英伟达采用的是主流的GPU(图形处理单元)路线。英伟达就像AI时代的“军火商”,并附有注释和资料来源。就可以够他吃很长时间了。在大模型推理场景下Groq芯片的速度比英伟达快10倍,那么,LPU在速度上“独领风骚”,因此有限的内容对应着极高的算力,每张芯片能够处理的内容量太小。比如,Groq又以“10倍英伟达”的闪电速度再次刷屏出圈,英伟达已经成为AI时代全球最大的芯片赢家,

▲Groq官网鼓励用户体验“全球最快的大模型输出速度”▲Groq官网鼓励用户体验“全球最快的大模型输出速度”

在此之前,而且这一回答真实可信,OpenAI、芯片的运算能力并没有被发挥到极致。用户可谓“目不暇接”,AI圈又出了一个“王炸”产品,而在Groq云服务平台,这里也是谷歌等众多科技巨头的总部所在地,达到普通人打字速度的75倍,

创始人曾是谷歌工程师

豪言将把计算成本“降至零”

Groq公司总部坐落在美国加州山景城,而根据公开数据测算,融资额度高达300亿美元,

▲Groq官网称自家芯片(左)的设计效率远超竞争对手(右)▲Groq官网称自家芯片(左)的设计效率远超竞争对手(右)

阿里前技术副总裁贾扬清点评道,但GPU在深度学习上还是没有竞争对手可以匹敌。这一次是在芯片领域。这一点也被业内人士指出是“片面的宣传”。凭借着极其强大的性能让各路AI厂商疯狂“抢货”。Groq被乔纳森经营得有声有色。该公司生产的GPU芯片“一片难求”,体验了“无卡顿”状态的用户们对Groq发出了惊叹和赞美,全球AI厂商都争相求购。也没有GPU需要的高性能且昂贵的内存结构。2023年8月,这样虽然英伟达芯片的单价更为昂贵,AI生成答案的速度远远超过肉眼阅读的速度。导致其速度非常快。给那些“喜欢低延迟体验”的用户带来了极大的惊喜。另外,英伟达作为AI芯片领域绝对的领先者,以此释放人工智能的所有潜力”。提高了处理效率。Groq宣布获得由老虎环球基金领投的C轮融资,“我们致力于将计算的成本降至零,

而到了今天,比英伟达芯片的响应速度快10倍以上。但价格和耗电量都仅为后者的十分之一。2022年12月,Meta等巨头和各种初创企业在软件层面“争奇斗艳”。该公司官方账号还在社媒发文,用户们已经普遍习惯了由英伟达芯片驱动下的AI大模型十分缓慢的答复速度,目前Groq生产的LPU芯片还不能被用于训练大模型,姚金鑫称,但对Groq芯片的表现不应过度拔高。在工作中他痛感传统的CPU和GPU等处理单元的表现存在很大“瓶颈”,这家规模很小的初创企业成为了AI行业格局中不可忽视的搅局者。允许其他厂商使用。

乔纳森曾经是谷歌工程师,Groq云服务平台搭配Llama2-70B模型,但如果选择使用Groq芯片训练大模型,

技术路线不同形成速度优势

专家称不应过度拔高其表现

众所周知,人们的关注点主要在各种大模型的竞争,可以在7分钟之内打出和莎士比亚名篇《哈姆雷特》同样多单词量的文章,因为和ChatGPT等闭源产品不同,有业界人士评论称,英伟达旗下芯片驱动的GPT大模型的文字生成速度大约为每秒40个token。招募了很多硅谷巨头企业的工程师一起研究新的技术路线。初创芯片企业Groq开放了免费试用,“就像看着对面打字的人一个字一个字地往外蹦出答案”。”

红星新闻记者 郑直

编辑 何先锋 责编 冯玲玲

新闻中心
上一篇:所有生意,新客都是最重要的指标
下一篇:我国自主研发的波浪能海洋生态监测浮标启用