搜索
当前所在位置:首页 >> 百科

【酒店后台泄露合集】AI推理芯片,大模型「下半场」的入场券

发布时间:2025-09-13 13:24:59 作者:n 点击:274 【 字体:

2023是推理“群模共舞”的元年。

先是芯片型下ChatGPT的横空出世给予众人致命震撼,随后国内诸多AI、大模的入互联网公司迅速加大资源投入“练模”。半场

3月,场券百度发布文心一言,推理酒店后台泄露合集打响了“练模大战”的芯片型下第一枪。

在这场“模型大战”中,大模的入算力作为不可或缺的半场重武器,一度成为众公司争抢的场券关键要素。

作为人工智能的推理三驾马车之一,算力是芯片型下训练AI模型、推理任务的大模的入关键。倘若把训练模型当作是半场做一道精致的菜肴,算力就好比一套称手的场券烹饪工具。

世人皆知巧妇难为无米之炊,但再好的厨子,没有一口好锅、一把好刀,面对鲜美的食材也只能望而兴叹。

“大模型动辄百亿级的参数,仓库里没有几百张A100、H100,都谈不上入围。”

所谓兵马未动、粮草先行。为了练模,模型厂商们对算力芯片的购买达到了前所未有的水平。大模型这波风潮下,最先受益的,既不是躬身入局的企业,也非下游场景用户,而是以Nvidia为代表的算力芯片厂商。

5月,Nvidia市值一路飙升,成为首家市值达到1万亿美元的芯片企业。

如果把这场肇始于“练模”的造富奇迹归结于大模型的「上半场」,那么大模型的「下半场」财富机遇,则是空姐工作中走光全集如何把大模型装入应用场景之中。这正如云天励飞CEO陈宁所言——

“生产大模型不是目的,千行百业的落地和应用才是最终目的。”

大模型虽然改变了传统AI算法模型的生产模式,效率更高、效果更好、泛化能力更强。但从商业化层面,仍然跳脱不了AI落地的困境。

过去几年时间,无数AI公司前赴后继,趟出了一条血淋淋的路子,即AI+场景。而对于诸多碎片化、多样化场景,AI公司们发现,边缘计算能够较好地解决AI落地应用的商业难题。

如今,大模型已然成为AI新范式,诸多厂商在尝试商业化时,也提出了“行业大模型”“一行一模”的观点,即用大模型来解决碎片化场景的业务痛点。

从这个角度看,在这条通往AI盈利的道路上,以灵活调度著称的边缘计算,将成为未来大模型广泛落地到场景的重要一环。而为边缘计算提供算力的AI推理芯片,也会迎来一次市场扩容。

掣肘AI落地的两个难点:场景与成本

场景与成本是AI老生常谈的话题,就像一道横亘在理想与现实之间的长河,无法避开又很难绕行。即便是最知名的AI公司、技术天才,以及商业巨子,在这条河面前都束手无策、有心无力。久而久之,AI公司套上了“盈利魔咒”。

以ChatGPT为代表的大模型之所以备受推崇,原因无他:在众人身处迷途之时,大模型让逐梦者们看到了一丝黎明前的曙光。AI创业者林夕感叹道:“大模型,AI之光。”

如果没有大模型,很多AI公司可能熬不过2023的冬天。林夕表示,ChatGPT强大的逻辑推理能力,让人们第一次近距离感受到了人工智能的厉害之处。“信心比黄金重要”,当整个社会认可大模型之后,资本才愿意继续加注。

毫不夸张地说,大模型给那些资金流转困难的AI公司们,强行续命了几年。毕竟AI之梦,也难逃现实的鸡零狗碎。

当然,这只是表象,AI如长夜、资本永不眠。资本从不为情怀买单,而是看到了大模型以极强的泛化能力,能够有效解决场景和成本这一本质难题,从而带来巨大的商业价值空间。这也正是逐梦者们看到的曙光——困扰AI商业化的难题有望得到破解。

过去,AI从实验室走向应用场景,许多创业公司开始吭哧吭哧搞业务,在一个个碎片化场景里掘土挖地。但高昂的研发投入与实际业务产生的经济价值相去甚远,人效比极低,即所谓的“造血能力严重不足”。

以安防为例,虽然AI给这个行业带来了革命性的变化,最终受益者却并不是AI公司,而是为数不多的几个安防巨头。原因在于,安防碎片化场景特别多,需要AI,但并不需要昂贵且强大的AI。

这些安防大厂能够从AI竞赛中脱颖而出的秘密,除了原来to B稳定的渠道关系,更为重要的是,他们的人效比很高。这种优势体现在产品上就是:同样一个摄像头,AI公司的产品天然贵上几十块。客户自然而然用脚投票。

如今,那些名噪一时的CV公司,安防业务已经偃旗息鼓。究其原因,AI公司在解决碎片化场景需求时,一个任务一个模型的模式,造成研发成本居高不下,加之重复建设,导致整体的运营成本处于高位,而安防本身属于脏活儿累活儿,事儿多钱少,AI公司自然而然会“水土不服”。

这种“牛刀杀鸡”的现象并不局限于安防行业,但凡是AI所及之处,基本上都会面临碎片化场景这一核心命题。在大模型未出世之前,AI对于碎片化场景非常头疼,也尝试过各种解题方式,比如小样本学习、自动机器学习等,但效果并不明显。

大模型无疑是当下解决碎片化场景的最优解,其极强的泛化能力,能够实现“一模多用”,即一个模型解决N个任务。大模型从根本上改变了算法生产的模式,能够解决碎片化、非标化问题,直接降低AI的各类成本,成为当下AI公司打破魔咒的重要路径。

大模型「下半场」:边缘计算成为重点

如果说大模型「上半场」是技术的较量,那么「下半场」则是商业化的比拼。

无可置疑,大模型将解决掣肘AI落地的碎片化难题,并极大地削减研发成本,给AI带来质的飞跃,使其具备更大的想象空间。但这只能算是阶段性胜利,只有客户乖乖掏出钱包里的金币,并持续复购,产生价值,AI才算取得成功。

这个AI商业闭环中,还涉及到一个部署成本的问题。

AI不是消费电子,即买即用,尽管其常常被嵌入至各类电子设备中。但AI的消费大户,仍是以降本增效为目的的B/G客户。这类客户对于AI的最后一公里交付尤为重视,他们并不愿意为AI方案的部署花费任何多余的金币。

传统AI部署常见于云端一体,主要通过云端进行计算,感知端仅有微弱算力,数据在端侧采,算法在云上跑。这种模式存在几个问题:

云计算固然有大算力的好处,但对于一些需要快速响应、计算的场景,其存在的时滞现象非常致命;

云服务器费用高昂,许多企业并不需要大算力,盲目上云反而会造成算力浪费,性价比不高;

数据上云,存在一定安全风险;

为此,AI公司们在云端一体之间,增加了边缘计算,来解决云端算力浪费及端侧算力不足的问题。

边缘计算的灵感得益于章鱼的八只触手。作为云端计算的协同和补充,边缘计算能够在数据源头附近的网关执行数据处理、分析,这种独特的优势可以实现各单元之间执行不同的任务并实现多任务协同,既满足碎片化场景的算力调度需求,又具备低延时、安全等特点。

并且,边缘计算设备的部署成本相对较低,客户不需要部署昂贵的云服务器就能用上AI,这一核心优势使得边缘计算备受青睐,已然成为AI落地的重要途径之一。

但要真正让算法模型在边缘计算设备上跑起来,仍有两个比较重要的难点。

第一,边缘设备的算力比云端服务器弱,而大部分的算法模型,是在服务器上训练的,算法模型要实现迁移,需要做大量的优化工作。

第二,算法模型要在边缘设备上部署、执行推理任务,需要一颗强大的AI算力芯片,并针对芯片做适配,才能保证算法模型的运行效率。也就是说,AI算力芯片的生态极其重要,但现阶段比较尴尬的是,AI算力芯片厂商较为分散。

可以预见的是,在大模型时代,第一个问题较为容易解决,因为大模型自带极强的泛化能力。至于第二个点,则要比想象中难得多,其涉及到底层芯片技术的研发和攻关,以及对应的生态协同。如何让边缘设备运行大模型,对于AI芯片厂商而言,这既是机遇,也是挑战。

大模型时代下,AI芯片的国产替代潮

AI芯片功能上分两类,分别是训练芯片和推理芯片。

训练芯片主要用于大模型的训练、学习和优化,侧重于计算性能,而推理芯片则主要为模型的推理运算提供算力。二者之间的区别在于,训练芯片重计算,推理芯片重效率(时延、功耗)。并且,从云边端协同的角度看,训练芯片多用于服务器,推理芯片则主要部署在边端设备之上。

当前,国内大模型正处于“练模”阶段,需要极强的算力支撑,因此AI公司们将目光更多放在了训练芯片上,即购买大量的GPU算力来训练算法模型。这也直接成就了Nvidia的万亿市值神话,其H100、H800等芯片一骑绝尘,国内则有华为、寒武纪等厂商在努力追赶。

一旦大模型成熟,与之而来的便是落地应用,这时必然要用到边端设备,从而滋生出对推理芯片的庞大需求。

然而,由于不可抗力因素,现阶段的训练芯片和推理芯片皆受到贸易管制,在此背景下,AI芯片的国产替代提上了日程。

作为深圳AI第一股,云天励飞在边缘侧AI芯片的布局已经成果初显。2020年,云天励飞第一代AI推理芯片DeepEye1000实现商用,并落地到AI相机、安全PC、商业机器人等边缘计算场景。

云天励飞副总裁、芯片产品线总经理李爱军告诉雷峰网,大模型作为AI的进阶态,本质上还是要落地到具体业务场景才能产生价值,而边缘计算则是不可逆的趋势,因此做好边缘计算的推理芯片,对于未来大模型的应用至关重要。

在过去三年多的时间中,DeepEye1000广泛落地到各行各业,但同时也带来了诸多反馈:算力碎片化、算法长尾化、产品非标化、规模碎片化等痛点依旧存在,传统以追求单一场景PPA的传统芯片模式难以适应AI边缘计算场景下人工智能落地的需求。

基于此,云天励飞打造了新一代的边缘计算芯片平台DeepEdge10。

DeepEdge10属于主控级SoC,可以满足绝大部分场景的控制需要,同时基于云天励飞自研的新一代的处理器NNP400T,可以高效支持Transformer。在架构方面,DeepEdge10采用了D2D Chiplet封装结构,可以实现算力灵活扩展,并通过C2CMesh互联扩展,可以支持千亿级大模型部署。

相较于第一代DeepEye1000,DeepEdge10集成了2+8核通用算力CPU,整体算力提升了4倍以上,采用D2D Chiplet封装,实现从12T到48T的算力覆盖,总体性能比上一代芯片超过20倍。

在DeepEdge10的基础上,云天励飞还打造了Edge Server算力加速卡,最高支持1024Tops的NPU算力、1920GB/S的内存带宽,以及512GB统一内存。目前,DeepEdge10已经支持主流开源模型超过100种,模型支持的数量还在更新,同时支持客户模型定制化的部署。

具体性能上,在Edge Device 端,DeepEdge10Max运行端侧70亿参数的大模型可以获得每秒27Token/s,最高可兼容130亿参数的大模型。而在Edge Server上,采用C2C Mesh互联,多卡协同,运行700亿参数大模型可获得42Token/s的生成速度,最高兼容千亿级别参数的大模型。

据了解,DeepEdge10芯片平台核心竞争力在于边缘计算,可以针对不同的场景提供差异化算力,从而满足碎片化、多样化需求。目前,DeepEdge10已经进入了大规模的应用中,有近30家算法芯片化合作伙伴,所有使用云天芯片的产品合作伙伴,均可在线下载更新云天超过100多种算法。

李爱军表示,大模型未来落地到机器人、无人驾驶汽车等场景,都需要用到推理芯片,而推理芯片正处于百家争鸣的过程。而在国内,如何基于国产工艺实现推理芯片的研发、流片和商用至关重要。

现阶段,国内芯片的成熟工艺处于14nm的节点。对于千亿级、万亿级别的大模型,其推理芯片不但需要极强的计算能力,还要保持超低的功耗和超低的成本,对芯片制程的工艺达到了5nm、2nm。显然,国产芯片离最高端的芯片还有一段距离。

不过,结合当前国内的生产工艺,云天励飞与合作伙伴于2020年开始技术攻关,在ChipletD2D的技术上定制了一系列IP,实现了可以在14nm芯片上运行千亿大模型的功能。虽然成本、功耗会高一些,但这已经是国产芯片的最优水平。至于更高工艺的芯片,国内芯片厂商既需要资源,也需要时间。

“我们志在打造国产工艺自主可控的AI芯片。”李爱军告诉雷峰网,这条路道阻且长,但云天励飞会坚定地走下去。雷峰网(公众号:雷峰网)雷峰网

雷峰网原创文章,未经授权禁止转载。详情见转载须知。

AI推理芯片,大模型「下半场」的入场券

阅读全文
相关推荐

WAIC 最具技术想象力成果发布:新架构面壁小钢炮又一次验证并加速了面壁定律

WAIC 最具技术想象力成果发布:新架构面壁小钢炮又一次验证并加速了面壁定律
2020 年,1750 亿参数规模的 GPT-3 问世。彼时,完整训练 1750 亿参数的模型需要 3.14E11TFLOPS)的每秒浮点运算量。如果使用英伟达 80GB A100 GPU16位浮点算 ...

实测文小言升级:开始「卷体验」的百度都眉清目秀了

实测文小言升级:开始「卷体验」的百度都眉清目秀了
刚刚无缝接入文心 4.5、文心 X1 和 满血版 DeepSeek-R1 的文小言,转身又整出了新动作。3 月 31 日,文小言迎来了一次全面升级,上新了多模型融合调度、全新语音大模型、图片问答、拍题 ...

拓元智慧完成近亿元人民币Pre

拓元智慧完成近亿元人民币Pre
作者 | 赖文昕编辑 | 陈彩娴近日,拓元智慧X-Era AI)宣布成功完成 Pre-A 轮融资,融资金额接近一亿人民币。此轮融资由粤科金融集团、鹏城愿景基金、红鸟启航基金等投资机构共同参与。早在 2 ...

斯坦福 AI 指数报告发布:2024年美国 AI 私人投资约为中国的 12 倍、GPT3.5 级别模型推理成本下降 280 倍

斯坦福 AI 指数报告发布:2024年美国 AI 私人投资约为中国的 12 倍、GPT3.5 级别模型推理成本下降 280 倍
4 月 7 日,斯坦福大学以人为本的人工智能研究所 HAI) 发表了新的《2025年人工智能指数报告》,多项数据统计表明:中美 AI 的差距正在缩小,AI 技术的创新速度是过去十年的数倍之快。该报告总 ...

OpenAI 新设“应用 CEO”:原 Meta VP 加入,与奥特曼平级

OpenAI 新设“应用 CEO”:原 Meta VP 加入,与奥特曼平级
刚刚,OpenAI 搞了个大动作。CEO Sam Altman 发文称原 Instacart 的 CEO Fidji Simo 将加入 OpenAI,担任“应用业务首席执行官”的职位CEO of Ap ...

枫清科技高雪峰:从数据到知识,跨越生成式AI与决策智能间的鸿沟

枫清科技高雪峰:从数据到知识,跨越生成式AI与决策智能间的鸿沟
12月5日,“2024中国生成式AI大会”在上海开幕,全球AI领域的顶尖专家、行业领袖与技术创新者汇聚一堂。会上,枫清科技Fabarta)创始人兼CEO高雪峰深入探讨了人工智能在企业智能化转型中的关键 ...

机器人端侧模型的十字路口

机器人端侧模型的十字路口
作者|朱可轩编辑|陈彩娴自 2023 年以来,以大模型为代表的人工智能与以具身智能为代表的机器人成为科技发展的两股重要力量。与此同时,将人工智能算法、尤其是大模型应用于进一步提升机器人智能水平也成为一 ...

阶跃星辰再拿多模态榜首,全方位升级发布六款模型

阶跃星辰再拿多模态榜首,全方位升级发布六款模型
作者|朱可轩编辑|陈彩娴春节将近,各家厂商似乎都在争取休假前的最后一博,此时步入 2025 年也才半月有余,大模型玩家们已然卷上了新高度。先是 OpenAI 打响了开年第一“枪”,ChatGPT 上线 ...

从「全球销冠」到「Google首选」,XREAL创新驱动引领新一代智能终端

从「全球销冠」到「Google首选」,XREAL创新驱动引领新一代智能终端
2025年7月22日14:00,全球智能眼镜头部品牌XREAL正式发布全新旗舰产品——XREAL One Pro,并同步在京东、天猫平台开启预售。发布当日,京东平台已有2.6万人进行线上预约,未发先热 ...

万字实录:VLA 范式,具身智能的曙光与迷雾丨GAIR Live

万字实录:VLA 范式,具身智能的曙光与迷雾丨GAIR Live
整理丨赖文昕编辑丨陈彩娴VLA视觉-语言-动作模型)作为具身智能领域的关键新范式,能有效整合视觉信息、语言指令与行动决策,显著提升机器人对复杂环境的理解和适应能力,对推动机器人从单一任务执行向多样化场 ...

Transformer能否推理引争议,DeepMind连夜更新论文开源数据集:Transformer真的很强

Transformer能否推理引争议,DeepMind连夜更新论文开源数据集:Transformer真的很强
DeepMind闷声干大事,悄悄训练了一个大小只有270M的Transformer模型,居然不需要搜索,就能实现大师级的下棋水平。这几天的推特因为这篇2月份发布的论文吵得不可开交,DeepMind团队 ...

英伟达梦想,富士康模式:Alexander Wang如何用24万数字游民打造数据标注王国

英伟达梦想,富士康模式:Alexander Wang如何用24万数字游民打造数据标注王国
这位世界上最年轻的白手起家的亿万富翁,曾在首次登上福布斯排行榜后迅速跌落,但几年后就重新夺回了这一头衔。给 Alexander Wang 带来这个极具传奇性的名号的,是他的数据工厂—— Scale A ...
返回顶部