搜索
当前所在位置:首页 >> 知识

【越南陪玩女完整版合集】国产端侧小模型超越 GPT

发布时间:2025-09-13 13:14:53 作者:v 点击:879 【 字体:

在刚刚过去的国产机器人学术顶会 ICRA 2024 上,「具身智能」成为热议,端侧其中围绕具身智能的小模型超一个普遍疑问是:若将 AI 大模型应用到消费级机器人领域,首先是国产模型适配终端,还是端侧终端适配模型?

过去一年,由于 6B、小模型超越南陪玩女完整版合集7B 等小模型的国产成果井喷,以及 MoE 训练技术的端侧越发成熟,将模型跑在手机、小模型超学习机、国产平板电脑、端侧机器人甚至汽车等等终端应用上的小模型超想象力开始变大,无论算法层还是国产硬件层都「蠢蠢欲动」。诚然,端侧这已经成为一个明朗的小模型超行业方向,但在系统整合上却要面临不同话语体系之间的博弈。

以机器人为例。从算法层看,将模型做小是关键,但硬件厂商关心的却是模型能否适配自身的产品:

首先,消费机器人有固定的产品周期,从研发到投入市场往往要经历大半年到一年半左右的时间。因此,尽管 ChatGPT 破圈后已经过去一年多,但目前已经上市的扫地机中却没有已经部署大模型的产品;

其次,硬件底层的空姐深夜私会全集芯片有上限,芯片设计完后就是一个性能参数限定的「物理」产品,其中带宽能跑多少、内存能用多大都已经是已知数,这就直接了应用在硬件上的 AI 模型能用多大参数、跑多快速度。

因此,机器人厂商普遍关注两个问题:一是如何将目标尺寸的大模型跑在固有的芯片上,二是如何使大模型服务好已有的场景,如扫地、语音交互等。

同样的问题也出现在其他的终端应用领域,如手机、平板、学习机等。此外,由于视觉是上一代 AI 与终端应用结合的主流,如智能手机中的人脸识别、语音交互,多模态也成为端侧大模型的性能首选。

这意味着,接下来的端侧大模型爆发将离不开三个要素:一,满足产品形态与适配芯片的需求;二,具备多模态模型能力;三,能够在长周期的产品研发投入中保持具有竞争力的价格优势。

但目前,国内外大模型厂商能聚焦、兼顾三者的团队寥寥无几。这意味着,在未来的 2024 年乃至 2025 年,能够在适配、性能与价格上率先拔得头筹的算法团队,将能赢得端侧 AI 领域的最终话语权。

国产端侧小模型超越 GPT-4V,「多模态」能力飞升

图注:OpenCompass 榜单变化显示,小参数、高性能模型逐渐成为 AI 技术趋势

据 AI 科技评论观察,国内的大模型团队在端侧上也发力迅猛。以多模态能力为例,国外 OpenAI、谷歌,国内阿里、面壁智能等均在 20B 以内参数规模的小模型上有布局。而据了解,20 亿几乎是目前国内芯片厂商正在研发的终端芯片主流支持的参数规模,而面壁正是这一参数量级的代表性玩家。

而近日,主打「小钢炮」的面壁智能所发布的新成果更尤为值得关注!继被吴恩达大力推广的 ChatDev 后,面壁在端侧模型上频出奇招,再次推出端侧多模态模型 MiniCPM-Llama3-V 2.5,直接干翻 GPT-4V 与多模态巨无霸 Gemini Pro,引起了海内外的广泛关注。


1、端侧小模型 SOTA 诞生?

据了解,面壁智能最新发布的多模态模型 MiniCPM-Llama3-V 2.5 性能飞跃,今非昔比:

  • 多模态能力飞升:参数规模仅 8B,综合性能却超越谷歌的多模态巨无霸 Gemini Pro 与 OpenAI 的 GPT-4V;

  • OCR 能力 SOTA:能够精准识别长图、难图与长文本,9 倍像素更清晰,同时具备识别与推理能力;雷峰网(公众号:雷峰网)

  • 手机端突破:首次整合 NPU 和 CPU 加速框架, 对手机端多模态大模型进行系系统级加速,速度提升 150 倍;

  • 多语种能力:支持 30 多种语言,除了中英双语,还包括法语、德语、西班牙语等等主流语言,基本覆盖了一带一路的所有国家;

  • ……雷峰网

国产端侧小模型超越 GPT-4V,「多模态」能力飞升

图注:面壁新模型 MiniCPM-Llama3-V2.5 综合能力水平指数

笔者看了表示大为震撼。我们知道面壁在今年 1 月发布的 MiniCPM 是专攻「以小博大」的端侧模型,但没想到短短3个月,从 MiniCPM-V 到 MiniCPM-V 2.0、再到 MiniCPM-Llama3-V2.5,面壁智能的端侧模型不断迭代,在多模态各项能力上竟取得了如此迅速、耀眼的突破!

在综合评测权威平台 OpenCompass 上,面壁 MiniCPM-Llama3-V2.5 以小博大,以 8B 量级综合性能超越多模态巨无霸 GPT-4V 和 Gemini Pro,是目前端侧最强的模型:

国产端侧小模型超越 GPT-4V,「多模态」能力飞升

多模态能力是当前大模型最核心的竞争力之一,手机、PC 等智能终端设备因其高频的影像视觉处理需求,对在端侧部署 AI 模型提出了更高的多模态识别与推理能力要求。

具体从 OCR 识别、模型幻觉能力与空间理解能力来看的话,面壁的最新 MiniCPM-Llama3-V2.5 实现了开源模型的性能 SOTA。展开来看:

OCR 识别中,在 OCR 综合能⼒权威榜单 OCRBench 上,面壁「多模态小钢炮」超越了Claude 3V Opus、GeminiPro 等标杆模型,也超过了原先排名第一的上海人工智能实验室 InternVL-Chat-V1.5、最新霸榜第一!

国产端侧小模型超越 GPT-4V,「多模态」能力飞升

排名第二的 InternVL-Chat-V1.5 虽然没有比面壁 MiniCPM-Llama3-V2.5 落后太多,但前者参数是后者的 3 倍。雷峰网

幻觉能力上,MiniCPM-Llama3-V 2.5 在Object HalBench 榜单上超越了 GPT-4V 等众多模型(注:目标幻觉率应为0):

国产端侧小模型超越 GPT-4V,「多模态」能力飞升

空间理解能力上,在专注于评估多模态模型基本现实世界空间理解能力的 RealWorldQA 榜单上,MiniCPM-Llama3-V 2.5 再次超越 GPT-4V 和 Gemini Pro:

国产端侧小模型超越 GPT-4V,「多模态」能力飞升

面壁智能 CTO 曾国洋在数月前告诉过 AI 科技评论,他一直认为模型的空间理解能力是实现 AGI 的几个重要组成能力之一。要实现 AGI,现有的长文本长序列架构还不能满足,AGI 还需要一个更好的框架来解决模型的记忆与学习问题,一块是空间记忆,另一块则是经验学习。

从这个思路看,面壁智能 MiniCPM-Llama3-V2.5 的发布,或者不只表明了面壁在端侧模型上的突破,还有更宏大的 AGI 愿景。


2、「识别」、「推理」比翼双飞

关于多模态,过去行业的标杆成果往往以物体精准识别为主,但大规模预训练语言模型诞生后,AI 模型的常识与推理能力愈发成为考量多模态模型的关键维度。

能同时兼顾「识别」与「推理」能力的多模态模型凤毛麟角,此次面壁发布的 8B 多模态小模型成为了其中之一。多个案例展示了面壁多模态小钢炮的识别-推理能力:

1)《三体》相关建筑图识别推理——

国产端侧小模型超越 GPT-4V,「多模态」能力飞升

面壁智能 MiniCPM-Llama3-V 2.5 很快就能推理出这些建筑是为了纪念《三体》及其对中国科幻文学的贡献而设计:

国产端侧小模型超越 GPT-4V,「多模态」能力飞升

但 GPT-4V 则答非所问:

国产端侧小模型超越 GPT-4V,「多模态」能力飞升

2)手机图片识别与信息提取、结构化输出——

输入一张手机拍摄的火车票,MiniCPM-Llama3-V 2.5 能准确提取信息,给出无误的「json」格式输出:

国产端侧小模型超越 GPT-4V,「多模态」能力飞升

3)高精尖行业学术论文图表分析——

给 MiniCPM-Llama3-V 2.5 一张包含复杂逻辑的流程图:

国产端侧小模型超越 GPT-4V,「多模态」能力飞升

MiniCPM-Llama3-V 2.5 不仅能够轻松看懂流程图中不同模块的文字、箭头之间的空间位置和复杂逻辑关系 ,还能给出清晰易懂的解释说明:

国产端侧小模型超越 GPT-4V,「多模态」能力飞升

4)长图长文本识别与信息推理——

输入一张包含稠密信息的长文长图:

国产端侧小模型超越 GPT-4V,「多模态」能力飞升

向 MiniCPM-Llama3-V 2.5 提问,其能直接根据长图信息进行推理问答:

国产端侧小模型超越 GPT-4V,「多模态」能力飞升

国产端侧小模型超越 GPT-4V,「多模态」能力飞升

复杂推理能力对多模态大模型至关重要,它使得模型不仅能理解单一的文本或图像等模态信息,还能跨越不同模态间的综合信息,做出更加准确和深入的分析。MiniCPM-Llama3-V 2.5 进一步升级,可深入洞察图像,在更复杂、更接近人类的水平上进行思考和解决问题,无疑是 AI 大模型中的「小福尔摩斯」。

此外,在视觉一块,面壁 MiniCPM-V 系列模型也实现了识别图像像素的飞升。

据面壁智能透露,有别于传统技术仅能识别20万像素小图,MiniCPM-V 系列可以高效编码及无损识别180万高清像素图片,并且支持任意长宽比图像识别、甚至「有点变态」的 1:9 极限宽高比。

国产端侧小模型超越 GPT-4V,「多模态」能力飞升


3、多语种能力增强,端侧部署迎来春天

具体在手机、学习机等等端侧的部署应用上,除了识别与推理的能力一体化,面壁 MiniCPM-Llama3-V2.5 的另外两项优势体现在多语种能力与端侧部署加速上。

多语种能力

得益于 VisCPM 的跨语言泛化技术,在中英双语多模态能力的基础上,MiniCPM-Llama3-V2.5 仅通过少量翻译的多模态数据的指令微调,高效泛化支持了德语、法语、西班牙语、意大利语、俄语等 30+ 种语言的多模态能力,几乎覆盖了所有一带一路的国家,意味着全球上百个国家的数十亿人口,都能与 MiniCPM-Llama3-V2.5 丝滑交互。

在对话中,MiniCPM-Llama3-V2.5 表现出了良好的多语言多模态对话性能。与目前国内较为领先的零一万物多模态模型 Yi-VL 34B 为参照,多语言版本 LLaVABench 评测结果显示,MiniCPM-Llama3-V2.5 对话能力更胜一筹:

国产端侧小模型超越 GPT-4V,「多模态」能力飞升

需要注意的是,并非所有基于 Llama3 微调的模型都有出色的能力,这中间依然涉及到高门槛的训练技巧。例如,Bunny-Llama-3-8B、XTuner-Llama3-8B-v1.1、LLaVA-NeXT Llama-3-8B 等模型均是借鉴 Llama3,但在综合能力上却远远落后于 MiniCPM-Llama3-V2.5:

国产端侧小模型超越 GPT-4V,「多模态」能力飞升

端侧部署

如前所述,由于终端硬件产品的物理限制,部署到端侧的 AI 模型既要满足硬件的端侧要求,并在成本可控的情况下实现同等参数性能最佳、同等性能参数最小。

在图像编码方面,面壁首次整合 NPU 和 CPU 加速框架,在 MiniCPM-Llama3-V 2.5 图像编码方面实现了 150 倍加速提升。

在语言模型推理方面,目前开源社区的报告结果中,Llama 3 语言模型在手机端侧的解码速度在 0.5 token/s 上下,相比之下,多模态大模型的端侧运行面临着更大的效率挑战,经过 CPU、编译优化、显存管理等优化方式,面壁将 MiniCPM-Llama3-V 2.5 在手机端的语言解码速度提升到 3-4 token/s。目前,语言模型的图像编码加速也在进行中,更灵敏互动体验即将到来。

总的来说,面壁最新取得的端侧多模态模型成果 MiniCPM-Llama3-V 2.5 是国产端侧之光,加速了国产大模型部署在端侧的节奏,也给端侧 AI 行业提供了多方位的参考。

换言之,在大模型时代,「让终端硬件变得更智能」不再是一个概念性的说法,而是一个正在发生的现实。面壁之后,期待更多国产大模型团队带来更多振奋人心的端侧 AI 创新成果!

MiniCPM-Llama3-V 2.5开源地址:?https://github.com/OpenBMB/MiniCPM-V


雷峰网原创文章,未经授权禁止转载。详情见转载须知。

国产端侧小模型超越 GPT-4V,「多模态」能力飞升

阅读全文
相关推荐

周伯文:下一代大模型 OS,工具和语言缺一不可丨GAIR 2023

周伯文:下一代大模型 OS,工具和语言缺一不可丨GAIR 2023
作者丨孙溥茜编辑丨陈彩娴编者按:2023 年 8 月14日,第七届 GAIR 全球人工智能与机器人大会在新加坡乌节大酒店正式开幕。论坛由 GAIR 研究院、雷峰网、世界科技出版社、科特勒咨询集团联合主 ...

上海AI实验室开源发布高质量语料“万卷CC”

上海AI实验室开源发布高质量语料“万卷CC”
近日,上海人工智能实验室上海AI实验室)发布新一代高质量大模型预训练语料“万卷CC”WanJuan-CC),首批开源的语料覆盖过去十年互联网上的公开内容,包含1千亿字符100Btoken),约400G ...

用扩散模型生成神经网络?NUS 尤洋团队:这不是开玩笑

用扩散模型生成神经网络?NUS 尤洋团队:这不是开玩笑
作者:赖文昕编辑:郭思、陈彩娴说起扩散模型生成的东西,你会立刻想到什么?是OpenAI的经典牛油果椅子?是英伟达Magic3D生成的蓝色箭毒蛙?还是斯坦福大学和微软Folding Diffusion生 ...

大模型落地,向量数据库能做什么?

大模型落地,向量数据库能做什么?
在保险行业这个海量数据的“聚居地”上,数据库应用已久。近年来,保司数据化转型提速,各类文本、音视频的凭证票证核保及跑批需求不断增加,许多机构便将数据库引入至业务流程中。但是,随着数据库深入保司业务,一 ...

一场「狼人杀」,考倒了一堆大模型

一场「狼人杀」,考倒了一堆大模型
人工智能越来越像人,但“像人”到底意味着什么?除了会解题、写文,它是否也能理解人类那种充满个性的推理方式?比如在一场狼人杀游戏中,有人逻辑缜密、有人直觉敏锐、有人擅长伪装。那么 AI 能跟上这种风格差 ...

"寻数计划"已发布,面向全社会征集高质量大模型语料数据

"寻数计划"已发布,面向全社会征集高质量大模型语料数据
一、“寻数计划”简介如果您有大模型所需的丰富语料数据资源,如果您有标准化的高质量精标语料数据产品,如果您愿意以多元化方式参与大模型高水平语料数据要素建设,诚邀您加入“寻数计划”。“寻数计划”是大模型语 ...

"寻数计划"已发布,面向全社会征集高质量大模型语料数据

"寻数计划"已发布,面向全社会征集高质量大模型语料数据
一、“寻数计划”简介如果您有大模型所需的丰富语料数据资源,如果您有标准化的高质量精标语料数据产品,如果您愿意以多元化方式参与大模型高水平语料数据要素建设,诚邀您加入“寻数计划”。“寻数计划”是大模型语 ...

新生与对话,华东师范大学上海人工智能金融学院举办首届学术年会

新生与对话,华东师范大学上海人工智能金融学院举办首届学术年会
华东师范大学上海人工智能金融学院举办首届学术年会2024年5月31日至6月1日,华东师范大学上海人工智能金融学院首届学术年会在华东师范大学普陀校区科学会堂举行。来自4大洲18位人工智能、金融领域以及跨 ...

面壁新模型:早于Llama3、比肩 Llama3、推理超越 Llama3!

面壁新模型:早于Llama3、比肩 Llama3、推理超越 Llama3!
[雷峰网(公众号:雷峰网)]两周前,面壁发布领先的开源大模型「Eurux-8x22B 」。相比口碑之作 Llama3-70B,发布时间更早,综合性能相当,尤其是拥有更强的推理性能——刷新开源大模型推理 ...

昆仑万维开源「天工」13B系列大模型,0门槛商用

昆仑万维开源「天工」13B系列大模型,0门槛商用
10月30日,昆仑万维宣布开源百亿级大语言模型「天工」Skywork-13B系列,并罕见地配套开源了600GB、150B Tokens的超大高质量开源中文数据集。昆仑万维「天工」Skywork-13B ...

别再声讨零一万物了

别再声讨零一万物了
最近两天,由原阿里技术副总裁、深度学习框架 Caffe 发明者贾扬清一则朋友圈引发的关于“国内某大厂新模型套壳 LLaMA 架构”的问题在中国人工智能圈与科技媒体中产生了热烈讨论。由于贾扬清在国内 A ...

浪潮信息彭震:AI+是目标也是机会,要推动AI成为百行千业的生产力

浪潮信息彭震:AI+是目标也是机会,要推动AI成为百行千业的生产力
去年以来,ChatGPT引爆了新一轮的AI浪潮,随后国内大模型进入“百模大战”的热闹中。如今,一年多过去,国内外的大模型开启了不同的叙事方式,OpenAI已在酝酿GPT5,继续探求通往AGI的路径,而 ...
返回顶部