搜索
当前所在位置:首页 >> 热点

【警花深夜私会完整版】彩云科技DCFormer模型架构发布,效率是Transformer的两倍!

发布时间:2025-09-13 13:24:58 作者:ehech 点击:355 【 字体:

自2017年Transformer架构诞生之后,科技到现在为止其仍然是模型人工智能领域研究和应用的基础,鲜少有团队能够在最底层架构上进行一些变革和开发且做出较大的架构成效。一方面是发布由于Transformer确实好用;另一方面,在最底层上做突破并非易事。效率

然而,两倍警花深夜私会完整版彩云科技是科技那个反共识者。2024年5月22日,模型彩云科技发布了全新通用模型结构DCFormer,架构其相关论文《Improving Transformers with Dynamically Composable Multi-Head Attention 》(https://arxiv.org/abs/2405.08553)将在第41届国际机器学习大会ICML 2024正式发表。发布

在论文中,效率彩云科技实验证明了在三千亿级训练数据和70亿级模型参数量下,两倍DCFormer效率是科技Transformer的两倍。据一位评委透露,模型今年录用论文的架构平均分为4.25-6.33,而彩云科技团队的论文获得平均7分的高分。

ICML是微博带货博主吐槽合集合集国际机器学习领域的顶级会议,能够发表论文的中国初创企业屈指可数。彩云科技证实,其大模型结构DCFormer可以达到1.7~2倍算力的Transformer模型的效果,即算力智能转化率提升了1.7~2倍。在众多NLP下游任务和图像识别任务上的测评也验证了DCFormer的有效性(详见论文表格)。

DCFormer对性能算力比的提升幅度超过自2017年Transformer诞生至今被证明最普适有效并被广泛采用的两项结构改进的提升幅度之和(同时应用这两项改进的Transformer架构也叫Transformer++,如Llama)。而且随着模型规模的增大,DCFormer的提升越来越大(左图下的蓝线和绿线),而Transformer++的提升越来越小(左图下的黑线)。可以说,DCFormer让Transformer的能力又跃上一个新台阶。

彩云科技DCFormer模型架构发布,效率是Transformer的两倍! 

 彩云科技DCFormer模型架构发布,效率是Transformer的两倍!

彩云科技CEO袁行远说:"如果底层模型没有突破,人工智能的进步终将停滞不前。人人都说神经网络是个黑盒,我们需要勇气和耐心打开这个黑盒,通过分析模型运转原理,我们才能知道智能的本质规律,从而可以改进模型,提高模型的运行效率。"雷峰网(公众号:雷峰网)雷峰网雷峰网

通用大模型DCFormer将Transformer效率提升了两倍,这意味着什么?袁行远解释说:"如果 GPT-4o 能够用上DCFormer,推理一次128k上文的成本,就可能从4元变成2元。而且DCFormer 模型越大,效果越好,考虑到ChatGPT的巨大参数量,DCFormer可能在千亿、万亿模型上效果更好,因此价格甚至可能下降到1.5元、1元。Meta的100亿美元显卡训练的模型,可能50亿美元就能够用。"解开智能的科学的奥秘,实现通用人工智能——这是彩云科技10年以来孜孜不倦追求的目标。基于此,彩云科技在Github上开源了DCFormer的模型代码、权重和训练数据集(https://github.com/Caiyun-AI/DCFormer),将该模型开源给全世界。

未来彩云科技会将全新大模型DCFormer应用于旗下三款杀手级app,并将进一步发展彩云小梦,加速提升AI续写能力。袁行远说,"AI交互是前所未有的交互形式,也因此让我们有机会在AI的帮助下,建立每个人自己的'次元宇宙',而DCFormer大模型将加快这一进程。我们希望能够通过彩云小梦,帮助更多人实现现实生活中无法实现的梦想。"


雷峰网版权文章,未经授权禁止转载。详情见转载须知。

彩云科技DCFormer模型架构发布,效率是Transformer的两倍!

阅读全文
相关推荐

硅谷NEC Lab往事:将中国企业拽进AI时代的人

硅谷NEC Lab往事:将中国企业拽进AI时代的人
作者 | 李梅编辑 |陈彩娴2012 年春节前夕,李彦宏特地抽出时间,在北京接见了一位从硅谷飞来、在国内名不见经传的技术青年。这人三十来岁,戴着黑框眼镜,圆脸,个子不高,但口中所言句句都让李彦宏兴奋不 ...

为什么中国只有一个 DeepSeek?

为什么中国只有一个 DeepSeek?
DeepSeek 风暴后,中国的大模型创业圈会发生什么样的变化?近日来,笔者也与多位业内人士进行了探讨,发现国产大模型圈目前出现了两个极端:一个是极端的热血沸腾,另一个则是极端的霜打茄子。前者以积极拥 ...

聚力数据库与AI,OceanBase 6篇论文入选国际顶会ICDE 2025

聚力数据库与AI,OceanBase 6篇论文入选国际顶会ICDE 2025
5月19日-23日,国际顶级数据库学术会议ICDE2025第41届IEEE国际数据工程大会)于中国香港举办。本届会议中国高校和企业表现亮眼,其中数据库厂商OceanBase共有6篇论文入选,有1篇获“ ...

清程极智 CEO 汤雄超:训推一体机并非 AI Infra 的未来

清程极智 CEO 汤雄超:训推一体机并非 AI Infra 的未来
早在超算时代,清华大学高性能计算研究中心便一直是解决算力需求相关软件问题的行家。“目前 AI Infra 赛道几家国内厂商中,只有我们有过十万台服务器的超大规模国产算力集群的使用和调优经验。”汤雄超向 ...

网易有道全面拥抱DeepSeek

网易有道全面拥抱DeepSeek
1月20日,DeepSeek震撼发布DeepSeek-R1,这款推理大模型在数学、编程及逻辑推理等多个领域展现出了与OpenAI顶尖模型比肩的实力,同时实现了API调用成本90%-95%的大幅缩减,无 ...

智源线虫登上Nature子刊封面,具身元年尾声深长

智源线虫登上Nature子刊封面,具身元年尾声深长
智源研究院提出了BAAIWorm天宝--一个全新的、基于数据驱动的生物智能模拟系统,首次实现秀丽线虫神经系统、身体与环境的闭环仿真。BAAIWorm天宝通过构建线虫的精细神经系统、身体和环境模型,为探 ...

推特热帖:k1.5 很牛,因为借鉴了 UCLA 与 CMU 合作团队的这项技术

推特热帖:k1.5 很牛,因为借鉴了 UCLA 与 CMU 合作团队的这项技术
2025 年 1 月 20 日 Kimi k1.5 正式发布,伴随着技术报告的公布,有网友表示:“这应该是全球范围内,除 OpenAI 之外的公司首次实现 o1 正式版的多模态推理性能了吧!”一时间, ...

Agent 要被吃进大模型了

Agent 要被吃进大模型了
今天凌晨,奥特曼突然发文宣布推出自家最新的 o 系列模型:满血版 o3 和 o4-mini,同时表示这两款模型都可以自由调用 ChatGPT 里的各种工具,包括但不限于图像生成、图像分析、文件解释、网 ...

Andrej Karpathy 最新视频盛赞 DeepSeek:R1 正在发现人类思考的逻辑并进行复现

Andrej Karpathy 最新视频盛赞 DeepSeek:R1 正在发现人类思考的逻辑并进行复现
继近日斯坦福李飞飞、Percy Liang 等人推出 S1 后,李飞飞的学生、OpenAI 早期成员与前特斯拉 AI 总监也录制了一期最新长达 3 小时的长视频上传到 YouTube,深入浅出地从神经 ...

破解AI算力瓶颈:高通量以太网ETH+协议解锁智算新动能

破解AI算力瓶颈:高通量以太网ETH+协议解锁智算新动能
AI技术的爆发性增长引发了对计算能力的空前需求。这场由数据驱动的智能革命不仅为高性能计算技术的发展注入了新的活力,同时也带来了前所未有的挑战,要求算法优化、硬件升级、系统架构等多个维度都进行深度创新, ...

硅谷巨头要学会接受:「DeepSeek 现象」只是开始

硅谷巨头要学会接受:「DeepSeek 现象」只是开始
2025 年的春节无疑已被 DeepSeek 霸屏。过去三年每年的春节都有一次重磅的 AI 讨论:2023 年是 ChatGPT、2024 年是 Sora,这两股风潮都是由 OpenAI 掀起,而 2 ...

OceanBase一体化架构再升级,业内首发“共享存储”产品

OceanBase一体化架构再升级,业内首发“共享存储”产品
5月17日,OceanBase在第三届开发者大会宣布一体化架构再升级,全新推出“共享存储”产品。该产品开创性实现对象存储与事务型数据库TP)的深度集成,创新构建存算一体与分离的多云原生架构,不仅大幅提 ...
返回顶部