搜索
当前所在位置:首页 >> 知识

【张某网红翻车转发疯传】比 Sora DiT 架构早两个月的 U

发布时间:2025-09-13 14:35:41 作者:k 点击:43 【 字体:


「Sora 出来之后,架构团队就开始连轴转,早两没休息过。个月」这是架构 AI 科技评论了解到的,目前国内诸多 AIGC 创业公司的早两现状。

Sora 的个月张某网红翻车转发疯传确让世界范围内的创业公司措手不及。随之而来的架构,有一种悲观论调和怀疑态度:创业公司和 OpenAI 拼术是早两否有意义?是否有必要做同样的事情?有多大的生存空间?

诚然,要弥合和 OpenAI 的个月差距并非易事,基于算力、架构投资等前提条件,早两 OpenAI 的个月效果自然不是短期内可以达到,但是架构也不见得到了技术层的创业公司无路可走的地步。

清华系创业团队生数科技提出的早两技术路线,和 Sora 在架构路线上完全一致,个月均是提出了将Transformer 与扩散模型融合的思路,在具体的实验路径上也一致。并且,生数科技的 U-ViT 比 OpenAI 的 DiT 早了两个月。

甚至,彼时的 CVPR2023 选择收录了U-ViT,而将 DiT 拒稿。更衣室群聊截图外泄记录全本

目前,生数科技的多模态大模型全链路均自主训练、自主研发,是全球首个将Transformer架构引入扩散模型的骨干网络。在文生图、文生视频、文生3D、图生3D等多项任务中已经初见成效。

近来,也完成了由启明创投领投,达泰资本、鸿福厚德、智谱AI、老股东BV百度风投和卓源亚洲跟投的数亿元融资,是目前国内多模态大模型赛道的最高融资额。

生数科技 CEO 唐家渝表示,面对国内多模态大模型的竞争,生数科技会承担引领国内底层技术创新的角色。

即使在 Sora 的笼罩下,国内的多模态大模型也不无机会。


全栈自研的 MaaS

2023年3月,团队开源了全球首个基于Diffusion Transformer架构(U-ViT)的多模态扩散大模型 UniDiffuser,在参数量和训练数据规模上,与Stable Diffusion直接对齐。在架构上,UniDiffuser 比最近才采用 DiT 架构的 Stable Diffsion 3 领先了一年。

除了单向的文生图以外,Unidiffuser支持更通用的图文任务,能够实现图生文、图文联合生成、图文改写等多种功能。

在统一化架构的思路下,生数科技持续 Scale up。在图文模型的训练中,参数量从最早开源版的1B不断扩展至3B、7B、10B及以上。同时在此基础上,通过拓展空间维度和时间维度,逐步实现 3D 生成与视频生成。同时面向应用层推出了视觉创意设计平台PixWeaver与3D 资产创建工具 VoxCraft。

PixWeaver是一款自动化的视觉创作工具,支持AI生图、AI生视频功能,中英文输入、秒级生成,融合多元风格,具备出色的语义理解和丰富的画面表现。(体验地址:https://pw.shengshu-ai.com/,目前AI视频功能由于新版本迭代暂关闭试用)

在图像生成方面,支持高质量的文生图,在画面联想丰富度、美观性等方面优于业内同类模型。


比 Sora DiT 架构早两个月的 U-ViT,由这家中国 AIGC 公司提出

并且,其语义理解能力尤其突出。

比 Sora DiT 架构早两个月的 U-ViT,由这家中国 AIGC 公司提出

(描述词:公园里的竹林里挂着红色灯笼,旁边盛开着粉红色的梅花,远处是一座亭台楼阁,夕阳洒在蜿蜒的公园小路呈现出温暖的感觉,宝丽来照片风格,真实摄影)

比 Sora DiT 架构早两个月的 U-ViT,由这家中国 AIGC 公司提出

在3D 生成方面,VoxCraft可实现高精度与最快10秒级的模型生成。

比 Sora DiT 架构早两个月的 U-ViT,由这家中国 AIGC 公司提出

并推出全球首个4D动画生成,基于视频和描述词,输出逐帧的运动3D动画,自动绑定骨骼动作,支持360°全景视角。

此外,该模型还可以通过文本对话或手动调参的方式灵活编辑3D场景,包括添加物体、删除物体等,可实时查看变化。

VoxCraft 相较于同类型的3D资产创建的自动化工具,核心优势在于:

精度高:贴图分辨率可达到2048*2048,几何结构的规整度高,色彩与材质质感真实度高;

速度快:在单卡设备上,单个3D模型生成最快可在数分钟内生成;

可用性强:支持Mesh的同步生成,支持高模、低模的定制,可直接对接工业管线;

丰富度高:覆盖资产类型多,通用性强,支持文本或图像引导。


最接近 Sora 技术架构的中国团队

从技术架构来看,生数科技是最接近于 Sora 的中国团队。

OpenAI推出的Sora模型,其核心技术点之一,是将视觉数据转化为Patch的统一表示形式,并通过Transformer和扩散模型结合,展现了卓越的scale特性。无独有偶,最近发布的Stable Diffusion 3采用了同样的架构。

Transformer架构被熟知应用于大语言模型,该架构的优势在于scale特性,参数量越大,效果越好;而在传统视觉任务(图像和视频生成)中,业内普遍采用常规的卷积路线的扩散模型(基于SD开源的思路),该路线能实现一定的效果,但扩展性不好。DiT将Transformer架构与扩散模型融合,把大语言模型的扩展性、涌现性复制到了视觉任务上。

其实早在2022年9月,生数科技团队早期成员就提交了一篇名为《All are Worth Words: A ViT Backbone for Diffusion Model》的论文,这篇论文提出了基于transformer的网络架构U-ViT。

对比来看,两项工作采用了相同的patch embedding、patch size,都得出了同样的结论patch size为2*2是最理想的,在模型参数量上两者都在50M-500M左右的参数量上做了实验,最终都证实了scale特性。

不过DiT仅在ImageNet上做了实验,U-ViT在小数据集(CIFAR10、CelebA)、ImageNet、图文数据集MSCOCO均做了实验。此外,相比传统的 Transformer,U-ViT提出了一项“长连接”的技术,大大提升了训练收敛速度。

但U-ViT同样展示了在视觉任务下的优异能力,与当时同阶段的SD1.5 比较,Unidiffuser效果是基本持平的。更重要是,Unidifuser扩展性更强,能基于一个底层模型完成图文之间的任意生成。

生数团队的几位核心成员近几年于ICML、NeurIPS、ICLR 等人工智能顶会发表相关论文近30篇,是现阶段在该领域发表论文成果数最多的国内团队。

抱持着底层算法原始创新、从零开始自主训练的态度,生数科技团队也形成了多项能与其他公司拉开差距的技术成果。

无训练推理框架Analytic-DPM

扩散模型的一大局限是计算速度缓慢,研究加速算法是提升扩散模型应用效果的难点。

2022年,团队核心成员提出了一种无训练推理框架:Analytic-DPM,使用蒙特卡洛方法和预训练的基于得分模型来估计方差和 KL 散度的分析形式。该方法可以在无需额外训练的情况下,直接估计得到最优方差,该成果在理论贡献方面具有重要意义。

另外从应用效果看,免训练推理框架的提出大大加速了模型的采样效率,经对比,Analytic-DPM经过 50 步采样的效果优于 DDPM 采样 1000 步的效果,加速了近 20 倍。

该论文被评选为ICLR2022杰出论文,也是该会议首篇由中国大陆单位独立完成的获奖论文,此外该成果也被OpenAI 应用于 DALL·E2 模型处理方差的策略中。

多模态基础大模型 UniDiffuser

2023年3月,团队开源国内首个基于Transformer的多模态扩散大模型UniDiffuser,采用了基于transformer的网络架构U-ViT,在开源的大规模图文数据集LAION-5B上训练了一个十亿参数量的模型,实现基于一个底层模型能够高质量地完成多种生成任务。雷峰网(公众号:雷峰网)雷峰网雷峰网

除了单向的文生图,还能实现图生文、图文联合生成、无条件图文生成、图文改写等多种功能,能够实现任意模态之间的转化,大幅提升文图内容的生产效率,也进一步提升了生成式模型的应用想象力。

更值得一提的是,从技术路线看,生数科技是国内唯一的原生多模态大模型厂商,原生多模态是基于通用的融合架构对文本、图像、视频等多模态数据进行统一范式的训练,简单类比就是基于一个底层架构实现“GPT4+DALLE3+GPT4V”的统一,而不是通过接口调用不同的模型。生数科技坚持融合架构的原生路线,致力于提升对开放域下复杂交互场景的信息生成能力。

本文作者长期关注 AIGC 落地应用、大模型和数字人领域,欢迎添加微信:s1060788086,交流认知,互通有无。


雷峰网原创文章,未经授权禁止转载。详情见转载须知。

比 Sora DiT 架构早两个月的 U-ViT,由这家中国 AIGC 公司提出

阅读全文
相关推荐

董军同美国国防部长影片通话

董军同美国国防部长影片通话
新华社北京9月10日电记者梅常伟)国防部长董军9日晚应约同美国国防部长赫格塞思影片通话。董军说,要秉持开放态度,保持沟通交往,构建平等尊重、和平共处、稳定正向的两军关系。要尊重彼此核心利益。任何“以武 ...

于朦胧维基百科更新为逝世

于朦胧维基百科更新为逝世
来源:中国蓝新闻9月11日,演员于朦胧被爆在北京坠楼,目前于朦胧方无回应。#物业确认有人坠楼不确定是明星#记者发现,于朦胧的维基百科信息已经更新为2025年逝世。 ...

媒体:武大杨某媛论文下架后再上架,知网应公开说明

媒体:武大杨某媛论文下架后再上架,知网应公开说明
今年7月底以来,武汉大学图书馆事件当事人杨某媛的硕士学位论文一直是舆论场关注的焦点。目前,该论文在中国知网下载量已超过31万次以上,在文献来源为“武汉大学”的论文中高居第一。9月10日,这篇论文却在中 ...

国防部:日本加速军事扩张意欲何为?

国防部:日本加速军事扩张意欲何为?
据报道,日本防卫省公布预算草案显示,2026财年日防卫预算达8.85万亿日元,创历史新高。国防部新闻发言人今天表示,日本加速军事扩张,增长远超“专守防卫”所需的军力,包括进攻性武器装备,不禁让全世界爱 ...

超 1.2 万人参加 CVPR 2024,谷歌研究院获得最佳论文

超 1.2 万人参加 CVPR 2024,谷歌研究院获得最佳论文
作者:赖文昕 马蕊蕾编辑:陈彩娴北京时间今天凌晨,美国西雅图正在召开的计算机视觉盛会 CVPR 2024 正式公布了最佳论文等奖项。今年共有 2 篇论文获得了这份全球最重要的计算机视觉领域的大奖,团队 ...

大模型热度退潮,真正的技术创新者开始被「看见」

大模型热度退潮,真正的技术创新者开始被「看见」
“过去两年中国的大模型投资并不是投技术,而是套着投技术的壳投商业模式。硅谷的投资人投 OpenAI 是投技术。”一位投资人对 AI 科技评论表示。商业模式驱动的投资核心是可预见的数字增长,而技术投资则 ...

阿里云为什么要押注 Coding AI

阿里云为什么要押注 Coding AI
7 月 23 日凌晨,阿里云一次看似平淡的模型开源操作,却迅速引爆了市场情绪。这次发布的模型名为 Qwen3-Coder,由阿里通义实验室推出,是一款全新的开源代码大模型。一经上线,便迅速在 Hugg ...

阿里云为什么要押注 Coding AI

阿里云为什么要押注 Coding AI
7 月 23 日凌晨,阿里云一次看似平淡的模型开源操作,却迅速引爆了市场情绪。这次发布的模型名为 Qwen3-Coder,由阿里通义实验室推出,是一款全新的开源代码大模型。一经上线,便迅速在 Hugg ...

Fellows Fund 创始人 Alex Ren :硅谷视角下的 AI 价值创造丨GAIR 2023

Fellows Fund 创始人 Alex Ren :硅谷视角下的 AI 价值创造丨GAIR 2023
2023 年 8 月 14 日,由 GAIR 研究院、雷峰网(公众号:雷峰网)、世界科技出版社、科特勒咨询集团联合主办的第七届 GAIR 全球人工智能与机器人大会在新加坡乌节大酒店拉开帷幕。在 AI ...

上海AI Lab庞江淼:开放平台是具身智能“ChatGPT时刻”的前提丨具身先锋十人谈

上海AI Lab庞江淼:开放平台是具身智能“ChatGPT时刻”的前提丨具身先锋十人谈
置身机器人这样的大热赛道,明星研究员总被如此之多的目光注视着。但关于庞江淼,网络查到的信息寥寥。为数不多的内容是,聚焦计算机视觉,浙江大学博士,香港中文大学MMLab研究员,接下来一份经历就是现在了— ...

WAIC 2025 主论坛演讲 | MiniMax 创始人闫俊杰:每个人的 AI

WAIC 2025 主论坛演讲 | MiniMax 创始人闫俊杰:每个人的 AI
2025世界人工智能大会WAIC)于今日在上海开幕。作为全球人工智能领域的顶级盛会,本届大会以“智能时代 同球共济”为主题,汇聚全球智慧,展现中国方案。活动首日,MiniMax创始人、CEO闫俊杰先生 ...

微软人工智能公开课概览

微软人工智能公开课概览
人工智能无疑是当前最为热门的科技概念。作为科技界的领军企业,微软在人工智能领域耕耘已久。早在25年前微软研究院建立时,人工智能就已经成为整个微软的战略目标。微软为此倾注了许多精力和资源,并取得了亮眼的 ...
返回顶部