“值得一提的是,Vidu采用的是‘一步到位’的生成方式。”朱军表示,与Sora一样,文本到视频的转换是直接且连续的,在底层算法实现上是基于单一模型完全端到端生成,不涉及中间的插帧和其他多步骤的处理。
在当天的论坛上,清华大学教授、生数科技首席科学家朱军表示,与Sora一致,Vidu能够根据提供的文本描述直接生成长达16秒的高质量视频。除了在时长方面的突破外,Vidu在视频效果方面实现显著提升,主要体现在模拟真实物理世界、多镜头语言、时空一致性高、理解中国元素等方面。
“Vidu的命名不仅谐音‘Vedio’,也蕴含‘We do’的寓意。”朱军表示,模型的突破是一个多维度、跨领域的综合性过程,需要技术与产业应用的深度融合,希望与产业链上下游企业、研究机构加强合作,共同推动视频大模型进展。(完)
该模型采用团队原创的Diffusion与Transformer融合的架构U-ViT,支持一键生成长达16秒、分辨率高达1080P的高清视频内容。
据介绍,Vidu不仅能够模拟真实物理世界,还拥有丰富想象力,具备多镜头生成、时空一致性高等特点。Vidu是自Sora发布之后全球率先取得重大突破的视频大模型,性能全面对标国际顶尖水平,并在加速迭代提升中。
tickle游戏网入口中新社北京4月27日电(记者 陈溯)在2024中关村论坛年会未来人工智能先锋论坛上,清华大学联合生数科技27日正式发布中国首个长时长、高一致性、高动态性视频大模型——Vidu。
自今年2月Sora发布推出后,团队基于对U-ViT架构的深入理解以及长期积累的工程与数据经验,在短短两个月进一步突破长视频表示与处理关键技术,研发推出Vidu视频大模型,显著提升视频的连贯性与动态性。
朱军表示,Vidu的快速突破源自于团队在贝叶斯机器学习和多模态大模型的长期积累和多项原创性成果。其核心技术U-ViT架构由团队于2022年9月提出,早于Sora采用的DiT架构,是全球首个Diffusion与Transformer融合的架构,完全由团队自主研发。
网友评论更多
86开远d
台湾陆战队员当街遭12车围堵,被枪杀🈹🈺
2025-05-29 19:35:05 推荐
187****4009 回复 184****3761:从外语看美军战备:粤语闽南语发万元补贴 新增维吾尔语🉐来自蒙自
187****3966 回复 184****8205:蛟龙突击队反恐演练:四目夜视仪+飞行头盔亮眼🉑来自弥勒
157****9769:按最下面的历史版本🌀🌁来自景洪
53文山564
也算大国工匠精神吧:这个国家用30年手机打造一款精品战斗机!🌂🌃
2025-05-28 09:55:15 推荐
永久VIP:美军反舰导弹序列选型结束 中国需要跟进吗?🌄来自香格里拉
158****6627:篮坛第一女神曾与王治郅传过绯闻 年近40岁仍没嫁人🌅来自腾冲
158****6886 回复 666🌆:健身女神太过豪放引争议🌇来自水富
21澄江xj
朱婷强敌出现!21岁天才惊艳世界 新得分狂人横空出世🌈🌉
2025-05-29 04:31:13 不推荐
泸水tj:藏不住笑!国足复仇泰国 里皮表情亮了🌊
186****8224 回复 159****1565:跳水群星现身知音号 郭晶晶盛装出席🌋