2024Week07:计算机行业快报:OpenAI重磅发布Sora,视频生成领域的里程碑

2月16日,OpenAI重磅发布文生视频模型Sora,Sora在视频时长与视觉效果等方面相较于Pika、Runway等主流文生视频工具有了极大幅度的提升。具体来看,Sora生成的视频具有超长时长、世界模型、多镜头切换的三大特性:   1)超长时长:Sora可生成长达一分钟的高清视频,而此前Pika、Runway等模型生成的视频时长仅在20s以内,在视频时长大幅提升的同时,视频具有连贯性,即使人物和其他场景元素被暂时遮挡或离开视野,仍能保持一致性;   2)世界模型:Sora不仅能够深入理解用户提示,还学会了物理世界的部分规律,比如一个人吃汉堡后会留下咬痕、火车车窗上会产生逼真的倒影,而Runway等模型的拟真程度则相对较弱;   

3)多镜头切换:Sora可在单个视频中设计出多个镜头,并且能在多角度的镜头切换中,实现角色和视觉风格的一致性,而Runway等绝大部分模型只能生成单镜头视频。   

相较于此前的视频生成模型,Sora在底层模型和算法上的创新点主要体现在以下三个方面:   

1)采用Transformer架构的扩散模型:不同于RunwayGen1、StableVideoDiffusion等扩散模型主要采用经典的U-Net架构,Sora用Transformer架构替换U-Net架构,大幅提升模型扩展性;   

2)训练视频数据保持原始大小:不同于其他视频生成模型通常预先将视频调整、裁剪或修剪为标准大小,例如裁剪为分辨率为256×256的4s视频,Sora在原始大小的数据上进行训练,一方面数据采样更灵活,可以对宽屏1920×1080p视频、垂直1080×1920视频以及介于两者之间的所有视频进行采样,这使Sora可以直接以原始宽高比为不同设备创建内容,另一方面可以改善构图和取景,在经过方形裁剪后的视频上训练的模型有时主体仅部分可见,而Sora生成的视频取景得到了明显改善;   

3)为训练视频生成详细的文字描述:其他文生视频模型通常在大型文本-视频对数据集上进行训练,而Sora采用了DALL·E3和GPT的研究成果,通过为视频训练数据生成或补充详细的字幕描述,提升训练效果,使模型预测更准确。   

目前Sora仍存在一定局限性,包括无法模拟复杂场景的物理特性、难以理解特定场景下的因果关系、误解用户提示中的空间细节信息,有待于后续的进一步完善和提升。目前Sora模型已向部分专家开放,以评估潜在的风险,同时也正在向部分设计师、电影制作人、视觉艺术家等授予访问权限,以获得使用反馈。

2024Week07:计算机行业快报:OpenAI重磅发布Sora,视频生成领域的里程碑-四海认知
2024Week07:计算机行业快报:OpenAI重磅发布Sora,视频生成领域的里程碑
此内容为付费资源,请付费后查看
6积分
知识免费:免登录即可查看本站所有文档内容,包括付费下载的文档内容; 文档下载:注册登录签到、评论、发帖等即可免费获得积分用于下载文档;或下方直接打赏作者单独发送;VIP会员免费下载; 付费下载:可编辑的PPT等office文档,用于提升工作效率;点击购买支付后直接下载文档;VIP会员可免费下载;
付费资源
© 版权声明
THE END
如本文“对您有用”,欢迎随意打赏作者!
点赞9打赏作者 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容