界面新闻记者 |
11月14日,界面新闻从多个知情人士处获悉 ,字节跳动视频生成模型PixelDance将很快在即梦AI上线,面向公众开放使用,具体的上线时间将会早于Sora正式发布的时间 。
Runway联合创始人Cristóbal Valenzuela曾在11月9日称 ,OpenAI计划在大约两周内发布Sora。Cristóbal Valenzuela曝出该消息之前,OpenAI公布了一条联合伦敦艺术家Jon Uriarte创作的短片,似乎是在为Sora的正式发布预热。
这意味着 ,PixelDance很可能会在最近几天内发布 。界面新闻向字节跳动方面求证此事,截至发稿,对方暂未回应。
字节跳动在大模型领域一直动作频频。9月24日,该公司一口气发布了豆包视频生成PixelDance 、豆包视频生成Seaweed两款大模型 ,并通过即梦AI和火山引擎面向创作者和企业客户小范围邀测 。据知情人士透露,PixelDance除了即将在即梦AI上线之外,还将于近期在豆包开启内测。
从其此前展示的视频生成效果来看 ,豆包视频生成模型无论是语义理解能力,多个主体运动的复杂交互画面,还是多镜头切换的内容一致性方面 ,都表现出不错的效果。
其中一个视频输入是,“特写⼀个⼥⼈的面部,有些⽣⽓ ,戴上了⼀副墨镜,这时⼀个男⼈从画⾯右侧⾛进来抱住了她。 ”视频画面显示,其不仅遵循了这个复杂指令 ,还能够按指令的时序去完成连续的动作,两个主体之间也能比较顺畅地进行交互,且人物表情较为准确传达了指令所描述的情绪 。
据界面新闻了解,人物动作是当下视频生成模型共同面临的挑战 ,即使是Sora在人物动作上做得也不够好。OpenAI在今年年初公布的视频样片显示,Sora还是以运镜和基础动作为主,复杂动作较差 ,但豆包视频模型生成公布的样片在动作上有了明显提升。
一位多模态大模型科学家对比PixelDance和Sora公布的样片后告诉界面新闻,如果样片效果保真的话,字节跳动的视频生成大模型确实是相当不错 。从学术角度或者模型能力角度来说 ,其肯定达到了Sora的水平,尤其在人物动作上非常棒。
火山引擎总裁谭待此前也透露,豆包视频模型经过剪映、即梦AI等业务场景的持续打磨和迭代 ,优化了Transformer结构,大幅提升了豆包视频生成的泛化能力。同时,豆包视频生成模型基于DiT架构 ,让视频在大动态与运镜中自由切换,拥有变焦、环绕 、平摇、缩放、目标跟随等多镜头语言能力 。在镜头切换时可同时保持主体 、风格、氛围的一致性是豆包视频生成模型的技术创新所在。
而从OpenAI近期公布的最新短片来看,Sora也在着重提升其在人物动作上的能力。该短片处理的是多人坐在椅子上飞行的场景,无论是照片质量还是细节处理上 ,都更接近照片的水准,人物动作也更加自然 。
若PixelDance正式面向公众开放,或意味着其在技术上已较为成熟。对于豆包视频生成模型的发布节奏 ,谭待曾透露,豆包系列大模型并不是按照某个固定的时间计划发布的,有好东西就尽快推出。
“我们的逻辑是推出的产品要质量可靠 ,有充分的用户反馈,不能是半成品 。就像视频和语言模型发布一样,不一定要抢第一 ,要推出成熟的产品。”谭待说。