AI热点 3小时前 190 阅读 0 评论

阿里发布通义 Wan2.2-I2V-Flash 模型:推理速度比 Wan2.1 提升 12 倍,图生视频更轻快

作者头像
AI中国

AI技术专栏作家 | 发布了 246 篇文章

IT之家 8 月 11 日消息,阿里通义大模型今天宣布,Wan2.2-I2V-Flash 模型正式上线,其在将电影级视觉呈现装进模型的同时,生成速度和性价比也实现全面跃升。

IT之家从官方介绍获悉,Wan2.2-I2V-Flash 相比 Wan2.1 的推理速度提升 12 倍,且指令遵循能力大幅提升,各种特效提示词直出,且能精准控制运镜。同时,其对各类风格话图像也都能稳定保持风格,并实现合理、自然的动态效果。此外,其价格为 0.1 元 / 秒,抽卡成功率相比 Wan2.1 提升 123%。目前,该模型可在阿里云百炼通过调用 API 来进行体验。

不久前的 7 月 28 日,阿里开源通义万相 Wan2.2,包含文生视频(Wan2.2-T2V-A14B)、图生视频(Wan2.2-I2V-A14B)和统一视频生成(Wan2.2-IT2V-5B)三款模型,其中文生视频模型和图生视频模型均为业界首个使用 MoE 架构的视频生成模型,总参数量为 27B,激活参数 14B;同时,首创电影美学控制系统,光影、色彩、构图、微表情等能力媲美专业电影水平。

相关阅读:

  • 《阿里巴巴开源视频生成模型通义万相 Wan2.2,首创电影美学控制系统》

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!