阿里全新开源文生视频模型万相2.1:推出14B与1.3B双版本

2周前发布AI俱乐部
2 0 0
阿里全新开源文生视频模型万相2.1:推出14B与1.3B双版本的封面图

该模型参数量达140亿,拥有2.1亿参数,其中140亿参数的模型效果优于130亿参数模型。

模型在Wan2.1数据集上取得了优异成绩,其在VBench基准测试中得分高达86.22%,显著超过了Sora、Minimax和Luma等其他模型,展现出其强大的生成能力。

该模型支持1.3B参数,生成的480P视频流畅度高,清晰度佳,细节丰富,画面质量显著提升,并且能够快速生成。

此外,该模型还兼容多种视频生成任务,例如视频超分辨率、视频风格转换和视频修复等,在各个方面均表现出色,为用户提供高效便捷的视频生成服务。

在VBench基准测试中,该模型的性能超越了86.22%,优于Sora、Minimax和Luma等先进模型,体现了其在视频生成领域的领先地位。

该模型采用DiT和Flow Matching技术,有效提升了视频生成质量和效率,并通过3D VAE技术进行视频编码,实现256分辨率的高清视频生成,细节清晰,色彩鲜艳,纹理自然。

模型采用全注意力机制,有效提升了视频生成质量,降低了计算复杂度,并且减少了内存占用,提高了生成效率,最终生成的视频质量更高,效率更快。

该模型已在GitHub和Hugging Face平台开源,用户可便捷获取和使用,进一步推动视频生成技术的发展,为广大开发者提供更优质的工具,创造更丰富的内容。

模型参数量为2.1亿,已在GitHub和Hugging Face平台开源,方便用户下载和使用,并持续更新,为用户提供更好的体验。

主要特点:

该模型参数量为2.1亿,性能优异,生成视频质量高。

在VBench基准测试中,该模型得分高达86.22%,表现出色。

该模型高效且稳定,能快速生成高质量的视频,并支持多种视频生成任务。

快讯中提到的AI工具

Hugging Face
Hugging Face

机器学习和人工智能技术的平台

Sora
Sora

OpenAI 开发的文本到视频生成模型

© 版权声明:
本文地址:https://aidh.net/kuaixun/sl0kashf

暂无评论

none
暂无评论...