Genmo开源Mochi1视频生成模型:性能媲美Runway、可灵,用户免费体验

6个月前发布AI俱乐部
5 0 0
Genmo开源Mochi1视频生成模型:性能媲美Runway、可灵,用户免费体验的封面图

近日,AI 视频生成领域涌现出新秀 Genmo,其发布的 Mochi1 模型引起广泛关注,它被誉为是新一代的视频生成模型,有望显著提升生成视频的质量。Mochi1的出现,对标了当前视频生成领域的领头羊 Runway、Luma AI 的 Dream Machine,以及国内的 Moonshot 和 Minimax 的 Hailuo 等产品,备受瞩目。

该模型基于 Apache2.0 协议开源,这意味着开发者可以免费使用并进行二次开发。据了解,Mochi1 在训练过程中消耗了高达 94.99 万 GPU 小时的算力资源,展现了其强大的技术实力。

该模型已在 Hugging Face 平台上发布,供开发者体验 Mochi1 的功能。值得一提的是,为了训练这一模型,团队使用了大量的 Nvidia H100 GPU。据称,使用 Mochi1,Genmo 能够以更低的成本,在更短的时间内生成高质量的视频内容。

Mochi1 模型生成的视频效果:

根据 Genmo 官方介绍,Mochi1 旨在为用户提供更流畅的创作体验,并降低视频生成的技术门槛。Genmo 希望通过该模型,让用户能够更轻松地将创意转化为高质量的 AI 视频作品,从而比肩 Runway 和 Luna 等平台。

Mochi1 的发布是视频生成领域的一项重要进展,有望推动该领域的技术创新和应用普及。Genmo 的 CEO Paras Jain 表示,他们的目标是简化高质量视频内容创作的流程。他认为,AI 将会成为未来内容创作的关键基础设施,助力人们更便捷地表达创意。

与此同时,Genmo 宣布完成 2840 万美元的 A 轮融资,本轮融资由 NEA 领投,其他多家知名风投机构跟投。Jain 强调,视频生成不应该只局限于专业人士,而应该成为每个人都能使用的工具。

Mochi1 的核心技术在于 Genmo 自研的扩散架构(AsymmDiT),它是一种非对称的视频生成模型,相较于传统模型,其训练效率提升了近 100 倍。该架构有助于降低视频生成的计算成本,并提升生成视频的质量和速度。

Mochi1 模型生成的视频效果:

需要注意的是,Mochi1 目前生成的视频分辨率相对较低,仅支持最高 480p 的输出,这在一定程度上限制了其应用场景。Genmo 承诺将在近期推出支持 720p 分辨率的 Mochi1HD 模型,值得期待。

在线体验:https://www.genmo.ai/play

模型下载:https://huggingface.co/genmo/mochi-1-preview

核心要点:

✨ Mochi1 是 Genmo 发布的新一代视频生成模型,旨在降低高质量视频创作的门槛。

💰 Genmo 完成 2840 万美元 A 轮融资,致力于推动 AI 视频生成技术的发展。

🎬 敬请期待 Mochi1HD 版本的发布,它将突破 480p 分辨率的限制,带来更高清的视频体验。

快讯中提到的AI工具

Runway
Runway

新推出的 Gen-3 Alpha 是一个高速、高保真、可控的视频生成工具

Hugging Face
Hugging Face

机器学习和人工智能技术的平台

© 版权声明:
本文地址:https://aidh.net/kuaixun/ehaj6nsn

暂无评论

none
暂无评论...