乐天发布Rakuten AI 2.0,首个日本本土大语言模型亮相

4个月前发布AI俱乐部
17 0 0
乐天发布Rakuten AI 2.0,首个日本本土大语言模型亮相的封面图

在全球范围内,许多公司都在竞相开发大型语言模型(LLM)和小型语言模型(SLM),例如乐天AI 2.0和乐天AI 2.0 mini。

这四种模型都旨在增强乐天集团的人工智能(AI)能力。Rakuten AI 2.0采用了混合专家(MoE)架构,包含8个具有70亿参数的专家模型,共同构成一个大型模型。这种架构能够在处理token时,仅激活部分专家,从而提高计算效率。通过这种方式,既能保证模型的强大性能,又能降低计算成本。从而优化推理效率。

Rakuten AI 2.0 mini则是一个更小巧、参数量约为15亿的基础语言模型,它在各种自然语言处理基准测试中表现出色,尤其擅长日语任务。这款模型在成本效益和性能之间实现了平衡,非常适合特定领域的应用。四个模型都经过精心调整和优化,能够促进AI解决方案的创新。

这些模型均采用Apache 2.0许可协议,可以在Hugging Face Hub上找到,方便研究人员和开发者访问。它们可以用于各种商业和研究目的,促进了自然语言处理领域的创新应用和发展。总之,这些模型为开发更高效、更强大的AI应用提供了坚实的基础。

乐天集团人工智能首席技术官表示:“我们很高兴能够推出这些模型,它们代表了乐天在人工智能领域的重大进展。我们相信,这些AI模型将为各种自然语言处理应用带来创新,支持全球生态系统的发展。通过构建先进的语言模型,我们致力于推动人工智能技术的发展,并为社会做出贡献。”

原始链接:https://global.rakuten.com/corp/news/press/2025/0212_02.html

总结:

⭐ 乐天发布了大型语言模型(LLM)和小型语言模型(SLM),即乐天 AI 2.0和乐天 AI 2.0 mini。

📌Rakuten AI 2.0采用了混合专家架构,具备约700亿参数的模型,从而优化了跨语言环境的自然语言处理性能。

🛠️ 这些模型已在乐天Hugging Face Hub上发布,可用于商业用途和研究,并为开发更高效的模型提供支持。

快讯中提到的AI工具

Hugging Face
Hugging Face

机器学习和人工智能技术的平台

© 版权声明:
本文地址:https://aidh.net/kuaixun/07t1g7ca

暂无评论

none
暂无评论...