

2025年4月8日,英伟达发布了基于Llama-3.1-405B优化的开源模型Llama3.1Nemotron Ultra253B,该模型以253亿参数超越了Meta的Llama4Behemoth和Maverick,成为了人工智能领域的焦点。
这一模型在GPQA-Diamond、AIME2024/25以及LiveCodeBench等测试中表现出色,推理吞吐量达到了DeepSeek R1的四倍。通过优化训练和算法,英伟达证明了高效设计可以使小型模型与大型对手相媲美。
Llama3.1Nemotron Ultra253B通过HuggingFace开放了其权重,并采用商业友好的许可协议。这一举措不仅方便了开发者,也推动了人工智能技术的广泛应用和生态发展。
通过以较小参数挑战万亿级模型,该模型展示了“少即是多”的理念,可能会促使行业重新思考参数竞赛,并探索更具可持续性的人工智能发展路径。
该模型的高性能和灵活性使其适用于代码生成、科学研究等领域。随着开发者的深入使用,这一模型有望在2025年引发更大的变革。
对于开发者来说,这一模型提供了高性能、低门槛的实验平台;对企业而言,其商业许可和高效特性意味着更低的部署成本和更广泛的应用场景。无论是在代码生成、科学研究还是自然语言处理领域,这一模型的多功能性有望在多个领域带来变革。
地址:https://huggingface.co/nvidia/Llama-3_1-Nemotron-Ultra-253B-v1
快讯中提到的AI工具

DeepSeek
深度求索:引领未来人工智能技术的探索与创新
© 版权声明:
文章版权归作者所有,未经允许请勿转载。
本文地址:https://aidh.net/kuaixun/pljv2l9n暂无评论...