

2024年以来,各大厂商纷纷发布自家的AI大模型,其中,阿里云CEO和通义千问大模型负责人分别公布了他们在该领域的最新进展。在这些进展中,阿里云重点推出了一款名为Qwen2.5的新模型,据称这款模型在性能上已经超越了Llama405B,并实现了“可用的大模型”的目标。
Qwen2.5模型在多个关键能力上实现了显著提升,包括长文本的处理能力、代码生成能力、推理能力以及数学能力。这些能力的提升得益于数据质量的改进,以及训练数据规模的扩大,达到了4万亿token,这为模型的性能提升奠定了基础。
与此同时,阿里云还推出了升级版的对话模型Qwen-Max,其性能已经可以与GPT-4o相媲美。此外,通过阿里云App或钉钉App可以便捷地体验Qwen-Max的强大功能,从而获得更智能的办公体验。Qwen-Max在专业对话、推理创作、代码编写、论文润色以及PPT生成等方面均有出色的表现,能够满足用户多样化的需求。
为了进一步提升用户体验,阿里云还着重优化了模型的推理能力,旨在提高模型在复杂场景下的理解能力,更好地服务于专业对话、内容创作和代码编写等任务。通过持续优化阿里云App以及钉钉App的功能,用户可以更加便捷地使用推理能力和创作能力。
阿里云还在积极改进其大模型的安全性和可靠性,主要针对恶意对抗、隐私泄露、BUG修复以及内容合规等方面进行了全面的优化,致力于为用户提供更加安全可靠的服务。
值得一提的是,阿里云开源了多个不同尺寸的大模型,其中,Qwen-Turbo模型的推理成本降低了85%,而Qwen-Plus和Qwen-Max的推理成本分别降低了80%和50%,这大大降低了用户的使用门槛。目前,阿里云开源模型已经支持在5000个tokens的窗口内实现4500字的有效信息输入。
快讯中提到的AI工具
© 版权声明:
文章版权归作者所有,未经允许请勿转载。
本文地址:https://aidh.net/kuaixun/fo157ero暂无评论...