

最新发布的Qwen2.5-Turbo模型在性能方面实现了显著提升。它不仅具备更强的理解能力,还优化了长文本的处理能力,单次处理文本的上限达到了100万个tokens,同时成本也大幅降低,处理100万个token的价格仅为150元。
在多个关键基准测试中,该模型的性能均表现出色,在语言理解方面的准确率达到了100%,同时在RULER评估基准上获得了93.1的高分,这一成绩已经超越了GPT-4。此外,在LV-Eval和LongBench-Chat等长文本评估基准上,Qwen2.5-Turbo的表现也优于GPT-4o-mini。在专业能力方面,Qwen2.5-Turbo展现出了卓越的工具使用能力,并且能够支持高达1M tokens的上下文窗口。
Qwen2.5-Turbo模型的功能十分强大,能够胜任如复杂指令理解、高质量的内容创作、可靠的代码生成等任务,并支持多达10种编程语言的代码生成,一次性可以处理150页以上的文档内容。在实际应用中,该模型的推理成本也得到了大幅降低,每处理1M tokens的成本降至12.5%,使得平均每次对话的tokens消耗从4.9万个下降到68个,成本降幅达到了4.3%。
为了方便用户体验,阿里云推出了Qwen2.5-Turbo API,目前正处于邀测阶段,并且在特定时间内,用户可以免费体验1000万个tokens。后续如果需要更多tokens,其价格仅为0.3元。
总而言之,阿里云发布的新模型Qwen,在Llama、ChatGLM等开源模型的基础上,进一步扩展了对200多种编程语言的支持,不仅优化了模型的推理和生成能力,而且显著提升了RAG应用的性能。
快讯中提到的AI工具
© 版权声明:
文章版权归作者所有,未经允许请勿转载。
本文地址:https://aidh.net/kuaixun/q4a8rt4g暂无评论...