

近日,数据智能公司Databricks推出了一种全新的大语言模型微调方法——TAO(Test-time Adaptive Optimization)。这一技术的问世为开源模型的发展带来了新的希望。通过利用无标注数据和强化学习,TAO不仅在降低企业成本方面表现出色,还在一系列基准测试中取得了令人瞩目的成绩。
据科技媒体NeoWin报道,TAO微调后的Llama3.370B模型在金融文档问答和SQL生成等任务中展现出了优于传统标注微调方法的性能,甚至逼近了OpenAI的顶级闭源模型。这一成就标志着开源模型在与商用AI产品竞争中迈出了重要一步。
TAO方法的核心在于其独特的“测试时计算”理念,能够自动探索任务的多样性,同时结合强化学习来优化模型,从而避免了传统微调所需的人工标注成本。在多项企业基准测试中,TAO微调的Llama模型表现抢眼:
- 在FinanceBench基准测试中,该模型在7200道SEC文档问答中取得了85.1的高分,超过了传统标注微调(81.1)和OpenAI的o3-mini(82.2)的成绩。
- 在BIRD-SQL测试中,TAO微调的Llama模型得分为56.1,接近GPT-4o的58.1,远超传统标注微调(54.9)。
- 在DB Enterprise Arena中,TAO模型得分为47.2,虽然略低于GPT-4o的53.8,但仍然显示了强劲的竞争力。
TAO技术为开源模型的持续进化开启了新的大门。随着用户使用量的增加,模型将通过反馈数据进行自我优化。目前,Databricks已开始在Llama模型上进行私测,企业可以通过申请参与这一创新的体验。
这一新技术的推出,不仅是开源AI领域的一次创新突破,也是对未来大语言模型发展的重要指引。随着更多企业的参与,TAO微调方法有望进一步推动开源模型的性能提升,让开源AI在商业应用中展现更大潜力。
快讯中提到的AI工具
© 版权声明:
文章版权归作者所有,未经允许请勿转载。
本文地址:https://aidh.net/kuaixun/v2al24pr暂无评论...