OpenAI推出GPT-4o模型微调功能,每日免费赠送100万Tokens!

7个月前发布AI俱乐部
3 0 0
OpenAI推出GPT-4o模型微调功能,每日免费赠送100万Tokens!的封面图

OpenAI推出了一项新功能,即允许用户通过微调来定制和优化大型语言模型 GPT-4o。这项创新服务旨在使模型更适合特定用途,从而提升其性能,并能更好地适应各种独特的应用场景。

具体来说,这项功能允许用户上传自己的数据集,从而使模型能够学习和适应这些数据。值得注意的是,OpenAI 提供的微调基础模型版本为 “gpt-4o-2024-08-06”。这个版本的模型包含了最新的技术,并经过优化,可以更好地处理各种任务,为用户提供更高效的服务。

链接:https://platform.openai.com/finetune

9月23日更新,每次训练消耗100万Token

OpenAI近日宣布了一项重要的更新:自2024年9月23日起,对用于微调模型的Token消耗量进行了调整,每次训练将消耗高达100万个Token。Token是模型处理文本的基本单位,这一调整将直接影响微调的成本。Token的消耗量取决于训练数据集的大小以及训练的迭代次数,因此,用户需要仔细规划他们的训练策略,以便有效地利用可用的Token资源。

简单来说,目前使用GPT-4o模型训练需要消耗100万 Tokens的成本,如果使用该模型的微调功能,那么训练模型的单价是消耗100万Token是25美金,而输入 Token 则需要每100万个15美金。

除了针对最新的 GPT-4o mini 模型,OpenAI 还允许用户使用 200k Tokens 的训练数据集,以便适用于更专业的使用场景。与此同时,如果用户不选择 OpenAI 提供的模型,还可以使用如 Anthropic 等其他公司的模型,或者选择由 Nous Research 提供的 Hermes3 等开源模型。

总而言之,OpenAI 此次更新旨在帮助用户更好地利用大型语言模型,从而在各种实际应用中提高效率并降低成本。通过微调模型,用户可以使其更好地适应特定任务,并获得更出色的性能。同时,合理利用 Token 资源对于优化训练成本至关重要。

性能亮点

在众多性能亮点中,值得一提的是,在 Cosine AI 平台上,OpenAI 能够将 SWE-bench 测试的准确率提升至 43.8%。

此外,在 Distyl AI 的代码生成任务中,OpenAI 还成功地将 GPT-4o 在 BIRD-SQL 基准测试中的准确率提高到 71.83%。这些数据充分证明了 OpenAI 在语言模型微调和性能优化方面的卓越能力。

OpenAI 正在不断推进人工智能技术的发展,其最新的模型和微调功能将为各行各业带来更多创新和进步。通过不断优化模型,OpenAI 致力于为用户提供更高效、更智能的解决方案,从而推动人工智能技术的广泛应用。

要点总结: 

模型重点 :OpenAI 发布 GPT-4o 模型微调功能,旨在让模型更好地适应特定任务并优化性能。

💸 消耗 Tokens 注意 :微调需要训练一定数量的 Tokens,合理规划训练策略至关重要。

✉️ 数据隐私保障 :OpenAI 注重数据安全和隐私,确保模型训练过程中的数据安全。

快讯中提到的AI工具

GPT-4o mini
GPT-4o mini

OpenAI 推出的最新小型模型

GPT-4o
GPT-4o

OpenAI 最新的旗舰模型

GPT-4
GPT-4

OpenAI 发布的最新一代语言模型

OpenAI
OpenAI

致力于创造对全人类有益的安全 AGI

© 版权声明:
本文地址:https://aidh.net/kuaixun/1l84p2om

暂无评论

none
暂无评论...