

OpenAI 创始人兼首席执行官萨姆·奥特曼宣布,ChatGPT 现在可以体验到更小巧、更高效的 o3-mini 模型。目前,付费用户,包括 ChatGPT Plus 和 Pro 用户,能够率先体验“极速 o3-mini 模型”,从而更快地获得模型响应。
o3-mini 模型是 OpenAI 在不断优化人工智能模型道路上迈出的重要一步。尽管在某些方面,o3-mini 的性能不如 GPT-4-turbo,但它在特定任务上,如速度要求高的任务、需要快速迭代的任务,以及对成本敏感的应用中,表现出色。对于那些依赖模型快速响应的用户来说,例如 GPT-4-turbo,结合了经济性和高性能,为他们提供了极佳的选择。
在 2025 年 1 月 23 日,ChatGPT 发布更新公告,OpenAI 强调了其在降低推理成本方面的努力。ChatGPT 的这一举措旨在让更多的用户体验到 GPT 模型的强大功能,而 o3-mini 的推出正是为了满足对高效率和低成本需求的场景。o3-mini 在处理日常任务时表现出色,比如快速生成文本、进行对话交流以及提供即时反馈。
对于 ChatGPT Plus 用户而言,他们每月只需支付 20 美元,即可享受到 GPT-4-turbo 级别的模型性能,包括更快的处理速度、更低的延迟以及更经济的 token 消耗。这意味着,这些用户可以在不牺牲性能的前提下,更快地完成各种任务。值得一提的是,所有用户都可以体验到 o3-mini,即便并非付费用户,也能感受到其带来的便利。
OpenAI 的目标是通过不断降低成本,使人工智能技术更加普及。正如 OpenAI 所说:“极速 o3-mini 模型” 的发布是为了让更多人体验到快速模型的强大功能,同时优化了模型在不同应用场景中的表现。
总而言之,OpenAI 始终致力于提高其人工智能解决方案的可访问性。通过 o3-mini 优化了 ChatGPT,OpenAI 希望确保所有用户都能体验到既经济又高效的模型,无论其使用场景如何。在不断迭代和改进模型的同时,OpenAI 的最终目标是为各个领域的用户提供更强大、更实惠的工具。
温馨提示:
⚡️ ChatGPT 现在可以使用更小巧的模型 o3-mini,以获得更快的响应速度。
💸 付费用户可以体验极速 o3-mini 模型,从而更快地得到结果。
📊 OpenAI 致力于降低人工智能模型的运行成本,并不断优化模型性能。