谷歌 Gemini API 兼容 OpenAI,开发者无缝迁移指南

6个月前发布AI俱乐部
4 0 0
谷歌 Gemini API 兼容 OpenAI,开发者无缝迁移指南的封面图

谷歌近期宣布,Gemini API 现在可以通过熟悉的 OpenAI 界面进行访问,这意味着开发者可以使用 OpenAI 的工具和库来与 Gemini 模型互动。这一集成简化了利用 Gemini 的强大功能的过程。

要使用这一新特性,你可以像使用 OpenAI 兼容的 REST API 那样,或者通过 OpenAI 官方 SDK 进行调用。实际上,如果你已经习惯使用 OpenAI SDK(例如 Python),你可以轻松地将其指向 Google 的 Gemini API。只需进行一些配置,你就可以开始使用 Gemini 的各种功能:

from openai import OpenAI

client = OpenAI (

    apikey=”geminiapikey”,

    baseurl=”https://generativelanguage.googleapis.com/v1beta/openai/”

)

在上述代码中,关键在于配置 Gemini API 的访问权限。你需要将你的 OPENAIAPIKEY 替换为 Gemini API 的密钥。完成密钥配置后,你就可以像往常一样调用 API,例如,创建一个 Gemini 模型的聊天回复:

response = client.chat.completions.create (

    model=”gemini-1.5-flash”,

    n=1,

    messages=[

        {“role”: “system”, “content”: “你是一个有帮助的助手。”},

        {

            “role”: “user”,

            “content”: “请你解释一下 AI 是如何运作的”

        }

    ]

)

print (response.choices [0].message)

总而言之,Gemini API 模仿了 OpenAI 的标准 API,为开发者提供了便捷的迁移途径,无需大幅修改现有代码。除了聊天 API,开发者还可以利用这些接口执行文本嵌入等任务。例如,要获得特定文本的嵌入向量,可以使用以下代码:

response = client.embeddings.create (

    input=”文本的嵌入向量是什么地方”,

    model=”text-embedding-004″

)

print (response.data [0].embedding)

总之,无论是 API 调用还是嵌入生成,都可以通过熟悉的 OpenAI 接口无缝地与 Gemini 模型交互。这种集成简化了开发流程,使得开发者可以更容易地探索和利用各种模型的功能。有关详细信息,请查阅官方文档,以便更好地理解 Gemini 与 OpenAI 的兼容性以及如何优化你的应用。

在 Reddit 上,有用户指出,如果现有的 OpenAI API 密钥用于访问了一段时间的服务,则可能需要额外的步骤才能顺利连接到 Gemini。这可能需要对某些 API 设置进行调整,以确保与新的 Gemini 集成完全兼容。

除了直接使用官方 API,vLLM 框架也支持通过兼容 OpenAI 的 API 端点,从而简化模型部署过程。借助 vLLM,你可以轻松地使用 Mistral、Llama、Llava 等多种模型,并利用其强大的推理能力。

参考链接:https://developers.googleblog.com/en/gemini-is-now-accessible-from-the-openai-library/

要点总结:

✨ 通过 OpenAI 界面访问 Gemini API,简化了模型集成过程。

📚 可以使用 OpenAI 的现有代码和库,无缝切换到 Gemini API。

⚙️ vLLM 框架支持 OpenAI 兼容的 API,方便模型部署。

快讯中提到的AI工具

OpenAI
OpenAI

致力于创造对全人类有益的安全 AGI

© 版权声明:
本文地址:https://aidh.net/kuaixun/9e2afigb

暂无评论

none
暂无评论...