Gemini モデルには、OpenAI ライブラリ(Python と TypeScript / JavaScript)と REST API を使用してアクセスできます。Vertex AI の OpenAI ライブラリを使用してサポートされるのは、 Google Cloud Auth のみです。OpenAI ライブラリを使用していない場合は、Gemini API を直接呼び出すことをおすすめします。
Python
import openai from google.auth import default import google.auth.transport.requests # TODO(developer): Update and un-comment below lines # project_id = "PROJECT_ID" # location = "global" # Programmatically get an access token credentials, _ = default(scopes=["https://www.googleapis.com/auth/cloud-platform"]) credentials.refresh(google.auth.transport.requests.Request()) # OpenAI Client client = openai.OpenAI( base_url=f"https://aiplatform.googleapis.com/v1/projects/{project_id}/locations/{location}/endpoints/openapi", api_key=credentials.token ) response = client.chat.completions.create( model="google/gemini-2.0-flash-001", messages=[ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "Explain to me how AI works"} ] ) print(response.choices[0].message) 変更点
api_key=credentials.token: Google Cloud 認証を使用するには、サンプルコードを使用してGoogle Cloud 認証トークンを取得してください。base_url: OpenAI ライブラリに、デフォルトの URL ではなく Google Cloudにリクエストを送信するように指示します。model="google/gemini-2.0-flash-001": Vertex がホストするモデルから、互換性のある Gemini モデルを選択してください。
思考
Gemini 2.5 モデルは、複雑な問題を思考するようトレーニングされているため、推論が大幅に改善されています。Gemini API には、モデルの思考量をきめ細かく制御できる「思考予算」パラメータが用意されています。
Gemini API とは異なり、OpenAI API には「低」、「中」、「高」の 3 つの思考制御レベルがあり、それぞれ 1K、8K、24K の思考トークン予算にマッピングされるように内部的に設計されています。
推論能力をまったく指定しないことは、思考予算を指定しないことと同じです。
OpenAI 互換 API から思考予算やその他の思考関連の構成をより直接的に制御するには、extra_body.google.thinking_config を使用します。
Python
import openai from google.auth import default import google.auth.transport.requests # TODO(developer): Update and un-comment below lines # project_id = "PROJECT_ID" # location = "global" # # Programmatically get an access token credentials, _ = default(scopes=["https://www.googleapis.com/auth/cloud-platform"]) credentials.refresh(google.auth.transport.requests.Request()) # OpenAI Client client = openai.OpenAI( base_url=f"https://aiplatform.googleapis.com/v1/projects/{project_id}/locations/{location}/endpoints/openapi", api_key=credentials.token ) response = client.chat.completions.create( model="google/gemini-2.5-flash", reasoning_effort="low", messages=[ {"role": "system", "content": "You are a helpful assistant."}, { "role": "user", "content": "Explain to me how AI works" } ] ) print(response.choices[0].message) ストリーミング
Gemini API はストリーミング レスポンスをサポートしています。
Python
import openai from google.auth import default import google.auth.transport.requests # TODO(developer): Update and un-comment below lines # project_id = "PROJECT_ID" # location = "global" credentials, _ = default(scopes=["https://www.googleapis.com/auth/cloud-platform"]) credentials.refresh(google.auth.transport.requests.Request()) client = openai.OpenAI( base_url=f"https://aiplatform.googleapis.com/v1/projects/{project_id}/locations/{location}/endpoints/openapi", api_key=credentials.token ) response = client.chat.completions.create( model="google/gemini-2.0-flash", messages=[ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "Hello!"} ], stream=True ) for chunk in response: print(chunk.choices[0].delta) 関数呼び出し
関数呼び出しを使用すると、生成モデルから構造化データ出力を簡単に取得できます。これは Gemini API でサポートされています。
Python
import openai from google.auth import default import google.auth.transport.requests # TODO(developer): Update and un-comment below lines # project_id = "PROJECT_ID" # location = "global" credentials, _ = default(scopes=["https://www.googleapis.com/auth/cloud-platform"]) credentials.refresh(google.auth.transport.requests.Request()) client = openai.OpenAI( base_url=f"https://aiplatform.googleapis.com/v1/projects/{project_id}/locations/{location}/endpoints/openapi", api_key=credentials.token ) tools = [ { "type": "function", "function": { "name": "get_weather", "description": "Get the weather in a given location", "parameters": { "type": "object", "properties": { "location": { "type": "string", "description": "The city and state, e.g. Chicago, IL", }, "unit": {"type": "string", "enum": ["celsius", "fahrenheit"]}, }, "required": ["location"], }, } } ] messages = [{"role": "user", "content": "What's the weather like in Chicago today?"}] response = client.chat.completions.create( model="google/gemini-2.0-flash", messages=messages, tools=tools, tool_choice="auto" ) print(response) 画像理解
Gemini モデルはネイティブ マルチモーダルであり、多くの一般的なビジョンタスクでクラス最高のパフォーマンスを実現します。
Python
from google.auth import default import google.auth.transport.requests import base64 from openai import OpenAI # TODO(developer): Update and un-comment below lines # project_id = "PROJECT_ID" # location = "global" # Programmatically get an access token credentials, _ = default(scopes=["https://www.googleapis.com/auth/cloud-platform"]) credentials.refresh(google.auth.transport.requests.Request()) # OpenAI Client client = openai.OpenAI( base_url=f"https://aiplatform.googleapis.com/v1/projects/{project_id}/locations/{location}/endpoints/openapi", api_key=credentials.token, ) # Function to encode the image def encode_image(image_path): with open(image_path, "rb") as image_file: return base64.b64encode(image_file.read()).decode('utf-8') # Getting the base64 string # base64_image = encode_image("Path/to/image.jpeg") response = client.chat.completions.create( model="google/gemini-2.0-flash", messages=[ { "role": "user", "content": [ { "type": "text", "text": "What is in this image?", }, { "type": "image_url", "image_url": { "url": f"data:image/jpeg;base64,{base64_image}" }, }, ], } ], ) print(response.choices[0]) 画像を生成する
Python
from google.auth import default import google.auth.transport.requests import base64 from openai import OpenAI # TODO(developer): Update and un-comment below lines # project_id = "PROJECT_ID" # location = "global" # Programmatically get an access token credentials, _ = default(scopes=["https://www.googleapis.com/auth/cloud-platform"]) credentials.refresh(google.auth.transport.requests.Request()) # OpenAI Client client = openai.OpenAI( base_url=f"https://aiplatform.googleapis.com/v1/projects/{project_id}/locations/{location}/endpoints/openapi", api_key=credentials.token, ) # Function to encode the image def encode_image(image_path): with open(image_path, "rb") as image_file: return base64.b64encode(image_file.read()).decode('utf-8') # Getting the base64 string base64_image = encode_image("/content/wayfairsofa.jpg") response = client.chat.completions.create( model="google/gemini-2.0-flash", messages=[ { "role": "user", "content": [ { "type": "text", "text": "What is in this image?", }, { "type": "image_url", "image_url": { "url": f"data:image/jpeg;base64,{base64_image}" }, }, ], } ], ) print(response.choices[0]) 音声の理解
以下のように音声入力を分析します。
Python
from google.auth import default import google.auth.transport.requests import base64 from openai import OpenAI # TODO(developer): Update and un-comment below lines # project_id = "PROJECT_ID" # location = "global" # Programmatically get an access token credentials, _ = default(scopes=["https://www.googleapis.com/auth/cloud-platform"]) credentials.refresh(google.auth.transport.requests.Request()) # OpenAI Client client = openai.OpenAI( base_url=f"https://aiplatform.googleapis.com/v1/projects/{project_id}/locations/{location}/endpoints/openapi", api_key=credentials.token, ) with open("/path/to/your/audio/file.wav", "rb") as audio_file: base64_audio = base64.b64encode(audio_file.read()).decode('utf-8') response = client.chat.completions.create( model="gemini-2.0-flash", messages=[ { "role": "user", "content": [ { "type": "text", "text": "Transcribe this audio", }, { "type": "input_audio", "input_audio": { "data": base64_audio, "format": "wav" } } ], } ], ) print(response.choices[0].message.content) 構造化出力
Gemini モデルは、定義した構造で JSON オブジェクトを出力できます。
Python
from google.auth import default import google.auth.transport.requests from pydantic import BaseModel from openai import OpenAI # TODO(developer): Update and un-comment below lines # project_id = "PROJECT_ID" # location = "global" # Programmatically get an access token credentials, _ = default(scopes=["https://www.googleapis.com/auth/cloud-platform"]) credentials.refresh(google.auth.transport.requests.Request()) # OpenAI Client client = openai.OpenAI( base_url=f"https://aiplatform.googleapis.com/v1/projects/{project_id}/locations/{location}/endpoints/openapi", api_key=credentials.token, ) class CalendarEvent(BaseModel): name: str date: str participants: list[str] completion = client.beta.chat.completions.parse( model="google/gemini-2.0-flash", messages=[ {"role": "system", "content": "Extract the event information."}, {"role": "user", "content": "John and Susan are going to an AI conference on Friday."}, ], response_format=CalendarEvent, ) print(completion.choices[0].message.parsed) 現在の制限
アクセス トークンの有効期限はデフォルトで 1 時間です。有効期限が切れた場合は、更新する必要があります。詳細については、こちらのコード例をご覧ください。
機能サポートの拡大に伴い、OpenAI ライブラリのサポートは引き続きプレビュー版となります。ご不明な点や問題がある場合は、 Google Cloud コミュニティに投稿してください。
次のステップ
Google 生成 AI ライブラリを使用して、Gemini の潜在能力を引き出す。
OpenAI 互換の構文による Chat Completions API の使用例を確認する。
サポートされている Gemini モデルとパラメータを概要ページで確認する。