Bots mit der Vertex AI Agent Engine entwickeln und bereitstellen
Auf dieser Seite wird gezeigt, wie Sie mit den folgenden Agent-Frameworks einen Agenten erstellen und bereitstellen, der den Wechselkurs zwischen zwei Währungen an einem bestimmten Datum zurückgibt:
Agent Development Kit (ADK) (Vorabversion)
LlamaIndex-Abfragepipeline (Vorabversion)
Hinweise
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Vertex AI and Cloud Storage APIs.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Vertex AI and Cloud Storage APIs.
Bitten Sie Ihren Administrator, Ihnen die folgenden IAM-Rollen für Ihr Projekt zuzuweisen, um die Berechtigungen zu erhalten, die Sie zur Verwendung der Vertex AI-Agent Engine benötigen:
-
Vertex AI-Nutzer (
roles/aiplatform.user
) -
Storage-Administrator (
roles/storage.admin
)
Weitere Informationen zum Zuweisen von Rollen finden Sie unter Zugriff auf Projekte, Ordner und Organisationen verwalten.
Sie können die erforderlichen Berechtigungen auch über benutzerdefinierte Rollen oder andere vordefinierte Rollen erhalten.
Vertex AI SDK für Python installieren und initialisieren
Führen Sie den folgenden Befehl aus, um das Vertex AI SDK for Python und andere erforderliche Pakete zu installieren:
ADK
pip install --upgrade --quiet google-cloud-aiplatform[agent_engines,adk]
LangGraph
pip install --upgrade --quiet google-cloud-aiplatform[agent_engines,langchain]
LangChain
pip install --upgrade --quiet google-cloud-aiplatform[agent_engines,langchain]
AG2
pip install --upgrade --quiet google-cloud-aiplatform[agent_engines,ag2]
LlamaIndex
pip install --upgrade --quiet google-cloud-aiplatform[agent_engines,llama_index]
Als Nutzer authentifizieren
Colab
Führen Sie den folgenden Code aus:
from google.colab import auth auth.authenticate_user(project_id="PROJECT_ID")
Cloud Shell
Es sind keine weiteren Schritte erforderlich.
Lokale Shell
Führen Sie dazu diesen Befehl aus:
gcloud auth application-default login
Führen Sie den folgenden Code aus, um die Vertex AI-Agent-Engine zu importieren und das SDK zu initialisieren:
import vertexai from vertexai import agent_engines vertexai.init( project="PROJECT_ID", # Your project ID. location="LOCATION", # Your cloud region. staging_bucket="gs://BUCKET_NAME", # Your staging bucket. )
Agent entwickeln
Entwickeln Sie zuerst ein Tool:
def get_exchange_rate(
currency_from: str = "USD",
currency_to: str = "EUR",
currency_date: str = "latest",
):
"""Retrieves the exchange rate between two currencies on a specified date."""
import requests
response = requests.get(
f"https://api.frankfurter.app/{currency_date}",
params={"from": currency_from, "to": currency_to},
)
return response.json()
Als Nächstes instanziieren Sie einen Agenten:
ADK
from google.adk.agents import Agent
from vertexai.preview.reasoning_engines import AdkApp
agent = Agent(
model="gemini-2.0-flash",
name='currency_exchange_agent',
tools=[get_exchange_rate],
)
app = AdkApp(agent=agent)
LangGraph
from vertexai import agent_engines
agent = agent_engines.LanggraphAgent(
model="gemini-2.0-flash",
tools=[get_exchange_rate],
model_kwargs={
"temperature": 0.28,
"max_output_tokens": 1000,
"top_p": 0.95,
},
)
LangChain
from vertexai import agent_engines
agent = agent_engines.LangchainAgent(
model="gemini-2.0-flash",
tools=[get_exchange_rate],
model_kwargs={
"temperature": 0.28,
"max_output_tokens": 1000,
"top_p": 0.95,
},
)
AG2
from vertexai import agent_engines
agent = agent_engines.AG2Agent(
model="gemini-2.0-flash",
runnable_name="Get Exchange Rate Agent",
tools=[get_exchange_rate],
)
LlamaIndex
from vertexai.preview import reasoning_engines
def runnable_with_tools_builder(model, runnable_kwargs=None, **kwargs):
from llama_index.core.query_pipeline import QueryPipeline
from llama_index.core.tools import FunctionTool
from llama_index.core.agent import ReActAgent
llama_index_tools = []
for tool in runnable_kwargs.get("tools"):
llama_index_tools.append(FunctionTool.from_defaults(tool))
agent = ReActAgent.from_tools(llama_index_tools, llm=model, verbose=True)
return QueryPipeline(modules = {"agent": agent})
agent = reasoning_engines.LlamaIndexQueryPipelineAgent(
model="gemini-2.0-flash",
runnable_kwargs={"tools": [get_exchange_rate]},
runnable_builder=runnable_with_tools_builder,
)
Testen Sie den Agenten abschließend lokal:
ADK
for event in app.stream_query(
user_id="USER_ID",
message="What is the exchange rate from US dollars to SEK today?",
):
print(event)
Dabei ist USER_ID eine benutzerdefinierte ID mit einer Zeichenbeschränkung von 128.
LangGraph
agent.query(input={"messages": [
("user", "What is the exchange rate from US dollars to SEK today?"),
]})
LangChain
agent.query(
input="What is the exchange rate from US dollars to SEK today?"
)
AG2
agent.query(
input="What is the exchange rate from US dollars to SEK today?"
)
LlamaIndex
agent.query(
input="What is the exchange rate from US dollars to SEK today?"
)
Agent bereitstellen
So stellen Sie den Agenten bereit:
ADK
from vertexai import agent_engines
remote_agent = agent_engines.create(
app,
requirements=["google-cloud-aiplatform[agent_engines,adk]"],
)
LangGraph
from vertexai import agent_engines
remote_agent = agent_engines.create(
agent,
requirements=["google-cloud-aiplatform[agent_engines,langchain]"],
)
LangChain
from vertexai import agent_engines
remote_agent = agent_engines.create(
agent,
requirements=["google-cloud-aiplatform[agent_engines,langchain]"],
)
AG2
from vertexai import agent_engines
remote_agent = agent_engines.create(
agent,
requirements=["google-cloud-aiplatform[agent_engines,ag2]"],
)
LlamaIndex
from vertexai import agent_engines
remote_agent = agent_engines.create(
agent,
requirements=["google-cloud-aiplatform[agent_engines,llama_index]"],
)
Dadurch wird eine reasoningEngine
-Ressource in Vertex AI erstellt.
Kundenservicemitarbeiter verwenden
Testen Sie den bereitgestellten Agenten, indem Sie eine Anfrage senden:
ADK
for event in remote_agent.stream_query(
user_id="USER_ID",
message="What is the exchange rate from US dollars to SEK today?",
):
print(event)
LangGraph
remote_agent.query(input={"messages": [
("user", "What is the exchange rate from US dollars to SEK today?"),
]})
LangChain
remote_agent.query(
input="What is the exchange rate from US dollars to SEK today?"
)
AG2
remote_agent.query(
input="What is the exchange rate from US dollars to SEK today?"
)
LlamaIndex
remote_agent.query(
input="What is the exchange rate from US dollars to SEK today?"
)
Bereinigen
Mit den folgenden Schritten vermeiden Sie, dass Ihrem Google Cloud -Konto die in dieser Anleitung verwendeten Ressourcen in Rechnung gestellt werden:
remote_agent.delete(force=True)