Como levar agentes de IA para produção com a API Gemini
Vishal Dharmadhikari
Engenheiro de soluções de produtos
Paige Bailey
Engenheiro de experiência do desenvolvedor de IA
Adam Silverman
COO, IA da agência
Criar e implantar agentes de IA é uma fronteira interessante, mas gerenciar esses sistemas complexos em um ambiente de produção exige uma capacidade de observação robusta. O AgentOps, um SDK do Python para monitoramento de agentes, rastreamento de custos de LLM, comparativos de mercado e muito mais, permite que os desenvolvedores levem os agentes do protótipo à produção, especialmente quando combinado com a potência e a relação custo-benefício da API Gemini.
A vantagem do Gemini
Adam Silverman, COO da Agency AI, a equipe por trás do AgentOps, explica que o custo é um fator crítico para as empresas que implantam agentes de IA em grande escala. "Vimos empresas gastarem US $80.000 por mês em chamadas de LLM. Com o Gemini 1.5, isso teria custado alguns milhares de dólares pela mesma saída".
Essa eficiência de custo, combinada com os recursos avançados de compreensão e geração de linguagem do Gemini, o torna uma opção ideal para desenvolvedores que criam agentes de IA sofisticados. "O Gemini 1.5 Flash oferece qualidade comparável a modelos maiores, com uma fração do custo e uma velocidade incrível", diz Silverman. Isso permite que os desenvolvedores se concentrem na criação de fluxos de trabalho de agentes complexos e com várias etapas sem se preocupar com custos excessivos.
"Já vimos execuções de agentes individuais com outros provedores de LLM custarem mais de US $500 por execução. Essas mesmas execuções com o Gemini (1.5 Flash-8B) custam menos de US $50."
— Adam Silverman, COO, Agency AI
Como ativar agentes de IA
O AgentOps captura dados de todas as interações de agentes, não apenas chamadas de LLM, oferecendo uma visão abrangente de como os sistemas multiagentes operam. Esse nível granular de detalhes é essencial para as equipes de engenharia e compliance, oferecendo insights cruciais para depuração, otimização e trilhas de auditoria.
Integrar modelos do Gemini com o AgentOps é muito simples, geralmente levando apenas alguns minutos usando o LiteLLM. Os desenvolvedores podem ganhar visibilidade rapidamente nas chamadas da API Gemini, acompanhar os custos em tempo real e garantir a confiabilidade dos agentes em produção.
No futuro
A AgentOps tem o compromisso de apoiar os desenvolvedores de agentes à medida que eles escalonam os projetos. A IA da agência ajuda as empresas a lidar com as complexidades da criação de agentes acessíveis e escalonáveis, consolidando ainda mais a proposta de valor de combinar a AgentOps com a API Gemini. Como enfatiza Silverman, "Isso está incentivando mais desenvolvedores preocupados com o preço a criar agentes".
Para desenvolvedores que estão pensando em usar o Gemini, o conselho de Silverman é claro: "Teste e você vai se surpreender".
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Não contém as informações de que eu preciso","missingTheInformationINeed","thumb-down"],["Muito complicado / etapas demais","tooComplicatedTooManySteps","thumb-down"],["Desatualizado","outOfDate","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Problema com as amostras / o código","samplesCodeIssue","thumb-down"],["Outro","otherDown","thumb-down"]],[],[],[],null,["[](/showcase) \nShare\nOCT 30, 2024 \n\nBringing AI Agents to production with Gemini API \nVishal Dharmadhikari\n\nProduct Solutions Engineer \nPaige Bailey\n\nAI Developer Experience Engineer \nAdam Silverman\n\nCOO, Agency AI \n\nBuilding and deploying AI agents is an exciting frontier, but managing these complex systems in a production environment requires robust observability. [AgentOps](https://www.agentops.ai/), a Python SDK for agent monitoring, LLM cost tracking, benchmarking, and more, empowers developers to take their agents from prototype to production, especially when paired with the power and cost-effectiveness of the [Gemini API](https://ai.google.dev/gemini-api/docs).\n\nThe Gemini advantage \n\nAdam Silverman, COO of [Agency AI](https://www.agen.cy/), the team behind AgentOps, explains that cost is a critical factor for enterprises deploying AI agents at scale. \"We've seen enterprises spend $80,000 per month on LLM calls. With Gemini 1.5, this would have been a few thousand dollars for the same output.\"\n\n\n\u003cbr /\u003e\n\n\nThis cost-effectiveness, combined with Gemini's powerful language understanding and generation capabilities, makes it an ideal choice for developers building sophisticated AI agents. \"Gemini 1.5 Flash is giving us comparable quality to larger models, at a fraction of the cost while being incredibly fast,\" says Silverman. This allows developers to focus on building complex, multi-step agent workflows without worrying about runaway costs.\n\u003e \"We have seen individual agent runs with other LLM providers cost $500+ per run. These same runs with Gemini (1.5 Flash-8B) cost under $50.\"\n\n--- Adam Silverman, COO, Agency AI\n\nPowering AI Agents \n\nAgentOps captures data on every agent interaction, not just LLM calls, providing a comprehensive view of how multi-agent systems operate. This granular level of detail is essential for engineering and compliance teams, offering crucial insights for debugging, optimization, and audit trails.\n\n\n\u003cbr /\u003e\n\n\nIntegrating Gemini models with AgentOps is remarkably simple, often taking just minutes using LiteLLM. Developers can quickly gain visibility into their Gemini APIcalls, track costs in real-time, and ensure the reliability of their agents in production.\n\nLooking ahead \n\nAgentOps is committed to supporting agent developers as they scale their projects. Agency AI is helping enterprises navigate the complexities of building affordable, scalable agents, further solidifying the value proposition of combining AgentOps with the Gemini API. As Silverman emphasizes, \"It is ushering more price-conscious developers to build agents.\"\n\n\n\u003cbr /\u003e\n\n\nFor developers considering using Gemini, Silverman's advice is clear: \"Give it a try, and you will be impressed.\" \n\nRelated case studies \n[Sourcegraph\nLearn how Cody AI saw big quality gains using Gemini's massive context window.](/showcase/sourcegraph) [Sublayer\nSee how the Ruby-based AI agent framework empowers developer teams to be more productive with the power of Gemini models.](/showcase/sublayer) [Viggle\nExperimenting with Gemini 2.0 to create virtual characters and audio narration for their AI powered video platform](/showcase/viggle)"]]