Otimizador de zero exemplos

O otimizador de zero disparos permite refinar e melhorar automaticamente os comandos escritos pelos utilizadores. Muitas vezes, um comando pode não produzir a resposta do modelo que pretende devido a linguagem ambígua, contexto em falta ou inclusão de informações irrelevantes. Este otimizador analisa e reescreve um comando existente para ser mais claro, mais eficaz e mais alinhado com as capacidades do modelo, o que, em última análise, gera respostas de maior qualidade.

O otimizador de zero exemplos é particularmente útil para:

  • Adaptação às atualizações de modelos: quando atualiza para uma versão mais recente de um modelo, os seus comandos existentes podem deixar de ter um desempenho ideal.

  • Melhorar a compreensão dos comandos: quando a formulação de um comando é complexa ou pode ser mal interpretada, a ferramenta pode reformulá-la para máxima clareza e precisão, reduzindo a probabilidade de um resultado indesejável.

Existem duas formas de usar o otimizador:

  • Geração de instruções: em vez de escrever instruções complexas do sistema desde o início, pode descrever o seu objetivo ou tarefa em linguagem simples. Em seguida, o otimizador gera um conjunto completo e bem estruturado de instruções do sistema concebidas para alcançar o seu objetivo.

  • Refinamento de comandos: tem um comando funcional, mas o resultado do modelo é inconsistente, ligeiramente fora do tópico ou não tem os detalhes que quer. O otimizador pode ajudar a melhorar o comando para um melhor resultado.

O otimizador suporta a otimização de comandos em todos os idiomas suportados pelo Gemini e está disponível através do SDK do Vertex AI

Antes de começar

Para garantir que a conta de serviço predefinida do Compute Engine tem as autorizações necessárias para otimizar os comandos, peça ao seu administrador para conceder à conta de serviço predefinida do Compute Engine as seguintes funções do IAM no projeto:

Para mais informações sobre a atribuição de funções, consulte o artigo Faça a gestão do acesso a projetos, pastas e organizações.

O administrador também pode conceder à conta de serviço predefinida do Compute Engine as autorizações necessárias através de funções personalizadas ou outras funções predefinidas.

Otimize um comando

# Import libraries import vertexai import logging  # Google Colab authentication from google.colab import auth PROJECT_NAME = "PROJECT" auth.authenticate_user(project_id=PROJECT_NAME)  # Initialize the Vertex AI client client = vertexai.Client(project=PROJECT_NAME, location='us-central1')  # Input original prompt to optimize prompt = """You are a professional chef. Your goal is teaching how to cook healthy cooking recipes to your apprentice.  Given a question from your apprentice and some context, provide the correct answer to the question. Use the context to return a single and correct answer with some explanation. """  # Optimize prompt output = client.prompt_optimizer.optimize_prompt(prompt=prompt)  # View optimized prompt print(output.model_dump_json(indent=2)) 

Este objeto output é do tipo OptimizeResponse e fornece informações acerca do processo de otimização. A parte mais importante é o suggested_prompt, que contém o comando otimizado que pode usar para obter melhores resultados do seu modelo. Os outros campos, especialmente o campo applicable_guidelines, são úteis para compreender por que motivo e como o seu comando foi melhorado, o que pode ajudar a escrever melhores comandos no futuro. Segue-se um exemplo do resultado:

{   "optimization_mode": "zero_shot",   "applicable_guidelines": [     {       "applicable_guideline": "Structure",       "suggested_improvement": "Add role definition.",       "text_before_change": "...",       "text_after_change": "Role: You are an AI assistant...\n\nTask Context:\n..."     },     {       "applicable_guideline": "RedundancyInstructions",       "suggested_improvement": "Remove redundant explanation.",       "text_before_change": "...",       "text_after_change": ""     }   ],   "original_prompt": "...",   "suggested_prompt": "Role: You are an AI assistant...\n\nTask Context:\n..." }