Qualquer abordagem responsável para aplicar a inteligência artificial (IA) precisa incluir políticas de segurança, artefatos de transparência e proteções, mas ser responsável com a IA significa mais do que seguir listas de verificação.
Os produtos de IA generativa são relativamente novos, e os comportamentos de um aplicativo podem variar muito mais do que as formas anteriores de software. Por isso, você deve sondar modelos sendo usados para examinar exemplos de comportamento do modelo e investigar surpresas.
Os comandos são a interface onipresente para interagir com a IA generativa e criar esses comandos é tanto arte quanto ciência. No entanto, existem ferramentas que podem ajudar a melhorar empiricamente os comandos para LLMs, como o Ferramenta de aprendizado de interpretabilidade (LIT, na sigla em inglês). O LIT é uma ferramenta de código aberto para entender e depurar visualmente modelos de IA, que pode ser usada como um depurar para trabalho de engenharia imediato. Siga o tutorial fornecido usando o Colab ou o Codelab.
Figura 1. Interface do usuário da LIT: com o editor de pontos de dados na parte de cima, que os usuários editem os comandos. Na parte de baixo, o módulo Salience do LM permite para verificar os resultados de saliência.
Incluir equipes não técnicas na investigação e análise detalhada do modelo
A interpretabilidade é um esforço coletivo, que abrange a experiência em políticas, questões legais e muito mais. A capacidade interativa e o meio visual do LIT de examinar a saliência e analisar exemplos podem ajudar diferentes partes interessadas a compartilhar e comunicar descobertas. Essa abordagem pode gerar mais diversidade de perspectiva em exploração, sondagem e depuração do modelo. Ao expor seus colegas a esses e técnicos podem melhorar sua compreensão de como os modelos funcionam. Em Além disso, um conjunto mais diversificado de conhecimentos em testes iniciais de modelos também pode ajudar e revelam resultados indesejáveis que podem ser melhorados.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Não contém as informações de que eu preciso","missingTheInformationINeed","thumb-down"],["Muito complicado / etapas demais","tooComplicatedTooManySteps","thumb-down"],["Desatualizado","outOfDate","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Problema com as amostras / o código","samplesCodeIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2024-10-23 UTC."],[],[],null,["\u003cbr /\u003e\n\nAny responsible approach to applying artificial intelligence (AI) should include\n[safety policies](/responsible/docs/design#define-policies),\n[transparency artifacts](/responsible/docs/design#transparency-artifacts), and\n[safeguards](/responsible/docs/safeguards), but being responsible with AI means more than\nfollowing checklists.\n\nGenAI products are relatively new and the behaviors of an application can vary\nmore than earlier forms of software. For this reason, you should probe the\nmodels being used to examine examples of the model's behavior, and investigate\nsurprises.\n\nPrompting is the ubiquitous interface for interacting with GenAI, and\nengineering those prompts is as much art as it is science. However, there are\ntools that can help you empirically improve prompts for LLMs, such as the\n[Learning Interpretability Tool](https://pair-code.github.io/lit/) (LIT). LIT is an open-source\ntool for visually understanding and debugging AI models, that can be used as\na [debugger for prompt engineering work](https://pair-code.github.io/lit/documentation/components.html#sequence-salience). Follow along with the\n[provided tutorial](https://pair-code.github.io/lit/tutorials/sequence-salience/) using the Colab or Codelab.\n\n**Analyze Gemma Models with LIT**\n\n|---|-------------------------------------------------------------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------|\n| | [Start Codelab](https://codelabs.developers.google.com/codelabs/responsible-ai/lit-gemma) | [Start Google Colab](https://colab.research.google.com/github/google/generative-ai-docs/blob/main/site/en/gemma/docs/lit_gemma.ipynb) |\n\n\u003cbr /\u003e\n\n*Figure 1.* The LIT's user interface: the Datapoint Editor at the top allows\nusers to edit their prompts. At the bottom, the LM Salience module allows them\nto check saliency results.\n\nYou can use LIT on your [local machine](https://pair-code.github.io/lit/documentation/getting_started.html#installation), in\n[Colab](https://colab.research.google.com/github/google/generative-ai-docs/blob/main/site/en/gemma/docs/lit_gemma.ipynb), or on [Google Cloud](https://codelabs.developers.google.com/codelabs/responsible-ai/lit-on-gcp).\n\nInclude non-technical teams in model probing and exploration\n\nInterpretability is meant to be a team effort, spanning expertise across\npolicy, legal, and more. LIT's visual medium and interactive ability to examine\nsalience and explore examples can help different stakeholders share and\ncommunicate findings. This approach can enables more diversity of perspective in\nmodel exploration, probing, and debugging. Exposing your teammates to these\ntechnical methods can enhance their understanding of how models work. In\naddition, a more diverse set of expertise in early model testing can also help\nuncover undesirable outcomes that can be improved."]]