Toolkit ini menyediakan referensi dan alat untuk menerapkan praktik terbaik dalam penggunaan model terbuka, seperti Gemma secara bertanggung jawab, termasuk:
Panduan tentang cara menetapkan kebijakan keamanan, penyesuaian keamanan, pengklasifikasi keamanan dan evaluasi model.
Alat Penafsiran Pembelajaran untuk melakukan penyelidikan dan men-debug perilaku Gemma sebagai respons terhadap prompt.
LLM Comparator untuk menjalankan dan memvisualisasikan komparatif hasil evaluasi.
Versi toolkit ini hanya berfokus pada model teks ke teks bahasa Inggris. Anda dapat memberikan masukan untuk membuat toolkit ini lebih bermanfaat melalui masukan tautan mekanisme di bagian bawah laman.
Saat membangun aplikasi dengan Gemma, Anda harus mengambil pendekatan tanggung jawab secara menyeluruh dan mempertimbangkan semua tantangan yang mungkin dihadapi pada tingkat aplikasi dan model. Toolkit ini mencakup teknik risiko dan mitigasi untuk mengatasi masalah keamanan, privasi, keadilan, dan akuntabilitas.
Periksa sisa toolkit ini untuk informasi dan panduan lebih lanjut:
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Informasi yang saya butuhkan tidak ada","missingTheInformationINeed","thumb-down"],["Terlalu rumit/langkahnya terlalu banyak","tooComplicatedTooManySteps","thumb-down"],["Sudah usang","outOfDate","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Masalah kode / contoh","samplesCodeIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2024-07-18 UTC."],[],[],null,["\u003cbr /\u003e\n\nThis toolkit provides resources and tools to apply best practices for\nresponsible use of open models, such as [Gemma](/gemma), including:\n\n- Guidance on setting safety policies, safety tuning, safety classifiers and model evaluation.\n- The [Learning Interpretability Tool](/responsible/docs/alignment#lit) for investigating and debugging Gemma's behavior in response to prompts.\n- The [LLM Comparator](/responsible/docs/evaluation#llm-comparator) for running and visualizing comparative evaluation results.\n- A methodology for [building robust safety classifiers](/responsible/docs/safeguards#agile-classifiers) with minimal examples.\n\nThis version of the toolkit focuses on English text-to-text models only. You\ncan provide feedback to make this toolkit more helpful through the feedback\nmechanism link at the bottom of the page.\n\nWhen building with Gemma, you should take a holistic approach to responsibility\nand consider all the possible challenges at the application and model levels.\nThis toolkit covers risk and mitigation techniques to address safety, privacy,\nfairness, and accountability.\n\nCheck out the rest of this toolkit for more information and guidance:\n\n- [Design a responsible approach](/responsible/docs/design)\n- [Align your models](/responsible/docs/alignment)\n- [Evaluate your models and system for safety](/responsible/docs/evaluation)\n- [Protect your system with safeguards](/responsible/docs/safeguards)"]]