Zadbaj o dobrą organizację dzięki kolekcji Zapisuj i kategoryzuj treści zgodnie ze swoimi preferencjami.
Obiektywność
Obiektywność ma na celu zapobieganie możliwym nierównym wynikom, które mogą wystąpić u użytkowników w związku z wrażliwymi cechami, takimi jak rasa, dochód, orientacja seksualna czy płeć, w ramach podejmowania decyzji przez algorytmy. Czy na przykład algorytm rekrutacyjny może faworyzować lub dyskryminować kandydatów o nazwiskach kojarzonych z konkretną płcią lub grupą etniczną?
Więcej informacji o tym, jak systemy uczenia maszynowego mogą być podatne na ludzkie uprzedzenia, znajdziesz w tym filmie:
Aby poznać praktyczny przykład, przeczytaj o tym, jak usługi takie jak wyszukiwarka Google i Zdjęcia Google poprawiły różnorodność reprezentacji odcieni skóry dzięki skali odcieni skóry Monka.
Istnieją niezawodne metody identyfikowania, pomiaru i minimalizowania uprzedzenia w modelach. W module Obiektywnośćszybkiego szkolenia z uczenia maszynowego omawiamy szczegółowo obiektywność i techniki łagodzenia uprzedzeń.
[[["Łatwo zrozumieć","easyToUnderstand","thumb-up"],["Rozwiązało to mój problem","solvedMyProblem","thumb-up"],["Inne","otherUp","thumb-up"]],[["Brak potrzebnych mi informacji","missingTheInformationINeed","thumb-down"],["Zbyt skomplikowane / zbyt wiele czynności do wykonania","tooComplicatedTooManySteps","thumb-down"],["Nieaktualne treści","outOfDate","thumb-down"],["Problem z tłumaczeniem","translationIssue","thumb-down"],["Problem z przykładami/kodem","samplesCodeIssue","thumb-down"],["Inne","otherDown","thumb-down"]],["Ostatnia aktualizacja: 2024-11-14 UTC."],[[["Fairness in machine learning aims to address potential unequal outcomes for users based on sensitive attributes like race, gender, or income due to algorithmic decisions."],["Machine learning systems can inherit human biases, impacting outcomes for certain groups, and require strategies for identification, measurement, and mitigation."],["Google has worked on improving fairness in products like Google Search and Google Photos by utilizing the Monk Skin Tone Scale to better represent skin tone diversity."],["Developers can learn about fairness and bias mitigation techniques in detail through resources like the Fairness module of Google's Machine Learning Crash Course and interactive AI Explorables from People + AI Research (PAIR)."]]],[]]