科技中立,但人制造出來的 AI 卻可能帶有偏見或歧視。AI 偏見情況像是性別歧視、種族歧視,例如面部偵測算法在識別白人時的準確率比識別黑人高許多,男性跟女性類別也存在類似問題,讓軟件識別犯罪嫌犯人選、企業(yè)挑選求職者時,也曾引發(fā)歧視問題。
為了減少這方面的偏差,IBM研究院打造了一套更加多樣化的“百萬人臉數(shù)據(jù)集”。近年來,隨著智能手機的普及,面部識別已經(jīng)在許多領(lǐng)域得到了廣泛的運用。然而在一些測試中,某些看似很優(yōu)秀的 AI,竟然也會敗下陣來。
憑借全新的“百萬多樣性人臉數(shù)據(jù)集”,AI 開發(fā)者將能夠充分考慮到多樣性的面部特征(DiF)。
為使面部識別能夠按照要求執(zhí)行(既公平又準確),訓(xùn)練用的數(shù)據(jù),必須提供足夠的平衡和覆蓋。
它應(yīng)該足夠大、且多樣化,以便了解更多類型的面部固有差異。圖像必須反映我們在世界中看到的面部特征的多樣性。