為解決AI偏見問(wèn)題,IBM建立百萬(wàn)人臉數(shù)據(jù)
科技中立,但人制造出來(lái)的 AI 卻可能帶有偏見或歧視。AI 偏見情況像是性別歧視、種族歧視,例如面部偵測(cè)算法在識(shí)別白人時(shí)的準(zhǔn)確率比識(shí)別黑人高許多,男性跟女性類別也存在類似問(wèn)題,讓軟件識(shí)別犯罪嫌犯人選、企業(yè)挑選求職者時(shí),也曾引發(fā)歧視問(wèn)題。
為了減少這方面的偏差,IBM研究院打造了一套更加多樣化的“百萬(wàn)人臉數(shù)據(jù)集”。近年來(lái),隨著智能手機(jī)的普及,面部識(shí)別已經(jīng)在許多領(lǐng)域得到了廣泛的運(yùn)用。然而在一些測(cè)試中,某些看似很優(yōu)秀的 AI,竟然也會(huì)敗下陣來(lái)。
憑借全新的“百萬(wàn)多樣性人臉數(shù)據(jù)集”,AI 開發(fā)者將能夠充分考慮到多樣性的面部特征(DiF)。
為使面部識(shí)別能夠按照要求執(zhí)行(既公平又準(zhǔn)確),訓(xùn)練用的數(shù)據(jù),必須提供足夠的平衡和覆蓋。
它應(yīng)該足夠大、且多樣化,以便了解更多類型的面部固有差異。圖像必須反映我們?cè)谑澜缰锌吹降拿娌刻卣鞯亩鄻有浴?/p>