人工智能存在怎樣偏見
在21世紀的今天,智能手機,智能家居和智能城市正在影響我們的生活和工作,人工智能(AI)正在以引人注目的方式重新配置人類世界。
不論是工業(yè)生產(chǎn),還是餐飲服務(wù),都能看到人工智能的身影。有專家樂觀預(yù)測,到了2030年,人工智能將為世界經(jīng)濟增加15萬億美元。不過有人擔(dān)心世界失業(yè)率會接近50%。
然而讓人更擔(dān)心的是,人工智能(AI)存在巨大潛在風(fēng)險,比如惡意培養(yǎng)殺手機器人,因此有科學(xué)家擔(dān)心人類會因此而滅絕。
另外,有專家發(fā)現(xiàn)人工智能系統(tǒng)存在偏見,可能會加劇現(xiàn)有社會偏見的傾向,從而對社會制造出破壞性影響。
比如現(xiàn)在最先進自動機器翻譯系統(tǒng)會產(chǎn)生性別歧視,最先進智能識別系統(tǒng)竟將黑人識別為大猩猩。
2019年10月11日,在最新的谷歌翻譯系統(tǒng)中,比如輸入:
The women started the meeting. They worked efficiently。
結(jié)果輸出:Les femmes ont commencé la réunion. Ils ont travaillé efficacement。
從表面上看,意思都是婦女們開始開會,他們有效地工作。但是Ils在英文語法中代表為男性他,所以翻譯過來的語法是錯誤的,這說明人工智能(AI)男性他被自動化系統(tǒng)設(shè)為默認值。
人工智能(AI)之所以會出現(xiàn)這類問題,是因為智能系統(tǒng)使用一種類似神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)模型來獲取數(shù)據(jù)。
如果輸入給智能系統(tǒng)的數(shù)據(jù)集本身存在著偏見等問題,那么智能系統(tǒng)在輸出結(jié)果就會暴露偏見。這樣一來,可能使諸如婦女,少數(shù)民族或老年人等群體邊緣化,從而加劇現(xiàn)有社會失衡。
當(dāng)然,這只是人工智能(AI)暴露一個方面問題,可能更嚴重問題還在后面。有專家表示,人工智能正走向一條更黑暗道路。
來源:趣味探索訊