面對人工智能的發(fā)展 人類未來將扮演怎樣的角色
AI剛剛興起的時候,大多數(shù)人們對這個詞匯還是感到很陌生,但隨著各類AI機(jī)器人不斷出現(xiàn),人工智能聲名大噪,成為了各個國家未來的發(fā)展戰(zhàn)略??茖W(xué)家、工程師看到了一個嶄新領(lǐng)域的興起,商人們看到了技術(shù)帶來源源不斷的財富,而普通人則不得不面對“機(jī)器人竊取大量工作”的局面。由此“人工智能是人類最大的生存威脅”、“我們應(yīng)該抵制人工智能”等言論甚囂塵上!人類與人工智能究竟能否共贏共存成為了一個既敏感又現(xiàn)實(shí)的問題。
近日,谷歌首席決策科學(xué)家CassieKozyrkov提出了:“人類可以彌補(bǔ)人工智能的缺點(diǎn)”。過去五年,CassieKozyrkov在Google擔(dān)任過很多技術(shù)職務(wù),但如今她要正式面對“首席決策科學(xué)家”這個有點(diǎn)奇怪的職位了。簡單來講,決策科學(xué)就是數(shù)據(jù)和行為科學(xué)的交叉點(diǎn),涉及統(tǒng)計學(xué)、機(jī)器學(xué)習(xí)、心理學(xué)、經(jīng)濟(jì)學(xué)等學(xué)科。Kozyrkov的主要職責(zé)就是幫助Google推動更積極的AI議程,至少也要讓人們相信AI并不像頭條新聞所說的那么糟糕。
“機(jī)器人正在竊取我們的工作,”“人工智能是人類最大的生存威脅”,類似的宣言已經(jīng)存在了很長一段時間,但在過去幾年中,這種擔(dān)憂變得更加明顯。對話式AI助手廣泛存在于現(xiàn)實(shí)生活中,汽車、卡車幾乎能夠自動駕駛,機(jī)器可以輕而易舉的在電腦游戲中擊敗人類,甚至藝術(shù)創(chuàng)意的工作也受到了人工智能的沖擊。我們不斷被告知,無聊和重復(fù)的工作可能會成為過去。
身處自動化世界,人們對未來感到焦慮和困惑是可以理解的。但是,根據(jù)Kozyrkov的說法,人工智能僅僅是自人類誕生以來一直努力奮斗的延伸。
在倫敦AI峰會上Kozyrkov發(fā)表講話說:“人類的故事是自動化的故事。人類發(fā)展的歷程就是關(guān)于如何將事情做得更好,從舊石器時代開始,原始人拿起一塊石頭敲擊另一塊巖石,就是因?yàn)榭梢愿焱瓿晒ぞ?,然后利用工具進(jìn)行更好的創(chuàng)造。從古至今,人類都是工具制造的種族,我們反對一味的埋頭苦干”。
人工智能是危險的,因?yàn)樗鼙热祟愖龅酶谩_@種的潛在威脅對Kozyrkov來說是站不住腳的,她認(rèn)為所有的工具都比人類徒手來做強(qiáng)得多。理發(fā)師用剪刀剪頭發(fā),就是因?yàn)橛檬肿ゲ荒敲蠢硐搿9膨v堡的印刷機(jī)生產(chǎn)文本的規(guī)??梢赃_(dá)到了人類無法復(fù)制的規(guī)模。
使用工具比人類徒手做效果更好—這就是工具的意義。如果沒有工具你可以做得更好,為什么要使用這個工具?如果你擔(dān)心計算機(jī)在認(rèn)知上比你更好,那么筆和紙?jiān)谟洃洉r也比人類更長久;水桶在拿水的時候比人類得儲存量更大,計算器的六位數(shù)計算遠(yuǎn)勝于大部分人類計算。我們有理由相信,未來人工智能在某些方面也會變得更好。
當(dāng)然,許多人對人工智能和自動化的潛在恐懼并不是說它會比人類做得更好。而是害怕政府、企業(yè)和任何惡意實(shí)體可以肆無忌憚地追蹤和微觀管理人類的一舉一動——幾乎不費(fèi)吹灰之力就可以實(shí)現(xiàn)秘密的宏偉愿景,從而給人類蒙上反烏托邦的陰影。
其他問題涉及像算法偏見,缺乏足夠的監(jiān)督以及世界末日情景等因素有關(guān):如果某件事急劇地——無意地——出錯了怎么辦?研究人員已經(jīng)證明了面部識別系統(tǒng)的內(nèi)在偏見,像亞馬遜的Rekognition。最近,民主黨總統(tǒng)候選人參議員伊麗莎白·沃倫呼吁聯(lián)邦機(jī)構(gòu)解決有關(guān)算法偏差的問題,例如美聯(lián)儲的放貸歧視問題 。
在很多人工智能領(lǐng)域,AI如何擴(kuò)散系統(tǒng)歧視的擔(dān)憂是首要議程。微軟敦促美國政府監(jiān)管面部識別系統(tǒng),研究人員致力于在不影響預(yù)測結(jié)果準(zhǔn)確性的情況下減少人工智能中的偏見。
人工智能正處于相對初期階段,研究人員仍在研究如何解決算法偏差等問題。但Kozyrkov表示,人工智能展示的偏見和現(xiàn)存人類偏見是一樣的,人類用來訓(xùn)練機(jī)器的數(shù)據(jù)集就像用來教育人類的教科書一樣。數(shù)據(jù)集和教科書都有人類作者—它們都是根據(jù)人類的指示收集的,其中一個比另一個更容易搜索。一個可能是紙質(zhì)版,另一個是電子版,實(shí)際上它們沒什么區(qū)別。如果你給學(xué)生一本有極度偏見作家寫的教科書,難道你的學(xué)生不會接受一些同樣的偏見嗎?
當(dāng)然,在現(xiàn)實(shí)世界中,備受好評的同行評審期刊或教科書應(yīng)該有足夠的監(jiān)督來對抗任何公然的偏見。如果作家、原始數(shù)據(jù)、鼓勵學(xué)生閱讀的教科書的老師都有相同的偏見呢?人們要花費(fèi)很長的時間才能發(fā)現(xiàn)一些陷阱,但到那時阻止任何不良影響都為時已晚。因此,Kozyrkov認(rèn)為“視角的多樣性”對于確保最小的偏見是必不可少的。
研究人員越是關(guān)注自己的數(shù)據(jù),思考用這些例子來表達(dá)自己的結(jié)論,就越有可能抓住那些潛在的壞案例。在人工智能中,數(shù)據(jù)的多樣性是必須的,而且需要從不同的角度來看待和思考使用這些例子會對世界產(chǎn)生怎樣的影響。
人工智能算法和機(jī)器學(xué)習(xí)模型部署之前,關(guān)鍵要像學(xué)生考試一樣測試它們,確保能夠執(zhí)行設(shè)定任務(wù)的。如果在考試中,一個學(xué)生被問及學(xué)過的確切問題,可能表現(xiàn)得非常好,但這極大概率要?dú)w功于好的記憶,而不是對手頭的科目有完全的了解。為了測試更廣泛的理解,要為學(xué)生提供更多的問題,以便他們能更好的應(yīng)用所學(xué)知識。
機(jī)器學(xué)習(xí)在同一個前提下運(yùn)行——有一個被稱為“過度擬合”的建模錯誤,即一個特定的函數(shù)與訓(xùn)練數(shù)據(jù)過于接近,就會導(dǎo)致誤報?!坝嬎銠C(jī)有很好的記憶力,“Kozyrkov指出,“所以你實(shí)際測試它們的方式是你給他們真正的新東西,他們無法記住,這與你的問題有關(guān)。如果它有效,那么它就有效。“
安全網(wǎng)特別重要,因?yàn)楹苋菀壮霈F(xiàn)忽視“如果出現(xiàn)問題怎么辦?”的情況。即使是最精心設(shè)計,人工智能系統(tǒng)也可能出現(xiàn)問題。事實(shí)上,系統(tǒng)越好在某些方面就越危險,就像學(xué)生一樣。Kozyrkov表示,即使你的學(xué)生真的很好,但他們?nèi)匀粫稿e誤。
甚至在某些方面,“C”學(xué)生比“A +”學(xué)生更不危險,因?yàn)椤癈”學(xué)生犯錯誤的頻率較高,所以你已經(jīng)有了安全網(wǎng)。 但是“A +”犯錯頻率較少,如果你以前從未見過他們犯錯誤,你可能會認(rèn)為他們從未犯過錯誤,那么極有可能導(dǎo)致一個災(zāi)難性的失敗。所謂的“安全網(wǎng)”可以采取多種形式,通常涉及建立一個單獨(dú)的系統(tǒng)而不是“過度信任你的“A +”學(xué)生。
一個有趣的例子,房主配置他的智能相機(jī)和鎖定系統(tǒng)以激活它是否發(fā)現(xiàn)不熟悉的面孔。但是,它錯誤地將房主識別為他的T恤上蝙蝠俠圖像并拒絕他進(jìn)入。在這種情況下,“安全網(wǎng)”是鎖上的PIN,房主也可以在他的移動應(yīng)用程序中使用一個功能來覆蓋AI。
這些都引出了一個對許多人來說顯而易又值得重復(fù)的觀點(diǎn):人工智能是其創(chuàng)造者的反映。因此,我們需要專注于實(shí)施系統(tǒng)和檢查,以確保那些制造機(jī)器的人(“教師”)是負(fù)責(zé)的。目前,人們越來越認(rèn)同“機(jī)器教學(xué)”的重要性,微軟等公司最近表示,人工智能的下一個前沿領(lǐng)域?qū)⑿枰萌祟悓I(yè)人員的專業(yè)知識來培訓(xùn)機(jī)器學(xué)習(xí)系統(tǒng)——而不是專家對人工智能的知識或編碼能力如何。。
“現(xiàn)在是我們關(guān)注機(jī)器教學(xué)的時候了,而不僅僅是機(jī)器學(xué)習(xí),”Kozyrkov指出。“不要讓科幻小說的華麗辭藻分散你對人類責(zé)任的注意力,要從一開始就關(guān)注人類本身。領(lǐng)導(dǎo)者設(shè)定的目標(biāo)、工程師創(chuàng)作、分析師和決策者核查數(shù)據(jù)集、統(tǒng)計學(xué)家進(jìn)行測試以及可靠性工程師構(gòu)建的安全網(wǎng)——所有這些都包含了許多人為因素。”