2018年人工智能的五大難題
本文介紹了2018年擺在人工智能面前的五大難題:理解人類語言,機(jī)器人附能,防黑客,玩游戲,辨別是非。如何解決這些問題,讓AI繼續(xù)造福人類社會(huì)將成為所有AI從業(yè)者的首要任務(wù)。
2017年,人工智能在深度學(xué)習(xí)的幫助下取得了顯著的進(jìn)步。例如,一個(gè)名為L(zhǎng)ibratus的機(jī)器人撲克玩家,連續(xù)擊敗了三位人類玩家,成為撲克界的“阿爾法狗”。在現(xiàn)實(shí)中,AI正在改善很多傳統(tǒng)的行業(yè),自動(dòng)駕駛、農(nóng)業(yè)、醫(yī)療保健等。
盡管AI的發(fā)展速度有些讓人懷疑,當(dāng)然AI發(fā)展存在泡沫,各類媒體也在炒作AI。但是仍然有一些明智的聲音:埃隆·馬斯克擔(dān)心人工智能仍然無法做到很多事情。最棘手的有以下幾個(gè)問題:
理解人類語言
從現(xiàn)在來看,機(jī)器在處理文本和語言方面比以往任何時(shí)候都要好。例如:Facebook可以向視障人士進(jìn)行圖像描述,谷歌郵箱可以對(duì)郵件自動(dòng)做出簡(jiǎn)單的回答(基于郵件內(nèi)容進(jìn)行回復(fù))。然而,AI系統(tǒng)仍然不能真正理解我們的意思和我們真正的想法。波特蘭州立大學(xué)教授梅蘭妮·米切爾(Melanie Mitchell)說:“我們能夠把我們學(xué)到的概念以不同的方式結(jié)合起來,并在新的情況下應(yīng)用。但,AI并不能做到這一點(diǎn)。”
Mitchell將今天AI的缺陷定義為數(shù)學(xué)家Gian Carlo-Rota所說的“意義障礙”,一些領(lǐng)先的AI研究團(tuán)隊(duì)正在試圖找出如何攀登它。
這項(xiàng)工作的一部分是在為機(jī)器提供一種常識(shí)的基礎(chǔ),以及支撐我們自己思維的物質(zhì)世界。例如,F(xiàn)acebook研究人員正試圖通過觀看視頻來教AI來理解現(xiàn)實(shí)。另外一些人,正在模仿我們可以用關(guān)于世界的知識(shí)做什么。米切爾已經(jīng)嘗試過使用類比和關(guān)于世界的概念來解釋照片中發(fā)生的事情的系統(tǒng)。
讓機(jī)器人更像人機(jī)器人硬件已經(jīng)做的相當(dāng)不錯(cuò)了,你可以花500美元購買到高清攝像機(jī)手掌大小的無人機(jī),另外搬運(yùn)箱子和兩條腿走路的機(jī)器也有所改進(jìn)。但這并不意味著它可以廣泛使用,因?yàn)榻裉斓臋C(jī)器人缺乏匹配他們先進(jìn)的肌肉的大腦。
讓機(jī)器人做任何事情都需要針對(duì)特定的任務(wù)進(jìn)行特定的編程,他可以從中學(xué)習(xí)操作。但是這個(gè)過程相對(duì)較慢。一個(gè)捷徑是讓機(jī)器人在模擬的世界中訓(xùn)練,然后把那些來之不易的知識(shí)下載到物理的機(jī)器人體內(nèi)。然而,這種方法受到了現(xiàn)實(shí)差距的困擾,虛擬的機(jī)器人在模擬中學(xué)到的技能在轉(zhuǎn)移到物理世界中的機(jī)器時(shí)并不總是有效。
但,幸運(yùn)的是現(xiàn)實(shí)差距正在縮小。十月份,谷歌模擬的機(jī)器人武器學(xué)會(huì)拾取包括膠帶分配器、玩具和梳子在內(nèi)的各種物體,從實(shí)驗(yàn)報(bào)告中我們看到了希望的結(jié)果。
另外,自動(dòng)駕駛汽車公司在機(jī)動(dòng)化駕駛競(jìng)賽中在虛擬街道上部署虛擬車輛,以減少在實(shí)際交通和道路條件下測(cè)試所花費(fèi)的時(shí)間和金錢。自主駕駛創(chuàng)業(yè)公司Aurora的首席執(zhí)行官Chris Urmson說,使虛擬測(cè)試更適用于真實(shí)的車輛是他的團(tuán)隊(duì)的重點(diǎn)之一。
防范黑客攻擊AI互聯(lián)網(wǎng)誕生之時(shí),就伴隨著安全問題。我們也不應(yīng)該期望自動(dòng)駕駛汽車和家用機(jī)器人會(huì)有所不同。而且事實(shí)上可能更糟:因?yàn)闄C(jī)器學(xué)習(xí)軟件的復(fù)雜性,所以存在多種攻擊途徑。
今年, 研究表明, 你可以在機(jī)器學(xué)習(xí)系統(tǒng)內(nèi)隱藏一個(gè)秘密觸發(fā)器, 可以導(dǎo)致系統(tǒng)在看到特定信號(hào)時(shí)轉(zhuǎn)變?yōu)樾皭耗J?。紐約大學(xué)的研究小組設(shè)計(jì)了一個(gè)正常運(yùn)作的街道標(biāo)志識(shí)別系統(tǒng)除非它看到一個(gè)黃色的Post-It。在布魯克林的一個(gè)停車標(biāo)志上貼上一個(gè)便利貼, 系統(tǒng)就會(huì)報(bào)告這是一個(gè)限速標(biāo)志。這種做法可能會(huì)給自動(dòng)駕駛汽車帶來問題。
這個(gè)威脅被認(rèn)為是很嚴(yán)重的, 世界上最著名的機(jī)器學(xué)習(xí)會(huì)議的研究人員在本月早些時(shí)候召開了為期一天的關(guān)于機(jī)器欺騙威脅的研討會(huì)。研究人員討論了諸如“如何生成讓人們看起來很正常但是機(jī)器開起來比較特殊的手寫數(shù)字”等等這樣的問題。研究人員還討論了防止這種攻擊的可能性, 并擔(dān)心人工智能被用來欺騙人類。
組織研討會(huì)的 TIm Hwang 預(yù)測(cè),隨著機(jī)器學(xué)習(xí)變得更容易部署和更強(qiáng)大, 使用這項(xiàng)技術(shù)來操縱人是不可避免的。他說,機(jī)器學(xué)習(xí)并不再是博士學(xué)位的專屬。TIm Hwang指出, 俄羅斯在2016年總統(tǒng)選舉期間發(fā)起的假情報(bào)運(yùn)動(dòng)可能是AI增強(qiáng)信息戰(zhàn)爭(zhēng)的先驅(qū)。他說:為什么不在這些活動(dòng)中看到機(jī)器學(xué)習(xí)領(lǐng)域的技術(shù)?Hwang 預(yù)測(cè)的一個(gè)特別有效的方法是利用機(jī)器學(xué)習(xí)來生成虛假的視頻和音頻。
AI游戲真正的未來在哪?AlphaGo在2017年也迅速發(fā)展,今年五月,一個(gè)更強(qiáng)大的版本擊敗了中國(guó)的圍棋冠軍。它的創(chuàng)造者DeepMind研究院, 隨后又升級(jí)了一個(gè)版本:AlphaGo Zero,這個(gè)版本不用研究人類的棋譜,也能有非凡的下棋技巧,基于此它也學(xué)會(huì)了下國(guó)際象棋和日本象棋。
人類與AI游戲的結(jié)果是令人印象深刻,但也提醒我們?nèi)斯ぶ悄苘浖木窒扌?。?guó)際象棋、日本象棋和圍棋都很復(fù)雜,但是其規(guī)則和玩法卻比較簡(jiǎn)單。它們很好的利用了計(jì)算機(jī)的能力,可以快速枚舉許多未來可能的位置。但是,生活中的大多數(shù)情況和問題并不是那么有“結(jié)構(gòu)性”。
這就是為什么 DeepMind 和 Facebook 都在2017年開始研發(fā)玩星際爭(zhēng)霸( StarCraft)的AI。
但是目前都還沒有獲得很好的成果。目前,即使是表現(xiàn)最好的AI機(jī)器人的游戲水平也無法和一般水平的人類玩家所匹敵。DeepMind研究員 Oriol Vinyals 告訴《連線》雜志,他的軟件現(xiàn)在缺乏組織和指揮軍隊(duì)所需的計(jì)劃和記憶能力,同時(shí)對(duì)敵方行動(dòng)進(jìn)行預(yù)測(cè)和反應(yīng)的能力也不夠強(qiáng)。這些技能還可以使AI在現(xiàn)實(shí)任務(wù)協(xié)作方面做得更好, 例如辦公室工作或真正的軍事行動(dòng)。如果2018年AI版的“星際爭(zhēng)霸”取得重大的進(jìn)展,那么將預(yù)示著人工智能將產(chǎn)生一些更強(qiáng)大的應(yīng)用。
讓AI辨別是非AI即使在上述領(lǐng)域沒有取得新的進(jìn)展,如果現(xiàn)有的AI技術(shù)被廣泛使用,社會(huì)和經(jīng)濟(jì)的許多方面也會(huì)發(fā)生很大的變化。這個(gè)時(shí)候就會(huì)有人擔(dān)心人工智能和機(jī)器學(xué)習(xí)造成的意外和故意傷害。
在本月的NIPS機(jī)器學(xué)習(xí)大會(huì)上,如何讓技術(shù)保持在安全和道德的范圍內(nèi)是一個(gè)重要的討論話題。研究人員發(fā)現(xiàn),機(jī)器學(xué)習(xí)系統(tǒng)可以從我們非完美的世界獲得數(shù)據(jù)的訓(xùn)練,進(jìn)而訓(xùn)練出來的系統(tǒng)是具有偏見性的,如延續(xù)性別歧視印象?,F(xiàn)在有些人正在研究可用于審核人工智能系統(tǒng)內(nèi)部運(yùn)作的技術(shù),并確保他們?cè)谕度虢鹑诨蜥t(yī)療保健等行業(yè)工作時(shí)做出公平的決定。
未來我們應(yīng)該會(huì)看到科技公司提出如何讓人工智能擁有人性的想法。谷歌、Facebook、微軟和阿里已經(jīng)開始討論這個(gè)問題,一個(gè)名為“人工智能基金倫理與治理”的慈善項(xiàng)目正在支持麻省理工學(xué)院,哈佛大學(xué)等研究人工智能,紐約大學(xué)的一個(gè)新研究機(jī)構(gòu)AI Now也有類似的任務(wù)。在最近的一份報(bào)告中呼吁各國(guó)政府不要在刑事司法或社會(huì)福利等領(lǐng)域使用“黑匣子”算法。