掘金大數(shù)據(jù)產(chǎn)業(yè) 中國(guó)企業(yè)能否實(shí)現(xiàn)彎道超車?
掃描二維碼
隨時(shí)隨地手機(jī)看文章
人工智能已經(jīng)深入影響了我們的工作和生活的方方面面。2016年,白宮意識(shí)到人工智能在前沿會(huì)議的重要性。無人駕駛汽車的概念已經(jīng)變成現(xiàn)實(shí):Uber在Pittsburgh的無人車、裝備了完全自主硬件的Tesla最新型號(hào)的無人車。Google的DeepMind平臺(tái)AlphaGo,擊敗了圍棋的世界冠軍,將預(yù)測(cè)提前十年就實(shí)現(xiàn)了。
馬里蘭大學(xué)計(jì)算機(jī)科學(xué)副院長(zhǎng)Marie desJardins認(rèn)為:“增加機(jī)器學(xué)習(xí)的使用,以及基于知識(shí)的建模方法”是2017年的主要趨勢(shì)。這出大戲,將如何上演呢?
為了預(yù)測(cè)人工智能在2017年的趨勢(shì),TechRepublic邀請(qǐng)了幾位專家:杜克大學(xué)計(jì)算機(jī)科學(xué)教授Vince Conitzer、Sundown AI公司CEOFabio Cardenas、路易斯維爾大學(xué)網(wǎng)絡(luò)安全實(shí)驗(yàn)室主任Roman Yampolskiy、新南威爾士大學(xué)人工智能教授Toby Walsh。
InfoQ將這幾位專家對(duì)2017年人工智能的預(yù)測(cè)整理成文,以饗讀者。
人工智能的影響力越來越大
Conitzer認(rèn)為,公眾對(duì)人工智能帶來的社會(huì)影響越來越感興趣,尤其是那些影響比較大的事件。以前就確定了許多普遍話題:技術(shù)性失業(yè)(InfoQ注:因工業(yè)發(fā)展所造成的失業(yè);因采用新技術(shù)而造成的失業(yè))、自主武器(InfoQ注:指具有人工 智能無需人類干預(yù)就能襲擊目標(biāo)的武器,通俗的講就是殺人機(jī)器人。)、基于偏差數(shù)據(jù)的機(jī)器學(xué)習(xí)系統(tǒng)、機(jī)器學(xué)習(xí)系統(tǒng)用于識(shí)別和壓制異議、人工智能系統(tǒng)不斷地產(chǎn)生的倫理問題——特定的新技術(shù)的發(fā)展成敗,都將進(jìn)一步推動(dòng)和擴(kuò)大這些技術(shù)話題的影響力。
Conitzer注意到,對(duì)AI的興趣已經(jīng)蔓延到行業(yè)外的特定群體,比如,律師將努力解決法律如何處理自主車輛的問題;經(jīng)濟(jì)學(xué)家研究人工智能帶來的技術(shù)性失業(yè);社會(huì)學(xué)家研究更高效的基于AI的推薦系統(tǒng)和個(gè)人助理帶來的影響。
Sundown AI公司CEO Fabio Cardenas同意上述觀點(diǎn),他更進(jìn)一步表示,人工智能會(huì)影響到組織內(nèi)的特定角色,如會(huì)計(jì)、財(cái)務(wù)、供應(yīng)鏈、人力資源或由其他專業(yè)人士工作的領(lǐng)域。這些增長(zhǎng)的領(lǐng)域?qū)?huì)使AI向全球多個(gè)行業(yè)的多個(gè)部門推廣。
離經(jīng)叛道的人工智能
終結(jié)者情節(jié),是科幻小說中有關(guān)AI的常見之作。但是,這情況會(huì)不會(huì)是真的呢?據(jù)Cardenas說,離經(jīng)叛道的人工智能,或許會(huì)在2017年成為現(xiàn)實(shí)。他想象,“出于某些惡意目的,一小撮計(jì)算機(jī)盜賊為了欺詐機(jī)構(gòu)或個(gè)人,創(chuàng)造了人工智能。”他說,“這種流氓的AI將能入侵那些被認(rèn)為是固若金湯的系統(tǒng)。”
Cardenas注意到,通過AI進(jìn)行舞弊的情況已經(jīng)發(fā)生了。他表示:“如果AI的訓(xùn)練庫(kù)被破壞,駭客就可以插進(jìn)偏見或豁免,以顛覆AI的預(yù)測(cè)能力,使自己從中獲益。”
Cardenas說,可能的途徑就是,通過“AI開發(fā)使其他AI更聰明。”AI能夠通過檢查訓(xùn)練數(shù)據(jù)中的盲點(diǎn)來自我完善,“或者,如果我們幸運(yùn)的話,寫出能夠改善其他AI的代碼,”他說,結(jié)果就是有助于優(yōu)化AI系統(tǒng)。“但距離一個(gè)超級(jí)智能AI,依然有很長(zhǎng)的路要走。路漫漫其修遠(yuǎn)兮,吾將上下而求索。”
Roman表態(tài),他也認(rèn)為AI“失敗”或許是2017年的趨勢(shì)。
他說,在AI中,最有趣、最重要的趨勢(shì)是,也是我正在密切跟蹤的:AI失敗的頻率和嚴(yán)重程度將與AI的能力成正比,換言之,當(dāng)我們獲益時(shí),出現(xiàn)“惡意”AI的可能性也變大了。
人工智能的倫理問題
我們要如何防止AI叛道離經(jīng)?這也是許多AI研究人員所關(guān)注的問題。總體來說,專家們擔(dān)憂AI的倫理問題。因?yàn)?,AI會(huì)犯錯(cuò)誤,這是顯而易見的:從加強(qiáng)偏見,到種族歧視的辱罵。在極端情況下,不能預(yù)防災(zāi)難性的事故。
參見麻省理工學(xué)院的報(bào)道:“道德機(jī)器”對(duì)自主駕駛的眾包決策,但被專家稱之為誤導(dǎo)。
計(jì)算機(jī)科學(xué)中的傳統(tǒng)AI社區(qū),將著手解決工作中越來越多的社會(huì)和倫理問題。Conitzer稱:“AI研究人員已經(jīng)對(duì)這些主題產(chǎn)生了興趣,但我們只是想在一開始的時(shí)候,搞清楚如何沿著這些路線做出具體的技術(shù)貢獻(xiàn)。這就需要仰仗更多的計(jì)算機(jī)科學(xué)家來解決。
Moshe Vardi表示2017年的趨勢(shì)應(yīng)該是:與AI有關(guān)的倫理問題將繼續(xù)引起關(guān)注,圍繞勞動(dòng)自動(dòng)化、致命的自主武器、算法的公平性和透明度的影響。
Walsh聲稱:“我們將會(huì)看到,一輛自主汽車撞死一名無辜行人,或騎單車的人,或其他乘客。這將突出這些問題的嚴(yán)重性,因?yàn)槲覀冊(cè)陂_發(fā)和規(guī)范AI。”
Walsh還認(rèn)為,價(jià)值取向問題——也就是說,我們?nèi)绾未_保AI與人類有相同的價(jià)值觀?“我們今天所做的就是,不再被視為超級(jí)智能的問題,而是一個(gè)算法和機(jī)器學(xué)習(xí)程序。”他說。