對(duì)于人工智能的考驗(yàn)是什么
這周早些時(shí)候(周三,2月19日),歐盟委員會(huì)在“塑造歐洲數(shù)字未來(lái)”的總框架下,發(fā)布了大量提案和政策文件,以監(jiān)管人工智能。歐盟發(fā)布的文件包括:一份關(guān)于人工智能、物聯(lián)網(wǎng)和機(jī)器人對(duì)安全和責(zé)任的影響的報(bào)告;一份概述歐盟數(shù)據(jù)戰(zhàn)略的論文;以及一份關(guān)于人工智能“卓越與信任”的白皮書(shū)??偟膩?lái)說(shuō),這些文件喚起了技術(shù)專制,民主虔誠(chéng)和雄心勃勃的融合,而這正是歐盟交流的特點(diǎn)。話雖如此,就采取一切措施使科技公司受到某種控制而言,歐洲委員會(huì)并非是唯一的選擇。
巧合的是,在臉譜網(wǎng)創(chuàng)始人馬克·扎克伯格及其助手尼古拉斯·克萊格的陪同下,在整整24小時(shí)前,就發(fā)布了政策閃電戰(zhàn)??巳R格看上去有點(diǎn)眼熟,他曾親切地呼吁歐盟委員會(huì)向其官員解釋監(jiān)管科技公司的正確方法。官員們依次向他表示感謝,并禮貌地解釋稱,他們有自己的想法,并護(hù)送他回到他的座位上。
對(duì)于這個(gè)問(wèn)題來(lái)說(shuō),歐盟發(fā)布的最有趣的文件是關(guān)于人工智能的白皮書(shū)。布魯塞爾宣稱,歐盟委員會(huì)提出“一種以監(jiān)管和投資為導(dǎo)向的方法”,該方法有兩個(gè)目標(biāo):促進(jìn)人工智能的普及,并解決與該技術(shù)的某些用途相關(guān)的風(fēng)險(xiǎn)。然后,該文件就如何實(shí)現(xiàn)這些目標(biāo)列出了不同的政策選擇。
一旦您擺脫了關(guān)于歐盟的“技術(shù)和工業(yè)優(yōu)勢(shì)”,“高質(zhì)量的數(shù)字基礎(chǔ)設(shè)施”和“基于其基本價(jià)值的監(jiān)管框架”等強(qiáng)制性的提倡歐元言論,將使歐洲成為“數(shù)據(jù)經(jīng)濟(jì)及其應(yīng)用創(chuàng)新的全球領(lǐng)軍者”。該白皮書(shū)似乎非常明智,但是,對(duì)于所有有關(guān)如何實(shí)際處理人工智能的文件,它都依賴于傳統(tǒng)的有關(guān)人類代理和監(jiān)督,隱私和治理,多樣性,非歧視性和公平,社會(huì)福祉,問(wèn)責(zé)制以及最受歡迎的“透明度”的傳統(tǒng)陳詞濫調(diào),唯一明顯的遺漏是不確定性。
但是,這在目前的人工智能領(lǐng)域是意料之中的事情:討論總是由三部分概括而成,其中兩部分傳達(dá)了一點(diǎn)點(diǎn)虔誠(chéng)的希望,這已經(jīng)到了人們渴望獲得一些直白和常識(shí)的地步??傊?,歐盟和臉譜網(wǎng)都想監(jiān)管人工智能,劍橋大學(xué)教授提出通俗易懂的辦法。
幸運(yùn)的是,它是由著名的劍橋大學(xué)統(tǒng)計(jì)學(xué)家、英國(guó)皇家統(tǒng)計(jì)學(xué)會(huì)前主席戴維·斯皮格豪特爵士提出的。他終其一生都在試圖教人們?nèi)绾卫斫饨y(tǒng)計(jì)推理,并于上月在《哈佛數(shù)據(jù)科學(xué)評(píng)論》上發(fā)表了一篇對(duì)人們非常有幫助的文章,題目就是“我們應(yīng)該信任算法嗎?”
哲學(xué)家?jiàn)W諾拉·奧尼爾的觀點(diǎn)為斯皮格豪特的方法奠定了基礎(chǔ)——我們應(yīng)該關(guān)注的是可信賴性而不是信任,因?yàn)樾湃问且粋€(gè)如此模糊、難以捉摸和令人不滿意的概念。(在這方面,它與隱私?jīng)]什么不同。)奧尼爾在一次著名的技術(shù)演講中指出,尋求更多的信任“不是人生明智的目標(biāo)——明智地安排和明智地拒絕信任才是正確的目標(biāo)”。
通過(guò)實(shí)際應(yīng)用奧尼爾的觀點(diǎn),斯皮格豪特教授認(rèn)為,當(dāng)出現(xiàn)一種新算法時(shí),我們最應(yīng)該關(guān)注的是,程序員對(duì)系統(tǒng)(開(kāi)發(fā)人員說(shuō)它能做什么,它是如何被評(píng)估的)和對(duì)框架(它對(duì)一個(gè)特定案例的結(jié)論)的可信聲明。
由此,斯皮格豪特提出了一組關(guān)于任何算法的7大問(wèn)題:1、在現(xiàn)實(shí)世界的新地方嘗試有什么好處嗎?2、一個(gè)更簡(jiǎn)單、更透明、更強(qiáng)大的東西是否也一樣好呢?3、我能否向任何感興趣的人解釋一下它的工作原理嗎?4、在特定情況下,我能否向一個(gè)人解釋它是如何得出結(jié)論的嗎?5、算法能否知道自己何時(shí)處于不穩(wěn)定狀態(tài),并能否自己承認(rèn)這種不確定性嗎?6、人們使用算法是否恰當(dāng),人們能否可以持適當(dāng)?shù)膽岩蓱B(tài)度?7、算法在實(shí)踐中是否真的有用嗎?
在我看來(lái),這是一份對(duì)于監(jiān)管人工智能或提出任何新算法的非常有用的問(wèn)題清單。到目前為止,我們遇到的大多數(shù)有嚴(yán)重缺陷的機(jī)器學(xué)習(xí)系統(tǒng),都會(huì)因?yàn)檫@些方面的某些或全部原因而失敗。斯皮格豪特的問(wèn)題是具體的,而不是籠統(tǒng)的,比如“透明度”或“可解釋性”。而且,最重要的是,它們對(duì)普通人來(lái)說(shuō)是通俗易懂的,而不需要像那些設(shè)計(jì)算法的極客們那樣學(xué)習(xí)算法,才能真正弄懂這一切。
那么最重要的問(wèn)題是哪個(gè)呢?斯皮格豪特認(rèn)為是第5個(gè)問(wèn)題:即人工智能機(jī)器應(yīng)該知道它什么時(shí)候不理解算法——并且承認(rèn)它不理解算法,也就是說(shuō),對(duì)人工智能的真正考驗(yàn)在于,機(jī)器能否承認(rèn)何時(shí)以及為何不理解算法。可悲的是,這是許多人的失敗考驗(yàn)。