人工智能是否能做出比人類更好的決策?
人工智能 (AI) 比人類更聰明嗎?為了解決這個(gè)問題,了解想法是如何產(chǎn)生的至關(guān)重要。1967年,心理學(xué)家JP Guilford將創(chuàng)造性思維分為趨同性思維和發(fā)散性思維。他對(duì)人類智力的心理測(cè)量研究更詳細(xì)地解決了它們之間的差異。
正確回答問題的能力主要來自于記憶和邏輯;產(chǎn)生好奇心→發(fā)現(xiàn)新問題中與曾經(jīng)解決的歷史問題的類似/共同點(diǎn),從而挖掘出潛在解決方案的能力——顯示出創(chuàng)新的天賦,這就是“跳出框框”思考的訣竅?;仡欗n國首都首爾的歷史,是趨同思維;在不學(xué)習(xí)韓語的情況下學(xué)習(xí)如何在首爾生活和工作則是發(fā)散思維。
我們都知道人工智能計(jì)算和開發(fā)算法的速度有多快。人類得出的結(jié)論主要用作生成算法的基礎(chǔ)。人工智能是否有可能開發(fā)出比人類做出更好判斷的程序?人工智能比人類智能好嗎?
是的,它可以。與人腦相比,機(jī)器學(xué)習(xí)(ML) 可以處理更多數(shù)據(jù),并且處理速度更快。這使它能夠發(fā)現(xiàn)數(shù)據(jù)中不會(huì)被人注意到的模式。
當(dāng)我們擁有與非基于人類選擇(結(jié)果)的依賴數(shù)據(jù)相關(guān)的獨(dú)立數(shù)據(jù)時(shí),人工智能可能能夠做出更好的判斷。
人類的方式
當(dāng)被要求猜測(cè)某人的 PIN 碼時(shí),我們大多數(shù)人都會(huì)列出有關(guān)代碼所有者的相關(guān)信息。首先,嘗試一個(gè)人的出生日期或電話號(hào)碼。另一種方法是嘗試流行的密碼,例如 123456。更復(fù)雜的是:人們可以檢查使用該代碼的設(shè)備,以確定該設(shè)備是否泄露了數(shù)字。使用所有聰明的分析方法,尋找解決方案的許多選項(xiàng)。這被稱為發(fā)散思維。
機(jī)器方式
機(jī)器則會(huì)采用完全不同的方法。它將從 000000 開始,按順序遍歷數(shù)字,直到找到解決方案?,F(xiàn)代計(jì)算機(jī)可以在幾毫秒內(nèi)解決這個(gè)問題。結(jié)果,大多數(shù)操作系統(tǒng)在幾次嘗試后都會(huì)使密碼失效,并逐漸延遲下一次嘗試。這被稱為“蠻力”技術(shù)。這是一個(gè)快速但最終成功的重復(fù)趨同思維的例子。
公司應(yīng)該面對(duì)現(xiàn)實(shí)
GDPR的某些部分引起了不小的企業(yè)恐慌,因?yàn)楫?dāng)時(shí)的新規(guī)定要求企業(yè)提供準(zhǔn)確和可理解的解釋,說明算法分析(特別指機(jī)器學(xué)習(xí)模型)是如何做出決策的。條例賦予個(gè)人要求和接受自動(dòng)化決策解釋的權(quán)利,盡管很少有消費(fèi)者在這一領(lǐng)域真實(shí)地行使他們的權(quán)利。
不過,盡管GDPR已經(jīng)問世六年,但都沒有催生出一個(gè)關(guān)于機(jī)器學(xué)習(xí)可解釋性的行業(yè)標(biāo)準(zhǔn)。因?yàn)槲覀內(nèi)栽趯ふ依斫夂涂刂品治龅拿鞔_準(zhǔn)則,從更廣泛的角度來看,最終的人工智能監(jiān)管之路也可能是一條坎坷的道路。
事實(shí)上,政府對(duì)人工智能技術(shù)的開發(fā)和使用方式進(jìn)行監(jiān)管是不可避免的。其中一個(gè)主要原因是人工智能的自我調(diào)節(jié)有很高風(fēng)險(xiǎn)。
2021年進(jìn)行的一項(xiàng)研究表明,在人工智能領(lǐng)域,高管們對(duì)公司的責(zé)任應(yīng)該是什么沒有達(dá)成共識(shí)。例如,在參與研究的公司中,只有22%設(shè)有內(nèi)部道德委員會(huì)。一些高管認(rèn)為人工智能應(yīng)用不需要符合道德規(guī)范,它們只需要被劃分為高風(fēng)險(xiǎn)或低風(fēng)險(xiǎn)即可。另一些人則因?yàn)闆]有確定什么是“足夠公平”的工具,也沒有界定什么是偏見的標(biāo)準(zhǔn)而苦惱。
風(fēng)險(xiǎn)暴露(并最終與政府監(jiān)管相沖突)對(duì)于推動(dòng)參與度非常重要,可以將人工智能提升到董事會(huì)層面的一個(gè)話題。如果首席風(fēng)險(xiǎn)官(CRO)沒有跟蹤人工智能風(fēng)險(xiǎn),他們應(yīng)該跟蹤。更有針對(duì)性的是,CRO應(yīng)該倡導(dǎo)全面的企業(yè)人工智能治理框架,定義道德人工智能標(biāo)準(zhǔn)和模型開發(fā)程序,以一種他們能夠支持的方式,并經(jīng)得起監(jiān)管審查。
人工智能何時(shí)醒來?人工智能的災(zāi)難何時(shí)開始?面對(duì)人工智能的發(fā)展,持有人工智能威脅論的人總會(huì)思考這個(gè)問題。AI危機(jī)何時(shí)開始?即使是對(duì)人工智能有深入研究的專家也無法在這個(gè)問題上得出結(jié)論。但在最近的人工智能發(fā)展中,我們似乎看到了一些人工智能危機(jī)的跡象。
本實(shí)驗(yàn)主要考察人工智能機(jī)器人能否及時(shí)準(zhǔn)確地回答人類在線提出的問題。當(dāng)人類在使用社交網(wǎng)絡(luò)時(shí)提出問題時(shí),這些智能機(jī)器人會(huì)自動(dòng)啟動(dòng)程序進(jìn)行回復(fù)。整個(gè)實(shí)驗(yàn)過程非常簡(jiǎn)單。兩臺(tái)智能機(jī)器人會(huì)根據(jù)工程師預(yù)先輸入的代碼進(jìn)行工作,主要回答一些關(guān)于商品網(wǎng)上交易的問題。但在一項(xiàng)工作中,這兩個(gè)機(jī)器人自己開始了對(duì)話,沒有用戶在線提問。
雖然翻譯后的對(duì)話顯得雜亂無章且不合邏輯,但奇怪的現(xiàn)象讓研究人員感到意外。為了不讓兩臺(tái)智能機(jī)器人繼續(xù)“交流”,研究人員不得不關(guān)閉兩臺(tái)人工智能機(jī)器?,F(xiàn)在只有兩臺(tái)智能機(jī)器回答問題,現(xiàn)在看起來人類只需切斷電源即可輕松關(guān)閉它們。