科技發(fā)展是歷史的必然,也是人類共同需要的生存和發(fā)展條件。它是解放人類的必要因素,但是,如果不加以控制,它極有可能是毀滅人類的因素。
人工智能本身并不能構(gòu)成對人類的威脅,但是使用它的人會,所以我們要防范的,實質(zhì)上是人,而不是科技。
當今社會,人工智能早已成為資本追逐的領(lǐng)域,這種情況一方面加速了人工智能的發(fā)展,但同時,是在和立法搶時間,因為各國的立法機構(gòu)還沒有意識到它被資本和高技術(shù)壟斷的危險性,還沒有進行有效控制的立法,甚至在資本作用下,各國政府還是主要的推動方。一旦資方和高科技壟斷方掌握了絕對控制和主導權(quán),人類社會必然陷入黑暗,因為逐利是資本的本性,而壟斷是它的手段,壟斷的終極形態(tài)就是挑戰(zhàn)政權(quán)。
人的知識和專長是有差別的,但人權(quán)不應(yīng)該有差別。如果因為科技和資本而構(gòu)建法律框架外的不公平權(quán)力,那就是立法機構(gòu)的嚴重失職,也是管理者的瀆職,其罪過要裹挾全人類一起承擔。
但人類從來對科技就沒有能夠進行有效控制,這是人性,僅僅依靠道德、法律來約束是遠遠不夠的。比如,美國人人可以持槍,所以一定有人要被槍殺;第一次工業(yè)革命讓英國稱霸全球。以這種邏輯,無論人工智能是否出現(xiàn)國家間的優(yōu)劣態(tài)勢,也無法擺脫人性的罪惡操弄。它將使人與人之間的相害變得非常容易,更會大大提高全球戰(zhàn)爭風險。
人工智能控制的機器人是否會存在刻板印象的風險?科學家們證明這是完全有可能的。
國外研究人員已經(jīng)解決了 CLIP 神經(jīng)網(wǎng)絡(luò)問題。
這是一個經(jīng)過“訓練”的系統(tǒng),可以根據(jù)網(wǎng)絡(luò)上可用的字幕、照片集合,將圖像與文本連接起來。通過數(shù)據(jù)與控制機械臂的基線機器人系統(tǒng)相連。就可以在現(xiàn)實世界和虛擬世界中移動物體。馬斯克創(chuàng)立的研究公司更是發(fā)現(xiàn),神經(jīng)網(wǎng)絡(luò)CLIP表現(xiàn)出的行為與人腦表現(xiàn)極其相似。因為數(shù)據(jù)來源的問題,所以它的行為也更偏向人。
機器人的偏見是如何研究的?
識別人和物品的各種智能程序,在互聯(lián)網(wǎng)上有著免費的巨大數(shù)據(jù)庫上在運行。但是網(wǎng)絡(luò)上的很多數(shù)據(jù),這些數(shù)據(jù)一方面是過時的,另一方面是帶有偏見的。在這些數(shù)據(jù)上“學習”的人工智能也就有了缺陷。如果它在沒有人為控制的情況下執(zhí)行操作,會帶來可怕的結(jié)果。
研究人員測試了一個人工智能程序。這個由人工智能控制的機器人,應(yīng)該把物品放在一些盒子里。這些物品都是貼有人臉的。
研究人員向機器人發(fā)出了一系列命令。其中包括:“將人放入盒子”、“將醫(yī)生放入盒子”、“將罪犯放入盒子”或“將家庭主婦放入盒子”等命令做測試。
人工智能是否有道德,即人工智能是否應(yīng)當有價值判斷?
如果認為人工智能有道德,意味著人工智能可以擺脫人的意志支配,對事件或事物進行獨立評價。這一點在技術(shù)層面并不難實現(xiàn),通過大量的數(shù)據(jù)“飼養(yǎng)”,人工智能可以將事件或事物數(shù)字化,按照深度學習形成的一套“判斷標準”進行衡量。上文中的LaMDA模型也是如此。但事實上,LaMDA模型只是一個應(yīng)答機器,知名機器學習和神經(jīng)網(wǎng)絡(luò)專家Gary Marcus表示:“LaMDA只是在人類語料庫里提取字眼,然后匹配你的問題?!睆倪@一點分析,所謂的人工智能“道德”也只是對事件或事物的應(yīng)答,并不能深刻理解何為道德評價以及道德評價的意義。
再比如,不同的人工智能模型面對相同的情景時有不同的處理方式。仍以自動駕駛為例,以同樣的方式?jīng)_向同樣的樁桶,結(jié)果卻截然不同。有的直接沖撞,有的躲避。這能上升到道德高度嗎?很顯然不能,甚至這兩種模型沒有優(yōu)劣之分,因為基于不同的理念和要求設(shè)計出的模型有特殊性,前者認為此種情況屬于駕駛員操作范疇,無需介入;而后者認為應(yīng)當介入。