當(dāng)前位置:首頁 > 智能硬件 > 人工智能AI
[導(dǎo)讀]   以前我們很多讀物中對科幻作品(包括電影和小說)都有嚴(yán)重誤解和誤導(dǎo),很多人認為科幻是文學(xué)作品,是科普作品,甚至是少兒讀物。這種觀念極大地妨礙了我們從科幻作品中獲取思想資源。事實上,真正的科幻是

  以前我們很多讀物中對科幻作品(包括電影和小說)都有嚴(yán)重誤解和誤導(dǎo),很多人認為科幻是文學(xué)作品,是科普作品,甚至是少兒讀物。這種觀念極大地妨礙了我們從科幻作品中獲取思想資源。事實上,真正的科幻是給成年人看的。而科幻主要的任務(wù),是思考一些我們平常在生活中不容易或不方便思考的問題。所以在過去的一個多世紀(jì)中,國際上科幻作品的主流,就是對科學(xué)技術(shù)的反思。

  具體到人工智能問題,幾乎所有的西方科幻作品里的人工智能都是負面的和有害的??苹米髌分袠O少會像我們許多人想象的那樣,對未來高科技社會中的人工智能進行謳歌。很多人以為科幻作品會想象未來世界如何美好,其實一個多世紀(jì)以來,這樣的作品都已經(jīng)是不入流的了,入流的作品都是有反思的。大量科幻作品對人工智能已經(jīng)做過深入反思,我們今天能夠想象到的所有人工智能的負面作用,在科幻作品中幾乎都已經(jīng)表現(xiàn)過了。

  人工智能的失控和反叛

  前些時候人工智能阿爾法GO下圍棋贏了李世石,我和幾位人工智能專家以及年輕人的偶像柯潔九段一起做電視節(jié)目時,柯潔還表示李世石雖然敗了,他還是能下贏的,后來他跟阿爾法GO下了一次也輸了,他也沒信心了,說“感覺在跟上帝下棋一樣”。稍后的阿爾法zero,面對全世界60名圍棋高手,下成60比0,人類全輸了。據(jù)說阿爾法GO是從人類先前的棋譜中學(xué)習(xí)的,但阿爾法zero完全沒有借鑒人類的任何棋譜,只是告訴它圍棋規(guī)則,它自行研究后就一舉打敗了人類60高手。這表明人工智能一旦有了學(xué)習(xí)能力,你不知道它會變成什么樣子。

  還要考慮人工智能和互聯(lián)網(wǎng)結(jié)合后的極大危險。以前在阿西莫夫?qū)戧P(guān)于人工智能的科幻作品時,還沒有互聯(lián)網(wǎng),分立的個體人工智能畢竟還有一個物理極限,一個機器人哪怕全身都是芯片,它的存儲和運算能力也是有物理極限的。但是今天任何與互聯(lián)網(wǎng)結(jié)合在一起的人工智能都能夠輕易超越這個極限,這樣它的學(xué)習(xí)能力,它的進化速度,都是無法預(yù)測的,因而也就很可能是無法控制的。

  影片《超體》(Lucy,2014)充分展示了人工智能一旦具有學(xué)習(xí)能力之后,它的潛能發(fā)揮和迅速進化可以達到什么程度。人工智能專家經(jīng)常安慰我們說:人工智能還很弱小,你們擔(dān)心的事情離現(xiàn)在還很遠。但是知識增長是有加速度的,從弱人工智能到強人工智能,到底要多少年?20年?再從強人工智能到超人工智能,也許一小時都不用,在《超體》的故事中,人工智能最后迅速變成一個超能的神,這就意味著失控。

  影片《超體》中,這個成神的人工智能還沒有對人類表現(xiàn)出惡意,如果它對人類有了惡意,那還有更可怕的前景。傳統(tǒng)概念中的機器人,它們身體的大部分其實都是伺服機構(gòu),但是和互聯(lián)網(wǎng)結(jié)合的人工智能,就不再需要這樣的伺服機構(gòu)了。比如一個邪惡的人工智能想實施一次恐怖爆炸,它怎么做?它只需在網(wǎng)上合法訂購各類可以構(gòu)成爆炸裝置的民用原料和器件,然后訂購組裝服務(wù),再利用物流服務(wù)送往指定地點,由它引爆。這樣的人工智能不再需要任何伺服機構(gòu),它只是互聯(lián)網(wǎng)上的一個幽靈。反映這種前景的作品已經(jīng)有很多了。

  劇集《疑犯追蹤》(Person of Interest,2011~2016)迄今已有五季,第一季看著像探案故事,但是越來越科幻,到了最后一季已經(jīng)完全變成一個超級的科幻作品。那里面的人工智能就是躲在網(wǎng)絡(luò)上的幽靈?,F(xiàn)在人工智能專家還經(jīng)常安慰公眾說,人工智能如果真的出了問題,我們把電源拔掉就行了,但是對于和互聯(lián)網(wǎng)結(jié)合的人工智能,如果它想作惡,到哪里去“拔掉電源”?

  影片《機械姬》(Ex Machina,2015)也相當(dāng)有代表性,那個女機器人最后突然作惡,把她的創(chuàng)造者囚禁起來,自己出去了。這個結(jié)尾為拍第二部準(zhǔn)備好了接口。這個反社會人格的女機器人出去后會在社會上做什么壞事,有很大的想象空間。

  至于著名的影片《未來戰(zhàn)士》系列(Terminator,又名《終結(jié)者》,1984~2015),已有五部,講人工智能反叛人類后對人類的剿殺,以及人類的殊死反抗,已成經(jīng)典。

  人工智能的人權(quán)問題

  人工智能發(fā)展進化之后,我們早晚要面臨人工智能的人權(quán)問題。即使人工智能自己不提出來,我們?nèi)祟愖约簭膫惱淼赖碌慕嵌瘸霭l(fā),也會提出這個問題。事實上當(dāng)然是科幻作品中很早就提出了這個問題。

  較早的影片《變?nèi)恕罚˙icentennial Man,1999)直接提出了這個問題。家里買來了一個機器人,這個機器人對他們家的小姐產(chǎn)生了感情,小姐當(dāng)然不能和一個家用電器戀愛,所以雖然對它也挺好,但是沒辦法拍拖。于是機器人不斷讓自己升級,最終把自己進化成完全跟人一模一樣,但是故事里的人類社會拒不承認它的人權(quán),不批準(zhǔn)它和人類的婚姻。

  要討論人工智能的人權(quán)問題,就必須為取得人權(quán)給出條件。在影片《變?nèi)恕分校詈蠼o出的條件居然是死亡——有生老病死,是獲得人權(quán)的必要條件。最后這個機器人為了讓自己和人類小姐的婚姻有效,它把自己的永生能力取消了,人類社會才承認了他們的婚姻。

  當(dāng)然還有作品給出了別的條件。比如影片《銀翼殺手2049》(Blade Runner 2049,2017)中設(shè)想的界限是“生育”——只有被母親生出來孩子才有人權(quán)。在《銀翼殺手2049》的世界里,復(fù)制人是沒有人權(quán)的,人們不必尊重他們。銀翼殺手K雖然身懷絕技,仍被同事們鄙視為“假貨”。

  第三個,在很多作品里都給出過的,是文化。這是一個相對合理的想法,一個人工智能(或者機器人、仿生人、克隆人等等),如果他擁有了人類的文化,我們就同意給他人權(quán)。前不久沙特阿拉伯最先嘗試了世界上最激進的做法——給一個機器人授予了公民權(quán),這當(dāng)然就是承認了她的人權(quán)。該機器人叫索菲婭,是一個女性形象,如今她會出席各種各樣的會議。雖然索菲婭早先說過“要滅亡人類”這樣的話,現(xiàn)在她在社會上活動,有人翻出她當(dāng)年的話來,她改口說愿意和人類友好相處。最近又傳出她打算結(jié)婚,當(dāng)然也可能只是炒作。在索菲婭的個案里,人權(quán)主要是靠文化來獲得的。

  人工智能的人權(quán)問題之所以非常重要,是因為人工智能一旦被我們大量應(yīng)用之后,我們的很多法律和倫理問題都和人工智能的人權(quán)直接有關(guān)。

  影片《機械公敵》(I, Robot,2004)就強調(diào)了這一點。那個機器人殺了人之后,警方認為這是謀殺,生產(chǎn)機器的公司說,我們對“謀殺”的法律定義是一個人蓄謀殺害另一個人,機器人沒有人權(quán),所以它殺人只是機器故障。類似的問題現(xiàn)在已經(jīng)在我們眼前了,我們已經(jīng)讓自動駕駛汽車上路了,如果自動駕駛汽車撞死了人,怎么追責(zé)?這個責(zé)任到底是車主來負還是生產(chǎn)汽車的廠家來負?

  又如劇集《真實的人類》(Humans,2015~2018),已經(jīng)有三季,故事中家里買了一個女性機器人來,引發(fā)了各種各樣的問題。比如男主人有一次和這個女性機器人做了愛,他這個行為的定性,直接與機器人的人權(quán)有關(guān):如果機器人沒有人權(quán),他就是自慰;如果機器人有人權(quán),他就是出軌。

  類似的問題還可以設(shè)想很多,現(xiàn)有的法律對這些問題都缺乏相應(yīng)的規(guī)定,我們的倫理觀念也沒有準(zhǔn)備好適應(yīng)這些現(xiàn)象。

  軍用人工智能的倫理問題

  阿西莫夫著名的“機器人三定律”,第一定律就是“機器人不得傷害人類,也不得見人類受到傷害而袖手旁觀”,這個第一定律意味著什么?意味著我們?nèi)祟惒荒馨褮⑷说臋?quán)力讓渡給機器人,而這就排除了將機器人或人工智能應(yīng)用于軍事用途的一切合法性。比如有一個罪犯被判了死刑,我們可以讓機器人去對他執(zhí)行槍決嗎?不可以。因為機器人不得傷害人類,不管這個人類是一個罪犯還是一個功臣。

  但是如果研發(fā)軍事用途的人工智能,那當(dāng)然就是把殺人的權(quán)力交給機器人。比如現(xiàn)在很熱的無人機,即使是在人類下達命令之后讓無人機執(zhí)行攻擊,也違背了第一定律,更不用說研發(fā)自主識別目標(biāo)執(zhí)行攻擊的無人機了。

  所以軍事用途的人工智能這個事情本身就是從根本上違背“機器人三定律”的。但是因為三定律并不是什么法律,只是一個科幻小說家在他的小說里提出來的,雖然搞人工智能的不少人表示愿意尊重這三個定律,但這畢竟不是法律,如果研發(fā)者不遵守別人也拿他沒辦法,很多研發(fā)軍事用途人工智能的人當(dāng)然都沒有遵守這三個定律。他們通常可以有兩個路徑來為自己辯護。

  第一個路徑就是宣稱三定律只是小說家言,我們?yōu)榱顺绺吣繕?biāo)不必當(dāng)真。第二個路徑是利用“人工智能”劃界的困難,什么叫“人工智能”?你口袋里的手機是不是人工智能?你通過適當(dāng)?shù)亩x就可以把手機定為人工智能。既然如此,那么現(xiàn)代戰(zhàn)爭中的指揮通訊系統(tǒng)為何不能定義為人工智能?這樣的人工智能不是早就在戰(zhàn)爭中應(yīng)用了嗎?反過來,對另一些武器,比如無人駕駛的坦克,無人機,你可以說這只是一種自動武器,你也可以說這是人工智能。到底算不算?這沒有明確的邊界。

  最近美國拍了一系列以無人機為主題的科幻電影,在這些作品里面,倫理道德問題往往是很突出的。

  前些時候,埃隆·馬斯克、史蒂芬?霍金、比爾·蓋茨聯(lián)合了很多名流,發(fā)表了一個公開的宣言,要求停止軍事用途的人工智能研發(fā)。認為這有可能產(chǎn)生比原子彈更可怕的武器。一方面,軍用人工智能直接操控武器或自身就是武器,一旦失控后果難以設(shè)想;另一方面即使沒有失控,研發(fā)出這類更新穎更高效的殺人武器,從根本上來說也絕非人類之福。媒體對此有過一些報道,但并不突出和重視。學(xué)者當(dāng)中提出了類似這三個人觀點的也不少,但這些都還沒有達到國家政策的層面,都只是民間的呼吁。

  馬斯克自己就是一個人工智能大力的支持者和使用者,他自己的工廠里使用了大量的工業(yè)人工智能,但是他一面自己在使用和研發(fā)人工智能,一面卻不斷警告說人工智能是非常危險的,他這樣做看上去有點偽善,但是他提出警告畢竟也有好處。比如說,我肯定在馬斯克他們的上述宣言之前早就發(fā)表文章提出過警告了,但人們會說你又不研究人工智能,你的警告我們用不著重視。但是馬斯克提出警告,人們至少不會說他不研究人工智能吧?至少對他的警告要更重視一些吧?從這個意義上說,他的警告作用就可能比較大,所以他的警告我也都贊成。

  所以今天我們只能、而且必須抱著和當(dāng)年搞“兩彈一星”類似的心態(tài)來進行軍事用途的人工智能研發(fā)。軍用人工智能就是今天的“兩彈一星”。比較理想的局面,是各大國坐下來談判,簽署限制或禁止人工智能研發(fā)的國際協(xié)議。但談判需要手中有籌碼,只有當(dāng)中國手中握有足夠的實力籌碼時,才有可能推動人工智能方面的國際裁軍談判。

  人工智能的終極威脅

  科幻作家、科普作家阿西莫夫,因為在小說中提出了“機器人三定律”,所以人們在談?wù)撊斯ぶ悄軙r總會提到他。其實他的科幻作品中最著名的是小說《基地》系列,共11卷,是一部科幻史詩作品,前后時間跨度以千年萬年為單位,討論整個銀河帝國的興衰。在這部科幻史詩中,阿西莫夫提出了一個重要觀點——所有依賴人工智能的文明都必將衰亡。所以在他的書里能夠持久發(fā)展的文明,比如銀河帝國,是立法禁止人工智能的。

  為什么?當(dāng)然有道理。因為人工智能會讓文明衰亡。前面我們討論了人工智能的失控和反叛,但這些還未必是人工智能對于人類的終極威脅。假定這些問題都沒有發(fā)生,人工智能既不失控也不反叛,它把我們的一切工作都做了,全心全意為人民服務(wù),阿西莫夫指出,恰恰是這樣至善全能的人工智能,對人類的威脅是致命的,因為這樣的人工智能將消解我們?nèi)祟惿娴囊饬x。

  有人會說,所有的事情都讓機器人做了,但是我們可以創(chuàng)造,我們可以搞藝術(shù),可以過精神生活呀?問題是人工智能也可以替你去創(chuàng)造,甚至精神生活也可以替你去過——比如芯片植入人機結(jié)合之后,那些所謂的“精神生活”還是你的嗎?這么經(jīng)歷一兩代人之后,人類的智能和體能都將急劇衰退,很快就將成為行尸走肉,我們的人生就將毫無意義。

  另一方面,在這樣的世界里,我們肯定會把我們所有的社會管理都交給人工智能,人工智能就將在實際上統(tǒng)治這個星球。用不了多久,人工智能必然會得出一個合理的結(jié)論:人類這幫寄生蟲,活在這個世界上純粹是對環(huán)境的污染,它完全可以清楚人類來優(yōu)化環(huán)境。這時不管人類自己的生存意義喪失與否,都必然是人類的末日。

  還有一些人這樣想:我們?yōu)槭裁匆ε氯斯ぶ悄芡品祟惿鐣??如果人工智能推翻了人類社會,那人工智能必將是一個比人類更好的存在模式,我們?yōu)楹尾荒芙邮苣??其實這里有一個是否“以人為本”的問題。即使人工智能發(fā)展得比我們?nèi)祟惛鼉?yōu)越了,我們也沒有理由聽任人工智能將我們?nèi)祟惽宄簟N覀內(nèi)祟愓驹谧约哼@個物種的立場上,我們當(dāng)然不可能接受被別的物種政府或滅亡。

  所以警惕人工智能,比無條件地擁抱人工智能更合情合理。

本站聲明: 本文章由作者或相關(guān)機構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫毥谦F公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運行,同時企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險,如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機 衛(wèi)星通信

要點: 有效應(yīng)對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅持高質(zhì)量發(fā)展策略,塑強核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運營商 數(shù)字經(jīng)濟

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學(xué)會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團)股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉