關(guān)于人工智能的這些疑問,看看專家學(xué)者們怎么說?
研究發(fā)現(xiàn),人工智能有助于聯(lián)合國可持續(xù)發(fā)展目標(SDG)的134個具體目標取得積極成果,但它也可能阻礙59個具體目標的進展。國際電信聯(lián)盟(ITU)戰(zhàn)略參與處負責人Fred Werner表示,在對偏見、隱私和道德問題表示關(guān)切的同時,還應(yīng)思考人工智能數(shù)字鴻溝愈演愈烈的問題。
Werner指出:“發(fā)展中國家無法隨時掌握豐富的數(shù)據(jù)集?!彼粲鯇⑿畔?shù)字化,以充分利用人工智能?!罢业揭园踩煽康姆绞浇粨Q協(xié)作數(shù)據(jù)的先決條件非常重要?!彼J為,只有可發(fā)現(xiàn)的數(shù)據(jù)才能擴展相關(guān)的人工智能解決方案。
人工智能培訓(xùn)會消耗大量能源,對計算資源的需求巨大。國際電聯(lián)電信標準化局副主任Reinhard Scholl指出,只有較富有的國家和大學(xué)才有運行機器學(xué)習模型的計算能力。他認為,這成為人工智能和前沿技術(shù)民主化進程的障礙。
博特納基金會的政策負責人Ulla Jasper認為,數(shù)字衛(wèi)生技術(shù)具有帶來新風險和新回報的“兩面性”。然而,Jasper希望看到人工智能改善低收入和發(fā)展中國家年輕人的福祉。
Jasper指出,低收入和發(fā)展中國家應(yīng)當利用新冠肺炎疫情對數(shù)字轉(zhuǎn)型起到的加速作用。
博特納基金會的坦桑尼亞AfyaTek項目,尋求借助數(shù)字衛(wèi)生技術(shù)改善社區(qū)一級的衛(wèi)生保健服務(wù)。通過將信息流數(shù)字化和使用生物識別數(shù)據(jù),該項目旨在使五歲以下兒童不再出現(xiàn)可預(yù)防的死亡。
對于事實的重要性,克里斯托杜盧引用了赫布·西蒙(Herb Simon)、約翰·斯威勒(John Sweller)、約翰·安德森等的研究成果,而我早期在薩塞克斯大學(xué)開展對人工智能的研究時,也接觸過這些學(xué)者的研究。她建議,對于事實的教學(xué)方式應(yīng)該圍繞著訓(xùn)練長期記憶來展開,以此來幫助我們彌補有限的工作記憶的不足。我們想要做到這一點的唯一方式就是,通過死記硬背的方式來將規(guī)則和信息強加給長期記憶。例如,我們可以將信息歸并在一起,然后利用背景知識和規(guī)則來將其存儲在長期記憶中。我認同學(xué)習事實在教育中的重要性,也認同只有在長期記憶中清晰地儲備大量的知識,才有助于我們更好地施展諸如創(chuàng)造力和解決問題的能力等高級技能。然而,事實只是人類智能的一小部分,因此我們也不應(yīng)過分夸大其重要性。
很多公司,如總部設(shè)于英國的世紀科技公司(Century Tech),還利用機器學(xué)習技術(shù)來開發(fā)學(xué)習類平臺,對此類系統(tǒng)進行訓(xùn)練時,開發(fā)人員使用了由神經(jīng)科學(xué)家們提供的信息,使該系統(tǒng)能夠跟蹤學(xué)生的交互情況,其中包括每次的鼠標移動和擊鍵。世紀科技公司開發(fā)的人工智能學(xué)習平臺會利用學(xué)生、學(xué)生所在的年級組和學(xué)校提供的全部數(shù)據(jù),在此類數(shù)據(jù)中尋找模式和相關(guān)性,從而為學(xué)生提供個性化的學(xué)習之旅。此類學(xué)習平臺還能夠為教師提供儀表板,讓他們實時了解班上每位學(xué)生的學(xué)習狀態(tài)?,F(xiàn)在,研究人員很有可能可以開發(fā)出一款人工智能系統(tǒng),可以用來教授大多數(shù)國家的中小學(xué)和大學(xué)所有領(lǐng)域的課程。
如何應(yīng)對人工智能可能帶來的倫理挑戰(zhàn)?
報告發(fā)布會上,北京大學(xué)哲學(xué)系教授何懷宏指出人工智能是一種區(qū)別于傳統(tǒng)人造物的機器,其能力對人類而言還有很多未被發(fā)掘的部分,我們應(yīng)該進一步思考人和人工智能這一特殊關(guān)系,思考如何促進人工智能發(fā)展、人工智能如何給人類賦能、如何深入具體地將人工智能運用到各個領(lǐng)域、以及人工智能的運用會帶來哪些新的問題。
中國社會科學(xué)院哲學(xué)所科技哲學(xué)研究員、中國社會科學(xué)院科學(xué)技術(shù)和社會研究中心主任段偉文探討了人工智能倫理治理的主體問題。他指出,當前實踐人工智能領(lǐng)域的倫理規(guī)范主要是以科技公司為主體,政府也應(yīng)積極的參與到該領(lǐng)域的倫理治理中,扮演積極的角色,更加靈活地進行適應(yīng)性治理。
北京大學(xué)法學(xué)院副教授、北京大學(xué)法律人工智能研究中心副主任江溯指出,隨著智能性技術(shù)廣泛使用,社會可能會慢慢變成“全景敞視監(jiān)獄”,個人的自由空間可能會被壓縮。我們應(yīng)該在法律領(lǐng)域探討相關(guān)問題,研判人工智能應(yīng)用的法律限度并加以約束。