當(dāng)前位置:首頁 > 智能硬件 > 人工智能AI
[導(dǎo)讀] 近年來,人工智能在自動駕駛汽車、醫(yī)療、傳媒、金融、工業(yè)機(jī)器人以及互聯(lián)網(wǎng)服務(wù)等越來越多領(lǐng)域和場景應(yīng)用,其影響范圍越來越寬廣。各國產(chǎn)業(yè)巨頭已經(jīng)投入大量的精力和資金,開展人工智能關(guān)鍵技術(shù)的攻關(guān)與應(yīng)用相

近年來,人工智能在自動駕駛汽車、醫(yī)療、傳媒、金融、工業(yè)機(jī)器人以及互聯(lián)網(wǎng)服務(wù)等越來越多領(lǐng)域和場景應(yīng)用,其影響范圍越來越寬廣。各國產(chǎn)業(yè)巨頭已經(jīng)投入大量的精力和資金,開展人工智能關(guān)鍵技術(shù)的攻關(guān)與應(yīng)用相關(guān)的研究與產(chǎn)品開發(fā),并紛紛推出了不同的人工智能平臺與產(chǎn)品。這些發(fā)展一方面帶來了效率的提升、成本的降低,另一方面也給社會帶來了全新的倫理問題。

對人工智能倫理問題的探討,既包括形而上學(xué)的研究,也包括尋求解決實際的問題和求得社會共識的討論。如何在人工智能這一全新的技術(shù)條件下發(fā)現(xiàn)倫理共識,對經(jīng)濟(jì)、社會和政治有著深遠(yuǎn)意義。目前,各國、各個行業(yè)組織、社會團(tuán)體和人工智能領(lǐng)域的商業(yè)公司紛紛提出人工智能的倫理準(zhǔn)則,對人工智能技術(shù)本身以及其應(yīng)用進(jìn)行規(guī)制。中國政府把人工智能作為產(chǎn)業(yè)升級和經(jīng)濟(jì)轉(zhuǎn)型的主要驅(qū)動力,鼓勵、扶持和推動人工智能的發(fā)展。在我國推動人工智能發(fā)展的關(guān)鍵時期,開展人工智能倫理問題的探討有極為重要的意義。在此背景下,本文關(guān)注人工智能所引發(fā)的短期與長期的倫理問題以及相應(yīng)的治理對策,以期人工智能真正造福人類。

人工智能倫理問題與來源

在藝術(shù)作品中,不少人熟悉弗蘭肯斯坦的形象——一個在雷電中誕生的人和機(jī)器結(jié)合的怪物。人們對這些強(qiáng)大卻并不良善的力量,通常會感到恐懼。人工智能會不會和弗蘭肯斯坦這個怪物一樣呢?我們會不會創(chuàng)造一種技術(shù)最后毀滅了我們?nèi)祟??包括埃隆·馬斯克在內(nèi)的一眾技術(shù)領(lǐng)袖,公開提出了這個問題,這迅速引起了公眾的注意。在人工智能技術(shù)語境下,機(jī)器的自主性已經(jīng)超出人之前所預(yù)期的范圍,這當(dāng)然要求有新的責(zé)任體系的建構(gòu)。

人工智能倫理在公眾討論中最有名的雛形,來自科幻小說作者阿西莫夫提出的機(jī)器人三定律。今天我們知道,阿西莫夫機(jī)器人三定律并不能一勞永逸地建立對人工智能的合理約束,但它的真正價值是提出了一個可能性。這個可能性就是我們所創(chuàng)造的技術(shù)——在處理某些問題上比我們要迅速,在機(jī)械、物理力量上要比我們強(qiáng)的“自主”決策主體——不僅不會傷害人類,反而能夠造福人類社會。三定律所要處理的核心問題是人的主體性問題,這也是探討人工智能倫理和治理的核心問題。關(guān)于人工智能倫理和治理,無論是算法決策相關(guān)的問題、數(shù)據(jù)與隱私相關(guān)的問題和社會影響相關(guān)的問題,都關(guān)涉人的主體性問題。

從人工智能現(xiàn)有能力/技術(shù)潛力與它給人類社會帶來的負(fù)面后果的角度來看,會產(chǎn)生兩大類問題:1.人工智能被委以對人類事務(wù)做決策的能力,但它對決策結(jié)果的倫理判斷能力不足;2.人類缺乏引導(dǎo)人工智能發(fā)揮作用的終極倫理準(zhǔn)則。

第一類問題來自我們對人工智能系統(tǒng)對其決策結(jié)果的倫理意義缺乏判斷的憂慮。人工智能往往被用來解決一個具體問題,而且只能通過已有的有限數(shù)據(jù)來作出決策,往往無法像人一樣理解更廣的社會和倫理語境。故此,我們對人工智能缺乏對決策后果的倫理意義的認(rèn)知有恐懼,這是完全可以理解的。當(dāng)人工智能決策的后果涉及一個結(jié)果和另外一個結(jié)果之間的比較時,往往造成難以預(yù)料的后果。例如,人可能給人工智能系統(tǒng)一個獲取食物的指令,結(jié)果這個系統(tǒng)卻殺死了人的寵物。這是因為人工智能對某個結(jié)果的倫理意義無法完全理解,以致于錯誤地執(zhí)行了指令。我們對人工智能對決策結(jié)果的倫理判斷能力不足的憂慮,在人工智能技術(shù)本身缺乏透明度(黑箱問題)時就更加嚴(yán)重了。人工智能采納的機(jī)器學(xué)習(xí)往往因為算法(例如機(jī)器學(xué)習(xí))和算力限制的原因,無法回溯機(jī)器作出決定的具體機(jī)制。無法回溯會帶來我們在事先預(yù)測后果和事后作出糾正的能力的局限,導(dǎo)致我們在決定是否應(yīng)用人工智能技術(shù)的問題上躊躇不決。

第二類問題來自我們對人工智能的潛力的憂慮。人工智能可能成為人類全部決定的參與和影響者,但我們尚且不知道沒有任何已知的倫理準(zhǔn)則能指引上述行為。人類創(chuàng)造的“上帝”無力護(hù)理這個世界,這讓我們恐懼震驚。我們擔(dān)心隨著人工智能的發(fā)展,它會導(dǎo)致已有的社會問題進(jìn)一步惡化,同時可能帶來新的社會問題。

從上述前提出發(fā),筆者從目的、手段兩個層面提出思考人工智能倫理(嵌入機(jī)器的倫理)的兩個基本方向:技術(shù)必須促進(jìn)人類的善(體現(xiàn)在人的根本利益原則);在越來越發(fā)達(dá)的機(jī)器的自主性背景下確認(rèn)人的主體性(體現(xiàn)在責(zé)任原則)。換言之,認(rèn)識到新的技術(shù)本身的特征和它的潛在社會影響,我們看到人工智能倫理要強(qiáng)調(diào):(1)人可以利用人工智能得到更大的能力(行善/傷害),因此有更大的責(zé)任,所以應(yīng)當(dāng)更加強(qiáng)調(diào)歸責(zé)性;(2)人工智能則必須服從人類設(shè)定的倫理規(guī)則。這也是《人工智能標(biāo)準(zhǔn)化白皮書(2018)》中提出了人工智能設(shè)計和應(yīng)用中應(yīng)遵循的兩個基本原則的基本依據(jù)。違反人的根本利益原則的人工智能,無論是用來欺詐顧客的營銷算法、用于司法造成歧視部分公民的司法決策系統(tǒng),還是對個人信息的過度收集和濫用,都違反人工智能倫理原則。

根據(jù)人工智能倫理風(fēng)險的具體性質(zhì)與特征,可從算法、數(shù)據(jù)和應(yīng)用三個方面度來梳理人工智能的風(fēng)險。對倫理風(fēng)險的治理,需要立法和政策明確各相關(guān)主體的責(zé)任,包括信息提供者、信息處理者和系統(tǒng)協(xié)調(diào)者。此外,人工智能還可能對社會產(chǎn)生遠(yuǎn)期發(fā)展的風(fēng)險,如對既有的就業(yè)、市場競爭秩序、產(chǎn)權(quán)等法律制度的挑戰(zhàn),甚至生產(chǎn)方式的根本變革,這些我們將其歸入長期和間接的倫理風(fēng)險之中。

算法方面

算法方面的風(fēng)險主要包括算法安全問題、算法可解釋性問題、算法歧視問題和算法決策困境問題。算法安全問題產(chǎn)生于算法漏洞被黑客攻擊和惡意利用的挑戰(zhàn),同時算法從設(shè)計、訓(xùn)練到使用中面臨可信賴性問題和算法隨時可用對可靠性帶來挑戰(zhàn)。

算法可解釋性涉及人類的知情利益和主體地位,對人工智能的長遠(yuǎn)發(fā)展意義重大。國務(wù)院頒布《新一代人工智能發(fā)展規(guī)劃》,同時,潘云鶴院士提到人工智能應(yīng)用的一個需要關(guān)注的問題是算法的不可解釋性。算法可解釋性問題在國外也引起媒體和公眾的關(guān)注。例如,電氣和電子工程師協(xié)會(IEEE)在2016年和2017年連續(xù)推出的《人工智能設(shè)計的倫理準(zhǔn)則》白皮書,在多個部分都提出了對人工智能和自動化系統(tǒng)應(yīng)有解釋能力的要求。美國計算機(jī)協(xié)會美國公共政策委員會在2017年年初發(fā)布了《算法透明性和可問責(zé)性聲明》,提出了七項基本原則,其中一項即為“解釋”,希望鼓勵使用算法決策的系統(tǒng)和機(jī)構(gòu),對算法的過程和特定的決策提供解釋。2017年,美國加州大學(xué)伯克利分校發(fā)布了《對人工智能系統(tǒng)挑戰(zhàn)的伯克利觀點(diǎn)》,從人工智能的發(fā)展趨勢出發(fā),總結(jié)了九項挑戰(zhàn)和研究方向。其中之一,即第三項,就是要發(fā)展可解釋的決策,使人們可以識別人工智能算法輸入的哪些特性引起了某個特定的輸出結(jié)果。

與可解釋性問題常常同時出現(xiàn)的是算法歧視問題,即在看似中立的算法中,由于算法的設(shè)計者的認(rèn)知存在某種偏見,或者訓(xùn)練算法使用了有問題的數(shù)據(jù)集等原因,帶來了人工智能系統(tǒng)決策出現(xiàn)帶有歧視性的結(jié)果。這類例子媒體時有報道,例如在金融領(lǐng)域“降低弱勢群體的信貸得分”、“拒絕向‘有色人種’貸款”、“廣告商更傾向于將高息貸款信息向低收入群體展示”等。

算法歧視主要分為“人為造成的歧視”“數(shù)據(jù)驅(qū)動的歧視”與“機(jī)器自我學(xué)習(xí)造成的歧視”三類。人為造成的歧視,是指由于人為原因而使算法將歧視或偏見引入決策過程中。數(shù)據(jù)驅(qū)動造成的歧視,是指由于原始訓(xùn)練數(shù)據(jù)存在偏見性,而導(dǎo)致算法執(zhí)行時將歧視帶入決策過程中。算法本身不會質(zhì)疑其所接收到的數(shù)據(jù),只是單純地尋找、挖掘數(shù)據(jù)背后隱含的模式或者結(jié)構(gòu)。如果數(shù)據(jù)一開始就存在某種選擇上的偏見或喜好,那么算法會獲得類似于人類偏見的輸出結(jié)果。機(jī)器自我學(xué)習(xí)造成的歧視,是指機(jī)器在學(xué)習(xí)的過程中會自我學(xué)習(xí)到數(shù)據(jù)的多維不同特征,即便不是人為地賦予數(shù)據(jù)集某些特征,或者程序員或科學(xué)家刻意避免輸入一些敏感的數(shù)據(jù),但是機(jī)器在自我學(xué)習(xí)的過程中,仍然會學(xué)習(xí)到輸入數(shù)據(jù)的其它特征,從而將某些偏見引入到?jīng)Q策過程中,這就是機(jī)器自我學(xué)習(xí)造成的歧視。

算法決策困境源于人工智能自學(xué)習(xí)能力導(dǎo)致的算法結(jié)果的不可預(yù)見性。為此要減少或杜絕算法決策困境,除了提高算法的可解釋性,還可以引入相應(yīng)的算法終結(jié)機(jī)制。

數(shù)據(jù)方面

數(shù)據(jù)方面的風(fēng)險主要包括侵犯隱私的風(fēng)險和個人敏感信息識別與保護(hù)的風(fēng)險。在現(xiàn)代社會,隱私保護(hù)是信任和個人自由的根本,同時也是人工智能時代維持文明與尊嚴(yán)的基本方式。人工智能時代下侵犯隱私的風(fēng)險更大,受害者也更多。

傳統(tǒng)法律規(guī)范對隱私的保護(hù)集中于對個人在私人領(lǐng)域、私人空間活動的保護(hù),以及個人私密的、非公開的信息保護(hù)。在個人信息的基礎(chǔ)之上,法律規(guī)范區(qū)分普通個人信息和個人敏感信息。法律通常對個人敏感信息予以更高的保護(hù),例如對個人敏感信息的處理需要基于個人信息主體的明示同意,或重大合法利益或公共利益的需要等,嚴(yán)格限制對個人敏感信息的自動化處理,并要求對其進(jìn)行加密存儲或采取更為嚴(yán)格的訪問控制等安全保護(hù)措施。個人敏感信息在授權(quán)同意范圍外擴(kuò)散,或者個人信息的擴(kuò)散超出收集、使用個人信息的組織和機(jī)構(gòu)控制范圍,以及使用者超出授權(quán)使用(如變更處理目的、擴(kuò)大處理范圍等),都可能對個人信息主體權(quán)益帶來重大風(fēng)險。

人工智能技術(shù)的應(yīng)用極大地擴(kuò)展了個人信息收集的場景、范圍和數(shù)量。圖像識別、語音識別、語義理解等人工智能技術(shù)實現(xiàn)海量非結(jié)構(gòu)化數(shù)據(jù)的采集,而人工智能與物聯(lián)網(wǎng)設(shè)備的結(jié)合豐富了線下數(shù)據(jù)采集的場景。例如,家用機(jī)器人、智能冰箱、智能音箱等各種智能家居設(shè)備走進(jìn)人們的客廳、臥室,實時地收集人們的生活習(xí)慣、消費(fèi)偏好、語音交互、視頻影像等信息;各類智能助手在為用戶提供更加便捷服務(wù)的同時,也在全方位地獲取和分析用戶的瀏覽、搜索、位置、行程、郵件、語音交互等信息;支持面部識別的監(jiān)控攝像頭,可以在公共場合且個人毫不知情的情況下,識別個人身份并實現(xiàn)對個人的持續(xù)跟蹤。這些都需要法律進(jìn)一步地規(guī)范。

社會方面

與社會相關(guān)的倫理問題主要包括算法濫用和誤用。算法濫用和誤用是指人們利用算法進(jìn)行分析、決策、協(xié)調(diào)、組織等一系列活動中,其使用目的、使用方式、使用范圍等出現(xiàn)偏差并引發(fā)不良影響或不利后果的情況。例如,人臉識別算法能夠提高治安水平、加快發(fā)現(xiàn)犯罪嫌疑人的速度等,但是如果把人臉識別算法應(yīng)用于發(fā)現(xiàn)潛在犯罪人或者根據(jù)臉型判別某人是否存在犯罪潛質(zhì),就屬于典型的算法濫用。由于人工智能系統(tǒng)的自動化屬性,算法濫用將放大算法所產(chǎn)生的錯誤效果,并不斷強(qiáng)化成為一個系統(tǒng)的重要特征。

算法濫用主要由算法設(shè)計者出于經(jīng)濟(jì)利益或者其他動機(jī)的操縱行為、平臺和使用者過度依賴算法、將算法的應(yīng)用盲目拓展到算法設(shè)計未曾考慮的領(lǐng)域等。電商平臺算法設(shè)計者推薦不符合用戶利益的產(chǎn)品,或者娛樂平臺為了自身的商業(yè)利益對用戶的娛樂或信息消費(fèi)行為進(jìn)行誘導(dǎo)、導(dǎo)致用戶沉迷等,都是算法設(shè)計者操縱行為的展現(xiàn)。在醫(yī)療領(lǐng)域過度依賴人工智能平臺的讀圖診斷,導(dǎo)致誤診,以及在安防領(lǐng)域和犯罪誤判導(dǎo)致的問題,都直接關(guān)系到公民的人身安全與自由。

應(yīng)當(dāng)注意的是,與社會相關(guān)的倫理問題有如下特性:其一,它們與個人切身利益密切相關(guān),如算法應(yīng)用在犯罪評估、信用貸款、雇傭評估等關(guān)切人身利益的場合,對個人切身利益的影響廣泛。其二,它們帶來的問題通常難以短時間應(yīng)對,例如深度學(xué)習(xí)是一個典型的“黑箱”算法,如果深度學(xué)習(xí)為基礎(chǔ)建立的模型存在歧視,應(yīng)對時難以查清原因。其三,在商業(yè)應(yīng)用中出現(xiàn)這類問題時,由于資本的逐利性,公眾權(quán)益容易受到侵害。

人工智能治理原則與實踐

人工智能技術(shù)的特質(zhì)及其倫理挑戰(zhàn),給社會的治理帶來了問題。傳統(tǒng)上,治理所預(yù)設(shè)能夠遵循規(guī)則的主體(Agent),也就是人本身。今天我們認(rèn)識到人工智能的特征在于其高度的自主性,即其決策不再需要操控者進(jìn)一步的指令,考慮到這種決策可能會產(chǎn)生人類預(yù)料不到的結(jié)果,人工智能技術(shù)的設(shè)計者和應(yīng)用者必須在人工智能技術(shù)研發(fā)、應(yīng)用的各個環(huán)節(jié)貫徹倫理原則,以實現(xiàn)對人工智能的有效治理。

在傳統(tǒng)技術(shù)領(lǐng)域,常見的防止損害的方式是在造成傷害之后進(jìn)行干預(yù)。但是,等待人工智能系統(tǒng)造成傷害之時才考慮干預(yù),很多時候為時已晚。一個更好的方法是將即時和持續(xù)的倫理風(fēng)險評估和合規(guī)體系建設(shè)作為系統(tǒng)運(yùn)行的一個組成部分,即時和持續(xù)評估人工智能系統(tǒng)是否存在倫理風(fēng)險、并在損害產(chǎn)生之前以及損害不大的時候就通過合規(guī)體系進(jìn)行處理。即時和持續(xù)的風(fēng)險評估對于人工智能系統(tǒng)的保障要比按下“緊急按鈕”要有效得多。

故此,我們在討論人工智能治理應(yīng)遵循的思路和邏輯時,必須警醒行業(yè)自律的有限性和立法的滯后性。如阿西莫夫等科技倫理的思想者所意識到的,必須將倫理在技術(shù)層面就進(jìn)行明確,才能保證治理的有效性。構(gòu)建人工智能的倫理標(biāo)準(zhǔn)是治理不可或缺的一面。此外,根據(jù)法律和政策本身的特征來制定法律、完善政策、設(shè)立管制機(jī)構(gòu),也是治理必須執(zhí)行的方法。

國內(nèi)外人工智能治理方面的探索值得我們關(guān)注和借鑒。例如,歐盟通過對機(jī)器人規(guī)制體現(xiàn)了依據(jù)人工智能倫理來設(shè)計治理體系的前沿探索。美國于2016年出臺的戰(zhàn)略文件就提出要理解并解決人工智能的倫理、法律和社會影響。英國政府曾在其發(fā)布的多份人工智能報告中提出應(yīng)對人工智能的法律、倫理和社會影響,最為典型的是英國議會于2018年4月發(fā)出的長達(dá)180頁的報告《英國人工智能發(fā)展的計劃、能力與志向》。

聯(lián)合國于2017年9月發(fā)布《機(jī)器人倫理報告》,建議制定國家和國際層面的倫理準(zhǔn)則。電氣和電子工程師協(xié)會(Institute of Electrical and Electronics Engineers,IEEE)于2016年啟動“關(guān)于自主/智能系統(tǒng)倫理的全球倡議”,并開始組織人工智能設(shè)計的倫理準(zhǔn)則。在未來生命研究所(future of life insTItute,F(xiàn)LI)主持下,近4000名各界專家簽署支持23條人工智能基本原則。

我國也在這個方面開展了探索與實踐。2017年發(fā)布的《新一代人工智能發(fā)展規(guī)劃》提出了中國的人工智能戰(zhàn)略,制定促進(jìn)人工智能發(fā)展的法律法規(guī)和倫理規(guī)范作為重要的保證措施被提了出來。2018年1月18日,在國家人工智能標(biāo)準(zhǔn)化總體組、專家咨詢組的成立大會上發(fā)布了《人工智能標(biāo)準(zhǔn)化白皮書(2018)》。白皮書論述了人工智能的安全、倫理和隱私問題,認(rèn)為設(shè)定人工智能技術(shù)的倫理要求,要依托于社會和公眾對人工智能倫理的深入思考和廣泛共識,并遵循一些共識原則。

人工智能技術(shù)的開發(fā)和應(yīng)用深刻地改變著人類的生活,不可避免地會沖擊現(xiàn)有的倫理與社會秩序,引發(fā)一系列問題。這些問題可能表現(xiàn)為直觀的短期風(fēng)險,如算法漏洞存在安全隱患、算法偏見導(dǎo)致歧視性政策的制定等,也可能相對間接和長期,如對產(chǎn)權(quán)、競爭、就業(yè)甚至社會結(jié)構(gòu)的影響。盡管短期風(fēng)險更具體可感,但長期風(fēng)險所帶來的社會影響更為廣泛而深遠(yuǎn),同樣應(yīng)予重視。

人工智能技術(shù)的日新月異與治理體系相對穩(wěn)定性之間不可避免地存在矛盾,這需要我們明確應(yīng)對人工智能的基本原則。在國際范圍內(nèi)比較,人工智能倫理基本原則以2017年1月在阿西洛馬召開的“有益的人工智能”(Beneficial AI)會議提出的“阿西洛馬人工智能原則”(Asilomar AI Principles),以及電氣和電子工程師協(xié)會(IEEE)組織開展的人工智能倫理標(biāo)準(zhǔn)的工作受到了最多的關(guān)注。此前,各國也提出了機(jī)器人原則與倫理標(biāo)準(zhǔn)。作者認(rèn)為,我國人工智能的研究和應(yīng)用應(yīng)遵循兩個人工智能倫理基本原則,即人的根本利益原則和責(zé)任原則。

人的根本利益原則

人的根本利益原則,即人工智能應(yīng)以實現(xiàn)人的根本利益為終極目標(biāo)。這一原則體現(xiàn)對人權(quán)的尊重、對人類和自然環(huán)境利益最大化以及降低技術(shù)風(fēng)險和對社會的負(fù)面影響。人的根本利益原則要求:

(1)在對社會的影響方面,人工智能的研發(fā)與應(yīng)用以促進(jìn)人類向善為目的(AIforgood),這也包括和平利用人工智能及相關(guān)技術(shù),避免致命性人工智能武器的軍備競賽。

(2)在人工智能算法方面,人工智能的研發(fā)與應(yīng)用應(yīng)符合人的尊嚴(yán),保障人的基本權(quán)利與自由;確保算法決策的透明性,確保算法設(shè)定避免歧視;推動人工智能的效益在世界范圍內(nèi)公平分配,縮小數(shù)字鴻溝。

(3)在數(shù)據(jù)使用方面,人工智能的研發(fā)與應(yīng)用要關(guān)注隱私保護(hù),加強(qiáng)個人數(shù)據(jù)的控制,防止數(shù)據(jù)濫用。

責(zé)任原則

責(zé)任原則,即在人工智能相關(guān)的技術(shù)開發(fā)和應(yīng)用兩方面都建立明確的責(zé)任體系,以便在人工智能應(yīng)用結(jié)果導(dǎo)致人類倫理或法律的沖突問題時,人們能夠從技術(shù)層面對人工智能技術(shù)開發(fā)人員或設(shè)計部門問責(zé),并在人工智能應(yīng)用層面建立合理的責(zé)任體系。在責(zé)任原則下,在人工智能技術(shù)開發(fā)方面應(yīng)遵循透明度原則;在人工智能技術(shù)應(yīng)用方面則應(yīng)當(dāng)遵循權(quán)責(zé)一致原則。

透明度原則

透明度原則要求人工智能的設(shè)計中,保證人類了解自主決策系統(tǒng)的工作原理,從而預(yù)測其輸出結(jié)果,即人類應(yīng)當(dāng)知道人工智能如何以及為何做出特定決定。透明度原則的實現(xiàn)有賴于人工智能算法的可解釋性(explicability)、可驗證性(verifiability)和可預(yù)測性(predictability)。

權(quán)責(zé)一致原則

權(quán)責(zé)一致原則,是指在人工智能的設(shè)計和應(yīng)用中應(yīng)當(dāng)保證問責(zé)的實現(xiàn),這包括:在人工智能的設(shè)計和使用中留存相關(guān)的算法、數(shù)據(jù)和決策的準(zhǔn)確記錄,以便在產(chǎn)生損害結(jié)果時能夠進(jìn)行審查并查明責(zé)任歸屬。權(quán)責(zé)一致原則的實現(xiàn)需要建立人工智能算法的公共審查制度。公共審查能提高相關(guān)政府、科研和商業(yè)機(jī)構(gòu)采納的人工智能算法被糾錯的可能性。合理的公共審查能夠保證一方面必要的商業(yè)數(shù)據(jù)應(yīng)被合理記錄、相應(yīng)算法應(yīng)受到監(jiān)督、商業(yè)應(yīng)用應(yīng)受到合理審查,另一方面商業(yè)主體仍可利用合理的知識產(chǎn)權(quán)或者商業(yè)秘密來保護(hù)本企業(yè)的利益。

應(yīng)當(dāng)明確,我們所說的人工智能倫理原則,不僅應(yīng)當(dāng)由人工智能系統(tǒng)的研發(fā)和應(yīng)用 的人類主體遵守(包括在研究機(jī)構(gòu)、行業(yè)領(lǐng)域的科技企業(yè)和科技工作者),而且這些原則應(yīng)當(dāng)嵌入人工智能系統(tǒng)本身。機(jī)器如何遵循倫理規(guī)則這一點(diǎn),有人仍有質(zhì)疑。典型的看法是,倫理規(guī)則只是給人的,沒有可能給人工智能系統(tǒng)(包括機(jī)器人)設(shè)定倫理規(guī)則。的確,傳統(tǒng)上倫理原則所針對的是能夠遵循這些原則的主體(Agent)也就是人本身。但是,考慮到人工智能的特征在于機(jī)器對人的智能的“模擬、延伸和擴(kuò)展”,即其決策 不需要操控者一步步的指令,同時這種決策可能會產(chǎn)生人類預(yù)料不到的結(jié)果,人工智能系統(tǒng)也應(yīng)當(dāng)受到倫理規(guī)則的規(guī)制。

結(jié)論

社會必須信任人工智能技術(shù)能夠給人帶來的利益大于傷害,才有可能支持繼續(xù)發(fā)展人工智能。而這種信任,需要我們認(rèn)識和探討人工智能領(lǐng)域的倫理和治理問題,并且在發(fā)展人工智能技術(shù)發(fā)展的早期就有意識地加以運(yùn)用。今天學(xué)者、科技工作者和社會已經(jīng)有基本共識,就是負(fù)責(zé)人工智能系統(tǒng)的研發(fā)和應(yīng)用的人類主體,包括在研究機(jī)構(gòu)、行業(yè)領(lǐng)域的科技企業(yè)和科技工作者,應(yīng)當(dāng)服從一些基本的倫理原則。本文提出的兩個基本倫理原則,是國內(nèi)在這方面思考的總結(jié)和升華。除了人工智能的基本倫理原則,前人給我們的另一個啟發(fā)是人工智能倫理應(yīng)該嵌入系統(tǒng)本身。當(dāng)我們越來越依賴于機(jī)器人代替我們作出決策時,我們應(yīng)當(dāng)在這個決策過程中嵌入倫理思考,而不是等待決策結(jié)果已經(jīng)給我們帶來負(fù)面影響之后再去糾正。

本文希望用一種更清醒的眼光去看待人工智能倫理和治理問題。學(xué)者和公眾需要一起探討:我們有沒有可能防止人工智能給個人和社會帶來的損害?只有在這個問題得到更深入的思考和妥善解決的時候,人工智能的發(fā)展才有真正的基礎(chǔ)。

轉(zhuǎn)自丨法理雜志

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險,如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運(yùn)營商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學(xué)會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團(tuán))股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉