隨著人類生活被人工智能廣泛滲透 公眾的接受程度也越來越高
掃描二維碼
隨時(shí)隨地手機(jī)看文章
日前,在寧召開的第二屆江蘇省人工智能大會上,中國科學(xué)院院士何積豐帶來主旨報(bào)告《可信人工智能》。他表示,隨著人類生活被人工智能廣泛滲透,公眾接受人工智能的程度也越來越高,隨之而來的就是人工智能的可信問題。
去年3月,美國優(yōu)步的一輛自動(dòng)駕駛車在路試時(shí)撞倒一名行人,當(dāng)時(shí)行人正推著自行車在人行道之外橫穿馬路,關(guān)于責(zé)任認(rèn)定,車輛使用者和自動(dòng)駕駛系統(tǒng)設(shè)計(jì)者開始扯皮。
“這些人工智能案例,是因?yàn)檫@些突發(fā)的場景并不在訓(xùn)練范圍,機(jī)器也就無法從容應(yīng)對?!?何積豐說,“可信”是計(jì)算機(jī)領(lǐng)域的一個(gè)概念,主要強(qiáng)調(diào)的是計(jì)算機(jī)系統(tǒng)和其處理過程的可預(yù)測性、可驗(yàn)證性。近年來,“可信”的概念也被引入到人工智能領(lǐng)域。
可信人工智能由我國提出,并在G20會議上被各國所認(rèn)可,這也是關(guān)注人工智能發(fā)展的核心所在。人、機(jī)、物融合是當(dāng)前社會面臨的一個(gè)很重要的系統(tǒng)狀態(tài)。如果把人、機(jī)、物中間的物理運(yùn)動(dòng)以及眾多事件進(jìn)行組合,如何進(jìn)行系統(tǒng)性的訓(xùn)練和測試尤為重要。
在何積豐看來,人工智能的安全發(fā)展面臨著“內(nèi)憂外患”,對內(nèi)要處理數(shù)據(jù)偏差、系統(tǒng)失誤等情況,對外則要應(yīng)對黑客攻擊、場景受限等問題。他解釋,人工智能系統(tǒng)與傳統(tǒng)的軟件系統(tǒng)有很大區(qū)別,這使得其安全發(fā)展面臨一系列新挑戰(zhàn)。例如,讓程序?qū)W習(xí)檢測皮膚癌,程序卻發(fā)現(xiàn)惡性皮膚病變的照片里往往放著一把尺子,便以尺子來作為判斷標(biāo)準(zhǔn)。
如何保證人工智能安全可控?何積豐表示,人工智能能夠與行業(yè)、社會治理結(jié)合,具備新的賦能功能。因此,對于其安全問題,應(yīng)該從兩個(gè)層面來討論,一層是人工智能技術(shù)本身的安全問題,一層是人工智能與行業(yè)結(jié)合后的潛在風(fēng)險(xiǎn)。以網(wǎng)絡(luò)安全為例,他認(rèn)為,人工智能很多目前應(yīng)用到一線的產(chǎn)品,其實(shí)效果遠(yuǎn)未達(dá)到理想狀態(tài),尤其是算法、算力、網(wǎng)絡(luò)體系和數(shù)據(jù)體系的安全性等,比如,數(shù)據(jù)傳輸過程中會不會被篡改,很難去驗(yàn)證。
人工智能的“可信”,也需要建立相應(yīng)的法律、法規(guī)、標(biāo)準(zhǔn)和社會倫理準(zhǔn)則。比如,對數(shù)據(jù)進(jìn)行分類,規(guī)定這個(gè)數(shù)據(jù)哪些地方能用,哪些地方不能用。人類應(yīng)該為人工智能技術(shù)的開發(fā)設(shè)定邊界,不能做無限開發(fā)。
此外,何積豐指出,現(xiàn)階段人工智能的通用性較弱,行業(yè)應(yīng)用場景差異較大,技術(shù)大規(guī)模的普及應(yīng)用仍未真正實(shí)現(xiàn)。因此需要有更多的技術(shù)推動(dòng)人工智能通用發(fā)展,此趨勢不可阻擋,不僅是技術(shù)發(fā)展的需求,更是整個(gè)社會經(jīng)濟(jì)發(fā)展的需求。
“很多人擔(dān)心人工智能會不會帶來失業(yè)潮,機(jī)器人會不會取代人的工作,其實(shí)這些消息都有些夸大?!焙畏e豐表示,很多職業(yè)其實(shí)是被時(shí)代發(fā)展而淘汰的,機(jī)器人只是取代了一些簡單、重復(fù)的勞動(dòng),還有部分高危、人類不愿意參與的工作等。與此同時(shí),技術(shù)的發(fā)展也帶來新的就業(yè)機(jī)會和新的職業(yè)。同時(shí),我們也不必糾結(jié)于究竟何時(shí)能夠?qū)崿F(xiàn)真正的人工智能,去為它劃定時(shí)間界限,當(dāng)技術(shù)發(fā)展到一定階段,人工智能足夠安全,可以被人們信任、接受時(shí),這樣的可信人工智能時(shí)代自然會到來。