越來越多的人工智能(AI)投入實際應用,包括在線客服、網絡搜尋、甚至臉書上的訊息呈現,背后其實都是靠強大的算法執(zhí)行。只不過,AI本身的局限性,也將在投入應用越來越明顯,這也將是決定AI乃至于人類生活能否持續(xù)進步的一大關鍵。
在AI領域中,引領風騷的不只是掌握用戶數據、用戶數量龐大的科技巨人,從生產制造端切入,在某個特定產業(yè)稱王的也大有人在。日本的Preferred Networks(PFN)就是最好的例子。
2014年創(chuàng)業(yè)的PFN,可以說是不折不扣的新創(chuàng)獨角獸。他們專精的領域,是把深度學習(Deep Learning)技術導入在產業(yè)應用上,目前在三大應用領域:運輸、制造生產以及醫(yī)療上,都與日本的一級大廠進行合作研發(fā),例如從創(chuàng)業(yè)開始,PFN就與豐田汽車一起投入自駕車技術,去年(2017)七月更與日本國家癌癥中心合作,建構癌癥的早期血液診斷系統(tǒng)。
在PFN看來,深度學習的本質,其實就是建構統(tǒng)計性的預測模型。PFN Fellow丸山宏形容,深度學習具備大量的參數,經過多次的反復操作后,可以形成任何多維、非線性的函數系統(tǒng),逼近人類的思考模式,可以大幅提升預測的準確度。
機器學習本質,不脫統(tǒng)計歸納分析
這種預測模型該如何建立?以國際兩大溫度單位:攝氏(℃)與華氏(℉)的對應關系為例,從人類的觀點看,因為已經有一套標準的換算公式,丸山宏解釋,對于任何一個給定的華氏溫度,只要套入公式運算,就能得出相對應、即使測量也不會出錯的攝氏溫度;但對于機器來說,如果這套換算公式并不存在,就只能靠長期觀測、記錄攝氏與華氏兩套溫度數據,再對這些數據進行分析,慢慢推導出兩者之間的對應關系(圖1)。
圖1:使用觀測數據進行訓練,使機器學習溫度單位換算的方法
數據源:https://www.slideshare.net/pfi/20171201-dll05-pfnhiroshimaruyama
因為機器學習的對象只有被給定的參數,不論給定的參數再多、數據的規(guī)模再大,得出的僅是「近似」結果。丸山宏指出,歸納法的限制之一,就是只能根據過去的歷史資料預測未來;但如果未來出現不可知或根本無法預測的意外,任何AI技術都無法得出對的結果。此外,機器學習所處理的參數,多半都被嚴格定義過,如果此時出現了與眾不同的參數,也就是訓練數據中未曾出現的稀有事件,系統(tǒng)對其也無能為力。“機器學習或者AI,還是跟人腦不一樣,”丸山宏指出,“它不會靈光乍現,也不會進行臨機應變的處理,更難以避免偏誤的發(fā)生?!?/p>
技術面以外,關于AI另一個更嚴肅的議題,可能發(fā)生在應用場域上。丸山宏解釋,在自動駕駛上,現在PFN的技術,已經達到可以同時控制多部車輛依其規(guī)劃路線行駛,又不至于出現壅塞。“在這輛紅色汽車上,我們的算法更可以設定所有車輛一碰到他就得轉彎或減速,降低車禍發(fā)生率?!边@套系統(tǒng)明明運作地相當完美,但丸山宏卻提出另一個尖銳問題:這輛紅色汽車的“安全系數”該拉到多高?
AI的應用,仍然有其局限性
圖2:Preferred Networks開發(fā)的分布式自動駕駛系統(tǒng)
圖片來源:Preferred Networks
他補充,一般人可能認為,為了避免發(fā)生危難,安全系數當然越高越好,“可是我們發(fā)現,當這輛紅色車的安全系數不斷提高、其他車輛在這個參數環(huán)境下不斷學習之后,居然都靜止不動了!”丸山宏解釋,正因為其他車輛被訓練的內容是“絕對不能碰到紅色車”,而只要一開動就會有碰撞的風險,所以才出現全部靜止的結果。只不過,這樣一來交通系統(tǒng)也跟癱瘓無異了。
因為機器只能在被給定的參數框架內思考,如果人們給予的指令過于簡化,在實際生活中恐怕會出現難以預料的結果。他舉例,“好比你今天命令機器人去星巴克幫你買杯咖啡,如果指令內容只是『把咖啡拿過來』,那么機器人的行動,可能是到星巴克,把排隊的其他客人都打開推開甚至殺死,再把咖啡拿給你。”
AI跟人類一樣并非萬能,類似這樣的“框架問題(Frame Problem)”,是人工智能領域中困擾許久卻尚未解決的問題。隨著這項技術逐漸被人類社會所使用,我們一方面固然可以因為生活更加方便而欣喜,但更要謹記的是必須以謹慎、注意的態(tài)度來使用這些科技,才不會制造更多無解的難題。