(文章來源:Forbes)
大多數(shù)公司已經(jīng)開始使用一些常見的人工智能功能,而且用戶們也基本滿意。其中包括個性化定制(個性化廣告、電子郵件、自動文本等)和精準(zhǔn)營銷(您在Spotify,Netflix或亞馬遜購物卡等應(yīng)用上看到的那些推薦)以及其他的營銷技術(shù),現(xiàn)在廣泛使用的功能是適用于任何規(guī)模的企業(yè)的。
許多技術(shù)也比較成熟了:其中最重要的是機(jī)器人流程自動化(RPA)。RPA是AI的初級成果,它即智能又簡單。RPA側(cè)重于自動化一個流程,而不是整個企業(yè)的垂直流程。RPA雖然為公司節(jié)省了大量的時間和金錢,但尚未達(dá)到一定規(guī)模。有許多公司最近才剛開始使用RPA技術(shù),而積累一定用戶的公司已經(jīng)開始著手開始進(jìn)一步流程優(yōu)化了。
現(xiàn)在既然許多公司已經(jīng)掌握了基礎(chǔ)知識,早期嘗到甜頭的公司就會想走得更遠(yuǎn)。他們越來越多地關(guān)注AI和ML驅(qū)動的預(yù)測分析,即企業(yè)從數(shù)據(jù)(特別是實時數(shù)據(jù))中提取更多的有價值的信息,甚至利用這些信息做出決策。對知識圖譜的理解也更加深入,人工智能可以根據(jù)大量數(shù)據(jù)分析出我們從未想到過的結(jié)果。
事實上,目前企業(yè)完成人工智能項目還是有難度的。許多公司的項目要么超期,要么需要花很多時間來建立相應(yīng)的系統(tǒng),Pactera技術(shù)公司最近的一份報告反映了Gartner之前報道的問題:85%的企業(yè)AI項目無法如期交付。
Dimensional Research最近發(fā)布的另一份報告顯示,在人工智能和機(jī)器學(xué)習(xí)方面,每10家企業(yè)就有8個表示這他們的AI項目是停滯不前的,而96%的人表示他們在數(shù)據(jù)質(zhì)量、數(shù)據(jù)分類和建模的置信度上遇到了問題。即使像IBM,Uber和亞馬遜這樣的高科技巨頭也不得不在面臨巨大的挑戰(zhàn)時放棄一些數(shù)百萬美元的大項目。
這時候是否還要堅持下去呢?其實大可不必!目前對于在AI項目中什么該做,什么不該做已經(jīng)有足夠的總結(jié)經(jīng)驗了。一些常見的誤區(qū)有:起始目標(biāo)不明確,太多數(shù)據(jù)(或不當(dāng)使用數(shù)據(jù)),使用錯誤算法,交付成果的周期過長(應(yīng)該在工作過程中實時檢查,保持平衡)。
隨著強(qiáng)化學(xué)習(xí)領(lǐng)域技術(shù)的重大進(jìn)步,人工智能能夠通過完成特定目標(biāo)獲得反饋,AI開始變得有“意識”起來。它開始以一種類似人類的但奇怪的方式思考,這也意味著它也有能力開始工作了。人工智能似乎已經(jīng)到了無限趨近人類的三岔口。
AI正在朝著能夠流暢地與人類對話這個目標(biāo)邁進(jìn),初創(chuàng)公司和技術(shù)領(lǐng)導(dǎo)者都在爭奪聊天機(jī)器人,它們不僅能回答問題,而且還具有先進(jìn)的推理功能。谷歌,微軟,亞馬遜和IBM都想在會話式人工智能方面取得進(jìn)步,讓AI學(xué)會人性化的溝通,就是說人工智能可以根據(jù)場景的變化靈活應(yīng)變。
會話式人工智能的實現(xiàn)需要有力的后端支撐—比如說更強(qiáng)大的硬件。這使得像英特爾這樣的公司開始研發(fā)用專用推理芯片,以及開發(fā)他們聲稱可以加快計算機(jī)深度學(xué)習(xí)推理過程的DL boost技術(shù)。GPU也是競爭越來越激烈,傳統(tǒng)上專注于訓(xùn)練的GPU也變得越來越有推斷能力,上周NVIDIA公布了一項會話式AI,展示了GPU如何通過推理,實現(xiàn)延遲更短、更自然、更人性化的對話體驗。
隨著人工智能確實變得更加人性化,企業(yè)也開始意識到使用,如果AI使用不當(dāng)會產(chǎn)生嚴(yán)重后果,不僅僅是失業(yè)問題,AI算法會是在“不經(jīng)意間”建立的,且是有偏見的。例如,白人男性寫的用于招募的AI軟件可能“意外地”選擇白人男性作為高度匹配的應(yīng)聘特征,或者在人臉識別上更多的關(guān)注白人。
特別是像IBM這樣的公司,他們不僅使用人工智招聘,還用它評價員工的工作表現(xiàn)。你會信任一個機(jī)器人來評判你的工作表現(xiàn)嗎?來決定你是否應(yīng)該加薪?這公平嗎?未來,會有更多的與AI相關(guān)的道德規(guī)范出臺。例如,甲骨文建立了一個道德委員會來討論公平性、問責(zé)制和算法的透明度等問題。
IBM也正在研究“可解釋的AI”,Microsoft制定了使用聊天機(jī)器人責(zé)任的指導(dǎo)原則(例如,公司應(yīng)始終提醒客戶他們正在與機(jī)器人而不是人進(jìn)行通信,并提醒他們注意限制)。由于擔(dān)心隱私泄露的道德問題,有的城市停止使用人工智能程序面部識別功能,亞馬遜也因為同樣的原因叫停了員工監(jiān)控跟蹤AI。人們開始明白雖然人工智能力量強(qiáng)大,現(xiàn)在相互提取或處理的數(shù)據(jù)類型是沒有限制的。但我們必須回答的問題是:應(yīng)該這樣做嗎?
展望未來,公司應(yīng)制定合理的人工智能的發(fā)展路線,并且建立例行審計制度來確保他們的人工智能在管理員的掌控之下。這個過程也許會伴隨著無休止的辯論:它在哪些方面進(jìn)行了優(yōu)化?是否會取代人類?如何對其進(jìn)行監(jiān)管以及道德風(fēng)控等。人工智能的未來令人興奮,與此同時,這或許也是一個瘋狂的旅程。