語音和面部識別技術(shù)能否幫助AI在情商上超越人類
長期以來,我一直把研究情商作為一種業(yè)余愛好。直到最近,我依然相信,即使人工智能(AI)接手所有需要記憶和邏輯推理能力的任務(wù)之后,情商仍將是我們?nèi)祟惖暮诵膬?yōu)勢之一。
在過去的幾年里,我將主要精力放在研究情商算法上,因為這是我的創(chuàng)業(yè)公司Inbot的主要業(yè)務(wù)。然而對它們的研究越多,我就越確信,人類相對于AI的情商優(yōu)勢正在縮校。
以色列歷史學(xué)家尤瓦爾·赫拉利(Yuval Noah Harari)在他的暢銷書《Homo Deus》中寫道,人類本質(zhì)上是數(shù)百萬年進(jìn)化形成的生物算法的集合。他聲稱,沒有理由認(rèn)為非有機(jī)算法無法復(fù)制和超越有機(jī)算法所能做到的一切。
麻省理工學(xué)院物理學(xué)教授馬克斯·泰格馬克 (Max Tegmark)也在他的著作《生命3.0:人工智能時代的人類》(Life 3.0: Being Human in the Age of ArTIficial Intelligence)中表達(dá)了類似觀點(diǎn)。他提出了一個令人信服的理由,即幾乎所有智力本質(zhì)上都是獨(dú)立的。
他們的論述都是有道理的。我們的情感和感覺是對環(huán)境做出反應(yīng)的有機(jī)算法。算法是由我們的文化歷史、教育和生活經(jīng)歷塑造的,它們可以被逆向推導(dǎo)。
如果我們同意赫拉利博士和泰格馬克博士的觀點(diǎn),意味著我們相信計算機(jī)最終會比人類自己更擅長操縱人類的情感。在現(xiàn)實生活中,人類實際上非常不善于處理與情商有關(guān)的東西。
我們大多數(shù)人都對自己在別人身上觸發(fā)的最基本情感一無所知。我們通常都以毫無疑義的爭吵結(jié)束交流,并摒棄了更好的理由,因為它們違背了我們的偏見,即基于刻板的印象來評判別人。
我們不理解文化背景、家庭教育的影響,亦或是我們討論伴侶當(dāng)前個人生活狀況的影響。我們很少試圖站在別人的立場上以不同的角度看待問題。如果違背我們的世界觀,我們就不會嘗試去理解他們的理由。我們不想挑戰(zhàn)我們的偏見或成見。
在網(wǎng)上,情況要糟糕得多。如果我們認(rèn)為他們的觀點(diǎn)與我們的偏見相悖,那么我們就會從那些我們根本不了解的人的評論中得出草率的結(jié)論,而且這些結(jié)論往往是錯誤的。最后,我們有一個進(jìn)化特征,即把生命看作“最適者才能生存”。這讓我們無法利用他人,專注于提升自我。
最成功的人往往為了獲得優(yōu)勢而撒謊,通過操縱來獲得優(yōu)勢,并通過欺騙隱瞞自己的錯誤。他們是要不惜一切代價贏得比賽,盡管這個過程會給你帶來很多情感上的傷害。
當(dāng)我們?nèi)祟惱^續(xù)努力相互理解時,高情商的AI已經(jīng)獲得速發(fā)展。手機(jī)攝像頭無處不在,面部追蹤軟件已經(jīng)足夠先進(jìn),可以分析我們面部表情中最微小的細(xì)節(jié)。最先進(jìn)的面部追蹤軟件甚至能分辨出虛假的情感。
語音識別和自然語言處理算法也能更好地從音頻中識別出我們的情緒和情緒狀態(tài)。分析人臉和聲音情緒反應(yīng)的技術(shù)已經(jīng)遠(yuǎn)遠(yuǎn)超出了一般人的能力,而且在許多領(lǐng)域甚至超過了最有能力的人。AI可以通過觀察我們的面部識別出你的性取向、政治傾向或智商等個人特質(zhì)。
雖然AI可以從你的面部或語音中識別出幾乎任何情緒,但我們在對情商AI的科學(xué)研究上還沒有投入太多精力。
目前,這一領(lǐng)域的進(jìn)步幾乎完全是由商業(yè)利益和人類貪婪所驅(qū)動的。
媒體和娛樂公司需要我們的關(guān)注和參與才能賺錢。像Facebook和YouTube這樣的公司有大量的工程師在努力創(chuàng)造更好的方法,以便讓我們沉迷于他們的內(nèi)容。我在之前的一篇文章中提到過這個問題,名為《上癮行業(yè)令人擔(dān)憂的增長》。
這些算法的設(shè)計目的是為了激發(fā)我們的情感,讓我們保持開心。它們已經(jīng)非常非常擅長執(zhí)行這類任務(wù)。這些算法的許多核心開發(fā)人員已經(jīng)開始害怕技術(shù)對我們的影響,并警告稱我們的思想可能被劫持。
與人類不同,AI可以利用你的整個網(wǎng)絡(luò)歷史,在大多數(shù)情況下,它比任何人記住的朋友信息都要多。Facebook和谷歌開發(fā)的一些最先進(jìn)的機(jī)器學(xué)習(xí)算法已經(jīng)被應(yīng)用于數(shù)十億人的海量數(shù)據(jù)中。根據(jù)你的交流、朋友和文化背景,這些算法已經(jīng)了解你的欲望、偏見和情感觸發(fā)因素。在許多領(lǐng)域,它們甚至比你更了解自己。
算法的進(jìn)步如此之大,以至于Facebook和谷歌現(xiàn)在被指制造出可以影響公眾意見、迅速改變政治格局、影響選舉的過濾泡沫。這些算法變得如此復(fù)雜,以至于人類無法完全控制它們。Facebook的安全主管亞歷克斯·斯塔莫(Alex Stamos)最近在推特上說,記者們批評他們存在操作行為非常不公平。事實上,他們沒有任何不會導(dǎo)致人們指責(zé)他們有偏見的解決方案。
人們有很多偏見,這已經(jīng)影響了我們的判斷。我們看到的世界是我們所希望看到的,而不是它的本來面目。如今,由人類開發(fā)的算法也包含了許多人類特有的偏見。但如果我們想要消除這種偏見,那就相對容易了。
隨著AI越來越擅長操控我們,我發(fā)現(xiàn)人們樂于將自己的生活交給未來算法來管理。我們已經(jīng)在實踐中看到這種情況。只要在公共場合環(huán)顧四周,你會發(fā)現(xiàn)幾乎每個人都被他們的智能手機(jī)所吸引。人們每天平均觸摸手機(jī)2617次,這是一個預(yù)示著未來科技將會快速發(fā)展的指示器。我們可能很快就會看到,人類與AI的角色可能發(fā)生轉(zhuǎn)換,AI利用人類作為有機(jī)機(jī)器人來實現(xiàn)其目標(biāo)。