我們處在一個智能變革的時代,人工智能技術正在“賦能”各行各業(yè)。大數(shù)據(jù)就像新能源,AI算法就像發(fā)動機,裝載了大數(shù)據(jù)和人工智能技術的企業(yè)就像搭上了一班通往未來的快速列車,把競爭對手遠遠地甩在后面。
隱私
然而,這樣的快速發(fā)展不是沒有代價的。我們每個人的手機號、電子郵箱、家庭地址和公司地址經(jīng)緯度坐標、手機識別碼、消費記錄、APP使用記錄、上網(wǎng)瀏覽記錄、搜索引擎結果的點擊習慣、刷臉記錄、指紋、心跳等等這些信息都是我們不愿意輕易給出的隱私數(shù)據(jù),但在AI時代,這很可能已經(jīng)成為某個公司用來訓練AI算法的數(shù)據(jù)集中的一條。
正是眾多不起眼的一條條個人隱私數(shù)據(jù),構成了足夠多的訓練集,讓AI從中學習到認知能力,讓從未跟我們謀面的AI算法認識、了解我們,知道我們的喜好和動機,甚至還認識我們的家人、朋友。我們的隱私便是實現(xiàn)這些智能的“代價”。
當然,這個代價并不一定是你愿意拱手付出的。
那如何保護隱私?我不用行嗎?
你以為關閉手機GPS就無法定位你的位置?你的手機還有陀螺儀、內(nèi)置羅盤、氣壓計等裝置,還是可以用來定位你的位置。只要使用手機,就不存在絕對的隱私保護。
對于很多手機應用來說,要么不用,用了就很難避免泄露隱私,比如很多APP須用手機號注冊,或者需要手機驗證才能繼續(xù)使用,還有的需要刷臉驗證等等。那么,個人想保護隱私能做什么?什么也做不了,加上AI算法的黑盒性質,我們甚至對于AI背后的邏輯和動機一無所知。
監(jiān)管
隱私保護靠個人防護真的很難實現(xiàn),需要強有力的法律法規(guī)來限制。
2018年5月25日,歐盟的《通用數(shù)據(jù)保護條例》(GDPR)正式生效,這是在歐盟范圍內(nèi)的一個數(shù)據(jù)保護監(jiān)管框架,這是目前完善、嚴格的隱私保護規(guī)定。根據(jù)DLA Piper公布的數(shù)據(jù),在不到兩年的時間內(nèi),GDPR已產(chǎn)生1.14億歐元的罰款,其中開出的最大罰單是法國依據(jù)GDPR對谷歌罰款5000萬歐元,理由是谷歌在向用戶定向發(fā)送廣告時缺乏透明度、信息不足,且未獲得用戶有效許可。下圖是GDPR生效以來至2020年1月份歐盟各個國家罰款的金額分布圖。
對于企業(yè),GDPR要求在收集用戶的個人信息之前,須以“簡潔、透明且易懂的形式,清晰和平白的語言”向用戶說明將收集用戶的哪些信息、收集到的信息將如何進行存儲、存儲的信息將會被如何使用,并告知企業(yè)的聯(lián)系方式。
對于個人,GDPR賦予數(shù)據(jù)主體七項數(shù)據(jù)權利:知情權、訪問權、修正權、刪除權(被遺忘權)、限制處理權(反對權)、可攜帶權、拒絕權。目前GDPR在真實地影響到我們每個人的生活,直觀的影響就是當你瀏覽網(wǎng)頁的時候,你會發(fā)現(xiàn)經(jīng)常遇到網(wǎng)站彈出類似下圖的提示,這是網(wǎng)站基于信息透明性的規(guī)定,向你征詢信息收集的許可。
歐盟的GDPR具有全球影響力,它讓用戶對自己的個人數(shù)據(jù)有掌控權,讓全球在發(fā)展新技術的同時須開始關注隱私問題,世界各國已經(jīng)紛紛出臺自己的數(shù)據(jù)保護法規(guī)。
關于隱私保護,一切才剛剛開始。
歐盟在上個月正式啟動了稱為“打造歐洲數(shù)字未來”的新戰(zhàn)略,打算通過制定一系列針對AI、隱私和安全的法規(guī),成為AI發(fā)展的全球領導者。該戰(zhàn)略的啟動也被看成是在應對美國和中國的AI崛起。
可以預見,關于AI的隱私安全與監(jiān)管將逐漸成為重點話題,實際上,就像歐盟委員會副主席Margrethe Vestager說的:“人工智能本身并沒有好壞之分,而是取決于人們?yōu)槭裁匆约叭绾问褂盟W屛覀儽M可能做到最好,控制人工智能可能給我們的價值觀帶來的風險——不傷害,不歧視。”
保護隱私已經(jīng)成為AI發(fā)展不可繞過的“檻”,是AI技術的難題,也是AI良性發(fā)展的契機。
趨勢
可以說,保護隱私的各種法規(guī)的出臺必然是未來不可避免的趨勢,這勢必讓企業(yè)的數(shù)據(jù)收集、使用及流通的合規(guī)成本大幅增加,也容易讓企業(yè)內(nèi)部或者企業(yè)間形成數(shù)據(jù)孤島問題,制約企業(yè)獲取數(shù)據(jù)價值。因此,保護隱私的AI技術的落地使用成為AI領域亟待實現(xiàn)的目標。
保護隱私的AI主要通過數(shù)據(jù)加密、分布式計算、邊緣計算、機器學習等多種技術的結合來保護數(shù)據(jù)安全,近期比較熱門的有Differential Privacy(差分隱私)、FederatedLearning(聯(lián)邦學習,也叫聯(lián)盟學習、聯(lián)合學習、共享學習)。
保護隱私不是說不收集數(shù)據(jù),而是要通過技術的手段防止個人隱私數(shù)據(jù)的泄露。差分隱私是一種數(shù)學技術,比如,假設要分析數(shù)據(jù)集并計算其統(tǒng)計數(shù)據(jù)(例如數(shù)據(jù)的平均值、方差、中位數(shù)、眾數(shù)等),如果通過查看輸出,我們無法分辨原始數(shù)據(jù)集中是否包含了任何個體的數(shù)據(jù),那么這種算法就被稱為差異私有。
舉個非常簡單的例子,假設你的工作部門每個月都會用一個表格統(tǒng)計部門每個人的工資發(fā)放金額,除了制表人,別人無法查看這個表格,只能通過一個查詢函數(shù)S知道這個表的總額,某個月你調(diào)去了別的部門,那么別人就可以通過上個月表格A,和這個月表格B來知道你的工資,道理很簡單,只需用S(A)減去S(B)。B表格稱為A表格的相鄰數(shù)據(jù)集,它倆只相差一條數(shù)據(jù),差分隱私技術就是要讓相鄰數(shù)據(jù)集的查詢結果差不多,從而無法推出個人的信息來,這個差不多的程度可以看作隱私保護的力度。蘋果和Facebook已經(jīng)使用這種方法來收集聚合數(shù)據(jù),而不需要識別特定的用戶。MITTechnology Review將差分隱私技術列為2020全球十大突破性技術之一。
聯(lián)邦學習采用了分布式機器學習方法,近年來越來越受歡迎,該技術假設用戶數(shù)據(jù)不會被存儲到中心化的服務器,而是私有的、保密的,僅存儲在個人的邊緣設備上,比如手機,因此與傳統(tǒng)機器學習方法相比,聯(lián)邦學習從根本上增強了用戶隱私。聯(lián)邦學習不依賴從用戶設備端收集的數(shù)據(jù)來訓練,而是在用戶移動設備端訓練AI模型,然后將訓練得到的參數(shù)信息傳輸回一個全局模型,這個過程不需要用戶數(shù)據(jù)離開個人設備。
從近兩年在arXiv(一個提交論文預印版的平臺)上提交的論文數(shù)可以看出,該技術發(fā)展的快速趨勢:
巨頭的技術布局
從去年起全球流行的兩個機器學習框架,TensorFlow和PyTorch都增加了聯(lián)邦學習等解決方案來保護隱私。
(1)Google
聯(lián)邦學習的概念是由Google在2017年首次引入,去年又發(fā)布了TensorFlow Federated(TFF)框架,利用Tensorflow的機器學習框架簡化聯(lián)邦學習。
如下圖所示,基于TFF框架搭建的學習模型在眾多手機(如手機A)上進行本地化模型訓練,更新權重并聚合(步驟B),進而更新提升后的全局模型(模型C),將全局模型再應用到各手機終端來提升算法應用效果。
(2)Facebook
為了在保護隱私的機器學習領域取得進展,去年Facebook旗下的深度學習框架PyTorch與OpenMined宣布開發(fā)一個聯(lián)合平臺的計劃,以加速隱私保護技術的研究。
OpenMined是一個開源社區(qū),專注于研究、開發(fā)和升級用于安全、保護隱私的AI工具。OpenMined發(fā)布了PySyft,是第一個用于構建安全和隱私保護的開源聯(lián)邦學習框架。
PySyft很受歡迎,在Github已經(jīng)擁有5.2k個Star,目前支持在主要的深度學習框架(PyTorch、Tensorflow)中用聯(lián)邦學習、差分隱私和加密計算(如多方計算,同態(tài)加密),實現(xiàn)將隱私數(shù)據(jù)與模型訓練解耦。
國內(nèi)發(fā)展現(xiàn)狀
國內(nèi)的AI巨頭們也早已開啟保護隱私的技術布局,特別是金融領域,金融領域由于監(jiān)管嚴格,數(shù)據(jù)的隱私性要求非常高,因此,金融機構一方面在保護隱私數(shù)據(jù)方面面臨技術難題,另一方面由于金融數(shù)據(jù)的孤立性,“數(shù)據(jù)孤島”問題導致金融機構無法發(fā)揮出數(shù)據(jù)的真正價值。
國內(nèi)多家金融機構以及金融科技公司已經(jīng)嘗試在獲客、授信、風險控制等方面,利用聯(lián)邦學習解決數(shù)據(jù)隱私的合規(guī)問題和數(shù)據(jù)分享的數(shù)據(jù)孤島問題,發(fā)揮金融數(shù)據(jù)價值。
目前國內(nèi)關于保護隱私的監(jiān)管還不夠成熟,個人和企業(yè)對于隱私保護的意識還不強。隨著全球環(huán)境中對保護隱私的關注逐漸加強,以及保護隱私的AI技術的發(fā)展,我相信AI技術終究會向著更好的方向發(fā)展,希望通過科學家們的努力,AI的黑盒不會是潘多拉之盒。