AI現(xiàn)在在所有的軟件開發(fā)生命周期中很常見,特別是在應用程序設計、測試和部署中。然而,此類系統(tǒng)的存在日益增加,因此必須確保它們服務于而不是違背人類價值觀。人工智能代理人的不一致可能導致意外后果,如違反道德、決策中的歧視或濫用某些能力。
理解人工智能校準
AI校準,或稱價值校準,是指人工智能系統(tǒng)的目標與其他人類目標和行動相兼容或至少可以共存的過程或哲學。隨著人工智能技術的不斷發(fā)展,人工智能可能會自我毀滅或?qū)θ祟惒扇⌒袆?這使得投資人工智能倫理的需要變得更加緊迫。
不結盟人工智能代理人的風險
不符合人類價值的人工智能系統(tǒng)有可能造成極大的破壞。人們應該關注一個沒有道德方面的人工智能系統(tǒng)追逐目標。這樣的人工智能系統(tǒng)有可能很好地發(fā)揮作用,但它的行為將是可怕的,會導致做出不恰當?shù)倪x擇,侵犯隱私,破壞社會價值觀。這些弱點必須加以解決,所以人工智能設計師必須首先考慮道德問題。
從人的反饋中強化學習
人工智能技術的最新進展之一是從人類反饋學習(RLHF).這是一種人類強化的機器學習方法,它為模型指定了一個人類教師,特別是在獎勵功能復雜或定義不清的情況下。這種方法將提高人工智能系統(tǒng)的工作方式,使其使用更加復雜、相關和令人愉快,這將改善人類與人工智能之間的互動和互動。
實施步驟
步驟1:預先培訓語言模式
首先,對語言模型進行培訓,使之符合其設計的傳統(tǒng)目標,從而建立一種強有力的基礎性理解。
步驟2:收集數(shù)據(jù)和培訓獎勵模式
獲得對模型輸出的人力投入,以創(chuàng)建一個圍繞活動目標和預期結果的獎勵模型。
步驟3:通過強化學習對LM進行微調(diào)
通過強化學習,利用獎勵模型提高語言模型的性能,從而使語言模型的行為圖更接近人類。
吸收外部知識
現(xiàn)代人工智能系統(tǒng)應納入外部知識,以加強其自主運作,同時與人類道德標準保持一致。人工智能技術確保代理人作出富有成效的決定和執(zhí)行道德行動,由于有最新和相關的信息訪問,行動是有效率的,這有助于維護道德標準和廉正。
整合外部數(shù)據(jù)來源的方法
1. 回收強化一代: RAG允許GTP模型檢索和整合來自外部文檔的特定知識,使動態(tài)和背景感知決策成為可能。
2. 知識圖: 有組織的實體網(wǎng)絡及其關系為人工智能提供了背景理解,加強了推理和決策。
3. 基于本體的數(shù)據(jù)整合: 本體定義結構化的類別和關系,幫助AI集成和解釋多領域信息,同時減少語義摩擦。
通過結構化的外部知識改進人工智能的業(yè)績
· 相關的更新訪問: 在AI中整合數(shù)據(jù)可以確保代理不會對陳舊的信息采取行動,即使情況是流動的。
· 盡量減少錯誤: 加入額外數(shù)據(jù)使理解環(huán)境變得更加容易,從而大大減少了出錯的可能性,并且提高了由A生成的輸出信息的質(zhì)量。
· 道德配件: 人工智能系統(tǒng)可以將外部道德操守和標準作業(yè)程序納入其中,使其職能符合良好的道德原則和要求。
人工智能調(diào)整方面的挑戰(zhàn)
人工智能最大的問題是將人工智能系統(tǒng)的價值觀與人類相結合的問題。應對這一挑戰(zhàn)需要進一步改進,特別是在盡量減少人類認知固有的偏見和克服人工智能模式可利用的外部信息來源的限制方面。
人類反饋中的偏見
人類反饋是培訓人工智能模型的關鍵,強化學習是一種特別有效的技術。然而,這種輸入可能包括由個人主觀性、文化背景或無意中的變量引起的偏差,可能會損害AI的表現(xiàn)。
外部知識來源的局限性
將外部知識整合到AI系統(tǒng)中可以通過提供新的數(shù)據(jù)來改進決策。然而,當這些數(shù)據(jù)過時、部分或錯誤時,就會出現(xiàn)問題,可能導致推理錯誤。此外,處理和解釋大量混亂的外部數(shù)據(jù)可能很困難。因此,在將外部信息納入人工智能系統(tǒng)之前,必須實施確保外部信息質(zhì)量和可靠性的步驟。
道德智能發(fā)展最佳做法
有必要制定具體措施,納入人的反饋和其他措施,以提高透明度和問責制,建立與人道主義原則同步的人工智能系統(tǒng)。
有效的人力反饋整合戰(zhàn)略
· 結構性反饋機制: 執(zhí)行常規(guī)活動以獲得用戶反饋,指導人工智能執(zhí)行其活動.這可以通過調(diào)查、在線測試和互動歷史來實現(xiàn)。
· 反饋來源的多樣性: 在使用人工智能技術時,收集盡可能多的用戶的反饋,以便最大限度地減少偏差和增強表示。
· 迭代發(fā)展: 遵循敏捷的方法,這樣人工智能模型就可以根據(jù)用戶的反饋進行訓練和再訓練,人工智能代理就可以根據(jù)用戶的需求進行進化。
確保透明度和問責制
大赦國際發(fā)展的透明度和問責制對公眾信任和道德操守至關重要??山忉尩腁I(XAI)方法幫助利益攸關方了解AI系統(tǒng)如何工作、決策過程和監(jiān)控程序。
問責制和審計需要數(shù)據(jù)集屬性、模型設計和培訓資源的全面文檔。需要定期進行道德評估,以發(fā)現(xiàn)和糾正偏見或不道德的做法,確保人工智能系統(tǒng)是負責、透明和符合人類價值觀的。
結論
大赦國際的協(xié)調(diào)涉及開發(fā)人員、道德專家、法律當局和其他適當?shù)睦尕P方的共同努力,以實現(xiàn)為人民設計和可供人民使用的大赦制度的建立。隨著人工智能系統(tǒng)領域越來越具有包容性,必須始終考慮以人為本的倫理難題,并建立透明度,以作為推動因素。