當前位置:首頁 > 智能硬件 > 人工智能AI
[導讀] 雖然自然語言通常以序列形式呈現(xiàn),但語言的基本結(jié)構并不是嚴格序列化的。語言學家們一致認為,該結(jié)構由一套規(guī)則或語法控制(Sandra&Taft,2014),且規(guī)定了單詞組成語句的邏輯。不管其表現(xiàn)形式

雖然自然語言通常以序列形式呈現(xiàn),但語言的基本結(jié)構并不是嚴格序列化的。語言學家們一致認為,該結(jié)構由一套規(guī)則或語法控制(Sandra&Taft,2014),且規(guī)定了單詞組成語句的邏輯。不管其表現(xiàn)形式如何,這種結(jié)構通常是樹狀的。雖然語言學家們已發(fā)現(xiàn)這一規(guī)律,但其潛在結(jié)構的真正起源卻仍不得而知。某些理論認為,這可能與人類認知的內(nèi)在機制相關(Chomsky&Lightfoot,2002)。由于人工神經(jīng)網(wǎng)絡的靈感來源于生物神經(jīng)系統(tǒng)的信息處理及通訊模式,上述可能性讓更多人對使用人工神經(jīng)網(wǎng)絡研究語言的潛在結(jié)構產(chǎn)生了興趣。

從實用角度看,將樹結(jié)構集成到語言模型中也很重要,原因如下:

能獲得抽象化級別不斷提升的分層表征,抽象化也是深度神經(jīng)網(wǎng)絡的關鍵特征(Bengio等,2009;LeCun等,2015;Schmidhuber,2015);

能捕獲復雜語言現(xiàn)象,如長期依賴問題(Tai等,2015)與組分效應(compositionaleffects)(Socher等,2013);

能為梯度反向傳播提供捷徑(Chung等,2016)。

近些年,很多人開始關注開發(fā)能夠利用語法知識或至少一些樹結(jié)構(Williams等,2018;Shi等,2018)來形成更好語義表征的深度神經(jīng)網(wǎng)絡(Shen等,2017;Jacob等,2018;Bowman等,2016;Choi等,2018;Yogatama等,2016)。

獲得樹結(jié)構的一種簡單方法是通過監(jiān)督語法分析器。這些分析器生成的樹結(jié)構被用來指導單詞語義到句子語義的組合(Socher等,2013;Bowman等,2015),甚至在給定先前單詞的情況下幫助預測下一個單詞(Wu等,2017)。然而,監(jiān)督分析器也有一些局限性:1)很少有語言具有用于監(jiān)督分析器訓練的全面注釋數(shù)據(jù);2)在可用的語言數(shù)據(jù)中,語法規(guī)則往往被打破「如推特上的表達」;3)在實際運用過程中,語言始終在變化,因此語法規(guī)則可能會演變。

另一方面,以無監(jiān)督方式從可用數(shù)據(jù)中學習樹結(jié)構仍是一個未解決的問題。訓練過程中的繁瑣結(jié)構(如左分支樹結(jié)構、右分支樹結(jié)構(Williams等,2018))或強化學習訓練困境(Yogatama等,2016),使許多研究無功而返。而且,一些方法的實現(xiàn)和訓練相對復雜,如Shen等人提出的PRPN(2017)。

循環(huán)神經(jīng)網(wǎng)絡(RNN)已被證明在語言建模任務中非常高效(Merity等,2017;Melis等,2017)。RNN隱式地在數(shù)據(jù)上強加了鏈式結(jié)構。該鏈式結(jié)構似乎與語言的潛在非序列化結(jié)構不一致,并且給運用深度學習方法處理自然語言數(shù)據(jù)帶來了一些困難,如捕獲長期依賴(Bengio等,2009)、獲得良好泛化能力(Bowman等,2015)及處理否定(Socher等,2013)等。同時,有證據(jù)表明,擁有充足能力的循環(huán)神經(jīng)網(wǎng)絡有潛力隱式地編碼這種樹結(jié)構(Kuncoro等,2018)。但問題是,在模型架構上強加樹結(jié)構歸納先驗會導致更好的語言模型嗎?

本文介紹了一種面向循環(huán)神經(jīng)網(wǎng)絡的新型歸納偏置:有序神經(jīng)元。這種歸納偏置增強了神經(jīng)元之間的依賴性,這種依賴性反映了每個神經(jīng)元內(nèi)所存儲信息的生命周期。換言之,一些高級神經(jīng)元儲存長期信息,而低級神經(jīng)元儲存短期信息。為了避免高級和低級神經(jīng)元之間的固定劃分,本文進一步提出了一種新的激活函數(shù)cumax()來主動分配神經(jīng)元去存儲長/短期信息?;赾umax()和長短期記憶網(wǎng)絡(LSTM)架構,本文設計了一種新模型──ON-LSTM,它使RNN模型能夠能夠在不破壞其序列形式的情況下執(zhí)行樹狀合成。該模型在語言建模、無監(jiān)督成分句法分析(unsupervisedconsTItuencyparsing)、有針對性的語法評估(Marvin&Linzen,2018)及邏輯推理(Bowman等,2015)四個任務上表現(xiàn)優(yōu)異。其在無監(jiān)督成分句法分析任務上的結(jié)果表明,本文提出的歸納偏置與人類專家提出語法原則是一致的。我們的實驗還表明,就長期依賴和較長序列泛化而言,ON-LSTM比標準LSTM模型性能更佳,

論文:ORDEREDNEURONS:INTEGRATINGTREESTRUCTURESINTORECURRENTNEURALNETWORKS

論文鏈接:https://openreview.net/forum?id=B1l6qiR5F7

摘要:循環(huán)神經(jīng)網(wǎng)絡模型已被廣泛用于處理由潛在樹結(jié)構控制的序列數(shù)據(jù)。以前的研究表明,RNN模型(尤其是基于LSTM的模型)能夠?qū)W習利用潛在樹結(jié)構。然而,它的性能卻始終落后于基于樹的模型。我們提出了一種新的歸納偏置──有序神經(jīng)元(OrderedNeuron),它強制執(zhí)行了隱藏狀態(tài)神經(jīng)元之間更新頻率的順序。本文表明,有序神經(jīng)元能夠?qū)撛跇浣Y(jié)構明確整合到循環(huán)模型中。為此,我們提出了一種新的RNN單元:ON-LSTM,其在語言建模、無監(jiān)督成分句法分析、有針對性的語法評估及邏輯推理四個任務上表現(xiàn)優(yōu)異。

圖1:成分句法分析樹與ON-LSTM的關系。給定token序列(x1,x2,x3),其成分句法分析樹如圖(a)所示。圖(b)展示了樹結(jié)構的塊狀圖,其中S與VP節(jié)點都跨越了不止一個時間步。高級節(jié)點的表征在跨越多個時間步時應保持相對一致。圖(c)展示了每組神經(jīng)元在每個時間步的更新神經(jīng)元比例。在每個時間步,給定輸入詞,較深的灰色塊代表完全更新,較淺的灰色塊代表部分更新。三組神經(jīng)元的更新頻率不盡相同。較高級別的組更新頻率較低,而較低級別的組更新頻率較高。

ON-LSTM

本文提出了一種新的RNN單元──ON-LSTM,作為有序神經(jīng)元的實現(xiàn)。該新模型與標準LSTM模型的架構相似。

ON-LSTM與標準LSTM模型的唯一區(qū)別在于,我們排除了單元狀態(tài)ct的更新功能,并以新的更新規(guī)則替代,后續(xù)章節(jié)將會詳細解釋。與之前一樣,運用遺忘門ft與輸入門it控制單元狀態(tài)ct上的清除和寫入操作。一般來說,由于標準LSTM的門不會在其各個單元中強加拓撲結(jié)構,所以各個單元的行為不會反映出排序。

實驗
?

表1:賓州樹庫語言建模任務中驗證集和測試集上的單個模型困惑。標注「TIed」的模型在嵌入和softmax權重上使用權重綁定。標注「*」的模型重點關注改進RNN語言模型的softmax部分。

表2:在完整的WSJ10和WSJ測試集上評估無標記「parsingF1」的結(jié)果。本文的語言模型分三層,每層都提供了dt序列。本文給出了所有層的分析性能。RL-SPINN和ST-Gumbel的結(jié)果在完整的WSJ(Williams等,2017)上評估。PRPN模型在WSJ測試集(Htut等,2018)上評估。

表3:ON-LSTM和LSTM在每個測試案例上的整體準確率。「Long-termdependency」表示目標詞對之間存在一個不相關的短語或從句,而「short-termdependency」意味著沒有這猴子那個分散注意力的情況。

本文來源:機器之心

本站聲明: 本文章由作者或相關機構授權發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫毥谦F公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務能7×24不間斷運行,同時企業(yè)卻面臨越來越多業(yè)務中斷的風險,如企業(yè)系統(tǒng)復雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務連續(xù)性,提升韌性,成...

關鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關鍵字: 華為 12nm EDA 半導體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權最終是由生態(tài)的繁榮決定的。

關鍵字: 華為 12nm 手機 衛(wèi)星通信

要點: 有效應對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務引領增長 以科技創(chuàng)新為引領,提升企業(yè)核心競爭力 堅持高質(zhì)量發(fā)展策略,塑強核心競爭優(yōu)勢...

關鍵字: 通信 BSP 電信運營商 數(shù)字經(jīng)濟

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術學會聯(lián)合牽頭組建的NVI技術創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術創(chuàng)新聯(lián)...

關鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(集團)股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關鍵字: BSP 信息技術
關閉
關閉