亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

圖神經(jīng)網(wǎng)絡(luò)在處理基于圖數(shù)據(jù)問題方面取得了巨大的成功

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 作者:朱美琪 ? 2020-10-10 10:47 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1 引言 圖神經(jīng)網(wǎng)絡(luò)在處理基于圖數(shù)據(jù)問題方面取得了巨大的成功,受到了廣泛的關(guān)注和應(yīng)用。GNNs通常是基于消息傳遞的方式設(shè)計的,本質(zhì)思想即迭代地聚合鄰居信息,而經(jīng)過次的迭代后, 層GNNs能夠捕獲節(jié)點的局部結(jié)構(gòu),學(xué)習(xí)來自跳鄰居的信息。因此更深層的GNN就能夠訪問更多的鄰居信息,學(xué)習(xí)與建模遠(yuǎn)距離的節(jié)點關(guān)系,從而獲得更好的表達能力與性能。而在實際在做深層GNN操作時,往往會面臨著兩類問題:1. 隨著層數(shù)的增加,GNNs的性能會大幅下降;2. 隨著層數(shù)的增加,利用GNNs進行訓(xùn)練與推斷時需要的計算量會指數(shù)上升。對于第一個問題來說,現(xiàn)有的很多工作分析出深層GNNs性能下降的原因是受到了過平滑問題的影響,并提出了緩解過平滑的解決方案;而對于第二個問題來說,設(shè)計方案模擬深層GNNs的表現(xiàn)能力并減少GNNs的計算消耗也成了亟待解決的需求,比如用于實時系統(tǒng)的推斷。針對這兩個問題,本文將分別介紹兩個在KDD 2020上的關(guān)于深度GNNs的最新工作。 第一個工作是Research Track的《Towards Deeper Graph Neural Networks》。該工作從另一個角度去解讀深度圖神經(jīng)網(wǎng)絡(luò)隨著層數(shù)增加性能下降的問題,認(rèn)為影響性能下降的主要原因是Transformation和Propagation兩個過程的糾纏影響作用,并且基于分析結(jié)果設(shè)計了深度自適應(yīng)圖神經(jīng)網(wǎng)絡(luò)(Deep Adaptive Graph Neural Networks) 模型,能夠有效地緩解深層模型的性能快速下降問題。 第二個工作是Research Track的《TinyGNN: Learning E?icient Graph Neural Networks》。該工作嘗試訓(xùn)練small GNN(淺層)去模擬Deep GNN(深層)的表達能力和表現(xiàn)效果,致力于應(yīng)用在實時系統(tǒng)推斷等對推斷速度有較高要求的場景。 2 Towards Deeper Graph Neural Networks 2.1 引言 1層的GCN只考慮了1跳鄰居的信息,而當(dāng)使用多層的圖卷積操作擴大GCN的接受域之后,性能也會大幅下降。已有的一些工作[1,2]將這個性能大幅下降的原因歸根于圖神經(jīng)網(wǎng)絡(luò)的過平滑問題(over-smoothing)。然而這篇文章保持一個不同的觀點,并且從另一個角度去解讀深度圖神經(jīng)網(wǎng)絡(luò)性能下降的問題。這篇文章認(rèn)為影響其性能快速下降的主要因素是表示變換(Transformation)和傳播(propagation)的糾纏作用,過平滑問題只有在使用了非常大的接受域,也就是疊加非常多層的時候才會影響圖神經(jīng)網(wǎng)絡(luò)的表現(xiàn)效果。在進行了理論和實驗分析的基礎(chǔ)上,該文章提出了深度自適應(yīng)圖形神經(jīng)網(wǎng)絡(luò)的設(shè)計方案。代碼鏈接: https://github.com/mengliu1998/DeeperGNN 2.2實驗與理論分析 2.2.1 圖卷積操作 通常圖卷積操作遵循一種鄰居聚合(或消息傳遞)的方式,通過傳播其鄰域的表示并在此之后進行變化以學(xué)習(xí)節(jié)點表示。第層的操作一般可以描述為:

2.2.2 平滑度的定量度量 平滑度是反映節(jié)點表示相似程度的度量標(biāo)準(zhǔn)。通常兩個節(jié)點的歐氏距離值越小,兩個節(jié)點表示的相似性越高。本文作者提出了一種計算整張圖平滑度的指標(biāo):

它與圖中節(jié)點表示的整體平滑度呈負(fù)相關(guān),即越小,圖的平滑度越大。 2.2.3 深度GNN性能下降的原因 在評價指標(biāo)的基礎(chǔ)上,作者對GCN在cora數(shù)據(jù)集上進行節(jié)點分類實驗的準(zhǔn)確率、可視化以及指標(biāo)數(shù)值的變化情況進行了統(tǒng)計,結(jié)果如下:

并給出質(zhì)疑over-smoothing的兩點原因:(1) 過平滑問題僅會發(fā)生在節(jié)點表示傳播很多層之后,而實驗中cora的分類結(jié)果在10層之內(nèi)就大幅下降。(2)評價指標(biāo)的值與初始相比只有輕微下降,證明平滑程度只有一定的上升,而不足以導(dǎo)致過平滑。 而作者進一步指出,是轉(zhuǎn)換(Transformation)和傳播(propagation)的糾纏作用嚴(yán)重?fù)p害了深度圖神經(jīng)網(wǎng)絡(luò)的性能。并且為了驗證該假設(shè),作者將兩個過程分解出來,設(shè)計了如下的一個簡單模型:

并同樣給出在cora上的實驗結(jié)果:

當(dāng)兩個過程分解后,50層內(nèi)的GCN準(zhǔn)確率基本能夠在80%左右,當(dāng)層數(shù)達到100+后才會陸續(xù)下降,對應(yīng)的值也在300層以后變得很低,說明此時網(wǎng)絡(luò)受到過平滑的影響。以上兩個實驗說明了在GNN受過平滑影響之前,轉(zhuǎn)換(Transformation)和傳播(propagation)的糾纏作用確實會損害深度圖神經(jīng)網(wǎng)絡(luò)的性能,導(dǎo)致性能大幅下降。也證實了解耦轉(zhuǎn)換和傳播可以幫助構(gòu)建更深層次的模型,從而利用更大的可接受域來學(xué)習(xí)更多的信息。 2.2.4 理論證明 經(jīng)過變換與傳播的解耦,作者的理論分析可以更嚴(yán)格且溫和地描述過平滑問題。在本節(jié)中,作者嚴(yán)格描述兩種典型傳播機制的過度平滑問題,并推導(dǎo)出當(dāng)層數(shù)趨近于無窮時,兩種(, 的收斂情況。并證明該種傳播模式是線性不可分的,利用它們作為傳播機制將產(chǎn)生難以區(qū)分表征,從而導(dǎo)致over-smoothing問題。 2.3 模型

主要思想是將節(jié)點表示的變換與傳播過程解耦,并同時進行至層傳播,最后利用學(xué)得的融合權(quán)重向量做一個自適應(yīng)調(diào)整融合。 2.4 實驗

實驗數(shù)據(jù)集

節(jié)點分類實驗結(jié)果

cora數(shù)據(jù)集上不同訓(xùn)練集比例的分類準(zhǔn)確率 值得分析的有以下兩點: (1)為什么低label rate的DAGNN表現(xiàn)要好?這些比較可觀的改進主要歸功于DAGNN的優(yōu)勢: 通過消除表示轉(zhuǎn)換和傳播的糾纏,同時擴展接受域的范圍,使得利用信息更豐富。 (2)和APPNP SGC的區(qū)別是什么?APPNP和SGC實際上都解耦了轉(zhuǎn)換和傳播,并且APPNP也擴展了k階接受域。DAGNN比APPNP好,是因為設(shè)計了自適應(yīng)調(diào)整每個節(jié)點來自不同接收域的信息權(quán)重。

DAGNN在不同數(shù)據(jù)集上隨層數(shù)變化的表現(xiàn) 3 TinyGNN: Learning E?icient Graph Neural Networks 3.1 引言 經(jīng)過k次迭代后,k層GNN可以捕獲來自k-hop節(jié)點結(jié)構(gòu)信息。通過這種方式,一個更深層的GNN就有獲取更多鄰居信息的能力,從而取得更好的性能。舉例來說,下圖隨著GAT層數(shù)的增加,兩個數(shù)據(jù)集的分類準(zhǔn)確率都有大幅提升。

而相對應(yīng)的,當(dāng)GNN進一步擴展層數(shù)時,鄰域的指數(shù)擴增會導(dǎo)致GNNs模型需要大量的訓(xùn)練和推理計算消耗。這使得許多應(yīng)用程序(如實時系統(tǒng))無法使用更深層的GNN作為解決方案。舉例來說,同樣的兩個數(shù)據(jù),4層GAT的計算時間以指數(shù)級增長,導(dǎo)致計算消耗十分巨大。

因此這里就存在著一個困境,即采用深層的GNN就越容易取得高性能,但是從效率的角度又往往傾向于開發(fā)一個小而推斷迅速的GNN。但是較小的GNN與較深的GNN之間存在較大的鄰域信息差距,這也是需要考慮的。因此這篇文章旨在訓(xùn)練一個較小的GNN,既能很好地刻畫了局部結(jié)構(gòu)信息,與較深的GNN相比可以獲得相似性能,同時也能夠進行快速的推斷。總結(jié)來說,貢獻如下: (1)提出了一種小型、高效的TinyGNN,能夠在短時間內(nèi)實現(xiàn)推斷出高性能的節(jié)點表示。 (2)利用對等感知模塊(PAM)和鄰居蒸餾策略(NDS),以顯式和隱式兩種方式對局部結(jié)構(gòu)建模,并解決小GNN和較深GNN之間的鄰居信息差距。 (3)大量的實驗結(jié)果表明,TinyGNN可以實現(xiàn)與更深層次的GNN相似甚至更好的性能,并且在實驗數(shù)據(jù)集上,推理過程能夠有7.73到126.59倍的提速。 3.2 模型 3.2.1 對等感知模塊 對等節(jié)點(peer nodes)指的是同一層GNN從同一個點源點采樣出的所有鄰居集合,在下圖(b)用相同的顏色表示。對等節(jié)點之間沒有通信,所有對等節(jié)點都能夠通過上層節(jié)點在兩跳內(nèi)相連。大量的對等節(jié)點是鄰居,來自底層的鄰居信息可以被對等節(jié)點直接配置。

PAM建模對等節(jié)點的方式如下,以兩個節(jié)點隱層表示的相似度作為融合權(quán)重。PAM能夠幫助探索同一層中的節(jié)點之間的新關(guān)系,并幫助建模較小的GNN從而避免由較低層的鄰居迭代聚集而導(dǎo)致的大量計算。

PAM可以被用于任何圖網(wǎng)絡(luò)結(jié)構(gòu)中,作為一個基礎(chǔ)的模塊,1層GNN+1層PAM的計算量要小于兩層GNN。 3.2.2 鄰居蒸餾策略 作者利用知識蒸餾設(shè)計了鄰居信息蒸餾方案,teacher GNN是深層模型,能夠建模更廣泛的鄰域。而student GNN采用淺層模型,能夠有更快的推斷速度。并且利用teacher GNN 教student GNN隱式地捕捉全局深層結(jié)構(gòu)信息,使得student GNN有深層GNN的表現(xiàn)效果。

teacher GNN的損失函數(shù):

student GNN的損失函數(shù),同時利用來自teacher網(wǎng)絡(luò)的軟標(biāo)簽和真實標(biāo)簽進行學(xué)習(xí),T表示蒸餾溫度。

3.3 實驗

實驗數(shù)據(jù)集

節(jié)點分類實驗結(jié)果

速度提升情況

責(zé)任編輯:lq
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4822

    瀏覽量

    106458
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1229

    瀏覽量

    26001
  • GNN
    GNN
    +關(guān)注

    關(guān)注

    1

    文章

    31

    瀏覽量

    6708

原文標(biāo)題:【KDD20】深度圖神經(jīng)網(wǎng)絡(luò)專題

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫分為多個功能,每個功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    神經(jīng)元,但卻能產(chǎn)生復(fù)雜的行為。受此啟發(fā),與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)相比,LNN旨在通過模擬大腦中神經(jīng)元之間的動態(tài)連接來處理信息,這種網(wǎng)絡(luò)能夠順序
    的頭像 發(fā)表于 09-28 10:03 ?461次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)的并行計算與加速技術(shù)

    問題。因此,并行計算與加速技術(shù)神經(jīng)網(wǎng)絡(luò)研究和應(yīng)用中變得至關(guān)重要,它們能夠顯著提升神經(jīng)網(wǎng)絡(luò)的性能和效率,滿足實際應(yīng)用中對快速響應(yīng)和大規(guī)模數(shù)據(jù)處理的需求。
    的頭像 發(fā)表于 09-17 13:31 ?820次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計算與加速技術(shù)

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)多個方面存在顯著差異,以下是對兩者的比較: 一、結(jié)構(gòu)特點 BP神經(jīng)網(wǎng)絡(luò) : BP
    的頭像 發(fā)表于 02-12 15:53 ?1150次閱讀

    BP神經(jīng)網(wǎng)絡(luò)圖像識別中的應(yīng)用

    BP神經(jīng)網(wǎng)絡(luò)圖像識別中發(fā)揮著重要作用,其多層結(jié)構(gòu)使得網(wǎng)絡(luò)能夠?qū)W習(xí)到復(fù)雜的特征表達,適用于處理非線性問題。以下是對BP神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:12 ?1053次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    所擬合的數(shù)學(xué)模型的形式受到大腦中神經(jīng)元的連接和行為的啟發(fā),最初是為了研究大腦功能而設(shè)計的。然而,數(shù)據(jù)科學(xué)中常用的神經(jīng)網(wǎng)絡(luò)作為大腦模型已經(jīng)過時,現(xiàn)在它們只是能夠某些應(yīng)用中提供最先進性能
    的頭像 發(fā)表于 01-09 10:24 ?1960次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)自然語言處理中的應(yīng)用

    自然語言處理是人工智能領(lǐng)域的一個重要分支,它致力于使計算機能夠理解、解釋和生成人類語言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)作為一種強大的模型,圖像識別和語音處理等領(lǐng)域
    的頭像 發(fā)表于 11-15 14:58 ?1107次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常
    的頭像 發(fā)表于 11-15 14:53 ?2327次閱讀

    深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)模型

    深度學(xué)習(xí)近年來多個領(lǐng)域取得了顯著的進展,尤其是圖像識別、語音識別和自然語言處理方面。卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-15 14:52 ?1124次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)是機器學(xué)習(xí)領(lǐng)域中的一種強大工具,它們能夠模擬人腦處理信息的方式。隨著技術(shù)的發(fā)展,神經(jīng)網(wǎng)絡(luò)的類型也不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN
    的頭像 發(fā)表于 11-15 09:42 ?1869次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)圖像處理中的應(yīng)用

    長短期記憶(LSTM)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長期依賴關(guān)系。雖然LSTM最初是為處理序列數(shù)據(jù)設(shè)計的,但近年來,它在圖像
    的頭像 發(fā)表于 11-13 10:12 ?1950次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與工作機制

    LSTM(Long Short-Term Memory,長短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),設(shè)計用于解決長期依賴問題,特別是處理時間序列
    的頭像 發(fā)表于 11-13 10:05 ?2070次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)RNN的區(qū)別

    深度學(xué)習(xí)領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)因其能夠處理序列數(shù)據(jù)而受到廣泛關(guān)注。然而,傳統(tǒng)RNN處理
    的頭像 發(fā)表于 11-13 09:58 ?1612次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)時間序列預(yù)測中的應(yīng)用

    時間序列預(yù)測是數(shù)據(jù)分析中的一個重要領(lǐng)域,它涉及到基于歷史數(shù)據(jù)預(yù)測未來值。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,長短期記憶(LSTM)神經(jīng)網(wǎng)絡(luò)因其處理序列
    的頭像 發(fā)表于 11-13 09:54 ?2579次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的基本原理 如何實現(xiàn)LSTM神經(jīng)網(wǎng)絡(luò)

    LSTM(長短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長期依賴信息。處理序列數(shù)據(jù)時,如時間序列分析、自然語言
    的頭像 發(fā)表于 11-13 09:53 ?2382次閱讀