圖形神經網絡
編輯圖形神經網絡(GNN)是一類人工神經網絡,用于處理可以表示為圖形的數據。在幾何深度學習這一更普遍的主題中,某些現有的神經網絡架構可以被解釋為在適當定義的圖形上運行的GNN。卷積神經網絡,在計算機視覺的背景下,可以被看作是一個應用于像素網格結構的圖形的神經網絡。在自然語言處理的背景下,變壓器可以被看作是應用于完整圖形的GNN,其節點是句子中的單詞。GNN的關鍵設計元素是使用成對的信息傳遞,這樣,圖的節點通過與它們的鄰居交換信息來迭代更新它們的表示。自成立以來,已經提出了幾種不同的GNN架構,它們實現了不同類型的消息傳遞。截至2022年,是否有可能定義超越消息傳遞的GNN架構,或者是否每個GNN都可以建立在適當定義的圖上的消息傳遞,是一個開放的研究問題。圖神經網絡的相關應用領域包括社交網絡、引文網絡、分子生物學、化學、物理學和NP-hard組合優化問題。目前有幾個實現圖神經網絡的開源庫,如PyTorchGeometric(PyTorch)、TensorFlowGNN(TensorFlow)和jraph(GoogleJAX)。架構通用GNN的架構實現了以下基本層。包容等值:包容等值層將一個圖的表示映射到同一圖的更新表示中。在文獻中,包絡等值層是通過圖節點之間的成對消息傳遞來實現的。直觀地說,在消息傳遞層中,節點通過匯總從其近鄰收到的消息來更新其表示。
因此,每個消息傳遞層都會使GNN的感受野增加一跳。本地池化:本地池化層通過下采樣對圖進行粗化。本地池化被用來增加GNN的感受野,其方式與卷積神經網絡中的池化層類似。例子包括k-近鄰池化、top-k池化和自我注意池化。全局池化:全局池化層,也被稱為讀出層,提供整個圖的固定尺寸表示。全局池化層必須是變化無常的,這樣,圖的節點和邊的排序的變化不會改變最終的輸出。已經證明GNN不可能比Weisfeiler-Lehman圖的同構性測試更具表現力。在實踐中,這意味著存在著不同的圖結構(例如,具有相同原子但不同鍵的分子),這些圖結構不能被GNNs區分。可以設計出更強大的GNN,在更高維度的幾何結構上操作,如簡單的復合體。截至2022年,未來的架構是否會克服消息傳遞的基本原理是一個開放的研究問題。
消息傳遞層
編輯消息傳遞層是將一個圖映射到同一圖的更新表示的互換層。從形式上看,它們可以表示為消息傳遞神經網絡(MPNNs)。{displaystylepsi}是可微調的函數(如人工神經網絡)。是可微分的函數(例如,人工神經網絡),并且{displaystylebigoplus}是一個包絡不變的聚合算子。是一個包絡不變的聚合算子,可以接受任意數量的輸入(例如,元素明智的和、平均值或xxx值)。特別是{displaystyle/psi}分別被稱為更新函數和消息函數。分別被稱為更新和消息函數。直觀地說,在一個MPNN計算塊中,圖節點通過匯總從其鄰居處收到的消息來更新其表示。{displaystyleuinV}中的每個節點。節點表示可以用于任何下游任務,如節點/圖的分類或邊緣p
內容由匿名用戶提供,本內容不代表www.gelinmeiz.com立場,內容投訴舉報請聯系www.gelinmeiz.com客服。如若轉載,請注明出處:http://www.gelinmeiz.com/175673/