• 神經網絡的大寬度限制

    編輯
    本詞條由“匿名用戶” 建檔。

    神經網絡的大寬度限制

    編輯

    人工神經網絡機器學習中使用的一類模型,其靈感來自生物神經網絡。它們是現代深度學習算法的核心組成部分。人工神經網絡的計算通常被組織成人工神經元的順序層。一層中的神經元數量被稱為層寬。人工神經網絡的理論分析有時會考慮層寬變大或無限的極限情況。這個極限使人們能夠對神經網絡的預測、訓練動態、泛化和損失面做出簡單的分析陳述。這種寬層極限也是有實際意義的,因為有限寬度的神經網絡往往隨著層寬的增加而有嚴格的表現。

    基于大寬度極限的理論方法

    編輯

    神經網絡高斯過程(NNGP)對應于貝葉斯神經網絡的無限寬度極限,也對應于非貝葉斯神經網絡在隨機初始化后實現的函數分布。用于推導NNGP核的基礎計算也被用于深度信息傳播,以描述梯度和輸入的信息通過深度網絡的傳播特征

    神經網絡的理解和實現

    這個特征被用來預測模型的可訓練性如何取決于架構和初始化超參數。神經切線核描述了梯度下降訓練中神經網絡預測的演變。在無限寬度的限制下,NTK通常成為常數,通常允許在整個梯度下降訓練過程中以閉合形式表達寬神經網絡計算的函數。對具有不同初始權重比例和適當大的學習率的無限寬度神經網絡的研究導致了與固定神經正切核所描述的非線性訓練動力學有質的不同。Catapult動力學描述了在層寬達到無窮大時logits發散到無窮大的情況下的神經網絡訓練動力學,并描述了早期訓練動力學的定性屬性。

    內容由匿名用戶提供,本內容不代表www.gelinmeiz.com立場,內容投訴舉報請聯系www.gelinmeiz.com客服。如若轉載,請注明出處:http://www.gelinmeiz.com/175731/

    (2)
    詞條目錄
    1. 神經網絡的大寬度限制
    2. 基于大寬度極限的理論方法

    輕觸這里

    關閉目錄

    目錄
    91麻精品国产91久久久久