反向傳播
編輯反向傳播(傳播Gosagyaku法)是機器學習中,該神經網絡中列車中使用的算法是。1986年到向后傳播誤差的(向后誤差傳播從基本上)大衛魯梅哈特由人名為。
反向傳播限制
編輯- 通過反向傳播進行學習的融合非常緩慢。
- 通過反向傳播學習并不總是收斂。
- 它通常會收斂到局部的最小錯誤點,而不是全局的最佳解決方案。
- 在某些情況下,需要對輸入數據進行預處理。輸入必須在激活功能的范圍內。如果每個維度的方差之間的差異太大,則權重傾向于集中在方差較小的地方。
- 如果梯度甚至在一個位置消失,則學習不會在較低的層進行,因此,隨著層數的增加,梯度消失的可能性也會增加。
- 如果您使用的激活函數的漸變部分接近0,則漸變會輕易消失。
- 由于通過最小化誤差來近似任意函數,因此無法學習不遵循中心極限定理的數據。
內容由匿名用戶提供,本內容不代表www.gelinmeiz.com立場,內容投訴舉報請聯系www.gelinmeiz.com客服。如若轉載,請注明出處:http://www.gelinmeiz.com/102149/