目錄
基于能量的模型
編輯基于能量的模型(EBM)是一種直接從統計物理學中導入學習的生成模型(GM)形式。GM通過分析一個樣本數據集來學習一個基礎數據分布。一旦經過訓練,GM就可以產生同樣符合數據分布的其他數據集。EBM為這種學習的許多概率和非概率方法提供了一個統一的框架,特別是用于訓練圖形和其他結構化模型。EBM學習目標數據集的特征,并生成一個類似但更大的數據集。EBM檢測數據集的潛在變量并生成具有類似分布的新數據集。目標應用包括自然語言處理、機器人學和計算機視覺。
基于能量的模型的歷史
編輯早期的EBM工作提出了將能量表示為潛在變量和可觀察變量的組成的模型。EBMs于2003年出現。方法EBMs通過將一個非標準化的概率標量(能量)與觀察變量和潛在變量組合的每個配置聯系起來,來捕獲依賴關系。推斷包括尋找潛伏變量的(值),這些潛伏變量在給定一組觀察變量(值)的情況下能量最小。同樣,該模型學習一個函數,將低能量與潛變量的正確值聯系起來,而將高能量與不正確的值聯系起來。傳統的EBM依賴于隨機梯度白化(SGD)優化方法,這些方法通常難以應用于高維數據集。2019年,OpenAI公開了一個變種,改為使用朗文動力學(LD)。LD是一種迭代優化算法,將噪聲引入估計器,作為學習目標函數的一部分。它可以通過產生后驗分布的樣本來用于貝葉斯學習場景。EBMs不要求能量被歸一化為概率。換句話說,能量不需要和為1。由于不需要像概率模型那樣估計歸一化常數,某些形式的推理和EBM的學習更具有可操作性和靈活性。樣本是通過馬爾科夫鏈蒙特卡洛方法隱式生成的。過去圖像的回放緩沖器與LD一起用于初始化優化模塊。
基于能量的模型的特征
編輯EBM展示了有用的特性。簡單性和穩定性-EBM是xxx需要設計和訓練的對象。獨立的網絡不需要被訓練以確保平衡。自適應的計算時間-EBM可以產生尖銳的、多樣化的樣本或(更快)粗糙的、不那么多樣化的樣本。在時間無限的情況下,這個程序會產生真實的樣本。靈活性--在變異自動編碼器(VAE)和基于流量的模型中,生成器學習一個從連續空間到包含不同數據模式的(可能)不連續空間的映射。EBM可以學習將低能量分配給不相干的區域(多種模式)。
自適應生成-EBM生成器由概率分布隱含地定義,并隨著分布的變化自動適應(無需訓練),允許EBM解決生成器訓練不實際的領域,以及最小化模式崩潰和避免來自分布外樣本的虛假模式。構成性-單個模型是未歸一化的概率分布,允許模型通過專家產品或其他分層技術進行組合。實驗結果在圖像數據集上,如CIFAR-10和ImageNet32x32,EBM模型相對快速地生成高質量的圖像。它支持結合從一種類型的圖像中學到的特征來生成其他類型的圖像。它能夠使用分布之外的數據集進行歸納,比基于流量的模型和自回歸模型更有優勢。EBM對對抗性擾動有相對的抵抗力,比明確針對它們進行分類訓練的模型表現更好。替代品EBM與變異自動編碼器(VAE)或生成對抗性神經網絡(GAN)等技術競爭。
內容由匿名用戶提供,本內容不代表www.gelinmeiz.com立場,內容投訴舉報請聯系www.gelinmeiz.com客服。如若轉載,請注明出處:http://www.gelinmeiz.com/175606/