Gan
生成式對抗網路
生成式對抗網路(GAN, Generative Adversarial Networks )是一種深度學習模型,是近年來複雜分佈上無監督學習最具前景的方法之一。
模型通過框架中(至少)兩個模塊:生成模型(Generative Model)和判別模型(Discriminative Model)的互相博弈學習產生相當好的輸出。原始 GAN 理論中,並不要求 G 和 D 都是神經網路,只需要是能擬合相應生成和判別的函數即可。但實用中一般均使用深度神經網路作為 G 和 D 。一個優秀的GAN應用需要有良好的訓練方法,否則可能由於神經網路模型的自由性而導致輸出不理想。
. Generative Adversarial Networks中提出了一個通過對抗過程估計生成模型的新框架。框架中同時訓練兩個模型:捕獲數據分佈的生成模型G,和估計樣本來自訓練數據的概率的判別模型D。G的訓練程序是將D錯誤的概率最大化。這個框架對應一個最大值集下限的雙方對抗遊戲。可以證明在任意函數G和D的空間中,存在唯一的解決方案,使得G重現訓練數據分佈,而D=0.5。在G和D由多層感知器定義的情況下,整個系統可以用反向傳播進行訓練。在訓練或生成樣本期間,不需要任何馬爾科夫鏈或展開的近似推理網路。實驗通過對生成的樣品的定性和定量評估證明了本框架的潛力。
器習模型類,模型( )判模型( )。判模型需輸量,某模型預測。模型某隱含息,隨產觀測據。舉簡單例,
• 判模型:圖,判斷圖貓狗
• 生成模型:給一系列貓的圖片,生成一張新的貓咪(不在數據集里)
對於判別模型,損失函數是容易定義的,因為輸出的目標相對簡單。但對於生成模型,損失函數的定義就不是那麼容易。我們對於生成結果的期望,往往是一個曖昧不清,難以數學公理化定義的範式。所以不妨把生成模型的回饋部分,交給判別模型處理。這就是Goodfellow他將機器學習中的兩大類模型, Generative和 Discrimitive給緊密地聯合在了一起。
GAN的基本原理其實非常簡單,這裡以生成圖片為例進行說明。假設我們有兩個網路,G(Generator)和D(Discriminator)。正如它的名字所暗示的那樣,它們的功能分別是:
• G是一個生成圖片的網路,它接收一個隨機的雜訊z,通過這個雜訊生成圖片,記做G(z)。
• D是一個判別網路,判別一張圖片是不是“真實的”。它的輸入參數是x,x代表一張圖片,輸出D(x)代表x為真實圖片的概率,如果為1,就代表100%是真實的圖片,而輸出為0,就代表不可能是真實的圖片。
在訓練過程中,生成網路G的目標就是盡量生成真實的圖片去欺騙判別網路D。而D的目標就是盡量把G生成的圖片和真實的圖片分別開來。這樣,G和D構成了一個動態的“博弈過程”。
最後博弈的結果是什麼?在最理想的狀態下,G可以生成足以“以假亂真”的圖片G(z)。對於D來說,它難以判定G生成的圖片究竟是不是真實的,因此D(G(z)) = 0.5。
這樣我們的目的就達成了:我們得到了一個生成式的模型G,它可以用來生成圖片。
Goodfellow從理論上證明了該演演算法的收斂性,以及在模型收斂時,生成數據具有和真實數據相同的分佈(保證了模型效果)。
GAN公式
Gan[生成式對抗網路]
用GAN生成的圖像來做數據增強,如圖。主要解決的問題是
對於小數據集,數據量不足,如果能生成一些就好了。
如果GAN生成了圖片?怎麼給這些數據label呢?因為他們相比原始數據也不屬於預定義的類別。
1.
對於小數據集,數據量不足,如果能生成一些就好了。
2.
如果GAN生成了圖片?怎麼給這些數據label呢?因為他們相比原始數據也不屬於預定義的類別。
Gan[生成式對抗網路]
GAN 數據有三種給pseudo label的方式,假設我們做五分類
1.
GAN 生成數據是可以用在實際的圖像問題上的(不僅僅是像mnist 這種toy dataset上work)作者在兩個行人重識別數據集 和 一個細粒度識別 鳥識別數據集上都有提升。
2.
GAN 數據有三種給pseudo label的方式,假設我們做五分類
• 把生成的數據都當成新的一類, 六分類,那麼生成圖像的 label 就可以是(0, 0, 0, 0, 0, 1)這樣給。
• 按照置信度最高的 動態去分配,那個概率高就給誰 比如第三類概率高(0, 0, 1, 0, 0)