如果你的數(shù)據(jù)大到可以和數(shù)據(jù)套媲美,就用你的數(shù)據(jù)training網(wǎng)絡(luò)。前饋神經(jīng) 網(wǎng)絡(luò)、BP 神經(jīng) 網(wǎng)絡(luò)、卷積神經(jīng) 網(wǎng)絡(luò)的區(qū)別和聯(lián)系如下:Bp 神經(jīng) 網(wǎng)絡(luò)預(yù)測是否為一些基本的知識和原理主要需要自己用,與matlab的集成開發(fā)環(huán)境非常好,跟蹤代碼和檢查您的錯誤代碼非常方便,不需要像碼農(nóng)一樣做單元測試代碼。基本代碼運行幾次是沒有問題的,如果只是想學(xué)算法,那么matlab比較好,語法簡單,如果你已經(jīng)熟悉神經(jīng) 網(wǎng)絡(luò),需要做研究并投入應(yīng)用,數(shù)據(jù)非常大,需要大量的自己設(shè)計的模型,你會很容易理解python有多方便。
在大型項目和多人協(xié)作中比matlab更有優(yōu)勢。Python主要是給碼農(nóng)提供一個腳本環(huán)境,基本上是用互聯(lián)網(wǎng)公司做運維的低端碼農(nóng)。但由于開源是免費的,所以逐漸滲透到學(xué)術(shù)領(lǐng)域和更多科學(xué)計算相關(guān)的軟件包中。Matlab主要是為依賴論文的學(xué)術(shù)工作者提供一個通用的數(shù)值計算平臺。
你需要看到你的形象是什么。如果是色號,先轉(zhuǎn)換成灰色。與MNIST一起訓(xùn)練網(wǎng)絡(luò)。如果是各種題目,用多彩imageNET訓(xùn)練。如果你的數(shù)據(jù)大到可以和數(shù)據(jù)套媲美,就用你的數(shù)據(jù)training網(wǎng)絡(luò)。在流行的數(shù)據(jù) set上訓(xùn)練后,需要固定卷積池層,只訓(xùn)練下面全連通層的參數(shù),使用自己的數(shù)據(jù) set。首先是調(diào)整網(wǎng)絡(luò)的結(jié)構(gòu),池化幾層卷積,卷積的模板大小。
當(dāng)你用CNN對圖像進(jìn)行分類的時候,無非是用CNN作為學(xué)習(xí)特征的手段。你可以把網(wǎng)絡(luò)看成兩部分。前面的卷積層學(xué)習(xí)圖像的基本中高層特征,后面的全連通層對應(yīng)普通神經(jīng)-1/進(jìn)行分類。如果你需要學(xué)習(xí),首先你應(yīng)該去看UFLDL教程。然后cs231n不去問別人,首先你有沒有看imageNet 數(shù)據(jù)對于流行的數(shù)據(jù) set與自我的數(shù)據(jù) training模型的混合方法。如果兩者數(shù)據(jù)很像的話,也是可以的。
2、BP 神經(jīng) 網(wǎng)絡(luò)的訓(xùn)練集需要大樣本嗎?一般樣本個數(shù)為多少?要看用的是什么。只要訓(xùn)練樣本的規(guī)律性好,越多越好。如果不能滿足一致的規(guī)律性,那就是有害的。比如文革時期舉著數(shù)據(jù)是解決文革時期問題的最好辦法,但不能用來解決2010年世博會的問題。還有,樓上說了,我們需要留一些樣品做檢測。如果BP 網(wǎng)絡(luò)是分類問題,我們可以保留10%左右。如果是預(yù)測問題,5%應(yīng)該夠了,因為BP的預(yù)測能力真的很弱,只適合預(yù)測接近訓(xùn)練樣本的數(shù)據(jù)。這也是我自己的理解,呵呵。