国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁(yè) > 編程 > Python > 正文

python機(jī)器學(xué)習(xí)之神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)

2020-01-04 14:22:50
字體:
來(lái)源:轉(zhuǎn)載
供稿:網(wǎng)友

神經(jīng)網(wǎng)絡(luò)在機(jī)器學(xué)習(xí)中有很大的應(yīng)用,甚至涉及到方方面面。本文主要是簡(jiǎn)單介紹一下神經(jīng)網(wǎng)絡(luò)的基本理論概念和推算。同時(shí)也會(huì)介紹一下神經(jīng)網(wǎng)絡(luò)在數(shù)據(jù)分類(lèi)方面的應(yīng)用。

首先,當(dāng)我們建立一個(gè)回歸和分類(lèi)模型的時(shí)候,無(wú)論是用最小二乘法(OLS)還是最大似然值(MLE)都用來(lái)使得殘差達(dá)到最小。因此我們?cè)诮⒛P偷臅r(shí)候,都會(huì)有一個(gè)loss function。

而在神經(jīng)網(wǎng)絡(luò)里也不例外,也有個(gè)類(lèi)似的loss function。

對(duì)回歸而言:

python,機(jī)器學(xué)習(xí),神經(jīng)網(wǎng)絡(luò)

對(duì)分類(lèi)而言:

python,機(jī)器學(xué)習(xí),神經(jīng)網(wǎng)絡(luò)

然后同樣方法,對(duì)于W開(kāi)始求導(dǎo),求導(dǎo)為零就可以求出極值來(lái)。

關(guān)于式子中的W。我們?cè)谶@里以三層的神經(jīng)網(wǎng)絡(luò)為例。先介紹一下神經(jīng)網(wǎng)絡(luò)的相關(guān)參數(shù)。

python,機(jī)器學(xué)習(xí),神經(jīng)網(wǎng)絡(luò)

第一層是輸入層,第二層是隱藏層,第三層是輸出層。

在X1,X2經(jīng)過(guò)W1的加權(quán)后,達(dá)到隱藏層,然后經(jīng)過(guò)W2的加權(quán),到達(dá)輸出層

其中,

python,機(jī)器學(xué)習(xí),神經(jīng)網(wǎng)絡(luò)

我們有:

python,機(jī)器學(xué)習(xí),神經(jīng)網(wǎng)絡(luò)

至此,我們建立了一個(gè)初級(jí)的三層神經(jīng)網(wǎng)絡(luò)。

當(dāng)我們要求其的loss function最小時(shí),我們需要逆向來(lái)求,也就是所謂的backpropagation。

我們要分別對(duì)W1和W2進(jìn)行求導(dǎo),然后求出其極值。

從右手邊開(kāi)始逆推,首先對(duì)W2進(jìn)行求導(dǎo)。

代入損失函數(shù)公式:

python,機(jī)器學(xué)習(xí),神經(jīng)網(wǎng)絡(luò)

python,機(jī)器學(xué)習(xí),神經(jīng)網(wǎng)絡(luò)

然后,我們進(jìn)行化簡(jiǎn):

python,機(jī)器學(xué)習(xí),神經(jīng)網(wǎng)絡(luò)

化簡(jiǎn)到這里,我們同理再對(duì)W1進(jìn)行求導(dǎo)。

python,機(jī)器學(xué)習(xí),神經(jīng)網(wǎng)絡(luò)

我們可以發(fā)現(xiàn)當(dāng)我們?cè)谧鯾p網(wǎng)絡(luò)時(shí)候,有一個(gè)逆推回去的誤差項(xiàng),其決定了loss function 的最終大小。

在實(shí)際的運(yùn)算當(dāng)中,我們會(huì)用到梯度求解,來(lái)求出極值點(diǎn)。

python,機(jī)器學(xué)習(xí),神經(jīng)網(wǎng)絡(luò)

總結(jié)一下來(lái)說(shuō),我們使用向前推進(jìn)來(lái)理順神經(jīng)網(wǎng)絡(luò)做到回歸分類(lèi)等模型。而向后推進(jìn)來(lái)計(jì)算他的損失函數(shù),使得參數(shù)W有一個(gè)最優(yōu)解。

當(dāng)然,和線性回歸等模型相類(lèi)似的是,我們也可以加上正則化的項(xiàng)來(lái)對(duì)W參數(shù)進(jìn)行約束,以免使得模型的偏差太小,而導(dǎo)致在測(cè)試集的表現(xiàn)不佳。

python,機(jī)器學(xué)習(xí),神經(jīng)網(wǎng)絡(luò)

python,機(jī)器學(xué)習(xí),神經(jīng)網(wǎng)絡(luò)

Python 的實(shí)現(xiàn):

使用了KERAS的庫(kù)

解決線性回歸: 

model.add(Dense(1, input_dim=n_features, activation='linear', use_bias=True))# Use mean squared error for the loss metric and use the ADAM backprop algorithmmodel.compile(loss='mean_squared_error', optimizer='adam')# Train the network (learn the weights)# We need to convert from DataFrame to NumpyArrayhistory = model.fit(X_train.values, y_train.values, epochs=100,      batch_size=1, verbose=2, validation_split=0)

解決多重分類(lèi)問(wèn)題: 

# create modelmodel = Sequential()model.add(Dense(64, activation='relu', input_dim=n_features))model.add(Dropout(0.5))model.add(Dense(64, activation='relu'))model.add(Dropout(0.5))# Softmax output layermodel.add(Dense(7, activation='softmax'))model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])model.fit(X_train.values, y_train.values, epochs=20, batch_size=16)y_pred = model.predict(X_test.values)y_te = np.argmax(y_test.values, axis = 1)y_pr = np.argmax(y_pred, axis = 1)print(np.unique(y_pr))print(classification_report(y_te, y_pr))print(confusion_matrix(y_te, y_pr))

當(dāng)我們選取最優(yōu)參數(shù)時(shí)候,有很多種解決的途徑。這里就介紹一種是gridsearchcv的方法,這是一種暴力檢索的方法,遍歷所有的設(shè)定參數(shù)來(lái)求得最優(yōu)參數(shù)。

from sklearn.model_selection import GridSearchCVdef create_model(optimizer='rmsprop'): model = Sequential() model.add(Dense(64, activation='relu', input_dim=n_features)) model.add(Dropout(0.5)) model.add(Dense(64, activation='relu')) model.add(Dropout(0.5)) model.add(Dense(7, activation='softmax')) model.compile(loss='categorical_crossentropy', optimizer=optimizer, metrics=['accuracy'])  return modelmodel = KerasClassifier(build_fn=create_model, verbose=0)optimizers = ['rmsprop']epochs = [5, 10, 15]batches = [128]param_grid = dict(optimizer=optimizers, epochs=epochs, batch_size=batches, verbose=['2'])grid = GridSearchCV(estimator=model, param_grid=param_grid)grid.fit(X_train.values, y_train.values)

以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持VEVB武林網(wǎng)。


注:相關(guān)教程知識(shí)閱讀請(qǐng)移步到python教程頻道。
發(fā)表評(píng)論 共有條評(píng)論
用戶名: 密碼:
驗(yàn)證碼: 匿名發(fā)表
主站蜘蛛池模板: 克东县| 东方市| 岳阳市| 连云港市| 乐安县| 拉萨市| 墨竹工卡县| 石城县| 冷水江市| 永平县| 长垣县| 卢氏县| 唐海县| 扶绥县| 滁州市| 阿鲁科尔沁旗| 寿阳县| 银川市| 宁化县| 玉溪市| 壤塘县| 元氏县| 松江区| 琼海市| 宝兴县| 和硕县| 和顺县| 灵台县| 丁青县| 兴义市| 乳山市| 余姚市| 富平县| 鹰潭市| 长顺县| 黑河市| 团风县| 吉首市| 临高县| 进贤县| 噶尔县|