機(jī)器學(xué)習(xí)可應(yīng)用在各個(gè)方面,本篇將在系統(tǒng)性進(jìn)入機(jī)器學(xué)習(xí)方向前,初步認(rèn)識(shí)機(jī)器學(xué)習(xí),利用線性回歸預(yù)測(cè)波士頓房?jī)r(jià);
利用線性回歸最簡(jiǎn)單的形式預(yù)測(cè)房?jī)r(jià),只需要把它當(dāng)做是一次線性函數(shù)y=kx+b即可。我要做的就是利用已有數(shù)據(jù),去學(xué)習(xí)得到這條直線,有了這條直線,則對(duì)于某個(gè)特征x(比如住宅平均房間數(shù))的任意取值,都可以找到直線上對(duì)應(yīng)的房?jī)r(jià)y,也就是模型的預(yù)測(cè)值。
從上面的問(wèn)題看出,這應(yīng)該是一個(gè)有監(jiān)督學(xué)習(xí)中的回歸問(wèn)題,待學(xué)習(xí)的參數(shù)為實(shí)數(shù)k和實(shí)數(shù)b(因?yàn)榫椭挥幸粋€(gè)特征x),從樣本集合sample中取出一對(duì)數(shù)據(jù)(xi,yi),xi代入kx+b得到輸出y^i,MSE可以衡量預(yù)測(cè)輸出與樣本標(biāo)注的接近程度,所以把MSE作為這個(gè)問(wèn)題的損失函數(shù),對(duì)于共m mm個(gè)樣本的集合,損失函數(shù)計(jì)算為:J(k,b)=1i=1∑m(yi−yi)2
一般需要遍歷數(shù)據(jù)集迭代多次,才能得到一個(gè)較好的結(jié)果
房?jī)r(jià)預(yù)測(cè)的實(shí)現(xiàn)將基于sklearn(scikit-learn),sklearn中有多種數(shù)據(jù)集:
首先從sklearn的數(shù)據(jù)集獲取內(nèi)置數(shù)據(jù)集中的即波士頓房?jī)r(jià)數(shù)據(jù):
from sklearn.datasets import load_boston
導(dǎo)入其他功能包和模塊,導(dǎo)入線性回歸模型:
# 使用sklearn 中的 train_test_split 劃分?jǐn)?shù)據(jù)集 from sklearn.model_selection import train_test_split # 使用 sklearn 中的線性回歸模型進(jìn)行預(yù)測(cè) from sklearn.linear_model import LinearRegression # 使用 matplotlib 中的 pyplot 進(jìn)行可視化 import matplotlib.pyplot as plt
加載數(shù)據(jù)集:
# 加載波士頓房?jī)r(jià)數(shù)據(jù)集,返回特征X和標(biāo)簽y X, y = load_boston(return_X_y=True) X.shape # (506, 13) y.shape # (506,)
取出一個(gè)特征作為x:
# 只取第6列特征(方便可視化):住宅平均房間數(shù) # 注意切片區(qū)間左閉右開(kāi) X = X[:,5:6]
劃分為訓(xùn)練集和測(cè)試集,測(cè)試集取20%:
X_train, X_test, y_train, y_test = train_test_split(X,y,test_size=0.2, random_state=2020)
使用到sklearn.model_selection.train_test_split,函數(shù)形式為:
train_test_split(train_data, train_target, test_size, random_state,shuffle)
嚴(yán)格來(lái)說(shuō),對(duì)于有監(jiān)督學(xué)習(xí)的數(shù)據(jù)集應(yīng)分為訓(xùn)練集,驗(yàn)證集,測(cè)試集;訓(xùn)練集和驗(yàn)證集有標(biāo)注,測(cè)試集沒(méi)有標(biāo)注,泛化能力在驗(yàn)證集上進(jìn)行檢驗(yàn)
劃分后的訓(xùn)練數(shù)據(jù):
X_train.shape # (404, 1) y_train.shape # (404,)
在sklearn下,機(jī)器學(xué)習(xí)建模非常方便:
建立線性回歸模型如下:
# 創(chuàng)建線性回歸對(duì)象 regr = LinearRegression() # 使用訓(xùn)練集訓(xùn)練模型 regr.fit(X_train, y_train) # 在測(cè)試集上進(jìn)行預(yù)測(cè) y_pred = regr.predict(X_test)
注意到模型直到接收到訓(xùn)練數(shù)據(jù),才最終確定具體形式,比如發(fā)現(xiàn)輸入數(shù)據(jù)是(404,1),才確定線性回歸形式為kx+b,而不是kx+cx+b
# 畫(huà)測(cè)試數(shù)據(jù)散點(diǎn)圖 plt.scatter(X_test, y_test, color='blue') # 畫(huà)線性回歸模型對(duì)測(cè)試數(shù)據(jù)的擬合曲線 plt.plot(X_test, y_pred, color='red') # 顯示繪圖結(jié)果 plt.show()
打印模型參數(shù)有(注意區(qū)分參數(shù)和超參數(shù)):
# 打印斜率和截距 print('斜率:{}, 截距:{}'.format(regr.coef_,regr.intercept_))
結(jié)果為:
斜率:[9.11163398], 截距:-34.47557789280662
到此這篇關(guān)于初試機(jī)器學(xué)習(xí)的文章就介紹到這了,更多相關(guān)初識(shí)機(jī)器學(xué)習(xí)內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持腳本之家!
標(biāo)簽:畢節(jié) 衡水 呼和浩特 中山 股票 駐馬店 湖州 江蘇
巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《深度學(xué)習(xí)詳解之初試機(jī)器學(xué)習(xí)》,本文關(guān)鍵詞 深度,學(xué)習(xí),詳解,之,初試,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問(wèn)題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無(wú)關(guān)。