主頁(yè) > 知識(shí)庫(kù) > 使用pytorch實(shí)現(xiàn)線性回歸

使用pytorch實(shí)現(xiàn)線性回歸

熱門標(biāo)簽:電話機(jī)器人貸款詐騙 京華圖書館地圖標(biāo)注 淮安呼叫中心外呼系統(tǒng)如何 廣東旅游地圖標(biāo)注 看懂地圖標(biāo)注方法 打印谷歌地圖標(biāo)注 電話外呼系統(tǒng)招商代理 佛山通用400電話申請(qǐng) 蘇州人工外呼系統(tǒng)軟件

本文實(shí)例為大家分享了pytorch實(shí)現(xiàn)線性回歸的具體代碼,供大家參考,具體內(nèi)容如下

線性回歸都是包括以下幾個(gè)步驟:定義模型、選擇損失函數(shù)、選擇優(yōu)化函數(shù)、 訓(xùn)練數(shù)據(jù)、測(cè)試

import torch
import matplotlib.pyplot as plt
# 構(gòu)建數(shù)據(jù)集
x_data= torch.Tensor([[1.0],[2.0],[3.0],[4.0],[5.0],[6.0]])
y_data= torch.Tensor([[2.0],[4.0],[6.0],[8.0],[10.0],[12.0]])
#定義模型
class LinearModel(torch.nn.Module):
    def __init__(self):
        super(LinearModel, self).__init__()
        self.linear= torch.nn.Linear(1,1) #表示輸入輸出都只有一層,相當(dāng)于前向傳播中的函數(shù)模型,因?yàn)槲覀円话愣疾恢篮瘮?shù)是什么形式的
 
    def forward(self, x):
        y_pred= self.linear(x)
        return y_pred
model= LinearModel()
# 使用均方誤差作為損失函數(shù)
criterion= torch.nn.MSELoss(size_average= False)
#使用梯度下降作為優(yōu)化SGD
# 從下面幾種優(yōu)化器的生成結(jié)果圖像可以看出,SGD和ASGD效果最好,因?yàn)樗麄兊膱D像收斂速度最快
optimizer= torch.optim.SGD(model.parameters(),lr=0.01)
# ASGD
# optimizer= torch.optim.ASGD(model.parameters(),lr=0.01)
# optimizer= torch.optim.Adagrad(model.parameters(), lr= 0.01)
# optimizer= torch.optim.RMSprop(model.parameters(), lr= 0.01)
# optimizer= torch.optim.Adamax(model.parameters(),lr= 0.01)
# 訓(xùn)練
epoch_list=[]
loss_list=[]
for epoch in range(100):
    y_pred= model(x_data)
    loss= criterion(y_pred, y_data)
    epoch_list.append(epoch)
    loss_list.append(loss.item())
    print(epoch, loss.item())
 
    optimizer.zero_grad() #梯度歸零
    loss.backward()  #反向傳播
    optimizer.step() #更新參數(shù)
 
print("w= ", model.linear.weight.item())
print("b= ",model.linear.bias.item())
 
x_test= torch.Tensor([[7.0]])
y_test= model(x_test)
print("y_pred= ",y_test.data)
 
plt.plot(epoch_list, loss_list)
plt.xlabel("epoch")
plt.ylabel("loss_val")
plt.show()

使用SGD優(yōu)化器圖像:                                                      

使用ASGD優(yōu)化器圖像:

使用Adagrad優(yōu)化器圖像:                                                 

使用Adamax優(yōu)化器圖像:

以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • python深度總結(jié)線性回歸
  • tensorflow基本操作小白快速構(gòu)建線性回歸和分類模型
  • 回歸預(yù)測(cè)分析python數(shù)據(jù)化運(yùn)營(yíng)線性回歸總結(jié)
  • python實(shí)現(xiàn)線性回歸算法
  • python機(jī)器學(xué)習(xí)之線性回歸詳解
  • pytorch實(shí)現(xiàn)線性回歸
  • 詳解TensorFlow2實(shí)現(xiàn)前向傳播

標(biāo)簽:湖州 中山 呼和浩特 股票 畢節(jié) 衡水 江蘇 駐馬店

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《使用pytorch實(shí)現(xiàn)線性回歸》,本文關(guān)鍵詞  使用,pytorch,實(shí)現(xiàn),線性,回歸,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無(wú)關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《使用pytorch實(shí)現(xiàn)線性回歸》相關(guān)的同類信息!
  • 本頁(yè)收集關(guān)于使用pytorch實(shí)現(xiàn)線性回歸的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章