(1)首先要建立數(shù)據(jù)集
import torch #引用torch模塊
import matplotlib.pyplot as plt #引用畫圖模塊
x=torch.unsqueeze(torch.linspace(-1,1,100),dim=1)#產(chǎn)生(-1,1)的100個(gè)點(diǎn)橫坐標(biāo),dim表示維度,表示在這里增加第二維
y=x.pow(2)+0.2*torch.rand(x,size())
#0.2*torch.rand(x,size())是為了產(chǎn)生噪點(diǎn)使數(shù)據(jù)更加真實(shí)
(2)建立神經(jīng)網(wǎng)絡(luò)
import torch
imoort torch.nn.functional as F #激勵(lì)函數(shù)在這個(gè)模塊里
class Net (torch.nn.Module): #Net要繼承torch中Module
(1)首先有定義(建立)神經(jīng)網(wǎng)絡(luò)層
def __init__(self,n_feature,n_hidden,n_output):
#__init__表示初始化數(shù)據(jù)
super(Net,self).__init__()#Net的對(duì)象self轉(zhuǎn)換為類nn.module的對(duì)象,然后在用nn.Module的方法使用__init__初始化。
self.hidden=torch.nn.Linear(n_feature,n_hidden)
#建立隱藏層線性輸出
self.predict=torch.nn.Linear(n_hidden,n_output)
#建立輸出層線性輸出
(2)建立層與層之間的關(guān)系
def forward (self,x):
# 這同時(shí)也是 Module 中的 forward 功能
x=F.relu(self,hidden(x))
#使用激勵(lì)函數(shù)把數(shù)據(jù)激活
return x #輸出數(shù)據(jù)
net=Net(n_feature=1,n_hidden=10,n_output=1)
#一個(gè)隱藏層有10節(jié)點(diǎn),輸出層有1節(jié)點(diǎn),輸出數(shù)數(shù)據(jù)為一個(gè)
(3)訓(xùn)練網(wǎng)絡(luò)
optimizer=torch.optim.SGD(net.parameter().lr=0.2)#傳入 net 的所有參數(shù), lr代表學(xué)習(xí)率,optimizer是訓(xùn)練工具
loss_func=torch.nn.MSELoss()#預(yù)測(cè)值和真實(shí)值的誤差計(jì)算公式 (均方差)
for t in range(100):
prediction = net(x) # 喂給 net 訓(xùn)練數(shù)據(jù) x, 輸出預(yù)測(cè)值
loss = loss_func(prediction, y) # 計(jì)算兩者的誤差
optimizer.zero_grad() # 清空上一步的殘余更新參數(shù)值
loss.backward() # 誤差反向傳播, 計(jì)算參數(shù)更新值
optimizer.step() # 將參數(shù)更新值施加到 net 的 parameters 上
(四)可視化訓(xùn)練
import matplotlib.pyplot as plt
plt.ion() # 畫圖
plt.show()
for t in range(200):
...
loss.backward()
optimizer.step()
# 接著上面來(lái)
if t % 5 == 0:
# plot and show learning process
plt.cla()
plt.scatter(x.data.numpy(), y.data.numpy())
plt.plot(x.data.numpy(), prediction.data.numpy(), 'r-', lw=5)
plt.text(0.5, 0, 'Loss=%.4f' % loss.data.numpy(), fontdict={'size': 20, 'color': 'red'})
plt.pause(0.1)
會(huì)得到如下圖像:
整體代碼如下:
import torch
import matplotlib.pyplot as plt
x=torch.unsqueeze(torch.linspace(-2,2,100),dim=1)
y=x.pow(2)+0.2*torch.rand(x.size())
import torch
import torch.nn.functional as F
class Net(torch.nn.Module):
def __init__(self,n_feature,n_hidden,n_output):
super(Net,self).__init__()
self.hidden=torch.nn.Linear(n_feature,n_hidden)
self.predict=torch.nn.Linear(n_hidden,n_output)
def forward(self,x):
x=F.relu(self.hidden(x))
x=self.predict(x)
return x
net=Net(n_feature=1,n_hidden=10,n_output=1)
optimizer=torch.optim.SGD(net.parameters(),lr=0.3)
loss_func=torch.nn.MSELoss()
plt.ion()
plt.show()
for t in range(100):
prediction=net(x)
loss=loss_func(prediction,y)
optimizer.zero_grad()
loss.backward()
optimizer.step()
if t % 5 == 0:
plt.cla()
plt.scatter(x.data.numpy(), y.data.numpy())
plt.plot(x.data.numpy(), prediction.data.numpy(), 'r-', lw=5)
plt.text(0.5, 0, 'Loss=%.4f' % loss.data.numpy(), fontdict={'size': 20, 'color': 'red'})
plt.pause(0.1)
【參考文獻(xiàn)】https://mofanpy.com/tutorials/machine-learning/torch/regression/
到此這篇關(guān)于pytorch動(dòng)態(tài)神經(jīng)網(wǎng)絡(luò)(擬合)實(shí)現(xiàn)的文章就介紹到這了,更多相關(guān)pytorch動(dòng)態(tài)神經(jīng)網(wǎng)絡(luò)內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
您可能感興趣的文章:- pytorch之深度神經(jīng)網(wǎng)絡(luò)概念全面整理
- pytorch 搭建神經(jīng)網(wǎng)路的實(shí)現(xiàn)
- Pytorch實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)的分類方式
- 對(duì)Pytorch神經(jīng)網(wǎng)絡(luò)初始化kaiming分布詳解
- PyTorch一小時(shí)掌握之神經(jīng)網(wǎng)絡(luò)氣溫預(yù)測(cè)篇