主頁 > 知識庫 > Pytorch訓(xùn)練模型得到輸出后計算F1-Score 和AUC的操作

Pytorch訓(xùn)練模型得到輸出后計算F1-Score 和AUC的操作

熱門標(biāo)簽:激戰(zhàn)2地圖標(biāo)注 唐山智能外呼系統(tǒng)一般多少錢 白銀外呼系統(tǒng) 陜西金融外呼系統(tǒng) 騰訊外呼線路 廣告地圖標(biāo)注app 公司電話機器人 哈爾濱ai外呼系統(tǒng)定制 海南400電話如何申請

1、計算F1-Score

對于二分類來說,假設(shè)batch size 大小為64的話,那么模型一個batch的輸出應(yīng)該是torch.size([64,2]),所以首先做的是得到這個二維矩陣的每一行的最大索引值,然后添加到一個列表中,同時把標(biāo)簽也添加到一個列表中,最后使用sklearn中計算F1的工具包進行計算,代碼如下

import numpy as np
import sklearn.metrics import f1_score
prob_all = []
lable_all = []
for i, (data,label) in tqdm(train_data_loader):
    prob = model(data) #表示模型的預(yù)測輸出
    prob = prob.cpu().numpy() #先把prob轉(zhuǎn)到CPU上,然后再轉(zhuǎn)成numpy,如果本身在CPU上訓(xùn)練的話就不用先轉(zhuǎn)成CPU了
    prob_all.extend(np.argmax(prob,axis=1)) #求每一行的最大值索引
    label_all.extend(label)
print("F1-Score:{:.4f}".format(f1_score(label_all,prob_all)))

2、計算AUC

計算AUC的時候,本次使用的是sklearn中的roc_auc_score () 方法

輸入?yún)?shù):

y_true:真實的標(biāo)簽。形狀 (n_samples,) 或 (n_samples, n_classes)。二分類的形狀 (n_samples,1),而多標(biāo)簽情況的形狀 (n_samples, n_classes)。

y_score:目標(biāo)分數(shù)。形狀 (n_samples,) 或 (n_samples, n_classes)。二分類情況形狀 (n_samples,1),“分數(shù)必須是具有較大標(biāo)簽的類的分數(shù)”,通俗點理解:模型打分的第二列。舉個例子:模型輸入的得分是一個數(shù)組 [0.98361117 0.01638886],索引是其類別,這里 “較大標(biāo)簽類的分數(shù)”,指的是索引為 1 的分數(shù):0.01638886,也就是正例的預(yù)測得分。

average='macro':二分類時,該參數(shù)可以忽略。用于多分類,' micro ':將標(biāo)簽指標(biāo)矩陣的每個元素看作一個標(biāo)簽,計算全局的指標(biāo)。' macro ':計算每個標(biāo)簽的指標(biāo),并找到它們的未加權(quán)平均值。這并沒有考慮標(biāo)簽的不平衡。' weighted ':計算每個標(biāo)簽的指標(biāo),并找到它們的平均值,根據(jù)支持度 (每個標(biāo)簽的真實實例的數(shù)量) 進行加權(quán)。

sample_weight=None:樣本權(quán)重。形狀 (n_samples,),默認 = 無。

max_fpr=None

multi_class='raise':(多分類的問題在下一篇文章中解釋)

labels=None

輸出:

auc:是一個 float 的值。

import numpy as np
import sklearn.metrics import roc_auc_score
prob_all = []
lable_all = []
for i, (data,label) in tqdm(train_data_loader):
    prob = model(data) #表示模型的預(yù)測輸出
    prob_all.extend(prob[:,1].cpu().numpy()) #prob[:,1]返回每一行第二列的數(shù),根據(jù)該函數(shù)的參數(shù)可知,y_score表示的較大標(biāo)簽類的分數(shù),因此就是最大索引對應(yīng)的那個值,而不是最大索引值
    label_all.extend(label)
print("AUC:{:.4f}".format(roc_auc_score(label_all,prob_all)))

補充:pytorch訓(xùn)練模型的一些坑

1. 圖像讀取

opencv的python和c++讀取的圖像結(jié)果不一致,是因為python和c++采用的opencv版本不一樣,從而使用的解碼庫不同,導(dǎo)致讀取的結(jié)果不同。

2. 圖像變換

PIL和pytorch的圖像resize操作,與opencv的resize結(jié)果不一樣,這樣會導(dǎo)致訓(xùn)練采用PIL,預(yù)測時采用opencv,結(jié)果差別很大,尤其是在檢測和分割任務(wù)中比較明顯。

3. 數(shù)值計算

pytorch的torch.exp與c++的exp計算,10e-6的數(shù)值時候會有10e-3的誤差,對于高精度計算需要特別注意,比如

兩個輸入5.601597, 5.601601, 經(jīng)過exp計算后變成270.85862343143174, 270.85970686809225

以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • 解決Pytorch半精度浮點型網(wǎng)絡(luò)訓(xùn)練的問題
  • PyTorch梯度裁剪避免訓(xùn)練loss nan的操作
  • pytorch訓(xùn)練神經(jīng)網(wǎng)絡(luò)爆內(nèi)存的解決方案
  • pytorch加載預(yù)訓(xùn)練模型與自己模型不匹配的解決方案
  • Pytorch訓(xùn)練網(wǎng)絡(luò)過程中l(wèi)oss突然變?yōu)?的解決方案
  • pytorch 如何使用float64訓(xùn)練

標(biāo)簽:常德 惠州 黑龍江 四川 上海 黔西 鷹潭 益陽

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《Pytorch訓(xùn)練模型得到輸出后計算F1-Score 和AUC的操作》,本文關(guān)鍵詞  Pytorch,訓(xùn)練,模型,得到,輸出,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《Pytorch訓(xùn)練模型得到輸出后計算F1-Score 和AUC的操作》相關(guān)的同類信息!
  • 本頁收集關(guān)于Pytorch訓(xùn)練模型得到輸出后計算F1-Score 和AUC的操作的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章