主頁 > 知識庫 > pytorch 實現(xiàn)計算 kl散度 F.kl_div()

pytorch 實現(xiàn)計算 kl散度 F.kl_div()

熱門標(biāo)簽:硅谷的囚徒呼叫中心 企業(yè)做大做強 呼叫中心市場需求 電話運營中心 客戶服務(wù) 百度AI接口 語音系統(tǒng) Win7旗艦版

先附上官方文檔說明:https://pytorch.org/docs/stable/nn.functional.html

torch.nn.functional.kl_div(input, target, size_average=None, reduce=None, reduction='mean')

Parameters

input – Tensor of arbitrary shape

target – Tensor of the same shape as input

size_average (bool, optional) – Deprecated (see reduction). By default, the losses are averaged over each loss element in the batch. Note that for some losses, there multiple elements per sample. If the field size_average is set to False, the losses are instead summed for each minibatch. Ignored when reduce is False. Default: True

reduce (bool, optional) – Deprecated (see reduction). By default, the losses are averaged or summed over observations for each minibatch depending on size_average. When reduce is False, returns a loss per batch element instead and ignores size_average. Default: True

reduction (string, optional) – Specifies the reduction to apply to the output: 'none' | 'batchmean' | 'sum' | 'mean'. 'none': no reduction will be applied 'batchmean': the sum of the output will be divided by the batchsize 'sum': the output will be summed 'mean': the output will be divided by the number of elements in the output Default: 'mean'

然后看看怎么用:

第一個參數(shù)傳入的是一個對數(shù)概率矩陣,第二個參數(shù)傳入的是概率矩陣。這里很重要,不然求出來的kl散度可能是個負(fù)值。

比如現(xiàn)在我有兩個矩陣X, Y。因為kl散度具有不對稱性,存在一個指導(dǎo)和被指導(dǎo)的關(guān)系,因此這連個矩陣輸入的順序需要確定一下。

舉個例子:

如果現(xiàn)在想用Y指導(dǎo)X,第一個參數(shù)要傳X,第二個要傳Y。就是被指導(dǎo)的放在前面,然后求相應(yīng)的概率和對數(shù)概率就可以了。

import torch
import torch.nn.functional as F
# 定義兩個矩陣
x = torch.randn((4, 5))
y = torch.randn((4, 5))
# 因為要用y指導(dǎo)x,所以求x的對數(shù)概率,y的概率
logp_x = F.log_softmax(x, dim=-1)
p_y = F.softmax(y, dim=-1)
 
 
kl_sum = F.kl_div(logp_x, p_y, reduction='sum')
kl_mean = F.kl_div(logp_x, p_y, reduction='mean')
 
print(kl_sum, kl_mean)
 
 
>>> tensor(3.4165) tensor(0.1708)

補充:pytorch中的kl散度,為什么kl散度是負(fù)數(shù)?

F.kl_div()或者nn.KLDivLoss()是pytroch中計算kl散度的函數(shù),它的用法有很多需要注意的細(xì)節(jié)。

輸入

第一個參數(shù)傳入的是一個對數(shù)概率矩陣,第二個參數(shù)傳入的是概率矩陣。并且因為kl散度具有不對稱性,存在一個指導(dǎo)和被指導(dǎo)的關(guān)系,因此這連個矩陣輸入的順序需要確定一下。如果現(xiàn)在想用Y指導(dǎo)X,第一個參數(shù)要傳X,第二個要傳Y。就是被指導(dǎo)的放在前面,然后求相應(yīng)的概率和對數(shù)概率就可以了。

所以,一隨機初始化一個tensor為例,對于第一個輸入,我們需要先對這個tensor進(jìn)行softmax(確保各維度和為1),然后再取log;對于第二個輸入,我們需要對這個tensor進(jìn)行softmax。

import torch
import torch.nn.functional as F

a = torch.tensor([[0,0,1.1,2,0,10,0],[0,0,1,2,0,10,0]])
log_a =F.log_softmax(a)

b = torch.tensor([[0,0,1.1,2,0,7,0],[0,0,1,2,0,10,0]])
softmax_b =F.softmax(b,dim=-1)

kl_mean = F.kl_div(log_a, softmax_b, reduction='mean')
print(kl_mean)

為什么KL散度計算出來為負(fù)數(shù)

先確保對第一個輸入進(jìn)行了softmax+log操作,對第二個參數(shù)進(jìn)行了softmax操作。不進(jìn)行softmax操作就可能為負(fù)。

然后查看自己的輸入是否是小數(shù)點后有很多位,當(dāng)小數(shù)點后很多位的時候,pytorch下的softmax會產(chǎn)生各維度和不為1的現(xiàn)象,導(dǎo)致kl散度為負(fù),如下所示:

a = torch.tensor([[0.,0,0.000001,0.0000002,0,0.0000007,0]])
log_a =F.log_softmax(a,dim=-1)
print("log_a:",log_a)

b = torch.tensor([[0.,0,0.000001,0.0000002,0,0.0000007,0]])
softmax_b =F.softmax(b,dim=-1)
print("softmax_b:",softmax_b)

kl_mean = F.kl_div(log_a, softmax_b,reduction='mean')
print("kl_mean:",kl_mean)

輸出如下,我們可以看到softmax_b的各維度和不為1:

以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • Python 機器學(xué)習(xí)工具包SKlearn的安裝與使用
  • python數(shù)據(jù)分析之用sklearn預(yù)測糖尿病
  • pandas讀取excel,txt,csv,pkl文件等命令的操作
  • python爬取之json、pickle與shelve庫的深入講解
  • 基于KL散度、JS散度以及交叉熵的對比

標(biāo)簽:海南 崇左 濟南 喀什 安康 長沙 山西 山西

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《pytorch 實現(xiàn)計算 kl散度 F.kl_div()》,本文關(guān)鍵詞  ;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 收縮
    • 微信客服
    • 微信二維碼
    • 電話咨詢

    • 400-1100-266