婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > 基于BCEWithLogitsLoss樣本不均衡的處理方案

基于BCEWithLogitsLoss樣本不均衡的處理方案

熱門標簽:廣告地圖標注app 白銀外呼系統 海南400電話如何申請 哈爾濱ai外呼系統定制 騰訊外呼線路 公司電話機器人 陜西金融外呼系統 唐山智能外呼系統一般多少錢 激戰2地圖標注

最近在做deepfake檢測任務(可以將其視為二分類問題,label為1和0),遇到了正負樣本不均衡的問題,正樣本數目是負樣本的5倍,這樣會導致FP率較高。

嘗試將正樣本的loss權重增高,看BCEWithLogitsLoss的源碼

Examples::
 
    >>> target = torch.ones([10, 64], dtype=torch.float32)  # 64 classes, batch size = 10
    >>> output = torch.full([10, 64], 0.999)  # A prediction (logit)
    >>> pos_weight = torch.ones([64])  # All weights are equal to 1
    >>> criterion = torch.nn.BCEWithLogitsLoss(pos_weight=pos_weight)
    >>> criterion(output, target)  # -log(sigmoid(0.999))
    tensor(0.3135)
 
Args:
    weight (Tensor, optional): a manual rescaling weight given to the loss
        of each batch element. If given, has to be a Tensor of size `nbatch`.
    size_average (bool, optional): Deprecated (see :attr:`reduction`). By default,
        the losses are averaged over each loss element in the batch. Note that for
        some losses, there are multiple elements per sample. If the field :attr:`size_average`
        is set to ``False``, the losses are instead summed for each minibatch. Ignored
        when reduce is ``False``. Default: ``True``
    reduce (bool, optional): Deprecated (see :attr:`reduction`). By default, the
        losses are averaged or summed over observations for each minibatch depending
        on :attr:`size_average`. When :attr:`reduce` is ``False``, returns a loss per
        batch element instead and ignores :attr:`size_average`. Default: ``True``
    reduction (string, optional): Specifies the reduction to apply to the output:
        ``'none'`` | ``'mean'`` | ``'sum'``. ``'none'``: no reduction will be applied,
        ``'mean'``: the sum of the output will be divided by the number of
        elements in the output, ``'sum'``: the output will be summed. Note: :attr:`size_average`
        and :attr:`reduce` are in the process of being deprecated, and in the meantime,
        specifying either of those two args will override :attr:`reduction`. Default: ``'mean'``
    pos_weight (Tensor, optional): a weight of positive examples.
            Must be a vector with length equal to the number of classes.

對其中的參數pos_weight的使用存在疑惑,BCEloss里的例子pos_weight = torch.ones([64]) # All weights are equal to 1,不懂為什么會有64個class,因為BCEloss是針對二分類問題的loss,后經過檢索,得知還有多標簽分類

多標簽分類就是多個標簽,每個標簽有兩個label(0和1),這類任務同樣可以使用BCEloss。

現在講一下BCEWithLogitsLoss里的pos_weight使用方法

比如我們有正負兩類樣本,正樣本數量為100個,負樣本為400個,我們想要對正負樣本的loss進行加權處理,將正樣本的loss權重放大4倍,通過這樣的方式緩解樣本不均衡問題。

criterion = nn.BCEWithLogitsLoss(pos_weight=torch.tensor([4]))
 
# pos_weight (Tensor, optional): a weight of positive examples.
#            Must be a vector with length equal to the number of classes.

pos_weight里是一個tensor列表,需要和標簽個數相同,比如我們現在是二分類,只需要將正樣本loss的權重寫上即可。

如果是多標簽分類,有64個標簽,則

Examples::
 
    >>> target = torch.ones([10, 64], dtype=torch.float32)  # 64 classes, batch size = 10
    >>> output = torch.full([10, 64], 0.999)  # A prediction (logit)
    >>> pos_weight = torch.ones([64])  # All weights are equal to 1
    >>> criterion = torch.nn.BCEWithLogitsLoss(pos_weight=pos_weight)
    >>> criterion(output, target)  # -log(sigmoid(0.999))
    tensor(0.3135)

補充:Pytorch —— BCEWithLogitsLoss()的一些問題

一、等價表達

1、pytorch:

torch.sigmoid() + torch.nn.BCELoss()

2、自己編寫

def ce_loss(y_pred, y_train, alpha=1):
    
    p = torch.sigmoid(y_pred)
    # p = torch.clamp(p, min=1e-9, max=0.99)  
    loss = torch.sum(- alpha * torch.log(p) * y_train \

           - torch.log(1 - p) * (1 - y_train))/len(y_train)
    return loss~

3、驗證

import torch
import torch.nn as nn
torch.cuda.manual_seed(300)       # 為當前GPU設置隨機種子
torch.manual_seed(300)            # 為CPU設置隨機種子
def ce_loss(y_pred, y_train, alpha=1):
   # 計算loss
   p = torch.sigmoid(y_pred)
   # p = torch.clamp(p, min=1e-9, max=0.99)
   loss = torch.sum(- alpha * torch.log(p) * y_train \

          - torch.log(1 - p) * (1 - y_train))/len(y_train)
   return loss
py_lossFun = nn.BCEWithLogitsLoss()
input = torch.randn((10000,1), requires_grad=True)
target = torch.ones((10000,1))
target.requires_grad_(True)
py_loss = py_lossFun(input, target)
py_loss.backward()
print("*********BCEWithLogitsLoss***********")
print("loss: ")
print(py_loss.item())
print("梯度: ")
print(input.grad)
input = input.detach()
input.requires_grad_(True)
self_loss = ce_loss(input, target)
self_loss.backward()
print("*********SelfCELoss***********")
print("loss: ")
print(self_loss.item())
print("梯度: ")
print(input.grad)

測試結果:

– 由上結果可知,我編寫的loss和pytorch中提供的j基本一致。

– 但是僅僅這樣就可以了嗎?NO! 下面介紹BCEWithLogitsLoss()的強大之處:

– BCEWithLogitsLoss()具有很好的對nan的處理能力,對于我寫的代碼(四層神經網絡,層之間的激活函數采用的是ReLU,輸出層激活函數采用sigmoid(),由于數據處理的問題,所以會導致我們編寫的CE的loss出現nan:原因如下:

–首先神經網絡輸出的pre_target較大,就會導致sigmoid之后的p為1,則torch.log(1 - p)為nan;

– 使用clamp(函數雖然會解除這個nan,但是由于在迭代過程中,網絡輸出可能越來越大(層之間使用的是ReLU),則導致我們寫的loss陷入到某一個數值而無法進行優化。但是BCEWithLogitsLoss()對這種情況下出現的nan有很好的處理,從而得到更好的結果。

– 我此實驗的目的是為了比較CE和FL的區別,自己編寫FL,則必須也要自己編寫CE,不能使用BCEWithLogitsLoss()。

二、使用場景

二分類 + sigmoid()

使用sigmoid作為輸出層非線性表達的分類問題(雖然可以處理多分類問題,但是一般用于二分類,并且最后一層只放一個節點)

三、注意事項

輸入格式

要求輸入的input和target均為float類型

以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • Pytorch BCELoss和BCEWithLogitsLoss的使用
  • Pytorch 的損失函數Loss function使用詳解
  • Pytorch訓練網絡過程中loss突然變為0的解決方案
  • pytorch MSELoss計算平均的實現方法
  • pytorch loss反向傳播出錯的解決方案

標簽:常德 四川 益陽 惠州 黑龍江 上海 黔西 鷹潭

巨人網絡通訊聲明:本文標題《基于BCEWithLogitsLoss樣本不均衡的處理方案》,本文關鍵詞  基于,BCEWithLogitsLoss,樣本,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《基于BCEWithLogitsLoss樣本不均衡的處理方案》相關的同類信息!
  • 本頁收集關于基于BCEWithLogitsLoss樣本不均衡的處理方案的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    久久一日本道色综合| 国产98色在线|日韩| 欧美日韩一区二区欧美激情| 国产成人精品免费看| 亚洲国产欧美在线人成| 国产欧美精品一区| www久久精品| 久久不见久久见免费视频1| 亚洲黄色在线视频| 中文字幕亚洲一区二区av在线| 欧美一卡2卡3卡4卡| 欧美日韩成人在线| 欧美三级在线播放| 在线中文字幕不卡| 色婷婷av久久久久久久| 成人97人人超碰人人99| 国产成人h网站| 国产精品美女久久久久久| 久久午夜电影网| 久久色在线视频| 欧美激情综合五月色丁香 | 欧洲亚洲国产日韩| eeuss鲁片一区二区三区| 国产精品一二三四五| 国产一区在线视频| 国产精品白丝av| 国产精品18久久久久久久久| 精品影视av免费| 国产毛片精品一区| 国产成人免费av在线| 成人av片在线观看| 精品国产免费人成电影在线观看四季 | 欧美一区二区免费观在线| 欧美剧情片在线观看| 91麻豆精品国产91久久久| 欧美一区二区三区视频在线观看| 中文字幕高清不卡| 91免费版在线| 麻豆国产91在线播放| 久久久精品国产99久久精品芒果| 欧美精品一区二区蜜臀亚洲| 久久久美女毛片| 国产精品无遮挡| 亚洲天堂精品在线观看| 一区二区国产盗摄色噜噜| 日韩中文字幕区一区有砖一区 | 亚洲国产精品人人做人人爽| 日日夜夜免费精品视频| 国产在线精品一区二区夜色| av电影天堂一区二区在线| 国产日产欧产精品推荐色| 欧美色图在线观看| 麻豆精品一区二区三区| 蜜臀av国产精品久久久久| 亚洲激情校园春色| 国产精品69毛片高清亚洲| 91亚洲国产成人精品一区二三 | 久久精品噜噜噜成人88aⅴ | aaa欧美日韩| 91麻豆精品国产91久久久久久久久 | 亚洲人成在线播放网站岛国| 亚洲一区二区三区四区的| 图片区小说区区亚洲影院| 国产激情视频一区二区三区欧美| 日本二三区不卡| 久久婷婷国产综合国色天香| 亚洲精品国产品国语在线app| 日本vs亚洲vs韩国一区三区二区 | 日韩视频中午一区| 亚洲少妇屁股交4| 极品销魂美女一区二区三区| 色综合 综合色| 国产亚洲一二三区| 蜜桃视频免费观看一区| 色综合久久久久综合| 欧美精品一区二区不卡| 亚洲成人综合在线| 成人一道本在线| 精品日本一线二线三线不卡| 国产高清亚洲一区| 日韩精品中文字幕一区| 亚洲精品视频在线看| 成人一区二区三区在线观看| 久久综合视频网| 蜜臀av性久久久久av蜜臀妖精| 色一情一乱一乱一91av| 日本一区二区成人在线| 国产在线观看免费一区| 91麻豆精品国产91久久久久久| 亚洲制服丝袜在线| 91在线视频网址| 中文字幕不卡三区| 国产成人av电影在线播放| 精品欧美一区二区三区精品久久| 婷婷丁香久久五月婷婷| 在线免费观看视频一区| 一区二区三区在线看| 在线观看日韩毛片| 一区二区三区在线影院| yourporn久久国产精品| 亚洲欧洲日本在线| av在线播放成人| 中文字幕av一区二区三区免费看| 国产在线精品一区在线观看麻豆| 日韩欧美一二三| 国产一区999| 国产欧美日韩另类视频免费观看| 国产成人免费在线观看| 欧美成人乱码一区二区三区| 韩国三级电影一区二区| 国产欧美中文在线| 国产精品中文字幕一区二区三区| 久久在线免费观看| 国产精品影视在线观看| 中文在线一区二区| 国产电影精品久久禁18| 国产精品视频一二三| 一本到一区二区三区| 综合欧美亚洲日本| 91国产丝袜在线播放| 日韩高清不卡一区| 国产亚洲欧美激情| 91黄色在线观看| 亚洲成人免费av| 欧美成人精精品一区二区频| 成人av网站免费| 亚洲妇女屁股眼交7| 欧美大胆一级视频| 99久久精品99国产精品| 日本午夜一区二区| 26uuu亚洲综合色欧美| 不卡高清视频专区| 亚洲成人av福利| 国产欧美一区视频| 在线观看成人小视频| 蜜乳av一区二区| 国产精品每日更新| 色呦呦网站一区| 免费视频最近日韩| 最新高清无码专区| 日韩欧美不卡在线观看视频| 成人av网在线| 久久精品国产**网站演员| 亚洲理论在线观看| 久久久久久久久久久久久久久99| 亚洲欧洲精品成人久久奇米网| 欧美视频一区二区| 成人伦理片在线| 亚洲精品中文在线观看| 欧美激情在线看| 欧美一区二区三区四区五区| 色呦呦网站一区| 成人午夜视频在线观看| 日本sm残虐另类| 亚洲精选一二三| 国产精品美女一区二区| 日韩精品一区二区三区视频在线观看 | 成人激情文学综合网| 免费在线看一区| 成人黄动漫网站免费app| 日本伊人色综合网| 亚洲国产欧美一区二区三区丁香婷| 国产色产综合产在线视频| 日韩午夜在线观看| 欧美精品丝袜久久久中文字幕| 欧美吻胸吃奶大尺度电影| 不卡的av电影| 成人黄色小视频| 懂色av一区二区在线播放| 国产.欧美.日韩| 激情欧美一区二区三区在线观看| 天堂在线亚洲视频| 亚洲国产视频一区二区| 一区二区三区四区视频精品免费| 国产精品午夜电影| 国产欧美1区2区3区| 日韩精品中午字幕| 日韩欧美一区二区三区在线| 欧美电视剧在线看免费| 日韩精品一区二区三区在线播放| 777亚洲妇女| 91精品国产品国语在线不卡| 欧美理论片在线| 欧美人牲a欧美精品| 欧美日韩国产首页| 激情五月激情综合网| 一区二区三区日韩精品| 欧美成人艳星乳罩| 欧美日韩欧美一区二区| 一本大道综合伊人精品热热| 亚洲人123区| 亚洲欧美日韩精品久久久久| 国产精品麻豆视频| 日韩一区二区三区在线| 欧美在线小视频| 色拍拍在线精品视频8848| 91免费国产视频网站| 国产精品久久久爽爽爽麻豆色哟哟| 精品久久久久久综合日本欧美| 欧美久久久久久久久|