婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > Pytorch中求模型準(zhǔn)確率的兩種方法小結(jié)

Pytorch中求模型準(zhǔn)確率的兩種方法小結(jié)

熱門標(biāo)簽:公司電話機(jī)器人 哈爾濱ai外呼系統(tǒng)定制 騰訊外呼線路 白銀外呼系統(tǒng) 激戰(zhàn)2地圖標(biāo)注 海南400電話如何申請 唐山智能外呼系統(tǒng)一般多少錢 陜西金融外呼系統(tǒng) 廣告地圖標(biāo)注app

方法一:直接在epoch過程中求取準(zhǔn)確率

簡介:此段代碼是LeNet5中截取的。

def train_model(model,train_loader):
    optimizer = torch.optim.Adam(model.parameters())
    loss_func = nn.CrossEntropyLoss()
    EPOCHS = 5
    for epoch in range(EPOCHS):
        correct = 0
        for batch_idx,(X_batch,y_batch) in enumerate(train_loader):
            optimizer.zero_grad()
            #這里是只取訓(xùn)練數(shù)據(jù)的意思嗎,X_batch和y_batch是怎么分開的?
            #答:X_batch和y_batch是一一對應(yīng)的,只不過順序打亂了,參考torch.utils.data.ipynb
            output = model(X_batch.float())   #X_batch.float()是什么意思
            loss = loss_func(output,y_batch)
            loss.backward()
            optimizer.step()
            
            # Total correct predictions
            #第一個1代表取每行的最大值,第二個1代表只取最大值的索引
 
            #這兩行代碼是求準(zhǔn)確率的地方
            predicted = torch.max(output.data,1)[1]
            correct += (predicted == y_batch).sum()
            #print(correct)
            if batch_idx % 100 == 0:
                print('Epoch :{}[{}/{}({:.0f}%)]\t Loss:{:.6f}\t Accuracy:{:.3f}'.format(epoch,batch_idx * len(X_batch),len(train_loader.dataset),100.*batch_idx / len(train_loader),loss.data.item(),float(correct*100)/float(BATCH_SIZE)*(batch_idx+1)))
                
if __name__ == '__main__':
    myModel = LeNet5()
    print(myModel)
    train_model(myModel,train_loader)
    evaluate(myModel,test_loader,BATCH_SIZE)

方法二:構(gòu)建函數(shù),然后在epoch中調(diào)用該函數(shù)

簡介:此段代碼是對Titanic(泰坦尼克號)數(shù)據(jù)分析截取。

epochs = 10
log_step_freq = 30
 
dfhistory = pd.DataFrame(columns = ['epoch','loss',metric_name,'val_loss','val_'+metric_name])
print('Start Training...')
nowtime = datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S')
print('========='*8 + '%s'%nowtime)
 
for epoch in range(1,epochs+1):
    
    #1.訓(xùn)練循環(huán)
    net.train()
    loss_sum = 0.0
    metric_sum = 0.0
    step = 1
    
    for step,(features,labels) in enumerate(dl_train,1):
        #梯度清零
        optimizer.zero_grad()
        
        #正向傳播求損失
        predictions = net(features)
        loss = loss_func(predictions,labels)
        metric = metric_func(predictions,labels)
        
        #反向傳播求梯度
        loss.backward()
        optimizer.step()
        
        #打印batch級別日志
        loss_sum += loss.item()
        metric_sum += metric.item()
        if step%log_step_freq == 0:
            print(('[Step = %d] loss: %.3f,' + metric_name+': %.3f %%')%(step,loss_sum/step,100*metric_sum/step))
            
    #2,驗證循環(huán)
    net.eval()
    val_loss_sum = 0.0
    val_metric_sum = 0.0
    val_step =1
        
    for val_step,(features,labels) in enumerate(dl_valid,1):
        #關(guān)閉梯度計算
        with torch.no_grad():
            pred = net(features)
            val_loss = loss_func(pred,labels)
            val_metric = metric_func(labels,pred)
        val_loss_sum += val_loss.item()
        val_metric_sum += val_metric.item()
            
    #3,記錄日志
    info = (epoch,loss_sum/step,100*metric_sum/step,
            val_loss_sum/val_step,100*val_metric_sum/val_step)
    dfhistory.loc[epoch-1] = info
        
    #打印epoch級別日志
    print(('\nEPOCH = %d,loss = %.3f,' + metric_name+\

            '=%.3f %%,val_loss = %.3f'+' val_'+metric_name+'= %.3f %%')%info)
    nowtime = datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S')
    print('\n'+'=========='*8 + '%s'%nowtime)
print('Finishing Training...')    
 

補(bǔ)充:Pytorch實現(xiàn)Top1準(zhǔn)確率和Top5準(zhǔn)確率

之前一直不清楚Top1和Top5是什么,其實搞清楚了很簡單,就是兩種衡量指標(biāo),其中,Top1就是普通的Accuracy,Top5比Top1衡量標(biāo)準(zhǔn)更“嚴(yán)格”,

具體來講,比如一共需要分10類,每次分類器的輸出結(jié)果都是10個相加為1的概率值,Top1就是這十個值中最大的那個概率值對應(yīng)的分類恰好正確的頻率,而Top5則是在十個概率值中從大到小排序出前五個,然后看看這前五個分類中是否存在那個正確分類,再計算頻率。

Pytorch實現(xiàn)如下:

def evaluteTop1(model, loader):
    model.eval()
    
    correct = 0
    total = len(loader.dataset)

    for x,y in loader:
        x,y = x.to(device), y.to(device)
        with torch.no_grad():
            logits = model(x)
            pred = logits.argmax(dim=1)
            correct += torch.eq(pred, y).sum().float().item()
        #correct += torch.eq(pred, y).sum().item()
    return correct / total

def evaluteTop5(model, loader):
    model.eval()
    correct = 0
    total = len(loader.dataset)
    for x, y in loader:
        x,y = x.to(device),y.to(device)
        with torch.no_grad():
            logits = model(x)
            maxk = max((1,5))
        y_resize = y.view(-1,1)
            _, pred = logits.topk(maxk, 1, True, True)
            correct += torch.eq(pred, y_resize).sum().float().item()
    return correct / total

注意:

y_resize = y.view(-1,1)是非常關(guān)鍵的一步,在correct的運(yùn)算中,關(guān)鍵就是要pred和y_resize維度匹配,而原來的y是[128],128是batch大小;

pred的維度則是[128,10],假設(shè)這里是CIFAR10十分類;因此必須把y轉(zhuǎn)化成[128,1]這種維度,但是不能直接是y.view(128,1),因為遍歷整個數(shù)據(jù)集的時候,

最后一個batch大小并不是128,所以view()里面第一個size就設(shè)為-1未知,而確保第二個size是1就行

補(bǔ)充:topk函數(shù)的具體用法

pytorch -- topk()

torch.topk(input, k, dim=None, largest=True, sorted=True, out=None) -> (Tensor, LongTensor)

沿給定dim維度返回輸入張量input中 k 個最大值。

如果不指定dim,則默認(rèn)為input的最后一維。

如果為largest為 False ,則返回最小的 k 個值。

返回一個元組 (values,indices),其中indices是原始輸入張量input中測元素下標(biāo)。

如果設(shè)定布爾值sorted 為_True_,將會確保返回的 k 個值被排序。

參數(shù)

input (Tensor) – 輸入張量

k (int) – “top-k”中的k

dim (int, optional) – 排序的維

largest (bool, optional) – 布爾值,控制返回最大或最小值

sorted (bool, optional) – 布爾值,控制返回值是否排序

out (tuple, optional) – 可選輸出張量 (Tensor, LongTensor) output buffer

實例

假設(shè)神經(jīng)網(wǎng)絡(luò)的輸出如下,為二分類。batch_size=4

import torch 
output = torch.tensor([[-5.4783, 0.2298],
                           [-4.2573, -0.4794],
                           [-0.1070, -5.1511],
                           [-0.1785, -4.3339]])

得到其top1值操作如下:

maxk = max((1,))  # 取top1準(zhǔn)確率,若取top1和top5準(zhǔn)確率改為max((1,5))
_, pred = output.topk(maxk, 1, True, True)

topk參數(shù)中,maxk取得是top1準(zhǔn)確率,dim=1是按行取值, largest=1是取最大值

結(jié)果如下,

_
tensor([[ 0.2298],
        [-0.4794],
        [-0.1070],
        [-0.1785]])
pred
tensor([[1],
        [1],
        [0],
        [0]])

_是top1的值,pred是最大值的索引(size=4*1),一般會進(jìn)行轉(zhuǎn)置處理同真實值對比

以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • 在pytorch中計算準(zhǔn)確率,召回率和F1值的操作
  • Pytorch 實現(xiàn)計算分類器準(zhǔn)確率(總分類及子分類)
  • Pytorch 計算誤判率,計算準(zhǔn)確率,計算召回率的例子
  • pytorch繪制并顯示loss曲線和acc曲線,LeNet5識別圖像準(zhǔn)確率

標(biāo)簽:黑龍江 惠州 常德 上海 四川 益陽 黔西 鷹潭

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《Pytorch中求模型準(zhǔn)確率的兩種方法小結(jié)》,本文關(guān)鍵詞  Pytorch,中求,模型,準(zhǔn)確率,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《Pytorch中求模型準(zhǔn)確率的兩種方法小結(jié)》相關(guān)的同類信息!
  • 本頁收集關(guān)于Pytorch中求模型準(zhǔn)確率的兩種方法小結(jié)的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    国产日本一区二区| 亚洲理论在线观看| 日本一区二区免费在线| 奇米精品一区二区三区在线观看一| 在线综合+亚洲+欧美中文字幕| 国产精品18久久久久久久久久久久| 99vv1com这只有精品| 欧美韩国日本综合| 不卡的av电影在线观看| 国产欧美日韩在线观看| 日本欧美大码aⅴ在线播放| 久久久精品综合| 欧美写真视频网站| 亚洲欧美日韩国产一区二区三区| 日韩精品一区二| 美女视频黄 久久| 日本一区二区三区电影| 欧美日韩一级黄| 日本久久一区二区| 日韩视频免费观看高清在线视频| 国产乱理伦片在线观看夜一区| 中文字幕亚洲不卡| 中文字幕亚洲一区二区av在线| 欧美一区二区在线免费观看| 性做久久久久久久久| 久久亚洲综合色| 国产精品久久久久一区二区三区| 欧美激情一区二区三区蜜桃视频 | 久久日一线二线三线suv| 欧美午夜理伦三级在线观看| 2欧美一区二区三区在线观看视频| 日韩欧美www| 综合久久久久久| 成人黄色小视频在线观看| 最新热久久免费视频| 亚洲成人高清在线| 麻豆91精品视频| 国产一区二区91| 欧美三级中文字幕在线观看| 国产日本欧洲亚洲| 欧美四级电影在线观看| 亚洲免费观看高清完整版在线观看熊 | 丝袜诱惑制服诱惑色一区在线观看| 欧美日韩亚洲国产综合| 韩国欧美国产1区| 亚洲欧美偷拍卡通变态| 精品国产亚洲一区二区三区在线观看| 91浏览器入口在线观看| 国v精品久久久网| 男女男精品视频| 亚洲午夜免费电影| 国产亚洲精品bt天堂精选| 51精品视频一区二区三区| 日本丰满少妇一区二区三区| 国产高清精品网站| 毛片不卡一区二区| 三级一区在线视频先锋| 亚洲人成网站色在线观看 | 日本一区二区三区四区| 日本高清视频一区二区| 成人小视频在线观看| 国内精品国产成人| 日韩1区2区日韩1区2区| 男女激情视频一区| 蜜桃91丨九色丨蝌蚪91桃色| 日韩电影一区二区三区四区| 婷婷一区二区三区| 天天影视涩香欲综合网| 视频一区在线视频| 免费观看久久久4p| 韩国欧美国产一区| 国产一本一道久久香蕉| 久久av资源网| 丰满白嫩尤物一区二区| 成人app在线观看| 91网页版在线| 欧美日本一道本| 五月天一区二区| 琪琪一区二区三区| 久久99在线观看| 国产在线播精品第三| 成人午夜av在线| 在线观看一区二区精品视频| 欧美日韩在线直播| 日韩精品中文字幕在线一区| 欧美不卡123| 中文字幕一区二区三区在线观看| 中文字幕亚洲区| 三级久久三级久久| 免费在线观看精品| 成人亚洲精品久久久久软件| voyeur盗摄精品| 制服.丝袜.亚洲.另类.中文| 在线播放中文字幕一区| 久久久午夜电影| 一区二区三区中文字幕| 亚洲线精品一区二区三区八戒| 午夜精品久久久久影视| 精品系列免费在线观看| 成人免费看片app下载| 欧美日韩一区二区三区四区五区 | 欧美亚洲综合在线| 欧美一级在线免费| **网站欧美大片在线观看| 蜜臀av一区二区在线观看| 不卡一卡二卡三乱码免费网站| 欧美丰满嫩嫩电影| 亚洲视频资源在线| 国产电影精品久久禁18| 51精品国自产在线| 亚洲精品日韩综合观看成人91| 久久er精品视频| 欧美偷拍一区二区| 国产精品国产三级国产专播品爱网| 婷婷久久综合九色综合伊人色| 粗大黑人巨茎大战欧美成人| 日韩免费看网站| 亚洲国产精品久久久久秋霞影院| 成人中文字幕在线| 精品久久久久一区| 日韩精品三区四区| 色婷婷国产精品| 中文字幕中文字幕一区二区| 国产福利视频一区二区三区| 欧美成人高清电影在线| 奇米影视在线99精品| 91成人在线精品| 亚洲精品国产视频| 不卡免费追剧大全电视剧网站| 精品国产三级电影在线观看| 视频一区中文字幕国产| 欧美日韩大陆在线| 亚洲成人激情av| 欧美日韩高清在线播放| 亚洲 欧美综合在线网络| 精品视频一区三区九区| 午夜精品久久久久久不卡8050| 欧美日韩性生活| 天堂久久久久va久久久久| 欧美高清www午色夜在线视频| 午夜激情一区二区| 欧美情侣在线播放| 男人的天堂亚洲一区| 日韩精品一区二区三区三区免费| 美女脱光内衣内裤视频久久影院| 91精品国产一区二区三区蜜臀| 午夜精品久久久久久| 欧美美女激情18p| 青青草国产精品97视觉盛宴 | 一区二区三区不卡视频| 欧美自拍偷拍午夜视频| 日本亚洲天堂网| ww亚洲ww在线观看国产| 成人一区在线观看| 亚洲卡通欧美制服中文| 欧美伦理电影网| 国产九色sp调教91| 亚洲精品视频自拍| 欧美日韩五月天| 伦理电影国产精品| 国产亚洲欧美日韩在线一区| 99这里都是精品| 视频一区欧美日韩| 国产亚洲欧美日韩日本| 99久久er热在这里只有精品66| 亚洲日本在线a| 欧美肥妇bbw| 成人免费观看av| 亚洲18色成人| 国产精品视频你懂的| 欧美日产在线观看| 国产91精品入口| 午夜电影久久久| 国产亚洲一区二区在线观看| 色哦色哦哦色天天综合| 日韩电影免费在线看| 国产精品私人自拍| 91麻豆精品国产| 成人美女视频在线观看| 婷婷一区二区三区| 国产精品久久久久久久久久免费看| 欧美色偷偷大香| 国产91对白在线观看九色| 天天影视色香欲综合网老头| 亚洲欧洲精品一区二区三区不卡| 欧美一区二区性放荡片| 色综合久久中文字幕综合网| 韩国精品在线观看| 亚洲高清久久久| 亚洲国产经典视频| 精品国产一区二区三区av性色| 欧美伊人久久久久久午夜久久久久| 久久99国产精品成人| 亚洲午夜激情av| 国产精品久久久久久久久动漫 | 六月丁香综合在线视频| 亚洲一卡二卡三卡四卡五卡| 中文字幕电影一区| 久久精品视频网| 久久日韩精品一区二区五区|