婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > 我對PyTorch dataloader里的shuffle=True的理解

我對PyTorch dataloader里的shuffle=True的理解

熱門標簽:沈陽外呼系統(tǒng)呼叫系統(tǒng) 富錦商家地圖標注 外呼系統(tǒng)哪些好辦 沈陽人工外呼系統(tǒng)價格 沈陽防封電銷卡品牌 江西省地圖標注 武漢外呼系統(tǒng)平臺 池州外呼調(diào)研線路 如何申請400電話費用

對shuffle=True的理解:

之前不了解shuffle的實際效果,假設有數(shù)據(jù)a,b,c,d,不知道batch_size=2后打亂,具體是如下哪一種情況:

1.先按順序取batch,對batch內(nèi)打亂,即先取a,b,a,b進行打亂;

2.先打亂,再取batch。

證明是第二種

shuffle (bool, optional): set to ``True`` to have the data reshuffled 
at every epoch (default: ``False``).
if shuffle:
    sampler = RandomSampler(dataset) #此時得到的是索引

補充:簡單測試一下pytorch dataloader里的shuffle=True是如何工作的

看代碼吧~

import sys
import torch
import random
import argparse
import numpy as np
import pandas as pd
import torch.nn as nn
from torch.nn import functional as F
from torch.optim import lr_scheduler
from torchvision import datasets, transforms
from torch.utils.data import TensorDataset, DataLoader, Dataset
 
class DealDataset(Dataset):
    def __init__(self):
        xy = np.loadtxt(open('./iris.csv','rb'), delimiter=',', dtype=np.float32)
        #data = pd.read_csv("iris.csv",header=None)
        #xy = data.values
        self.x_data = torch.from_numpy(xy[:, 0:-1])
        self.y_data = torch.from_numpy(xy[:, [-1]])
        self.len = xy.shape[0]
    
    def __getitem__(self, index):
        return self.x_data[index], self.y_data[index]
 
    def __len__(self):
        return self.len
   
dealDataset = DealDataset() 
train_loader2 = DataLoader(dataset=dealDataset,
                          batch_size=2,
                          shuffle=True)
#print(dealDataset.x_data)
for i, data in enumerate(train_loader2):
    inputs, labels = data
 
    #inputs, labels = Variable(inputs), Variable(labels)
    print(inputs)
    #print("epoch:", epoch, "的第" , i, "個inputs", inputs.data.size(), "labels", labels.data.size())

簡易數(shù)據(jù)集

shuffle之后的結果,每次都是隨機打亂,然后分成大小為n的若干個mini-batch.

以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • Pytorch dataloader在加載最后一個batch時卡死的解決
  • pytorch鎖死在dataloader(訓練時卡死)
  • Pytorch 如何加速Dataloader提升數(shù)據(jù)讀取速度
  • pytorch DataLoader的num_workers參數(shù)與設置大小詳解
  • Pytorch數(shù)據(jù)讀取之Dataset和DataLoader知識總結
  • pytorch中DataLoader()過程中遇到的一些問題

標簽:常德 潛江 株洲 阿里 黑龍江 呂梁 通遼 銅川

巨人網(wǎng)絡通訊聲明:本文標題《我對PyTorch dataloader里的shuffle=True的理解》,本文關鍵詞  我對,PyTorch,dataloader,里的,;如發(fā)現(xiàn)本文內(nèi)容存在版權問題,煩請?zhí)峁┫嚓P信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《我對PyTorch dataloader里的shuffle=True的理解》相關的同類信息!
  • 本頁收集關于我對PyTorch dataloader里的shuffle=True的理解的相關信息資訊供網(wǎng)民參考!
  • 推薦文章
    主站蜘蛛池模板: 湖南省| 武夷山市| 新巴尔虎右旗| 疏附县| 余干县| 梁平县| 平乐县| 车险| 凭祥市| 兴业县| 郯城县| 扬州市| 仁布县| 永泰县| 镇沅| 阜平县| 隆安县| 金坛市| 广东省| 漾濞| 文安县| 阿巴嘎旗| 安乡县| 盘锦市| 文化| 收藏| 黄梅县| 乐山市| 焦作市| 尚志市| 区。| 庄浪县| 贵港市| 漾濞| 皮山县| 乐清市| 福建省| 陆河县| 纳雍县| 乡城县| 高雄县|