99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

利用Python和PyTorch處理面向?qū)ο蟮臄?shù)據(jù)集

YCqV_FPGA_EETre ? 來源:XILINX開發(fā)者社區(qū) ? 作者:賽靈思開發(fā)者 ? 2021-08-25 15:30 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本篇是利用 Python 和 PyTorch 處理面向?qū)ο蟮臄?shù)據(jù)集系列博客的第 2 篇。

如需閱讀第 1 篇:原始數(shù)據(jù)和數(shù)據(jù)集,請(qǐng)參閱此處。

我們?cè)诘?1 部分中已定義 MyDataset 類,現(xiàn)在,讓我們來例化 MyDataset 對(duì)象

此可迭代對(duì)象是與原始數(shù)據(jù)交互的接口,在整個(gè)訓(xùn)練過程中都有巨大作用。

第 2 部分:創(chuàng)建數(shù)據(jù)集對(duì)象

■輸入 [9]:

mydataset = MyDataset(isValSet_bool = None, raw_data_path = raw_data_path, norm = False, resize = True, newsize = (64, 64))

以下是該對(duì)象的一些使用示例:

■輸入 [10]:

# 對(duì)象操作示例。

# 此操作用于調(diào)用 method __getitem__ 并從第 6 個(gè)樣本獲取標(biāo)簽

mydataset[6][1]

■輸出 [10]:

0

■輸入 [11]:

# 此操作用于在類聲明后打印注釋

MyDataset.__doc__

■輸出 [11]:

‘Interface class to raw data, providing the total number of samples in the dataset and a preprocessed item’

■輸入 [12]:

# 此操作用于調(diào)用 method __len__

len(mydataset)

■輸出 [12]:

49100

■輸入 [13]:

# 此操作用于觸發(fā) method __str__

print(mydataset)

原始數(shù)據(jù)路徑為 。/raw_data/data_images/《raw samples》

可迭代對(duì)象的重要性

訓(xùn)練期間,將向模型提供多批次樣本。可迭代的 mydataset 是獲得高級(jí)輕量代碼的關(guān)鍵。

以下提供了可迭代對(duì)象的 2 個(gè)使用示例。

示例 1:

我們可以直接獲取第 3 個(gè)樣本張量:

■輸入 [14]:

mydataset.__getitem__(3)[0].shape

■輸出 [14]:

torch.Size([3, 64, 64])

與以下操作作用相同

■輸入 [15]:

mydataset[3][0].shape

■輸出 [15]:

torch.Size([3, 64, 64])

示例 2:

我們可以對(duì)文件夾中的圖像進(jìn)行解析,并移除黑白圖像:

■輸入 [ ]:

# 數(shù)據(jù)集訪問示例:創(chuàng)建 1 個(gè)包含標(biāo)簽的新文件,移除黑白圖像

if os.path.exists(raw_data_path + ‘/’+ “l(fā)abels_new.txt”):

os.remove(raw_data_path + ‘/’+ “l(fā)abels_new.txt”)

with open(raw_data_path + ‘/’+ “l(fā)abels_new.txt”, “a”) as myfile:

for item, info in mydataset:

if item != None:

if item.shape[0]==1:

# os.remove(raw_data_path + ‘/’ + info.SampleName)

print(‘C = {}; H = {}; W = {}; info = {}’.format(item.shape[0], item.shape[1], item.shape[2], info))

else:

#print(info.SampleName + ‘ ’ + str(info.SampleLabel))

myfile.write(info.SampleName + ‘ ’ + str(info.SampleLabel) + ‘ ’)

■輸入 [ ]:

# 查找具有非期望格式的樣本

with open(raw_data_path + ‘/’+ “l(fā)abels.txt”, “a”) as myfile:

for item, info in mydataset:

if item != None:

if item.shape[0]!=3:

# os.remove(raw_data_path + ‘/’ + info.SampleName)

print(‘C = {}; H = {}; W = {}; info = {}’.format(item.shape[0], item.shape[1], item.shape[2], info))

修改標(biāo)簽文件后,請(qǐng)務(wù)必更新緩存:

■輸入 [ ]:

if os.path.exists(raw_data_path + ‘/’+ “l(fā)abels_new.txt”):

os.rename(raw_data_path + ‘/’+ “l(fā)abels.txt”, raw_data_path + ‘/’+ “l(fā)abels_orig.txt”)

os.rename(raw_data_path + ‘/’+ “l(fā)abels_new.txt”, raw_data_path + ‘/’+ “l(fā)abels.txt”)

@functools.lru_cache(1)

def getSampleInfoList(raw_data_path):

sample_list = []

with open(str(raw_data_path) + ‘/labels.txt’, “r”) as f:

reader = csv.reader(f, delimiter = ‘ ’)

for i, row in enumerate(reader):

imgname = row[0]

label = int(row[1])

sample_list.append(DataInfoTuple(imgname, label))

sample_list.sort(reverse=False, key=myFunc)

return sample_list

del mydataset

mydataset = MyDataset(isValSet_bool = None, raw_data_path = ‘。./。./raw_data/data_images’, norm = False)

len(mydataset)

您可通過以下鏈接閱讀了解有關(guān) PyTorch 中的可迭代數(shù)據(jù)庫的更多信息:

https://pytorch.org/docs/stable/data.html

歸一化

應(yīng)對(duì)所有樣本張量計(jì)算平均值和標(biāo)準(zhǔn)差。

如果數(shù)據(jù)集較小,可以嘗試在內(nèi)存中對(duì)其進(jìn)行直接操作:使用 torch.stack 即可創(chuàng)建 1 個(gè)包含所有樣本張量的棧。

可迭代對(duì)象 mydataset 支持簡潔精美的代碼。

使用“view”即可保留 R、G 和 B 這 3 個(gè)通道,并將其余所有維度合并為 1 個(gè)維度。

使用“mean”即可計(jì)算維度 1 的每個(gè)通道的平均值。

請(qǐng)參閱附件中有關(guān) dim 使用的說明。

■輸入 [16]:

imgs = torch.stack([img_t for img_t, _ in mydataset], dim = 3)

■輸入 [17]:

#im_mean = imgs.view(3, -1).mean(dim=1).tolist()

im_mean = imgs.view(3, -1).mean(dim=1)

im_mean

■輸出 [17]:

tensor([0.4735, 0.4502, 0.4002])

■輸入 [18]:

im_std = imgs.view(3, -1).std(dim=1).tolist()

im_std

■輸出 [18]:

[0.28131285309791565, 0.27447444200515747, 0.2874436378479004]

■輸入 [19]:

normalize = transforms.Normalize(mean=[0.4735, 0.4502, 0.4002], std=[0.28131, 0.27447, 0.28744])

# free memory

del imgs

下面,我們將再次構(gòu)建數(shù)據(jù)集對(duì)象,但這次將對(duì)此對(duì)象進(jìn)行歸一化:

■輸入 [21]:

mydataset = MyDataset(isValSet_bool = None, raw_data_path = raw_data_path, norm = True, resize = True, newsize = (64, 64))

由于采用了歸一化,因此張量值被轉(zhuǎn)換至范圍 0..1 之內(nèi),并進(jìn)行剪切操作。

■輸入 [22]:

original = Image.open(‘。./。./raw_data/data_images/img_00009111.JPEG’)

fig, axs = plt.subplots(1, 2, figsize=(10, 3))

axs[0].set_title(‘clipped tensor’)

axs[0].imshow(mydataset[5][0].permute(1,2,0))

axs[1].set_title(‘original PIL image’)

axs[1].imshow(original)

plt.show()

將輸入數(shù)據(jù)剪切到含 RGB 數(shù)據(jù)的 imshow 的有效范圍內(nèi),以 [0..1] 表示浮點(diǎn)值,或者以 [0..255] 表示整數(shù)值。

使用 torchvision.transforms

進(jìn)行預(yù)處理

現(xiàn)在,我們已經(jīng)創(chuàng)建了自己的變換函數(shù)或?qū)ο螅ㄔ居米鳛榧铀賹W(xué)習(xí)曲線的練習(xí)),我建議使用 Torch 模塊 torchvision.transforms:

“此模塊定義了一組可組合式類函數(shù)對(duì)象,這些對(duì)象可作為實(shí)參傳遞到數(shù)據(jù)集(如 torchvision.CIFAR10),并在加載數(shù)據(jù)后 __getitem__ 返回?cái)?shù)據(jù)之前,對(duì)數(shù)據(jù)執(zhí)行變換”。

以下列出了可能的變換:

■輸入 [23]:

from torchvision import transforms

dir(transforms)

■輸出 [23]:

[‘CenterCrop’,

‘ColorJitter’,

‘Compose’,

‘FiveCrop’,

‘Grayscale’,

‘Lambda’,

LinearTransformation’,

‘Normalize’,

‘Pad’,

‘RandomAffine’,

‘RandomApply’,

‘RandomChoice’,

‘RandomCrop’,

‘RandomErasing’,

‘RandomGrayscale’,

‘RandomHorizontalFlip’,

‘RandomOrder’,

‘RandomPerspective’,

‘RandomResizedCrop’,

‘RandomRotation’,

‘RandomSizedCrop’,

‘RandomVerticalFlip’,

‘Resize’,

‘Scale’,

‘TenCrop’,

‘ToPILImage’,

‘ToTensor’,

‘__builtins__’,

‘__cached__’,

‘__doc__’,

‘__file__’,

‘__loader__’,

‘__name__’,

‘__package__’,

‘__path__’,

‘__spec__’,

‘functional’,

‘transforms’]

在此示例中,我們使用變換來執(zhí)行了以下操作:

1) ToTensor - 從 PIL 圖像轉(zhuǎn)換為張量,并將輸出格式定義為 CxHxW

2) Normalize - 將張量歸一化

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7256

    瀏覽量

    91891
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4827

    瀏覽量

    86766
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    809

    瀏覽量

    13964

原文標(biāo)題:開發(fā)者分享 | 利用 Python 和 PyTorch 處理面向?qū)ο蟮臄?shù)據(jù)集 - 2:創(chuàng)建數(shù)據(jù)集對(duì)象

文章出處:【微信號(hào):FPGA-EETrend,微信公眾號(hào):FPGA開發(fā)圈】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    使用AICube導(dǎo)入數(shù)據(jù)點(diǎn)創(chuàng)建后提示數(shù)據(jù)不合法怎么處理?

    重現(xiàn)步驟 data目錄下 labels.txt只有英文 **錯(cuò)誤日志** 但是使用示例的數(shù)據(jù)可以完成訓(xùn)練并部署
    發(fā)表于 06-24 06:07

    使用Yolo-v3-TF運(yùn)行OpenVINO?對(duì)象檢測(cè)Python演示時(shí)的結(jié)果不準(zhǔn)確的原因?

    的模型與對(duì)象檢測(cè) Python* Demo 配合使用時(shí)無法檢測(cè)對(duì)象python3 open_model_zoo/demos/object_detection_demo/
    發(fā)表于 03-06 06:31

    無法在Windows Subsystem for Linux 2上使用對(duì)象檢測(cè)Python演示運(yùn)行YoloV4模型?

    在 WSL2 上運(yùn)行對(duì)象檢測(cè) python 演示。 使用 CPU 運(yùn)行 object_detection_demo.py 時(shí)遇到錯(cuò)誤: OpenCV: FFMPEG: tag
    發(fā)表于 03-05 08:43

    操作指南:pytorch云服務(wù)器怎么設(shè)置?

    設(shè)置PyTorch云服務(wù)器需選擇云平臺(tái),創(chuàng)建合適的GPU實(shí)例,安裝操作系統(tǒng)、Python及Anaconda,創(chuàng)建虛擬環(huán)境,根據(jù)CUDA版本安裝PyTorch,配置環(huán)境變量,最后驗(yàn)證安裝。過程中需考慮
    的頭像 發(fā)表于 02-08 10:33 ?358次閱讀

    HarmonyOS Next 應(yīng)用元服務(wù)開發(fā)-分布式數(shù)據(jù)對(duì)象遷移數(shù)據(jù)權(quán)限與基礎(chǔ)數(shù)據(jù)

    === AbilityConstant.LaunchReason.CONTINUATION) { // ... // 調(diào)用封裝好的分布式數(shù)據(jù)對(duì)象處理函數(shù) this.handleDistributedData(want
    發(fā)表于 12-24 09:40

    利用Arm Kleidi技術(shù)實(shí)現(xiàn)PyTorch優(yōu)化

    PyTorch 是一個(gè)廣泛應(yīng)用的開源機(jī)器學(xué)習(xí) (ML) 庫。近年來,Arm 與合作伙伴通力協(xié)作,持續(xù)改進(jìn) PyTorch 的推理性能。本文將詳細(xì)介紹如何利用 Arm Kleidi 技術(shù)提升 Arm
    的頭像 發(fā)表于 12-23 09:19 ?1060次閱讀
    <b class='flag-5'>利用</b>Arm Kleidi技術(shù)實(shí)現(xiàn)<b class='flag-5'>PyTorch</b>優(yōu)化

    PyTorch 數(shù)據(jù)加載與處理方法

    PyTorch 是一個(gè)流行的開源機(jī)器學(xué)習(xí)庫,它提供了強(qiáng)大的工具來構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型。在構(gòu)建模型之前,一個(gè)重要的步驟是加載和處理數(shù)據(jù)。 1. PyTorch
    的頭像 發(fā)表于 11-05 17:37 ?937次閱讀

    如何在 PyTorch 中訓(xùn)練模型

    準(zhǔn)備好數(shù)據(jù)。PyTorch 提供了 torch.utils.data.Dataset 和 torch.utils.data.DataLoader 兩個(gè)類來幫助我們加載和批量處理
    的頭像 發(fā)表于 11-05 17:36 ?931次閱讀

    pycharm配置pytorch運(yùn)行環(huán)境

    在PyCharm中配置PyTorch運(yùn)行環(huán)境主要包括安裝PyCharm、安裝Python(如果尚未安裝)、配置PyTorch環(huán)境以及驗(yàn)證安裝等步驟。以下是詳細(xì)的步驟說明: 一、安裝PyCharm
    的頭像 發(fā)表于 08-01 16:25 ?2446次閱讀

    pytorch怎么在pycharm中運(yùn)行

    PyTorch。以下是安裝PyTorch的步驟: 打開終端或命令提示符。 根據(jù)你的系統(tǒng)和需求,選擇適當(dāng)?shù)陌惭b命令。例如,如果你使用的是Python 3.8和CUDA 10.2,可以使用以下命令: pip
    的頭像 發(fā)表于 08-01 16:22 ?2552次閱讀

    pycharm如何調(diào)用pytorch

    引言 PyTorch是一個(gè)開源的機(jī)器學(xué)習(xí)庫,廣泛用于計(jì)算機(jī)視覺、自然語言處理等領(lǐng)域。PyCharm是一個(gè)流行的Python集成開發(fā)環(huán)境(IDE),提供了代碼編輯、調(diào)試、測(cè)試等功能。將PyTor
    的頭像 發(fā)表于 08-01 15:41 ?1225次閱讀

    pytorch環(huán)境搭建詳細(xì)步驟

    了conda、Python等180多個(gè)科學(xué)包及其依賴項(xiàng),非常適合用于科學(xué)計(jì)算(數(shù)據(jù)科學(xué)、機(jī)器學(xué)習(xí)應(yīng)用、大數(shù)據(jù)處理
    的頭像 發(fā)表于 08-01 15:38 ?1876次閱讀

    pytorchpython的關(guān)系是什么

    在當(dāng)今的人工智能領(lǐng)域,Python已經(jīng)成為了最受歡迎的編程語言之一。Python的易學(xué)易用、豐富的庫和框架以及強(qiáng)大的社區(qū)支持,使其成為了數(shù)據(jù)科學(xué)、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)等領(lǐng)域的首選語言。而在深度學(xué)習(xí)領(lǐng)域
    的頭像 發(fā)表于 08-01 15:27 ?3284次閱讀

    Python建模算法與應(yīng)用

    Python作為一種功能強(qiáng)大、免費(fèi)、開源且面向對(duì)象的編程語言,在科學(xué)計(jì)算、數(shù)學(xué)建模、數(shù)據(jù)分析等領(lǐng)域展現(xiàn)出了卓越的性能。其簡潔的語法、對(duì)動(dòng)態(tài)輸入的支持以及解釋性語言的本質(zhì),使得
    的頭像 發(fā)表于 07-24 10:41 ?1274次閱讀

    Python在AI中的應(yīng)用實(shí)例

    Python在人工智能(AI)領(lǐng)域的應(yīng)用極為廣泛且深入,從基礎(chǔ)的數(shù)據(jù)處理、模型訓(xùn)練到高級(jí)的應(yīng)用部署,Python都扮演著至關(guān)重要的角色。以下將詳細(xì)探討Python在AI中的幾個(gè)關(guān)鍵應(yīng)用
    的頭像 發(fā)表于 07-19 17:16 ?2709次閱讀