主页 > 知识库 > pytorch 如何在GPU上训练

pytorch 如何在GPU上训练

热门标签:服务器配置 网站文章发布 银行业务 智能手机 呼叫中心市场需求 美图手机 检查注册表项 铁路电话系统

1.网络模型转移到CUDA上

net = AlexNet()
net.cuda()#转移到CUDA上

2.将loss转移到CUDA上

criterion = nn.CrossEntropyLoss()
criterion = criterion.cuda()

这一步不做也可以,因为loss是根据out、label算出来的

loss = criterion(out, label)

只要out、label在CUDA上,loss自然也在CUDA上了,但是发现不转移到CUDA上准确率竟然降低了1%

3.将数据集转移到CUDA上

这里要解释一下数据集使用方法

#download the dataset
train_set = CIFAR10("./data_cifar10", train=True, transform=data_tf, download=True)
train_data = torch.utils.data.DataLoader(train_set, batch_size=64, shuffle=True)

dataset是把所有的input,label都制作成了一个大的多维数组

dataloader是在这个大的多维数组里采样制作成batch,用这些batch来训练

    for im, label in train_data:
        i = i + 1
        im = im.cuda()#把数据迁移到CUDA上
        im = Variable(im)#把数据放到Variable里
        label = label.cuda()
        label =Variable(label)
        out = net(im)#the output should have the size of (N,10)

遍历batch的时候,首先要把拿出来的Image、label都转移到CUDA上,这样接下来的计算都是在CUDA上了

开始的时候只在转成Variable以后才迁移到CUDA上,这样在网络传播过程中就数据不是在CUDA上了,所以一直报错

训练网络时指定gpu显卡

查看有哪些可用的gpu

nvidia -smi

实时查看gpu信息1代表每1秒刷新一次

watch -n -1 nvidia -smi

指定使用的gpu

import os
# 使用第一张与第三张GPU卡
os.environ["CUDA_VISIBLE_DEVICES"] = "0,3"

以上为个人经验,希望能给大家一个参考,也希望大家多多支持脚本之家。

您可能感兴趣的文章:
  • pytorch 两个GPU同时训练的解决方案
  • pytorch使用horovod多gpu训练的实现
  • 解决pytorch多GPU训练保存的模型,在单GPU环境下加载出错问题
  • pytorch 指定gpu训练与多gpu并行训练示例
  • 用Pytorch训练CNN(数据集MNIST,使用GPU的方法)
  • pytorch 使用单个GPU与多个GPU进行训练与测试的方法
  • pytorch使用指定GPU训练的实例
  • 关于pytorch多GPU训练实例与性能对比分析

标签:沧州 长治 新疆 红河 上海 乐山 沈阳 河南

巨人网络通讯声明:本文标题《pytorch 如何在GPU上训练》,本文关键词  ;如发现本文内容存在版权问题,烦请提供相关信息告之我们,我们将及时沟通与处理。本站内容系统采集于网络,涉及言论、版权与本站无关。
  • 相关文章
  • 收缩
    • 微信客服
    • 微信二维码
    • 电话咨询

    • 400-1100-266