Pytorch 使用GPU加速

我不是女神ヾ 2021-11-04 16:52 1012阅读 0赞

Pytorch中使用torch.device()选取并返回抽象出的设备,然后在定义的网络模块或者Tensor后面加上.to(device变量)就可以将它们搬到设备上了。

以上一篇代码为例,使用GPU设备:

  1. device = torch.device('cuda:0') # 使用第一张显卡

需要将如下部分搬移到GPU上:

  1. 定义的网络

    net = MLP().to(device)

  2. 损失函数

    criteon = nn.CrossEntropyLoss()

3.每次取出的训练集和验证集的batch

  1. data, target = data.to(device), target.to(device)

发表评论

表情:
评论列表 (有 0 条评论,1012人围观)

还没有评论,来说两句吧...

相关阅读

    相关 svm使用gpu加速

    sklearn里面的svm拿来训练真的贼慢,还不能使用多线程加速,哪怕你的cpu是8核或者16核,训练的时候只使用1核,找了各种方式没有找到 最终发现一个库,叫做thunde

    相关 PyTorch_GPU加速测试

    初步学校pytorch,初步了解gpu 怎样利用gpu 进行运算,参考网上的资料。现在还有有问题,第一次采用计算慢怎样优化的问题。以后学习解决。 import tor