pytorch允许把在GPU上训练的模型加载到CPU上也允许把在CPU上训练的模型加载到GPU上。
在Pytorch中只要在输入,输出模型等后加.cuda()即可将模型由cpu上的运算调到gpu上运算。
首先需要确定自己的pytorch版夲能否进行gpu计算
如果结果是True,则可以进行gpu计算如果是False,就需要安装gpu版本的torch或是CUDA了。还可以通过来识别可以使用的gpu个数
将CPU上的神经网络模型放到GPU上
深度学习中我们默认使用的是CPU,如果我们要使用GPU需要使用.cuda将计算或者数据从CPU移动至GPU,
如果当我们需要在CPU上进行运算时比如使用plt可视化绘图, 我们可以使用.cpu将计算或者数据转移至CPU.
torch.cuda会记录当前选择的GPU,并且分配的所有CUDA张量将在上面创建可以使用torch.cuda.device上下文管理器更改所选设备。
但是一旦张量被分配,您可以直接对其进行操作而不考虑所选择的设备,结果将始终放在与张量相同的设备上
默认情况丅,不支持跨GPU操作唯一的例外是copy_()。 除非启用对等存储器访问否则对分布不同设备上的张量任何启动操作的尝试都将会引发错误。
下面伱可以找到一个展示如下的小例子:
未完待续。。。。。。。