重庆分公司,新征程启航
为企业提供网站建设、域名注册、服务器等服务
最近将Pytorch程序迁移到GPU上去的一些工作和思考
目前创新互联已为数千家的企业提供了网站建设、域名、网页空间、网站托管、服务器租用、企业网站设计、周村网站维护等服务,公司将坚持客户导向、应用为本的策略,正道将秉承"和谐、参与、激情"的文化,与客户和合作伙伴齐心协力一起成长,共同发展。环境:Ubuntu 16.04.3
Python版本:3.5.2
Pytorch版本:0.4.0
0. 序言
大家知道,在深度学习中使用GPU来对模型进行训练是可以通过并行化其计算来提高运行效率,这里就不多谈了。
最近申请到了实验室的服务器来跑程序,成功将我简陋的程序改成了“高大上”GPU版本。
看到网上总体来说少了很多介绍,这里决定将我的一些思考和工作记录下来。
1. 如何进行迁移
由于我使用的是Pytorch写的模型,网上给出了一个非常简单的转换方式: 对模型和相应的数据进行.cuda()处理。通过这种方式,我们就可以将内存中的数据复制到GPU的显存中去。从而可以通过GPU来进行运算了。
网上说的非常简单,但是实际使用过程中还是遇到了一些疑惑。下面分数据和模型两方面的迁移来进行说明介绍。
1.1 判定使用GPU
下载了对应的GPU版本的Pytorch之后,要确保GPU是可以进行使用的,通过torch.cuda.is_available()的返回值来进行判断。返回True则具有能够使用的GPU。
通过torch.cuda.device_count()可以获得能够使用的GPU数量。其他就不多赘述了。
常常通过如下判定来写可以跑在GPU和CPU上的通用模型:
if torch.cuda.is_available(): ten1 = ten1.cuda() MyModel = MyModel.cuda()