最近在做NeRF这篇本文的复现,也是第一次用服务器跑模型,查了很多东西弄了挺久的。这里记录一下。
租服务器的平台是AutoDL,是大佬介绍的,听说比较便宜,就用了。官网在这里:AutoDL算力云
模型是NeRF模型源码在GitHub-yenchenlin/nerf-pytorch,数据集啥的要自己配哦,我这里就已经配好
nerf-llff-data
的数据集为例进行训练了。相关教程可以参考:nerf代码运行
注意本教程是通过实现远程控制的嗷。
注册完毕之后进入主页,控制台-容器实例-租用新实例,就可以挑选自己要租用的服务器类型了,我暂时也不太了解,自己还在北京读本科,选了北京A区,RTX3090。
然后我们打开Pycharm进入我们的项目,不管你通过什么操作,先进入python的解释器, 通过配置远程服务器的解释器可以实现连接。 点击添加,选择SSH解释器,需要我们输入主机和用户名。
这个时候就需要我们复制我们的登录指令了,登录指令就包含了主机,用户名和端口
例如:
ssh-p38076root@region-1.autodl.com
,那么主机就是
region-1.autodl.com
,用户名就是,端口号就是,我们对应输入就会,点击下一个,就会要求我们输入密码,复制粘贴即可。
之后会有一个窗口让你找到远端服务器中python解释器的地址,这里可以使用python代码来查看:(需要先输入python进入代码输入)
我们勾选了将项目文件更新到服务器的选项之后,项目文件包括数据集都会传送到服务器中去,不过要注意,如果你重新将文件删除或者复制粘贴到了这个项目中去或者对代码进行了修改,远端服务器都会进行自动更新。
好了,服务器就差不多配置了,下面就是 代码的运行环节 了。
先检查一下对应的包是不是都下好了
检查一下torch:
importtorchtorch.cuda.available()
如果有包没下好可以通过
pipinstall
或者
condainstall
命令进行下载。
我们点击下面的终端,并点击下箭头找到对应端口的远端服务器即可。
然后我们需要找到我们的项目文件在服务器中的位置,我们可以点击文件传输找到(如上图)。
从上面可以看到我们项目的地址为
tmp/pycharm_project_739
中,所以我们需要在终端通过相应的命令到达对应的目录下。在最开始都是在根目录下。最后一句是到达对应的项目目录下之后进行运行的命令。
root@autodl-container-9d5f11af3c-03209bed:/#cdtmproot@autodl-container-9d5f11af3c-03209bed:/tmp#cdpycharm_project_739root@autodl-
标签:
Learning、 深度学习、 Deep、 服务器租用、 本文地址: https://yihaiquanyi.com/article/45de27a3539cb933c3ba.html
上一篇:服务器托管多少钱一月服务器托管多少钱一年...