
如何使用AutoDl平台跑自己的模型(纯干货,步骤很详细)
一、为什么要用云服务器来跑模型,而不用本地服务器去跑?
由于跑深度学习的模型对于算力的要求较大,自然对电脑的配置要求较高,由于有些电脑(比如我的电脑)没有配置独显gpu,所以只能用cpu来跑模型,因此效率极低(可能跑整整三天跑不出来一个模型),而独显的价格又较为昂贵,性价比不高,因此我们才选用了借助AutoDL平台来跑自己模型的方法。(由于本人还是小白,如有不对的地方欢迎指正)
二、使用AutoDL跑自己模型的全过程
1、登录AutoDl平台,充值任意金额以后,选择一个性能好一些的服务器来租用
2、租用成功后会显示如下界面,ssh的登陆指令和密码已经可以获取了
3、打开Pycharm专业版,一定要是专业版,因为社区版不包含SSH的功能。选择File---Settings,点击Add interpreter----On SSH即可。
把我们刚才在AutoDL平台获取的SSH指令复制下来:
例如我的指令是:ssh -p 25947 root@connect.westb.seetacloud.com
这表明我的端口号是25947,用户名是root,主机名是connect.westb.seetacloud.com
依次填入框中对应的位置即可,输入界面如图所示:
4、点击Next,一路Next即可,完成SSH的设置。此时用到Pycharm的过程暂时结束。
5、下载好Xshell和Xftp,便于与云服务器互传文件。
Xshell官方下载地址https://www.xshell.com/zh/free-for-home-school/
XFTP 官方下载地址https://www.xshell.com/zh/xftp/
6、打开Xshell,点击新建会话,输入我们的端口号、主机信息:
输入完成,点击确定,会自动弹出输入用户名与密码的窗口,依次输入即可:
点击确定即可连接云服务器,连接成功界面如图所示:
7、点击Xshell的文件互传图标,进行文件的传输:
如图所示:左侧栏为本地服务器,右侧栏为云服务器数据,按自己需求传输文件即可,一般来说,我们往云服务器传输都是传输到/root文件夹。
8、传输完成后,我们需要对本地的环境做一个列表,方便在云服务器上批量下载这些所需的包。
步骤如下:
打开Pycharm终端,依次输入代码:
conda list
conda list -e > requirements.txt
此时,在此项目下导出了一个requirements.txt的文件,将此文件上传到云服务器备用即可。
9、打开AutoDL的JupyterLab并进入终端
输入命令:
conda install --yes --file requirements.txt
安装项目所需的包即可完成环境配置,如果后续运行python文件报错,则可能是此文件里的一些环境的版本问题,需要手动去检查。
10、输入python code/test.py(假设需要run的是test.py文件)即可使用云服务器跑这个项目,最后生成的结果集再传回本地服务器即可。
以上是我使用AutoDL云服务器来跑自己模型的全过程。
更多推荐
所有评论(0)