在工业界和学术界的科学家已将GPU用于机器学习以便于在各种应用中实现开创性的改进。将 GPU 加速器用于机器学习的早期用户包括诸多规模的网络和社交媒体公司,另外还有数据科学和机器学习领域中一流的研究机构。 与单纯使用 CPU 的做法相比,GPU 具有数以千计的计算核心、可实现 10-100 倍应用吞吐量,因此 GPU 已经成为数据科学家处理大数据的处理器。像Theano, tensorflow ,caffe 这类机器学习工具都支持GPU。
下面就介绍一下 使用深度学习工具前的CPU环境搭建。
Step1: 首先,需要在服务器上安装有NVIDA的GPU. 这是我们的硬件条件。
Step2: 安装CUDA
进入Cuda下载页面 , 并根据 uname -a 的输出结果来选择下载的软件。
例如:
uname -a
Linux uA4-52 4.10.0-19-generic #21-Ubuntu SMP Thu Apr 6 17:04:57 UTC 2017 x86_64 x86_64 x86_64 GNU/Linux # 这是一个x86_64架构的Ubuntu发行版, 属于linux操作系统
于是选择:

runfile 文件的安装:
sudo chmod a+x cuda_9.0.176_384.81_linux.run # 添加执行权限
sudo sh cuda_9.0.176_384.81_linux.run # 执行run文件
查看系统是否存在 /usr/local/cuda 和/usr/local/cuda-9.0 目录, 如果有,证明安装成功。
在runfile文件安装的时候,会检测是否已经安装NVIDA驱动,如果没有,则会默认安装最新版本的驱动。在这个驱动可能和当前的GPU版本不符合。
这个时候输入 nvidia-smi ,正常情况下会显示显卡信息。如果驱动和GPU版本不匹配,需要在NVIDIA驱动页面下载相应的驱动
这个时候,需要先查看服务器的GPU信息:
lspci | grep -i vga 或者 lspci | grep -i nvidia
根据输出信息选择下载的驱动:

Step3: 按装驱动

在安装驱动过程中可能会出现如下信息:


于是重新启动电脑,激活驱动程序
重启之后,使用 nvidia-smi 验证驱动是否安装正确:

保证了驱动和GPU安装正确之后, 接下来需要配置CUDA环境
Step4 配置CUDA 环境
vim ~/.bashrc # 编辑bash shell
在bashrc末尾追加一下文字;
CUDA_HOME="/usr/local/cuda"
exportPATH="${CUDA_HOME}/bin:${PATH}"
exportLD_LIBRARY_PATH=${LD_LIBRARY_PATH}:${CUDA_HOME}/lib64
保存
更新: source ~/.bashr
输入 nvcc --version 查看是否可以正常输出nvcc命令信息, 以确保环境配置成功

Step5 安装Cudnn
注册账号并下载相应版本的CUDNN

将CUDNN下载了以后,需要解压并且将文件放到对应的文件下即可。
解压 tar zvxf cudnn-9.0-linux-x64-v7.tgz

将解压后的文件放在$CUDA_HOME里面。
sudo cp -P cuda/include/cudnn.h /usr/local/cuda/include
sudo cp -P cuda/lib64/libcudnn* /usr/local/cuda/lib64
sudo chmod a+r /usr/local/cuda/include/cudnn.h /usr/local/cuda/lib64/libcudnn*
Okey , 到此为止。 CUDNN ,CUDA安装上了;
网友评论