Ubuntu中配置TensorFlow使用环境的方法
一、TensorFlow简介
TensorFlow"color: #ff0000">二、安装Anaconda
Anaconda指的是一个开源的Python发行版本,其包含了conda、Python等180多个科学包及其依赖项。因为包含了大量的科学包,Anaconda 的下载文件比较大(约 531 MB),如果只需要某些包,或者需要节省带宽或存储空间,也可以使用Miniconda这个较小的发行版(仅包含conda和 Python)。
获取Anaconda
在官网下载链接下载Python3.7版本的安装包
下载好以后的文件是Anaconda3-2020.02-Linux-x86_64.sh
开始安装
使用终端进入到保存Anaconda文件的目录下,使用下面命令开始安装
bash Anaconda3-2020.02-Linux-x86_64.sh
开始安装后会让咱们检查Anaconda License,若想跳过,则按Q跳过,之后会询问我们是否同意(Do you approve the license terms"color: #ff0000">三、TensorFlow的两个主要依赖包
Protocol Buffer
首先使用apt-get安装必要组件
$ sudo apt-get install autoconf automake libtool curl make g++ unzip
然后cd到合适的目录使用git clone功能获取安装文件
$ git clone $ https://github.com/protocolbuffers/protobuf.git $ cd protobuf $ git submodule update --init --recursive $ ./autogen.sh
开始安装
$ ./configure $ make $ make check $ sudo make install $ sudo ldconfig # refresh shared library cache.
在安装结束后,使用如下命令,看到版本号则安装成功
$ protoc --version
Bazel
安装准备
在安装Bazel之前,需要安装JDK8,具体安装方法请参考如下链接
jdk8安装方法
然后安装其他的依赖工具包
$ sudo apt-get install pkg-config zip g++ zlib1g-dev unzip
获取Bazel
在发布页面获取bazel-0.4.3-jdk7-installer-linux-x86_64.sh
,
然后通过这个安装包安装Bazel
$ chmod +x bazel-0.4.3-jdk7-installer-linux-x86_64.sh $ ./bazel-0.4.3-jdk7-installer-linux-x86_64.sh --user
安装完成后继续安装其他TensorFlow需要的依赖工具包
$ sudo apt-get install python3-numpy swig python3-dev python3-wheel
在完成后,在~/.bashrc中添加环境变量
export PATH"$PATH:$HOME/bin"
然后使用$ source ~/.bashrc
激活
然后在终端输入bazel
出现版本号的话,则安装成功。
四、安装CUDA和cuDNN
如果计算机上有安装NVIDIA的GPU并安装驱动的话,可以使用CUDA和cuDNN进行GPU运算
CUDA
CUDA(Compute Unified Device Architecture),是显卡厂商NVIDIA推出的运算平台。 CUDA"_blank" href="https://developer.nvidia.com/cuda-downloads" rel="external nofollow" >官网获取合适版本的CUDA Toolkit安装包
使用如下命令,安装cuda
$ wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu1804/x86_64/cuda-ubuntu1804.pin $ sudo mv cuda-ubuntu1804.pin /etc/apt/preferences.d/cuda-repository-pin-600 $ wget http://developer.download.nvidia.com/compute/cuda/10.2/Prod/local_installers/cuda-repo-ubuntu1804-10-2-local-10.2.89-440.33.01_1.0-1_amd64.deb $ sudo dpkg -i cuda-repo-ubuntu1804-10-2-local-10.2.89-440.33.01_1.0-1_amd64.deb $ sudo apt-key add /var/cuda-repo-10-2-local-10.2.89-440.33.01/7fa2af80.pub $ sudo apt-get update $ sudo apt-get -y install cuda
测试CUDA
在安装完毕后要确认安装情况就进入例子目录进行编译
$ cd /usr/local/sample $ make all
此时有可能编译出错,错误信息为提示找不到nvscibuf.h,就使用gedit工具打开Makefile文件,把第41行改为
FILTER_OUT := 0_Simple/cudaNvSci/Makefile
然后再次make all
进行编译,编译成功后后会提示Finished building CUDA samples
这时候进入/usr/local/cuda/extras/demo_suite
目录下,找到deviceQuery
可执行文件,并执行,将会输出GPU相关信息。
这是博主的GPU信息
CUDA Device Query (Runtime API) version (CUDART static linking) Detected 1 CUDA Capable device(s) Device 0: "GeForce GTX 1060 6GB" CUDA Driver Version / Runtime Version 10.2 / 10.2 CUDA Capability Major/Minor version number: 6.1 Total amount of global memory: 6075 MBytes (6370295808 bytes) (10) Multiprocessors, (128) CUDA Cores/MP: 1280 CUDA Cores GPU Max Clock rate: 1759 MHz (1.76 GHz) Memory Clock rate: 4004 Mhz Memory Bus Width: 192-bit L2 Cache Size: 1572864 bytes Maximum Texture Dimension Size (x,y,z) 1D=(131072), 2D=(131072, 65536), 3D=(16384, 16384, 16384) Maximum Layered 1D Texture Size, (num) layers 1D=(32768), 2048 layers Maximum Layered 2D Texture Size, (num) layers 2D=(32768, 32768), 2048 layers Total amount of constant memory: 65536 bytes Total amount of shared memory per block: 49152 bytes Total number of registers available per block: 65536 Warp size: 32 Maximum number of threads per multiprocessor: 2048 Maximum number of threads per block: 1024 Max dimension size of a thread block (x,y,z): (1024, 1024, 64) Max dimension size of a grid size (x,y,z): (2147483647, 65535, 65535) Maximum memory pitch: 2147483647 bytes Texture alignment: 512 bytes Concurrent copy and kernel execution: Yes with 2 copy engine(s) Run time limit on kernels: Yes Integrated GPU sharing Host Memory: No Support host page-locked memory mapping: Yes Alignment requirement for Surfaces: Yes Device has ECC support: Disabled Device supports Unified Addressing (UVA): Yes Device supports Compute Preemption: Yes Supports Cooperative Kernel Launch: Yes Supports MultiDevice Co-op Kernel Launch: Yes Device PCI Domain ID / Bus ID / location ID: 0 / 1 / 0 Compute Mode: < Default (multiple host threads can use ::cudaSetDevice() with device simultaneously) > deviceQuery, CUDA Driver = CUDART, CUDA Driver Version = 10.2, CUDA Runtime Version = 10.2, NumDevs = 1, Device0 = GeForce GTX 1060 6GB Result = PASS
此时,CUDA安装完毕。
cuDNN(CUDA安装完成时才可用)
NVIDIA cuDNN是用于深度神经网络的GPU加速库。它强调性能、易用性和低内存开销。NVIDIA cuDNN可以集成到更高级别的机器学习框架中,如加州大学伯克利分校的流行caffe软件。简单的,插入式设计可以让开发人员专注于设计和实现神经网络模型,而不是调整性能,同时还可以在GPU上实现高性能现代并行计算。
获取cuDNN
在官网链接注册完成并验证邮箱后,点击Download cuDNN
下载
记得在同意前面打勾勾~
现在最新版本的是CUDA 10.2,cuDNN 7.6.5.32,得到的文件是cudnn-10.2-linux-x64-v7.6.5.32.tgz
下载完毕后,进入下载目录,使用如下命令进行解压
$ tar -zxvf cudnn-10.2-linux-x64-v7.6.5.32.tgz
会生成一个名为cuda
的文件夹,进入该文件夹
$ cd cuda
然后使用复制操作完成安装
sudo cp lib64/libcudnn* /usr/local/cuda/lib64/ sudo cp include/cudnn.h /usr/local/cuda/include
操作完成后,进入cuDNN的目录更新库文件的软链接
$ cd /usr/local/cuda/lib64 $ sudo chmod +r libcudnn.so.7.6.5 $ sudo ln -s libcudnn.so.7.6.5 libcudnn.so.7 $ sudo ln -s libcudnn.so.7.6.5 libcudnn.so $ sudo ldconfig
若软链接时报错,则把-s改成-sf即可
接下来在~/.bashrc中添加环境变量
export LD_LIBRARY_PATH=/usr/local/cuda-10.2/lib64:usr/local/cuda-10.2/extras/CUPTI/lib64:$LD_LIBRARY_PATH export CUDA_HOME=/usr/local/cuda-10.2 export PATH=/usr/local/cuda-10.2/bin:$PATH
至此,CUDA与cuDNN安装完成。
五、正式开始安装TensorFlow
在开始安装前,首先安装pip
$ sudo apt-get install python3-pip python3-dev
在完成后输入pip回车会输出相关命令
Usage: pip <command> [options]
在pip安装完成后,输入如下命令开始安装最新的TensorFlow。
$ pip install tensorflow
若无GPU,则安装CPU版本TensorFlow
$ pip install tensorflow-cpu
安装完成后,使用Python
测试第一个TensorFlow程序
$ python3
> import tensorflow as tf > tf.add(1, 2).numpy() 3 > hello = tf.constant('Hello, TensorFlow!') > hello.numpy() b'Hello, TensorFlow!'
有生成上述结果时,TensorFlow安装成功。
至此,TensorFlow使用环境,安装完成。
下一篇:基于jupyter代码无法在pycharm中运行的解决方法