假设您已经设置好eGPU盒并将TB3电缆从eGPU连接到TB3端口:
1.下载并运行autoate-eGPU脚本
curl -o ~/Desktop/automate-eGPU.sh
https://raw.githubusercontent.com/goalque/automate-eGPU/master/automate-eGPU.sh
&& chmod +x ~/Desktop/automate-eGPU.sh && cd ~/Desktop && sudo
./automate-eGPU.sh
您可能会收到一条错误消息:
“启动到恢复分区并键入:csrutil disable”
您现在要做的就是重新启动计算机,并在重新启动计算机时按住cmd + R
启用恢复模式。然后在恢复模式下找到终端并输入:
csrutil disable
然后重新启动计算机,然后重新运行automate-eGPU.sh
脚本
2:下载并安装CUDA
运行cuda_8.0.61_mac.dmg
文件,然后完成安装阶段。然后,您将需要设置路径。
转到终端并输入:
vim ~/.bash_profile
或者是否存储了环境变量,然后添加以下三行:
export CUDA_HOME=/usr/local/cuda
export DYLD_LIBRARY_PATH="$CUDA_HOME/lib:$CUDA_HOME:$CUDA_HOME/extras/CUPTI/lib"
export LD_LIBRARY_PATH=$DYLD_LIBRARY_PATH
3.下载并安装cuDNN
要下载cuDNN有点麻烦,您必须注册成为Nvidia的开发人员,然后才能下载它。请确保下载cuDNN v5.1 Library for OSX
因为它是Tensorflow v1.1期望的库。请注意,由于Mac不支持GPU,因此我们不能使用Tensorflow v1.2:((
[![在此处输入图片描述] [1]] [1]
现在,您将下载一个名为cudnn-8.0-osx-x64-v5.1.tgz
的zip文件,解压缩并使用终端将创建一个名为cuda
和cd的文件。假设该文件夹位于“下载”中
打开终端并输入:
cd ~/Downloads/cuda
现在我们需要将cuDNN
文件复制到存储CUDA
位置,以便:
sudo cp include/* /usr/local/cuda/include/
sudo cp lib/* /usr/local/cuda/lib/
4.现在在您的conda / virtualenv中安装Tensorflow-GPU v1.1
对我来说,因为我使用conda
所以使用Terminal创建了一个新环境:
conda create -n egpu python=3
source activate egpu
pip install tensorflow-gpu # should install version 1.1
5.验证它是否有效
首先,您必须重新启动计算机,然后:
在终端中输入python
并输入:
import tensorflow as tf
with tf.device('/gpu:0'):
a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name='a')
b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name='b')
c = tf.matmul(a, b)
with tf.Session() as sess:
print (sess.run(c))
如果您有GPU,则应该可以正常运行,如果有,则应该获得堆栈跟踪(只是一堆错误消息),并且应该包括
无法将设备分配给节点“ MatMul”:无法满足显式设备规范“ / device:GPU:0”,因为在此过程中未注册与该规范匹配的设备
如果没有,那么恭喜您!我今天刚设置好我的,并且运行良好:)
0
根据
但是,我想通过Thunderbolt 3运行带有1080 ti的类似akitio节点的e-gpu设置。
要使此设置正常工作,需要执行哪些步骤?到目前为止,我知道
是必要的。要使CUDA / tensorflow正常工作还需要什么?