mac 显卡拓展坞用于深度学习运行一些小 demo

2022-11-06 21:50:48 +08:00
 Schwinger777

本人目前使用 macbook pro 2021 m1 pro 芯片的 MacBook 。由于有深度学习的一些相关需要,主要是运行 pytorch ,目前虽然 pytorch 和 apple 有合作,同时也推出了 gpu 加速版本的 pytorch ,但是目前我个人使用下来,在很多代码上运行起来会有各种报错,mac 的 gpu 还是不能做到像 Nvidia 显卡那样仅仅直接改 gpu 名字就能训练。所以我想咨询一下各位,m1 芯片的 MacBook 可以可以通过外接 Nvidia 的显卡拓展坞的方式来让 pytorch 可以在 Nvidia 显卡上运行吗?

2751 次点击
所在节点    macOS
10 条回复
tianshilei1992
2022-11-06 21:53:45 +08:00
macOS 上面的 CUDA 支持都早就停止了…所以用 Mac 做这种类型的东西应该是不可能的…
Schwinger777
2022-11-06 21:56:54 +08:00
感谢,那我还是继续租用服务器吧。
xylitolLin
2022-11-06 22:50:58 +08:00
m1 并不支持拓展坞
Takizawa
2022-11-06 23:44:37 +08:00
好巧,今晚心血来潮跑了个 vgg+mnist 的训练,10 个 epoch 花了 10 多分钟。cpu 飙到 90 度风扇 4500rpm 。简直了。唯一我觉得不错的地方就是这个转速下噪音还是很小。。。建议老老实实 rtx 显卡吧。
findex
2022-11-07 06:04:30 +08:00
m1 不支持显卡扩展坞。一开始就说了。虽然 nvidia 有 arm64 linux 的驱动。
我的 m1 8 核心 GPU 跑不过谷歌免费的训练 GPU 。所以,要这个搞机器学习有何用。上多 GPU 核心的 M1 Pro/Max 也许快一些。
我也发现用 pytorch 的时候选择 GPU 并不是改 GPU 名字就行了。弄了半天,变成帮苹果改代码了。太耗费精力了。

@Takizawa 话说,你们都用什么显卡跑啊?
jianzhao123
2022-11-07 08:41:53 +08:00
@findex 貌似是 apple 给 pytorch 捐钱了?我昨天跑一下简化的 Alexnet ,M1 Pro 是真的慢,不知道后续再优化优化会不会好点
Takizawa
2022-11-07 10:24:05 +08:00
@findex m1 pro 跑啊,没用外置的。d2l.torch.device('mps')
findex
2022-11-08 03:51:47 +08:00
@Takizawa
> d2l.torch.device('mps')
也只是把 'cpu' 换成了 ‘mps’ 其他不知苹果在暗箱底下干了啥。

@jianzhao123 关键是 pytorch 目前只能使用 m 芯片的 gpu 核心,16 核心的机器学习核心没有用,必须要用苹果的机器学习模型才行,也就是苹果的 sdk 才能调用。pytorch 用不到这 16 颗核心。
Takizawa
2022-11-08 08:59:59 +08:00
@findex 你可以在训练的时候看到 gpu 是拉满了的,cpu 也没闲着。但是 npu 看不到,未来还是有机会加进去的。
jianzhao123
2022-11-08 09:33:51 +08:00
@findex GPU 确实占满了,怪不得,忘了还有 NPU 没用上😭

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/893150

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX