刚到手, 简单测了一下 pytorch 1.x + clip, 跑的是 ViT-L/14@336px 模型, MPS 的 backend, 每张图跑到 32batch, 每张图推理时间 M1 Max 大概是 0.2x 秒, M2 Max 大概是 0.11 秒, 性能翻倍很明显, 参考一下 1080ti 的对应性能是 0.06 秒左右
也就是说 M2 Max 的 MPS 性能有可能达到 1080Ti 的百分之 60 左右了
再强调一下, 用的是 MPS 直接跑的推理, 不是转 onnx 以后用 npu 跑的
|      1neopenx      2023-02-27 13:22:13 +08:00 这俩 GPU 的 FP32 Peak 本来就差不多。 MPS 的 Gemm 实现太差,你跑一下就知道大概只能到 65%的 peak 。 Transformer 的 90%计算量都在 Gemm 上。 cublas 的 Gemm 都优化多少年了,上 90%以上的 peak 非常简单。 就这一点上,苹果要用更高的设计峰值才能去打 N 卡。 你要是换 FP16 ,10 系后的卡大部分靠 TensorCore 就能把果子 GPU 计算打到自闭 | 
|  |      2caEsIum      2023-02-27 13:27:15 +08:00 14 寸的笔记本性能释放受限,建议能 16 还是 16 ,差不了多少钱。 没有移动办公需求的话,非常建议直接 Studio ( M2 系列),如果今年还有的话。 | 
|      3gefangshuai      2023-02-27 13:51:34 +08:00 @caEsIum 差 3k 叫差不了多少钱? | 
|  |      4caEsIum      2023-02-27 13:56:06 +08:00 @gefangshuai M2 Max 对比只差 1500 ,谁还买 M1 Max 啊。 | 
|      5adonishong OP @neopenx 这就是准备在没有网络的时候跑跑原型做一下基础的代码测试的 ... 正经炼丹那肯定是发到远程主机上拿英伟达的卡跑啊 | 
|      6adonishong OP @neopenx 请教一下目前 amd 那边 ROCm 的实现情况怎么样了? 效率方面和英伟达那边 cublas, cudnn 的差距能有多大有了解么? | 
|      7neopenx      2023-02-27 16:58:32 +08:00 @adonishong RDNA 游戏卡没有 TensorCore 对标单元,处境和果子类似,没啥用。你要用 FP16 只能买 CDNA 的数据中心卡,好像优化的还可以。不过 CDNA 肯定没 GeForce 划算,GeForce 现在砍掉的只有 PCIE/NVLINK P2P ,等于只禁掉你在数据中心的高速互联。 | 
|      8johnsonyeen      2023-02-27 18:06:35 +08:00 14 寸 30C 的? | 
|      9adonishong OP @johnsonyeen 38C | 
|      10adonishong OP @neopenx 收到, 感谢 | 
|  |      11sherwin008      2023-02-28 14:23:51 +08:00 @caEsIum 不是说从性能上来说差不多么?只是大屏幕与续航体验的差距 | 
|      12nimei128      2023-03-16 14:15:54 +08:00 mps 就是一坨 shit 没有意义 | 
|      13adonishong OP 这一坨 shit 在飞机高铁上这种不方便连远端服务器的环境下, 能让你还相对比较高效的调你的神经网络调个几个小时呢 ... |