V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
unboy

M3 Ultra 的 Mac studio 或许是本地部署大模型的最佳利器?

  •  
  •   unboy · Mar 6, 2025 · 4200 views
    This topic created in 420 days ago, the information mentioned may be changed or developed.
    144 总核心,512G 统一内存,819G/s 带宽,超越 M1 Ultra16.9 倍的 LLM 令牌生成速度,看起来是本地部署 LLM 的最佳利器?双机 EXO 或单机 INT4 即可部署 Deepseek 671B 全量模型?
    8 replies    2025-03-06 12:10:26 +08:00
    Donaldo
        1
    Donaldo  
       Mar 6, 2025
    exo 会让速度变慢很多。
    mumbler
        2
    mumbler  
       Mar 6, 2025
    只是为了能跑的话,阿里云租一台 512G 内存 ECS ,一个小时几元钱而已,但慢得完全不可用

    其实不用追求 671B ,按目前发展速度,明年 70B 或者 32B 就能达到现在 671B 的水平
    ajaxfunction
        3
    ajaxfunction  
       Mar 6, 2025
    @mumbler 阿里云的 512g 内存,和 mac 的 512g 内存不是一回事吧。
    mac 是内存=显存,
    mayli
        4
    mayli  
       Mar 6, 2025
    最佳指的是体积最小?
    whileFalse
        5
    whileFalse  
       Mar 6, 2025   ❤️ 1
    我来发表暴论:需要自己研究怎么部署 671B 的人,99%不需要本地 671B 。
    mandex
        6
    mandex  
       Mar 6, 2025
    怎么不是 M4 Ultra 啊?
    idblife
        7
    idblife  
       Mar 6, 2025
    @Donaldo
    实际测试过?
    Donaldo
        8
    Donaldo  
       Mar 6, 2025
    @idblife #7 是啊,它传输靠的是网络。
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   2756 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 61ms · UTC 13:34 · PVG 21:34 · LAX 06:34 · JFK 09:34
    ♥ Do have faith in what you're doing.