V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
1014982466
V2EX  ›  Local LLM

现在本地部署 LLM 的话是不是性价比最高的是多卡 5060Ti 16GB?

  •  
  •   1014982466 · 5 天前 · 863 次点击
    考虑到 5090D 的极高售价,Dv2 版显存还缩水了
    除了 AutoDL 这种网站租卡之外,
    16GB 的 5060Ti 大概 3000 一块,是不是叠加 2 块或者 4 块,只要机箱和 PCIE 通道支持,就算是最性价比的玩法了?
    有没有大佬给些建议?
    6 条回复    2025-11-14 23:12:23 +08:00
    tool2dx
        1
    tool2dx  
       5 天前 via Android
    5060ti 算力不够的,光要显存大你不如买 amd ai pc ,有 96g 显存给你玩。
    你买显卡之前,最好按照自己的具体需求,去查一下每个显卡跑分,再决定比较合适。
    yh7gdiaYW
        2
    yh7gdiaYW  
       5 天前
    50 系现在不知道怎么样了,几个月前跑大模型一堆兼容性问题
    sunny352787
        4
    sunny352787  
       5 天前
    考虑下二手 mac studio ? m2u 64G 的一万七八,四块 5060Ti 就一万二了,再加 CPU 内存,能插四块显卡的板子也不怕便宜
    TabGre
        5
    TabGre  
       5 天前 via iPhone
    mac studio 确实不错
    usn
        6
    usn  
    PRO
       5 天前
    要买 AI 显卡
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   3024 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 25ms · UTC 00:31 · PVG 08:31 · LAX 16:31 · JFK 19:31
    ♥ Do have faith in what you're doing.