V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
cuteshell
V2EX  ›  Local LLM

学习大模型的显卡怎么选型

  •  
  •   cuteshell · 38 天前 · 3214 次点击
    这是一个创建于 38 天前的主题,其中的信息可能已经有所发展或是发生改变。
    想高性价比的配一个主机进行大模型的学习,预算不超过 2 万,能够进行大模型的训练和推理,自己研究了一下,有两套方案,请大家帮拿拿注意。

    方案一:一张 5070Ti ,显存 16G ,估计只能训练一些 3B 、4B 的小参数模型
    方案二:两张 5060Ti 的显卡,显存可以达到 32G ,可以训练一些 7B 、8B 的模型,但是单张计算性能只有 5070Ti 的一半。

    之前在公司用 A800 和 3090 做过训练,感觉性能还行,5070Ti 能更接近 3090 ,不知道到有没有用 5060Ti 做过训练的朋友,5060Ti 的性能是不是太低了,如果性能太低,光显存大是不是也没多少用。或者大家有没有更好的方案。
    30 条回复    2025-06-03 15:21:44 +08:00
    cpstar
        1
    cpstar  
       38 天前
    就 16G 显存还训练??一张 3090 的 24G 完全秒杀,省 xing 省 xing 吧。
    就 5060 还双卡??没有 nvlink ,就靠 pcie 那点带宽,省 xing 省 xing 吧。
    cuteshell
        2
    cuteshell  
    OP
       38 天前
    @cpstar 之前在公司用 8 卡的 A800 ,也是 PCIe ,多卡训练时感觉还是可以的
    nomagick
        3
    nomagick  
       38 天前
    16G 3B 4B 你也训不了,不过学习嘛,0.5B 还是可以的;
    话说回来,LLM 这种应用,主要吃带宽,还不如买 mac 了,内存即显存
    crackidz
        4
    crackidz  
       38 天前
    租卡可好?
    lovestudykid
        5
    lovestudykid  
       38 天前
    @nomagick "主要吃带宽","还不如买 mac",你是怎么把这两句话连在一起的
    testcgd
        6
    testcgd  
       38 天前 via Android
    训练直接租 autodl 吧,本地优先考虑推理和 debug ,5060x2 会好一点
    cuteshell
        7
    cuteshell  
    OP
       38 天前
    @nomagick 之前用 24G 的训练过 Qwen 7B ,不过输入的 token 不能太多,16B 训练 4B 模型,按比例算可能是可以的,不过确实没有试过。
    cuteshell
        8
    cuteshell  
    OP
       38 天前
    @crackidz 租过阿里的试过,不用的时候停机,再启动记得好像有点问题,我再试试
    cuteshell
        9
    cuteshell  
    OP
       38 天前
    @testcgd 好的,多谢
    2ruowqe9r
        10
    2ruowqe9r  
       38 天前
    模型训练,我感觉数据整理好麻烦,OP 是怎么解决的?
    coefuqin
        11
    coefuqin  
       38 天前
    4*2080ti 22g.
    cuteshell
        12
    cuteshell  
    OP
       38 天前
    @2ruowqe9r 之前是人工整理的,还有让用户参与收集,自己写脚本再整理一下。看还有 easydataset 什么的,不过还没用过
    nomagick
        13
    nomagick  
       38 天前
    @lovestudykid 嗯?

    20s PCIE3.0 x16 ~32GB/s
    30s 40s PCIE4.0 x16 ~64GB/s
    50s PCIE5.0 x16 ~128GB/s

    Mac Mini M4 120GB/s
    Mac Mini M4 Pro 273GB/s
    Mac Studio M4 Max 410GB/s
    Mac Studio M3 Ultra 819GB/s
    nomagick
        14
    nomagick  
       38 天前
    @cuteshell LoRA 微调和全参数训练还是不一样的
    mumbler
        15
    mumbler  
       38 天前
    2080ti 22G 最好,支持 nvlink ,5000 元实现 44G 显存,英伟达坑比较少

    建议研究 agent ,别在大模型微调上浪费一分钱
    lovestudykid
        16
    lovestudykid  
       38 天前
    @nomagick #13 你主要看带宽,难道不应该看单卡,要容量才看多卡。RTX 5090 1792 GB/s
    cuteshell
        17
    cuteshell  
    OP
       38 天前
    @nomagick 本来主要是想 lora 微调,你说的对,如果学习,全参数或继续预训练也可能会需要。
    Rendex
        18
    Rendex  
       38 天前
    或者 V10016G 闲鱼现在有双卡或者 4 卡的 nvlink 底板卖,这玩意因为配置麻烦,是现有显卡唯一在降价的
    Rendex
        19
    Rendex  
       38 天前
    @Rendex #18 v100 16g 说是 500 左右,一路从 700 降下来的,底板可能要将近 1k
    davidqw
        20
    davidqw  
       38 天前 via iPhone
    再加点钱把 4090 魔改 48G 版本拿下
    murmur
        21
    murmur  
       38 天前
    本地大模型也就玩玩 stable diffusion 了,学习角度一定是租用 API 最好,量化模型跟玩具一样,现在都在搞提示词工程师,你的模型就是阉割版,给再好的提示词出东西也没别人好

    就别说本地 deepseek 了,claude3.5 到 3.7 到 4 ,这几个版本写码能力肉眼可见的进步
    joynvda
        22
    joynvda  
       38 天前
    我只做推理,AMD MI50 32G ,二手 1k 搞下来; AMD MI100 32G , 二手 6-7k 左右(限于贫穷还不敢赌这个方案)
    rocm6.3+, Pytorch 2.7

    或者考虑 AMD MI50 、MI100 二手训练的可行性。
    frankyzf
        23
    frankyzf  
       38 天前
    @murmur 估计 op 是想学习大模型底层的知识,比如 fine-tuning ,只调用 API 没法学
    m1nm13
        24
    m1nm13  
       38 天前
    @joynvda 这个没法用 vllm 吧?ollama?
    charslee013
        25
    charslee013  
       38 天前
    2080ti 反而不好,不支持 bfloat16,目前大语言模型都是 bfloat16 权重,建议 30 系尤其是 40 系往上

    消费级别最好的推理和训练的显卡是 4090 48GB ,不过显然超预支就是了...
    lyt001
        26
    lyt001  
       37 天前
    云平台租卡,当然你要想买来打游戏当我没说
    clemente
        27
    clemente  
       37 天前
    @mumbler 2080ti 能跑 fp16 bf16 fp8 吗....
    mumbler
        28
    mumbler  
       37 天前
    @clemente #27 这些问题你可以直接问 deepseek+联网搜索
    xiliang
        29
    xiliang  
       37 天前
    @mumbler 5000 元可以两个吗?我看都干到 3000 一个了,去年还很便宜
    coefuqin
        30
    coefuqin  
       37 天前
    @xiliang 年初 2500 可以搞到一个的,价格总是起起伏伏的。
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2843 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 13:19 · PVG 21:19 · LAX 06:19 · JFK 09:19
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.