V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
wenkgin
V2EX  ›  程序员

AI 本地化部署的方式

  •  
  •   wenkgin · 11 小时 28 分钟前 · 1292 次点击

    最近在尝试本地化部署 AI ,用了 ollama+dify ,只是简单的试用了下,感觉还行,能完全在离线环境安装使用。

    想问问老哥们的方式有哪些,我都想试试对比一下

    27 条回复    2025-09-13 01:36:36 +08:00
    byby
        1
    byby  
       11 小时 21 分钟前
    都半斤八兩,最後都要老老實實上 api
    songyoucai
        2
    songyoucai  
       11 小时 20 分钟前
    超微 7049 128g 内存 2080ti22g * 2 pve+Ubuntu + vllm 部署了 千问 30b
    SGL
        3
    SGL  
       11 小时 19 分钟前
    本地化部署的是不是都是“弱智”AI ,有实际应用价值不
    totoro52
        4
    totoro52  
       11 小时 18 分钟前
    多少 B 的? 本地部署大语言模型纯降智成智障,还不如接 api 真的,花点钱还省了多少电费
    davidyin
        5
    davidyin  
       9 小时 55 分钟前 via Android
    在 16G 内存的 i5 6500 上跑过 十几 b 的模型,反应速度还行。
    visper
        6
    visper  
       9 小时 51 分钟前
    本地就 ollama 玩玩就行了啊。又或者 xinference 之类的可以部署其他格式的模型。
    chiaf
        7
    chiaf  
       9 小时 48 分钟前 via iPhone
    本地聊天的那种没意思。

    生成图片视频的还不错,但是对设备的要求太高
    justtokankan
        8
    justtokankan  
       9 小时 44 分钟前
    用来做量化交易用应该不错吧
    sdwgyzyxy
        9
    sdwgyzyxy  
       9 小时 28 分钟前
    cnb 每个月可以白嫖 1600 核时,h20 的 gpu ,可以跑 gpt-oss:120b ,挺好的
    wenkgin
        10
    wenkgin  
    OP
       8 小时 46 分钟前
    @byby 很多场景还是需要本地化的(涉密信息、能完全控制 api 的方式以后停用、收费),设备不用担心有需要就肯定有钱买,主要是看 ai 模型的效果如何
    wenkgin
        11
    wenkgin  
    OP
       8 小时 45 分钟前
    @visper 我现在玩的就是 ollama 感觉可用性太低了,我电脑性能也不太行
    wenkgin
        12
    wenkgin  
    OP
       8 小时 44 分钟前
    @davidyin 也是用的 ollama 吗
    wenkgin
        13
    wenkgin  
    OP
       8 小时 43 分钟前
    @totoro52 qwen3:4b ,测试用的 我只是验证可行性
    youtubbbbb
        14
    youtubbbbb  
       8 小时 32 分钟前
    本地部署的意义是什么?即使你有隐私的考虑,租服务器也好很多
    wenkgin
        15
    wenkgin  
    OP
       8 小时 26 分钟前
    @youtubbbbb 有些涉密内容的知识库或者公司内部的一些东西,不能公开的
    silomrelephant
        16
    silomrelephant  
       8 小时 14 分钟前
    8b 可以稳定工具调用了,20b oss 能用用。硬件可以考虑 ai pc ,32g 统一大内存足够,2/4 通道板载内存速度够用。
    wenkgin
        17
    wenkgin  
    OP
       8 小时 4 分钟前
    @silomrelephant 我这够吗?
    <img src="https://i.mji.rip/2025/09/12/876a350e56245a7659d2ca98b33874d8.png" alt="876a350e56245a7659d2ca98b33874d8.png" border="0">
    wenkgin
        18
    wenkgin  
    OP
       7 小时 59 分钟前
    @silomrelephant 搞了半天这个应该能是图片了吧
    https://imgur.com/a/aX4bsr3
    wenkgin
        19
    wenkgin  
    OP
       7 小时 56 分钟前
    wenkgin
        20
    wenkgin  
    OP
       7 小时 56 分钟前
    wenkgin
        21
    wenkgin  
    OP
       7 小时 54 分钟前
    silomrelephant
        22
    silomrelephant  
       4 小时 2 分钟前 via Android
    @wenkgin cpu 应该问题不大,没研究过这个 r9 ,目前主要瓶颈看内存速度,成品机 ai pc 板载 ddr5 多通道的,一般比自己组的速度高很多,自己找大模型算一下 token 每秒多少
    8o8
        23
    8o8  
       3 小时 22 分钟前
    本地部署性能有点跟不上,我在本地跑的 15b phi4 用来进行编程,感觉上下文长度限制很大,经常写着写着就忘了要干什么,总之很不好用。如果有哪位大佬本地调好了请指点一下。
    在三个配置上都试了:
    1.台式机,14900K+256GB 内存,使用 cpu 跑
    2.笔记本电脑,14900K+64G 内存+4070
    3.服务器,至强 6138*2+512G 内存+3080-12GB*4
    songyoucai
        24
    songyoucai  
       2 小时 50 分钟前
    @8o8 #23 我们可以交流交流 我现在编程 部署的 30b 感觉够用
    YsHaNg
        25
    YsHaNg  
       2 小时 22 分钟前 via iPhone
    @8o8 都有第三个平台了为什么跑 phi4 这么上古的模型 还是个 14b 的
    YsHaNg
        26
    YsHaNg  
       2 小时 22 分钟前 via iPhone
    @8o8 都有第三个平台了为什么跑 phi4 这么上古的模型 还是个 14b 的 按说这能跑 qwen3-coder:480b
    davidyin
        27
    davidyin  
       1 分钟前 via Android
    @wenkgin
    是的
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1275 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 17:37 · PVG 01:37 · LAX 10:37 · JFK 13:37
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.