V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录

节点赞助商

viskem
V2EX  ›  AI Agent 智能体

MacOS 上搭建了本地的 Gemma4,如何与它协作最高效?

  •  
  •   viskem · 11 小时 17 分钟前 · 1365 次点击

    各位是如何做的?是使用什么对话窗口或是命令行、或者第三方工具? ClaudeCode / Cursor ? 平时我都用 Cursor 。(因为 ClaudeCode 屏蔽比较猛烈)所以本地的如何高效协作还希望参考下大家的优雅作风。

    27 条回复    2026-04-10 17:00:09 +08:00
    Brightt
        1
    Brightt  
       11 小时 13 分钟前
    搞的多少 B 的模型?
    viskem
        2
    viskem  
    OP
       11 小时 9 分钟前
    @Brightt Gemma4 26B
    kizunai
        3
    kizunai  
       11 小时 0 分钟前
    没有用,就 M 芯片那个 prefill 速度,也就短点的对话还行,放弃辅助编程吧,别占用硬盘空间了
    Hilong
        4
    Hilong  
       10 小时 58 分钟前
    楼上+1 基本长一点的上下文就卡住动不了了。搞搞小的对话还行,写代码还是算了吧
    penisulaS
        5
    penisulaS  
       10 小时 50 分钟前
    本地模型笨笨的,有什么需要超大量上下文但不需要高智能的场景吗
    diudiuu
        6
    diudiuu  
       10 小时 29 分钟前
    还是笨笨的。你可以使用 vscode ClaudeCode 插件,配置本地模型
    dacapoday
        7
    dacapoday  
       10 小时 29 分钟前
    非常适合做总结和提供索引,为更高级的模型提供服务,方便其更好的索引文档(业务总结的文字往往更精辟和专业,全文搜索更容易找到,然后 ai 再根据总结中包含的文件路径找到对应的文件).相当于一个简易的知识图谱,而且在不断丰富语义描述.
    dacapoday
        8
    dacapoday  
       10 小时 27 分钟前
    我也在折腾 gemma4, 感觉 V2EX 的人年龄偏大,比较迟钝. 看不懂 ai 的能力. 现在 local llm 的潜力巨大.
    viskem
        9
    viskem  
    OP
       10 小时 22 分钟前
    @dacapoday 我再让它慢慢爬我的项目,并接入到企微 Bot 上,但愿能协助到同事们。
    tcper
        10
    tcper  
       10 小时 4 分钟前
    26B 模型至少需要 24G VRAM 等同显卡
    macbook/mini 48G 内存版或以上(操作系统,浏览器也得吃一大半内存)
    以本人对 V 站的了解,大部分人没这个经济实力
    darksword21
        11
    darksword21  
    PRO
       9 小时 51 分钟前
    我还在尝试用 mlx 跑 E2B 的( 16G air )。。。

    感觉也就一次性做个翻译之类的工作,
    hash
        12
    hash  
       9 小时 49 分钟前
    放弃尝试本地模型这种浪费时间的行为最高效
    kirbyzhu
        13
    kirbyzhu  
       9 小时 47 分钟前 via iPhone
    个人感觉用处不大
    emberzhang
        14
    emberzhang  
       9 小时 46 分钟前
    卵用没有的。26b a4b 这种玩意给龙虾调用 tool ,一调一个不吱声全是失败

    之前大内存 mac 是 70b 、122b 给 cherry studio 聊什么计算 24 点自己骗自己

    现在大内存 mac 是 26b 、35b 扔给龙虾心跳,7x24 小时 龙虾屁事没干,人眼看着 omlx token 生成量继续骗自己
    chenzhihuiiiii
        15
    chenzhihuiiiii  
       9 小时 37 分钟前
    @viskem #9 请问具体的应用场景是什么?
    viskem
        16
    viskem  
    OP
       6 小时 13 分钟前
    @chenzhihuiiiii 就是想让他慢慢熟悉项目和搜罗信息,帮我调整一些项目管理系统的信息,和大家简单推点通知啥的,简单问答一些项目上的信息。(我已经逐步认清现实……)
    haohaozaici
        17
    haohaozaici  
       6 小时 8 分钟前
    没有显卡,9950x 本地跑 Gemma4 e4b ,只有 30 token/s ,没法写代码,简单问问题还行
    zoozobib
        18
    zoozobib  
       5 小时 57 分钟前   ❤️ 1
    已经用 gemma4 31b q4 量化的版本重构了半个 app 了,现在主力用它,opencode + openclaw + hermes ,接入了几个必用的 mcp ,如 word amap chrome opencli 等等,反正目前写文档、旅游计划、写代码主用这个模型。双显卡 上下文 35-58 所有的 token ,目前从涉及到的所有项目上看,很能打; moe 没试过
    zoozobib
        19
    zoozobib  
       5 小时 55 分钟前
    不过我最高开 200K 的上下文,到 120K 以上的上下文 token 速度有所下降
    viskem
        20
    viskem  
    OP
       5 小时 52 分钟前
    @zoozobib 诶? 31B 比 27B 这个强很多吗?晚上回去更新掉。
    zoozobib
        21
    zoozobib  
       5 小时 44 分钟前   ❤️ 1
    @viskem 没试过 27B 的 gemma4 , btw 有人觉得 qwen3.5 27b 很猛,我之前也用过一段时间,不过它性能一般且废话太多;另外,moe 和 dense 在复杂任务下还是有明显区别的,moe 我之前玩下来 还是可以的,不过上下文别太大,主打一个性能绝佳,跑跑 agent 任务还可以,开 reasoning 的情况下.
    viskem
        22
    viskem  
    OP
       5 小时 44 分钟前
    @zoozobib 不知道我 MacMini M4 64GB 内存 能否用得起
    zoozobib
        23
    zoozobib  
       5 小时 37 分钟前   ❤️ 1
    @viskem 配置不错,可以关注下 mlx + turboquant 的方案,现在玩家不少了
    viskem
        24
    viskem  
    OP
       5 小时 15 分钟前
    @zoozobib (头裂)刚交代了升级,又来了新知识~ orz……哈哈
    kevan
        25
    kevan  
       4 小时 19 分钟前
    昨天 5070ti+32GB 跑 26B 真的吃力。
    Meteora626
        26
    Meteora626  
       3 小时 45 分钟前
    别浪费自己时间跑这种小模型当大模型用。
    Teresa789
        27
    Teresa789  
       3 小时 44 分钟前
    前两天我同事给我安利,然后昨天我试了下,只能说体验极差,不知道网上说用 mac 跑这个 Gemma4 的是不是受了库克的钱🐶,随便问个简单的问题,都上几百秒的。想 vibicoding 算了吧
    本人设备:mac studio m4 64GB
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2770 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 30ms · UTC 12:44 · PVG 20:44 · LAX 05:44 · JFK 08:44
    ♥ Do have faith in what you're doing.