V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
DejavuMoe
V2EX  ›  程序员

在 n8n 中使用 Ollama 的本地 LLM 模型

  •  
  •   DejavuMoe · 6 小时 39 分钟前 · 227 次点击

    纯 CPU 跑还是有点吃力呀,有 GPU 云就好了😭 https://blog.dejavu.moe/posts/try-n8n-automation-with-ollama/

    1 条回复    2025-11-07 00:54:27 +08:00
    Lanzhijiang
        1
    Lanzhijiang  
       5 小时 11 分钟前 via Android
    虽然但是 GPU 云不是到处都是,什么共绩算力,autoDL ,各大云服务商也都有 GPU 服务器巴拉巴拉的
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   938 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 21ms · UTC 22:05 · PVG 06:05 · LAX 14:05 · JFK 17:05
    ♥ Do have faith in what you're doing.