V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
Foxkeh
0.01D
V2EX  ›  问与答

Lingma 插件有能力支持自定义模型服务商,却没有开放该怎么办

  •  
  •   Foxkeh · 2h 4m ago · 54 views

    内置可选的服务商就是阿里百炼/GLM/MiniMax/Kimi 这几家 Coding Plan.

    但阿里百炼的 Coding Plan 不仅没了丐版,200 元档也完全抢不到.

    我想折反正普遍都是 Open AI 兼容接口, 为何不给放开自定义呢.

    既然官方不动手我自己动手看看, 下载 Jetbrains Lingma 插件后,反编译,通过关键字搜索发现可用的服务商实际都是在线获取的.

    完整的调用链:

    模型服务商配置的获取流程:

    ByokConfigService.fetchAndCacheByokConfig()
      ↓
    LanguageWebSocketService.getByokConfig()
      ↓
    LanguageServer.getByokConfig()
      ↓
    JSON-RPC 请求: "model/getByokConfig"
      ↓
    服务器返回 ByokConfigResult (包含 providers 列表)
    

    模型列表的获取流程:

    ModelService.fetchModel()
      ↓
    LanguageWebSocketService.queryModels()
      ↓
    LanguageServer.queryModels()
      ↓
    JSON-RPC 请求: "config/queryModels"
      ↓
    服务器返回 Map<String, List<ChatModelItem>>
    

    接下来怎么优雅的把自己的模型服务商在插件中显示出来? 我想尽量避免对插件本身二开, 因为每次插件更新都得重新编译. 求指教

    No Comments Yet
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   1039 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 25ms · UTC 18:24 · PVG 02:24 · LAX 11:24 · JFK 14:24
    ♥ Do have faith in what you're doing.