Lingma 插件有能力支持自定义模型服务商,却没有开放该怎么办

2 小时 46 分钟前
 Foxkeh

内置可选的服务商就是阿里百炼/GLM/MiniMax/Kimi 这几家 Coding Plan.

但阿里百炼的 Coding Plan 不仅没了丐版,200 元档也完全抢不到.

我想折反正普遍都是 Open AI 兼容接口, 为何不给放开自定义呢.

既然官方不动手我自己动手看看, 下载 Jetbrains Lingma 插件后,反编译,通过关键字搜索发现可用的服务商实际都是在线获取的.

完整的调用链:

模型服务商配置的获取流程:

ByokConfigService.fetchAndCacheByokConfig()
  ↓
LanguageWebSocketService.getByokConfig()
  ↓
LanguageServer.getByokConfig()
  ↓
JSON-RPC 请求: "model/getByokConfig"
  ↓
服务器返回 ByokConfigResult (包含 providers 列表)

模型列表的获取流程:

ModelService.fetchModel()
  ↓
LanguageWebSocketService.queryModels()
  ↓
LanguageServer.queryModels()
  ↓
JSON-RPC 请求: "config/queryModels"
  ↓
服务器返回 Map<String, List<ChatModelItem>>

接下来怎么优雅的把自己的模型服务商在插件中显示出来? 我想尽量避免对插件本身二开, 因为每次插件更新都得重新编译. 求指教

69 次点击
所在节点    问与答
0 条回复

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1211715

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX