不知道大家有没有同时用多个大模型服务提供商的 api 。
最近 deepseek 官方接口一直很慢,于是转向使用第三方服务商提供的 deepseek api ,但是这些服务商的 api 速度也是参差不齐,时快时慢。
所以我用 python 写了一个 openai 格式 api 的延迟测量工具,测量接口返回回答的时间。可以同时测量多个 api 的延迟,本地加密保存 key 。个人感觉还是有点用,不用手动写 curl 了。
github 仓库: OpenAI API latency
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.