OpenAI API 接口延迟测量工具

231 天前
 lzoje

不知道大家有没有同时用多个大模型服务提供商的 api 。

最近 deepseek 官方接口一直很慢,于是转向使用第三方服务商提供的 deepseek api ,但是这些服务商的 api 速度也是参差不齐,时快时慢。

所以我用 python 写了一个 openai 格式 api 的延迟测量工具,测量接口返回回答的时间。可以同时测量多个 api 的延迟,本地加密保存 key 。个人感觉还是有点用,不用手动写 curl 了。

github 仓库: OpenAI API latency

1741 次点击
所在节点    分享创造
2 条回复
Vegetable
231 天前
评估 API 至少有两个关键指标:

- 第一个 token 返回时间
- token 生成速度

可以看看 https://openrouter.ai/deepseek/deepseek-chat/providers 这个 dashboard 是怎么评价 provider 的,当然我也没见过几个类似的评估,只是说一下第一印象。

你的代码我也看了一下,感觉如果交给 ai 整理一下,观感会好一点,你现在缩进太多了。
lzoje
231 天前
@Vegetable 这个确实不是比较专业的 api 评估工具,本意基本上和 TTFT 差不多。因为目前用了很多不同服务商提供的 api ,所以想简单量化下不同服务商的 api 延迟速度。目前的逻辑就是测量发个请求后到获取应答的时间。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1110970

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX