一块 4090,怎么来评估部署大模型后(假设为 DeepSeek-R1-Distill-Qwen-7B)的并发数?、、

170 天前
 bushnerd

一直很好奇,如何来计算并发? 假设 DeepSeek-R1-Distill-Qwen-7B 部署到 4090 ,能达到 5000 tokens/s 。 那么如果是 100 并发,则每个并发可以支持 50 tokens/s 。 如果是 1000 并发,则每个并发可以支持 5 tokens/s 。

这个算法我觉得肯定不对,实际使用中估计与很多因素有关系,所以想上来请教一下大家。

747 次点击
所在节点    Local LLM
1 条回复
jroger
169 天前
这个跟 max_token 有关系,这个参数设置的值越大并发数越低。设置为 2048 ,最大 10 个并发。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1119745

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX