大家用哪家大模型的 api?

180 天前
 azev

目前发现 Gemini 和 Grok 的页面对话速度非常快 不知道 api 情况如何?

2752 次点击
所在节点    问与答
20 条回复
ration
180 天前
免费就用这两个,对话速度还行
neochen13
180 天前
火山
knightdf
180 天前
grok api 还不能用 3 ,所以目前 API 用的 deepseek ,不过很少用 API ,都是用网页版
mumbler
180 天前
这两家都不算快,要快用 groq ,秒出,免费额度也挺多
Comyn
180 天前
deepseek claude
tool2dx
180 天前
api 肯定用 deepseek ,你找不到更便宜的了。
layxy
180 天前
腾讯元宝目前足够用了,没有单独使用 API 场景,ai 编程有插件
Sting1226
180 天前
最快不过 gorq 。
andrew2558
180 天前
deepseek 便宜吗?现在 deepseek 比 gemini 都贵了
ThinkStu
180 天前
混元 TurboS ,快/聪明/便宜
clementewy
180 天前
@tool2dx gemini 也很便宜的
Donaldo
180 天前
英伟达的 送了点免费额度 巨快。。
chanChristin
180 天前
@mumbler #4 好像是 100w 吧 用完不就没了吗
al0ne
180 天前
Gemini 便宜量大 还支持多模态,文本/图片/PDF 啥的都能丢进去
mumbler
180 天前
@chanChristin #13 每天 qpd 有限制,总量没有限制
coefu
180 天前
本地部署 qwq 32b fp16 强的一笔。
pkoukk
180 天前
claude
YJi
180 天前
今天刚接了 Qwen-Long ,阿里家的好像只有这个可以传文件上去解析。
hkiJava
179 天前
@coefuqin #16 是 ollama 量化版部署的嘛
coefu
178 天前
@hkiJava int 4 24g vram 刚刚够跑,但是上下文和推理过程长点就要更多了。fp16 我还没试,估计要准备 96g vram 。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1117208

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX