体验 llama3 系列的速度吧

2024-04-25 01:16:44 +08:00
 ProxyXAI

https://free.proxyxai.com

3174 次点击
所在节点    OpenAI
29 条回复
bearqq
2024-04-25 08:06:52 +08:00
点之前:本来一脸不屑
点之后:卧槽?????????
junan
2024-04-25 08:44:02 +08:00
试了几次后和#1 一样的反应
hooych
2024-04-25 08:58:36 +08:00
速度确实嘎嘎快,GPT 是便秘,这个有种一泻千里的畅快感
qinfengge
2024-04-25 09:29:33 +08:00
G 了,一直请稍后再试
xier9213
2024-04-25 09:33:20 +08:00
速度确实快,就是太不稳定了
zsxzy
2024-04-25 09:53:34 +08:00
用什么 gpu 跑的, 我用笔记本的 3060 6G, 好慢 😆
Goghho
2024-04-25 10:09:07 +08:00
@zsxzy 这么快感觉就是 groq 吧
hebwjb
2024-04-25 10:10:29 +08:00
挂了
djangovcps
2024-04-25 10:14:25 +08:00
fredweili
2024-04-25 10:14:45 +08:00
8b 的本地跑,效果已经不错了
nwg
2024-04-25 10:16:34 +08:00
我擦 这么快
itskingname
2024-04-25 10:37:15 +08:00
用 groq ,速度可以达到 700Token/s ,已经没有必要使用 Stream 模式了。
maolon
2024-04-25 10:43:42 +08:00
是 groq 快不是 llama3 快吧...用其他方式 host 速度跟其他模型差不多
param
2024-04-25 13:28:46 +08:00
@hooych gpt 用最低配的 ada 一样很快
lizhisty
2024-04-25 13:58:07 +08:00
怎么挂了啊
coolair
2024-04-25 14:01:50 +08:00
请稍后再试!
coderluan
2024-04-25 14:03:24 +08:00
你们说的快不是瞬间就输出 “请稍后再试” 吧😀😀😀
ktqFDx9m2Bvfq3y4
2024-04-25 14:07:19 +08:00
没有背后的总算力就说快就是流氓,要我说我还能说我的 GPT4 上午使用时相当快,又聪明又快,比 3.5 还快。那明显是因为那时用量低,算力足啊。
hooych
2024-04-25 14:20:36 +08:00
@hebwjb
@djangovcps
@lizhisty
@coolair
@coderluan 左下角切换模型
huzhizhao
2024-04-25 15:00:21 +08:00
请稍后再试!

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1035436

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX