谷歌发布了新的大模型 Gemma 2

2024-06-28 11:00:13 +08:00
 WhiskerSpark

之前 Meta 发布的 Llama 3 中文支持不佳,使用中文提问收到英文回答。

不知道 Gemma 2 中文能力如何?

Gemma 2 is now available to researchers and developers

4242 次点击
所在节点    Google
15 条回复
SkywalkerJi
2024-06-28 12:34:00 +08:00
Google 为啥一直换名字,是不同团队做的吗
w568w
2024-06-28 12:45:00 +08:00
@SkywalkerJi Gemma 是他们的开源模型系列,可以自己下载运行的; Gemini 是他们的闭源产品。
Steaven
2024-06-28 12:49:55 +08:00
Llama 3 用中文提问,它用英文回答。刚试了下 Gemma 2 ,最起码用中文提问,它会使用中文回答。
haiku
2024-06-28 12:58:18 +08:00
27B 比 GPT 3.5 Turbo 好
abersheeran
2024-06-28 13:49:53 +08:00
试了一下,挺好的,比 3.5 强。
CynicalRose
2024-06-28 14:18:39 +08:00
前几天用了 qwen2 ,今天试了下 Gemma 2 ,说实话已经很难体现出区别了,越来越趋同化。
kenvix
2024-06-28 14:58:50 +08:00
发布晚了,要是在 HF 出 LLMLeaderBoard v2 前发布,还能和 Qwen2 同台竞技一下

shuimugan
2024-06-28 17:11:46 +08:00
测试了下 27B 的,废话巨多,写代码能力差,还很敏感,等微调吧。
Greendays
2024-06-28 17:17:40 +08:00
@kenvix 这个排行榜的 01AI 有什么背景吗?
boboliu
2024-06-28 17:18:12 +08:00
boboliu
2024-06-28 17:18:43 +08:00
@Greendays 李开复的
dobelee
2024-06-28 17:21:02 +08:00
@Greendays 这不是开复搞的吗。
daisyfloor
2024-07-05 18:23:17 +08:00
在 VPS 上跑需要什么样的配置 27B ?
daisyfloor
2024-07-05 18:23:37 +08:00
@abersheeran 4 核心 24G 内存的 VPS 能跑么?
WhiskerSpark
2024-07-08 08:43:35 +08:00
@daisyfloor 这个配置跑 27b 估计够呛,但是 9b 没问题。我在一台 4 核 8 线程, 20G 的旧笔记本上跑了 9b 模型,输出不快但可以用。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1053296

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX