gemma4:e4b 的效果出乎意料, 1050ti 也能很好的生成文章

21 小时 32 分钟前
 andyskaura
之前使用 deepseek qwen 在超迷你模型( 32b 以下)上写小说,基本驴唇不对马嘴。
这次的谷歌的模型确实牛逼了。
本地部署未审查版本,简直就是写文利器


1050ti:
2729 次点击
所在节点    Local LLM
29 条回复
oreader996
21 小时 29 分钟前
体验了下 e4b 还行
andyskaura
21 小时 25 分钟前
@oreader996 不能和全尺寸的比,横向对比真的厉害,感觉这算是大模型真正走进本地电脑了
Shaar
21 小时 19 分钟前
这玩意驱动龙虾够不够用
andyskaura
21 小时 12 分钟前
@Shaar 不够用。太慢 太笨
changnet
21 小时 8 分钟前
放一段出来看看是啥样的?我以前试过 30B 左右的本地部署写文章基本没法看

不过就小说而言,我觉得线上的模型写出来的也没法看的,明显不是一个正常人的逻辑思维,用词修饰这些都不行。要是写个短篇再人工改改还行
andyskaura
20 小时 59 分钟前
这个我有经验,做个生成器,

如果要写长篇小说,要和人写一样,先做好提纲,写好角色性格,矛盾。再一次性生成完章节标题和大纲,再根据大纲扩写单个章节。
andyskaura
20 小时 59 分钟前
@changnet 忘了 @
tf2
20 小时 34 分钟前
我 1060 6G 能跑不
Brightt
20 小时 26 分钟前
能写黄文不
kooze
20 小时 23 分钟前
4090 24G 26b 的好快
Brightt
20 小时 17 分钟前
@kooze 效果怎么样老哥,我也想部署个玩玩
andyskaura
20 小时 13 分钟前
@tf2 可以 我在公司用 1050ti 4g 做的测试
andyskaura
20 小时 13 分钟前
@Brightt #9 自己部署未审查版本
lemonda
20 小时 6 分钟前
试试可不可以从不规则的文本文件,比如使用 tab 上下对应的文本文件中提取出正确的信息。比如:
username
example
username dataname extname
example1 example2 example3
kooze
20 小时 5 分钟前
@Brightt #11 速度不错,简单测试几个还可以。不过没深入测试,不知道智力如何
andforce
18 小时 34 分钟前
@kooze 兄弟试过 31b 吗?
pxiphx891
18 小时 25 分钟前
未审查版本从哪里下载?
villivateur
17 小时 23 分钟前
e4b 不是需要 12G 左右才能跑吗? 4G 显存是怎么实现的?
kooze
17 小时 5 分钟前
@andforce 我来试试
changnet
16 小时 39 分钟前
@villivateur 这东西内存也可以跑,无非就是速度慢些。用 mac 来跑就是钻这个空子。常用的工具比如 LM studio 之类的都可以配置显存和内存的比例

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1203908

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX