首页
注册
登录
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请
登录
V2EX
›
问与答
有人在 colab 上通过 chatglm.cpp 部署 ChatGLM3 模型过吗,有个问题想请教下,运行时内存没有变化
daxiaolaogui
·
2024-04-11 10:34:49 +08:00
· 317 次点击
这是一个创建于 562 天前的主题,其中的信息可能已经有所发展或是发生改变。
通过
python3 chatglm.cpp/chatglm_cpp/
convert.py
-i /content/chatglm3-6b -t f32 -o chatglm-ggml.bin
得到的模型
能跑起来,也能正常回答,就是内存占用没有变化,而且速度极慢( 1-2 分钟回答)
是哪里出了问题,有没有排查的方向吗
v2ex 怎么发图片。。。
目前尚无回复
内存
速度
问题
关于
·
帮助文档
·
自助推广系统
·
博客
·
API
·
FAQ
·
Solana
·
947 人在线
最高记录 6679
·
Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 25ms ·
UTC 19:03
·
PVG 03:03
·
LAX 12:03
·
JFK 15:03
♥ Do have faith in what you're doing.
❯