StopWaring

StopWaring

V2EX 第 636976 号会员,加入于 2023-07-03 22:34:25 +08:00
根据 StopWaring 的设置,主题列表被隐藏
二手交易 相关的信息,包括已关闭的交易,不会被隐藏
StopWaring 最近回复了
.
6 天前
回复了 StopWaring 创建的主题 Local LLM 目前本地部署比较好的大模型有哪些
@coefuqin 大佬 、3090 是不是就只能用 llama.cpp 不能用 sglang
6 天前
回复了 StopWaring 创建的主题 Local LLM 目前本地部署比较好的大模型有哪些
@coefuqin 大佬,请教一下,unsloth/Qwen2.5-Coder-32B-Instruct-128K-GGUF q8 里,unsloth 是什么意思?另外 vlmm 部署和 llama.cpp 哪个好点?
6 天前
回复了 StopWaring 创建的主题 Local LLM 目前本地部署比较好的大模型有哪些
@m1nm13 试了下这个模型 占用 42G 显存....
6 天前
回复了 StopWaring 创建的主题 Local LLM 目前本地部署比较好的大模型有哪些
@beginor 具体是 32b 哪个版本? 我 vllm 试了下 32B 跑不起来 显存不够
7 天前
回复了 StopWaring 创建的主题 Local LLM 目前本地部署比较好的大模型有哪些
@m1nm13 dalao 没找到 qwen-coder-qwq 的模型啊,有链接吗
7 天前
回复了 StopWaring 创建的主题 Local LLM 目前本地部署比较好的大模型有哪些
@m1nm13 啥是 QWQ AWQ ?
@crac 嗯 其实主要是想了解下除了 vllm 之外还有没有别的方式,ollama 就不说了
7 天前
回复了 StopWaring 创建的主题 Local LLM 目前本地部署比较好的大模型有哪些
@beginor
48G 显存建议跑用 llama.cpp 量化的 Qwen 2.5 Coder 32B 。

如果还富裕的话可以再跑个 3b 的 coder 做代码提示,llama.cpp 有特供的支持


我试一下 这是更好的选择了吗
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   4017 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 9ms · UTC 04:11 · PVG 12:11 · LAX 21:11 · JFK 00:11
Developed with CodeLauncher
♥ Do have faith in what you're doing.