无 GPU 服务器部署小模型框架求推荐(需兼容 Kafka 数据流)

175 天前
 Daybyedream

领导要求将大模型部署到无 GPU 的机房服务器,模型规模为个位数 B (如 7B ),后续会处理输出过来的信息。 领导明确不要 Ollama ,用啥部署呢?求推荐

1126 次点击
所在节点    Local LLM
4 条回复
NoahBishop
173 天前
你要不看看 llama.cpp ,自己写个兼容的吧。
coefu
170 天前
鸟领导很难伺候啊,就这硬件成本还挑三拣四,能搞出来就不错了。
coefu
170 天前
老弟你运气不错,刚才我搜了下方案,还真被我找到了。
https://github.com/intel/ipex-llm/blob/main/docs/mddocs/DockerGuides/vllm_cpu_docker_quickstart.md
Daybyedream
170 天前
@coefuqin 专业!我前两天沟通过了最后搭了 ollama+dify

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1119893

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX