大家在本地通过 ollama 运行 Llama2 大模型的时候如何友好的支持中文呢?我运行的时候默认都是英文回答,然后我用英文问它如何切换为中文它告诉我使用 llama2 -lang zh-CN 但是我在交互式里面执行该指令后并没有效果,回答的时候还是英文,大家是怎么设置的呢?除了在问题前表明用中文回答这种方式
1
waityan 88 天前
ollama run yi
|
2
idblife 88 天前 via iPhone
同问,qwen 和 yi 感觉和 mistral 差不少呢
|
3
paopjian 88 天前
llama2 没有用中文微调,虽然会说中文,但是回答肯定是英文优先,你找找有没有微调后的模型
|
4
leesin8848 88 天前
op 用什么配置的机器跑的
|
5
vacuitym 88 天前 1
ollama 上有个 llama2-chinese
|
6
kaoshuiwan 88 天前
llama2 对于中文支持就是不好(包括词表中缺少中文 tokens 、语料少),可以换个模型试试。
|
7
huhailong1121 OP @leesin8848 我就是用一台笔记本,Thinkpad-P15v ,内存 16G ,我下载了 7B 版本的 llama2 测试,英文的表现还行。准备后面组一个机子试试
|
8
huhailong1121 OP @vacuitym 嗯嗯,我试试
|
9
uniqueman 88 天前
@huhailong1121 cpu 占用率怎么样的?一直在后台跑着吗
|
10
unclemcz 88 天前 via Android
@uniqueman 纯 cpu 跑的话占用率接近 100%,只有执行的时候会这样,ollama 会一直在后台,基本无感,只有跑模型的时候会 100%这样子。
|
11
huhailong1121 OP @uniqueman 我是在做测试,通过 ollama 的 API 接口调试前端,我自笔记本的话一开始还行,简单的问题响应速度可以接受,但是稍微复杂的问题就耗时间了,而且风扇呼呼的,如果是测试我觉得自己电脑就行,如果真要长时间用 serve 模式运行的话还是组装一台高配置的
|
12
huhailong1121 OP @unclemcz 嗯嗯,是的,默认开机它就自己后台运行着,但是基本不消耗资源,我电脑除了 CPU 我看 GPU 占用也挺高,估计也用到了
|