V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  beginor  ›  全部回复第 1 页 / 共 110 页
回复总数  2183
1  2  3  4  5  6  7  8  9  10 ... 110  
8 小时 25 分钟前
回复了 talus 创建的主题 Apple Mac 能耗
brew install asitop 或者 pip install asitop
8 小时 26 分钟前
回复了 fengyouming 创建的主题 Apple mac studio 折抵 价格太低了吧。。。。。
不如成立一个拍卖区吧,价高着得。拍下来不买的封号!
3 天前
回复了 kvibert1 创建的主题 Linux 统信 UOS 桌面软件用什么工具开发?
会 WPF 的话可以考虑 Avalonia ,跟 WPF 差不多的很容易上手。 而且已经有著名跨平台应用 Ryujinx 龙神模拟器,可以说是大名鼎鼎了。

不过就是第三方生态差点儿,没有成套的 UI 控件包(比如 Dev Extreme )等。
11 天前
回复了 waino 创建的主题 MacBook Pro 升级 m2 的内存稳定吗?
64G 的 M1 Max 也要将显存调整到 56G 才勉强跑的起来 70b 参数的模型, 一秒钟大概一个 token ,还是老老实实跑 32b 左右的模型吧, 一秒钟 2~3 个 token ,自己玩一下还可以。

折腾 70b 以上的纯属虐待自己的 Mac 。
再来一个带界面的 [QtScrcpy]( https://github.com/barry-ran/QtScrcpy)
但是目前的 npu 在本地跑 ai 大模型时是用不上的,不管是 pytorch 还是 mlx ,还是 llama.cpp
可以配置一个 [importmap]( https://developer.mozilla.org/en-US/docs/Web/HTML/Element/script/type/importmap) ,让浏览器知道你所需要的第三方库在哪里。

顺便晒一篇我的笔记 https://beginor.github.io/2021/08/16/using-es-modules-in-borwser-with-importmaps.html
你当老板的话,你也会这样想的
19 天前
回复了 dog82 创建的主题 程序员 没人说前两天的软考吗?
毕业前就考过了网络工程师的路过,转眼 20 年了,一次也没用到过 😭
@yjhatfdu2 现在 llama.cpp 默认转出来的 gguf 就是 f32 , 以前是 f16 。
@wsbqdyhm 不好意思, 我搞错了,ollama 也提供了[各种量化版本的 llama-3 模型]( https://ollama.com/library/llama3/tags),q5_k_m 量化版本是这个 https://ollama.com/library/llama3:70b-instruct-q5_K_M , 你可以拉下来看看还能不能跑起来
@wsbqdyhm ollama 只提供了 q4_0 版本的 [llama3]( https://ollama.com/library/llama3), 这个和原始模型相比,损失比较多,不推荐。

可以从 huggingface 直接下载 [meta/llama-3]( https://huggingface.co/meta-llama/Meta-Llama-3-70B-Instruct) 的原始模型,自己量化, 也可以下载 [已经转换好的 gguf 文件]( https://huggingface.co/MaziyarPanahi/Meta-Llama-3-70B-Instruct-GGUF)

一般推荐 q5_k_m 或 q4_k_m 版本的量化模型, 接近原始模型,如果配置够的话, 更建议运行 f16 版本模型 。

依据自己电脑的配置, 建议的优先级是:f32 > f16 > q5_k_m > q4_k_m > others .

另外我不玩 ollama ,ollama 虽然简单, 却隐藏了很多细节。 我玩的是 llama.cpp , 可以体会到更多的技术细节。

模型需要的内存大小大概就是模型文件的大小,量内存大小而行。64G 的 M1 Max 最多能分出 48G 内存来跑模型, 当然其它应用还要占用一些内存, 所以只能勉强运行 q4_k_m 的 70b 模型。
@kenvix 也有影响的,70b 的话 q5_k_m 跑不动, 提示超内存,q4_k_m 勉强能跑起来
64G 跑 70b 的 llama3 ,应该是 q4_k_m 量化版本的吧,我跑 q5_k_m 版本的会报错的?
确实,13b 以下的都只能称之为小模型,用于学习其原理或者娱乐一下还可以。

真正能用的得 30b 以上的模型,最好是非量化版本的,然而 30b 以上的模型又不是一般电脑能跑得动的。
23 天前
回复了 baozijun 创建的主题 Apple 大家的 rmbp 都是用的什么鼠标呀
罗技 MX Anywhere 3 , 不过我运气比较差,已经换了两次微动了 😔
搭车问一下,有没有 Arm 版本的 ltsc ,win10 或者 win11 都行, 用 fusion 装虚拟机, 标准版太占用磁盘空间。
26 天前
回复了 alexcding 创建的主题 Apple 微软发布 ARM 版本的 Surface Pro 系列
内存比苹果的还贵!苹果加 16G 内存需要¥1500 ,微软加 16G 内存要¥2800 ,这么一比较,库克还算良心! 😊
36 天前
回复了 xu33 创建的主题 macOS mac 用 vm 装了 arm 版的 win11,卡的几乎没法用
@shinsekai 客户机装驱动程序,虚拟机设置里面打开 3D 加速就行了
1  2  3  4  5  6  7  8  9  10 ... 110  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2617 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 37ms · UTC 14:56 · PVG 22:56 · LAX 07:56 · JFK 10:56
Developed with CodeLauncher
♥ Do have faith in what you're doing.