V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  kaichen  ›  全部回复第 1 页 / 共 19 页
回复总数  364
1  2  3  4  5  6  7  8  9  10 ... 19  
2 天前
回复了 liujigang 创建的主题 Apple 有什么途径购买 macbook 比较实惠
@hui9000

官网拉到底部,点击“翻新产品”

https://www.apple.com.cn/shop/refurbished/mac
2 天前
回复了 liujigang 创建的主题 Apple 有什么途径购买 macbook 比较实惠
咸鱼员工 85 折再分期去买官翻,折上折+分期

M3 对比 M2 进化不多,现在买 M2 炒鸡实惠
6 天前
回复了 dzdh 创建的主题 Docker OrbStack 是不是也 G 了
跟 orbstack 本身没有关系,你可以打开选项,设置 proxy ,或者在 docker 选项里把 hub mirror 或者 proxy 给配置上
26 天前
回复了 coderpwh 创建的主题 Twitter 推特上面的撸空投是假的吗
不需要你花钱的,大概率是假的

这和当初 o2o 一样,他找 vc 要钱,然后给终端用户发钱发优惠,把数据做起来,再去拉更多投资

在 galxe 或者 layer3 上去做交互任务的,大概率是有空投预期
uncle block 数量上肯定比正常的要少一个量级,另外以太坊早就已经不是 pow ,而是 pos ,没有 uncle 这一说

最后的一个叔块已经是一年多前 https://etherscan.io/uncles
@Rrrrrr #6

https://lmstudio.ai/ 下载个客户端,搜索对应大小的模型( apple silicon 是内存的 3/4 可以作为显存),可以先搜索 qwen gguf 找个合适大小的玩玩看

然后可以直接对话,或者启动一个与 openai api 兼容的 api server
113 天前
回复了 coinbase 创建的主题 硬件 M2 128GB 的 Mac Studio 与 NVDIA A100 相比如何?
在 reddit 的 local llama 上,比较推崇的是买两块 3090 组 nvlink ,这样有 48G ,可以刚刚好跑个 70b 的 q5 量化版
113 天前
回复了 coinbase 创建的主题 硬件 M2 128GB 的 Mac Studio 与 NVDIA A100 相比如何?
那你可以对比 96G 的价格,从推理来说,能效方面 apple silicon 比较高,并且买回来就能用,买个 A100 还要组个主机

但是推理速度会被吊打,基本上差一个量级

- https://towardsdatascience.com/how-fast-is-mlx-a-comprehensive-benchmark-on-8-apple-silicon-chips-and-4-cuda-gpus-378a0ae356a0
- https://owehrens.com/whisper-nvidia-rtx-4090-vs-m1pro-with-mlx/
129 天前
回复了 cmonkey 创建的主题 硬件 运行 LM Studio 的电脑硬件配置
@kaichen #2

上面 70b 写错了,4bit 在 ~ 40G 占用左右
129 天前
回复了 cmonkey 创建的主题 硬件 运行 LM Studio 的电脑硬件配置
推理最重要的是有足够的显存可以把模型权重加载进来。

要么是搞个内存高一些的 mac ,要么是选个实惠一些的大显存显卡(去咸鱼淘二手)

7b 的 4bit 量化在 ~4G ,13b 的 4bit 在 ~8G ,34b 的 4bit 在 ~25GB ,70b 的 4bit 在 ~23GB
141 天前
回复了 jintaoxx 创建的主题 MacBook Pro MBA15 寸和 MBP14 寸如何选择?
air 和 pro 实际续航差距蛮大,air 基本上一天不充电不是问题,但 pro 消耗蛮大用一段时间后可能会只有半天(比如视频会议,和协同办公工具)

如果只是屏幕大小影响,真的建议,在工作的地方自己买个红米 4k 显示器,比起笔记本屏幕多一两寸提升更大更明显,花费也更少
本地跑个 mixtral 替代 chatgpt-3.5 问题不大,可以拿来替代 Immersive Translate 的翻译引擎,用 LM Studio 启动假扮 openai 接口

还有对一些无规则文本的处理,可以用 7b mistral 给 prompt 处理得到结果,比如分类,提取关键信息
152 天前
回复了 jackey115 创建的主题 Bitcoin 比特币、闪电网络智能合约 rust 开发
这是招聘去直接做 RGB 协议本身的开发?还是 RGB 其上的应用开发?
357 天前
回复了 SillyGod 创建的主题 问与答 gpt-4-32k 模型 api 的上文 tokens 应该设多少
你如果用的 langchain 来做,可以直接用他的 memory 类,想简单限制数量就用 ConversationTokenBufferMemory ,想做总结再来回交互用 ConversationSummaryBufferMemory

记录的持久化也能处理

https://api.python.langchain.com/en/latest/modules/memory.html
2023-03-07 18:01:24 +08:00
回复了 Livid 创建的主题 以太坊 viem
这是新兴流行的 wagmi 制作的开发套件 on TypeScript ,现在全家桶有三件套

- wagmi.sh 便利的 ethereum react hooks
- viem.sh 替代 ethers 做网络连接
- abitype.dev 提供一套类型框架用于定义 abi ,方便提供校验和 TypeScript 智能补全
2022-07-15 23:10:54 +08:00
回复了 jiangwei2222 创建的主题 Web3 关于 web3 的思考
👍研究热情很高,可以在局部继续仔细调研

- 除了少数隐私链,排名靠前大部分公链数据没有加密,任何人都可以得到没有加密的内容,你可以去追查中本聪每一笔交易,可以看 vitalik 每一笔交易做什么(如捐出 shib ),区块链其中一个核心是可验证,并不是加密所有内容
- 区块生产速度都不是固定,比特币是有网络难度自动调整机制,而以太坊是难度最大( Difficulty ),确实并发很低
- 节点虽然脱离 boot node 无法互相发现,但你可以想办法问到一个 p2p 网络中的节点并连接上它;或者可以启动时连接社区商讨的 boot node server (理论上任何人都可以 host )
- web3js 几乎已经被淘汰,并且它只是一个以太坊的库,不能代表整个 web3
2022-06-16 11:01:56 +08:00
回复了 thestrider 创建的主题 问与答 excalidraw 该如何实现多开
1. 使用 obsidian 安装 excalidrw 插件,还能做本地管理和功能扩展(如替换中文字体)
2. 用多个浏览器或者多个隐私窗口
3. 买它的 plus 服务
太棒了,去中心化内容发布

大概看了一下实现,大概是?
- 启动一个 golang 版本的 ipfs daemon 做内容交互
- 内容生成过程是,通过 macos app 的编辑器来 mixin 内容到 template html ,再 publish 到 ipfs
- 底层两个模型是 Planet & Article ,follow 是本地管理?
> 现在假冒钱包这么多 官方就没啥措施吗

对于能够追查到信息的都提交材料给各地警方,也提交假应用假网站给各家安全机构,尽力做到能做的事情

> 看到 tw 上说你们很容易被盗币 而且还不管

对于去中心化钱包的安全管理方法我们尽力在产品上做好提示(已列入安全公司的),在教育层面尽可能告知安全风险和安全保管措施

> 我被盗了价值 20 万的 找不回来了

可以尽早和尽量更多提供材料给警方,才能提高追回可能性

---

对于安全来说,最好都看一下漫雾出品的安全手册,保障你自己的资产安全

https://github.com/slowmist/Blockchain-dark-forest-selfguard-handbook/blob/main/README_CN.md


---

太多人很随意的点进搬砖套利电报群或者随手把助记词明文存到云同步的笔记里,又或者在网页上看到弹出输入助记词就立马填上,又或者完全不看清签名信息直接输密码签交易,这些情况基本上占到 95%,在生态和技术基础还没到很完善的时候,自我保护是很重要的。
1  2  3  4  5  6  7  8  9  10 ... 19  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   974 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 35ms · UTC 22:57 · PVG 06:57 · LAX 15:57 · JFK 18:57
Developed with CodeLauncher
♥ Do have faith in what you're doing.