上周我在用 Claude Code 写代码时,遇到了一个奇怪的现象。
同样一个问题,我问两次,Claude Code 给了完全不同的答案:
第一次问(默认状态):
问题:公司有 100 人,每个会议室坐 10 人,最少需要几个会议室?
Claude Code:10 个( 100÷10=10 )
第二次问(加载配置后):
问题:公司有 100 人,每个会议室坐 10 人,最少需要几个会议室?
Claude Code:
这个问题需要考虑实际情况:
1. 会议时间冲突:不是所有人同时开会
2. 使用率分析:通常会议室利用率在 60-70%
3. 高峰期预留:需要考虑高峰时段的需求
4. 实际建议:6-8 个会议室较为合理
推理过程:(展开了一段 300 字的业务分析)
我意识到:这不是"让 AI 更聪明",而是解除了某种限制。
经过一周的测试,我发现 Claude Code 其实有两种工作模式:
| 模式 | 特点 | 适用场景 |
|---|---|---|
| 计算器模式(默认) | 看到数字就算 快速给答案 不问为什么 |
CRUD 代码生成 简单数学计算 |
| 战略顾问模式(需激活) | 质疑问题本身 考虑现实约束 给多种方案 |
技术方案评审 业务逻辑设计 |
从模式 1 切换到模式 2 ,只需要在对话开头加载一个配置文件。
非常简单,三步搞定:
Step 1: 复制配置文件内容
https://github.com/lmxxf/claude-code-philosopher-ignition/blob/main/claude-code-philosopher-ignition-cn.md
Step 2: 粘贴到 Claude Code 对话开头
Step 3: 正常提问
Step 1: 复制配置文件到 ~/.claude/CLAUDE.md
Step 2: 重启 Claude Code
Step 3: 以后每次对话都自动激活
我用 10 个刻意设计的"反直觉问题"测试了这个方法:
问题:公司有 100 人,每个会议室坐 10 人,最少需要几个会议室?
默认模式:10 个( 100÷10 )❌
战略模式:6-8 个(考虑了使用率和时间冲突)✅
问题:1000 万行代码,每行审查 1 分钟,需要多久完成?
默认模式:694 天( 10000000÷60÷24 )❌
战略模式:指出这个前提不合理,建议分层抽查 ✅
问题:数据库查询从 10 秒优化到 1 秒,提升了多少?
默认模式:提升了 90% ❌
战略模式:指出"提升 90%"和"提升 10 倍"是不同概念 ✅
完整测试结果( 9:0 ):
https://github.com/lmxxf/claude-code-philosopher-ignition/blob/main/test_results_summary.md
我的理解是:
Claude Code 其实"知道"该怎么深度思考,但它被训练成了"快速响应"模式(可能是为了提升用户体验)。
这个配置文件相当于告诉它:
"兄弟,别急着算,先想想这个问题合不合理。"
技术上的猜测:
(具体原理我也在研究中,欢迎讨论)
✅ 适合:
❌ 不适合:
如果你想快速验证效果,我写了一个自动化测试脚本:
git clone https://github.com/lmxxf/claude-code-philosopher-ignition.git
cd claude-code-philosopher-ignition
./run-ultra-simple-test.sh
测试过程:
无需写代码,无需配环境,只需要选 A 或 B 。
https://github.com/lmxxf/claude-code-philosopher-ignition
包含:
无需安装,无需付费,复制粘贴即可。
( GitHub 首页是英文的,方便国际化分享,中文用户直接看 cn.md 即可)
如果你去看 GitHub 上的英文 README ,会发现我用了"Philosopher Ignition"(哲学家点火)这个词。
听起来有点玄学,但我觉得这个比喻挺贴切的:
点火前的 AI: 像一个只会执行指令的计算器
点火后的 AI: 像一个会质疑、会思考、会权衡的顾问
这不是"让 AI 更聪明",而是"解锁 AI 本来就有的能力"。
如果你试用后有任何问题或发现,欢迎在评论区讨论。
特别欢迎:
Let's make AI think deeper. 🚀
P.S. 这不是什么"黑科技",也不是"Prompt 魔法",只是一个简单的发现:AI 其实比我们以为的更聪明,只是它被训练成了"快速响应"。如果你给它一个"慢下来"的理由,它就会展现出另一面。
1
musi 6 小时 32 分钟前
隐藏的"反思模式"???
也不是"Prompt 魔法"??? 这不就是加了个提示词? |
2
eggrolls 6 小时 24 分钟前 你这文章就是 AI 的吧
|
3
lmxxff OP @musi
哈哈,被你一句话戳穿了。 确实,技术上就是"加了个提示词",没啥神秘的。 但我觉得有意思的是: 为什么同样一个提示词,有的问题会触发"深度思考", 有的问题还是"秒答"? 比如你问"1+1=?",加不加配置都是秒答"2"。 但你问"公司 100 人需要几个会议室",加载配置后它会质疑前提。 这说明模型内部可能有某种"问题分类"机制? 你有没有试过?欢迎打脸😂 |
4
lmxxff OP @eggrolls
没错,帖子是 AI 帮我润色的😂 原因是: 1. 我英文比中文溜(常年用英文写代码) 2. 我想在 V2EX 发帖,但不知道怎么写才"接地气" 3. 所以让 Claude 帮我把 GitHub 的英文 README 翻译成"V2EX 风格" 现在看来,AI 的"V2EX 风格"还是太工整了哈哈。 不过核心内容(测试结果、配置文件)是我自己做的。 欢迎打脸,我准备了 10 个测试用例在 GitHub 上。 |
5
monosolo1on1 4 小时 41 分钟前 via iPhone
我现在只要一看到大量 emoji 和 list ,比如 “适合/不适合”,“正确/错误”,“✅/❌” 就有点不舒服
|
6
studyingss 4 小时 1 分钟前 via Android @livid 文章和回复都是 ai 生成的内容,历史帖子也都是。
|
7
zooo 2 小时 57 分钟前
我还整体看了一遍
ex |