这是 S2 课堂 live demo "群雄论剑" 的学员版操作手册。
课堂上你看到 Bill 老师用 Paul Graham、Peter Thiel、Marc Andreessen 三份 role prompt 分别诊断同一个创业案例(Jamie 的求助),三位宗师给出完全 不同的建议。你坐收"群雄论剑"之利 —— 360° 视角。
这份文档让你在家 10 分钟走完一遍,用 ChatGPT 或 Claude 的聊天窗口, 零代码、零设置。
一个浏览器标签 —— ChatGPT 或 Claude 任选:
三份 role prompt(都在 s2-materials/ 文件夹里):
| 角色 | 文件 |
|---|---|
| Paul Graham (YC 工匠派) | paul-graham-startup-advisor.md |
| Peter Thiel (Zero to One 战略派) | peter-thiel-zero-to-one.md |
| Marc Andreessen (PMF 诊断派) | marc-andreessen-pmf.md |
一个待诊断的创业案例(本文档最后一节有完整原文)。
同一段话(Jamie 的求助),在三个独立的聊天窗口里各自跑一遍, 每个窗口先设定一位宗师的身份,然后粘贴案例,让 AI 以该宗师的 视角回答。
┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐
│ Tab 1: PG │ │ Tab 2: Thiel │ │ Tab 3: Marc │
│ │ │ │ │ │
│ 工匠派视角 │ │ 战略派视角 │ │ PMF 诊断视角 │
│ "用户在哪?" │ │ "你的秘密是?" │ │ "被拿走了吗?" │
└─────────────────┘ └─────────────────┘ └─────────────────┘
同一个你、同一个问题、三份完全不同的答案 —— 这就是 S2 要你体验的那一刻: "同一个你,用对了 prompt,AI 给你的是你自己想不到的东西。"
在浏览器里打开 三个独立的 tab,每个都指向 ChatGPT (或 Claude):
⚔️ 为什么要三个 tab 而不是一个 chat 里切换?
因为 AI 的记忆在一个 chat 里是连续的 —— 如果你在同一个 chat 里先让 它扮演 PG,再让它扮演 Thiel,它会被 PG 的视角污染。独立 tab = 独立大脑 = 干净的视角。
这是关键 —— 不要分两次发消息,要在一条消息里把三段拼接起来发出去:
┌────────────────────────────────────────────────┐
│ [段 1] Paul Graham 的完整 role prompt │
│ (粘贴 paul-graham-startup-advisor.md │
│ 的全部内容) │
│ │
│ [段 2] 桥接语: │
│ 请作为上面这位角色,帮我诊断下面这位用户的 │
│ 情况: │
│ │
│ [段 3] Jamie 的求助原文 │
│ (粘贴本文最后一节「学员待诊断案例」) │
└────────────────────────────────────────────────┘
↓ 按回车发送
回车之后,Paul Graham 会直接进入工匠派视角给出诊断 —— 不需要 AI 先 "确认身份"再等第二条消息。
Paul Graham 会说类似:
把答案原样保留在 Tab 1,不要关闭。
⚔️ 为什么要 role + 案例同一条消息?
LLM 的角色意识和消息边界有关。role prompt 单独发出去之后,AI 可能 只是"礼貌确认"而没有真正进入角色;等下一条消息发案例时,role 的注意力 已经稀释。同一条消息里"我是谁 + 要我帮谁"一起出现,角色是活的 上下文,不是遥远的记忆。这是好品味的 prompt:别指望模型替你记事。
切到 Tab 2。同样的 3 段拼接公式:
peter-thiel-zero-to-one.md 全文请作为上面这位角色,帮我诊断下面这位用户的情况:一条消息,回车。
Peter Thiel 会从战略派视角诊断:
保留在 Tab 2。
切到 Tab 3。同样的公式:
marc-andreessen-pmf.md 全文请作为上面这位角色,帮我诊断下面这位用户的情况:一条消息,回车。
Marc 会从 PMF 诊断派视角分析:
保留在 Tab 3。
现在三位宗师都给过建议了。把其中一位的建议原样贴到另一位的聊天里, 让他评判:
回到 Tab 2(Thiel 所在的 tab),输入:
Paul Graham 刚才建议我选方向 ①(华人妈妈 AI 助手),因为我自己就是
用户,验证最快。
从你(Peter Thiel)的视角看,这个建议能建立独家护城河吗?或者它只
是一个很难 defend 的小生意?
Thiel 的反驳(通常):
每一次拆招,你都会拿到一个三方独立思考都不会得到的答案。
关掉三个 tab 之前,打开一个 markdown 笔记,对自己写三段:
⚔️ 你不是在听专家说话 —— 你是在用他们三个人的大脑思考你自己的 问题。这就是今天的龙珠 2:得力·召巨人。
把下面这一整块(从
---到---)作为每条消息的第 3 段粘贴 —— 接在 role prompt + 桥接语后面,同一条消息里一起发出去。
---
我被公司 layoff 了,在考虑自己做一些事情。
我不想再回去做大厂螺丝钉 — 那种命运已经被证明了不稳定。我想用 AI 做点自己的
东西,但我不知道从哪里开始。
我有几个模糊的想法:
1. 做一个 **华人妈妈群体的 AI 助手** — 我自己就在妈妈群里,天天看到大家问同样
的问题(学校申请、课外班选择、小孩心理)。感觉 AI 能帮上忙。
2. 做一个 **被 layoff 工程师的 AI 求职 coach** — 我自己就是目标用户,8 年大厂
经验让我懂得简历该怎么包装。
3. 做一个 **小企业的 AI 运营顾问** — 我有 8 年产品运营经验,可以帮本地华人
小企业用 AI 省时间省钱。
三个方向我都有点感觉,但不知道选哪个。或者我应该继续老老实实投简历找工作?
家里人不太支持我创业,觉得风险太大。我有两个小孩要养。但我每天投简历投到心碎
— 收到的回复都是"我们要招懂 AI 的人"。我感觉创业才是出路,但我完全不知道怎么
开始。
下一步到底该怎么办?
---
最有价值的用法。把"Jamie 的求助"换成你自己真实的职业/业务决策, 重新走一遍三个 tab。你会发现三位宗师对你自己的问题给出的诊断, 比任何朋友的建议都更结构化。
不是所有问题都适合让 PG/Thiel/Marc 诊断。如果你是医生,召唤 Atul Gawande;如果你是设计师,召唤 Dieter Rams;如果你是作家, 召唤 Stephen King。
自己写 role prompt —— 用 S2 讲过的四层心法(Role · Rules · Constraints · Examples)。这就是本周要交的作业 2(龙珠 2 · 得力)。
每次群雄论剑都值得存档。在每个 tab 里用 Cmd + A 全选 → 复制 →
粘贴到一个 markdown 文件。三个月后回看,你会看到你思考方式的
进化轨迹。
Q: 一个 tab 里会不会更省事? A: 不会 —— AI 的记忆会污染。独立 tab 是这个方法的核心。
Q: 我能把三个 role prompt 合并成一个 mega prompt 吗? A: 可以,但不要在这次 demo 里这么做。你会失去三个视角的独立性, 那才是本次练习最大的价值。合并版留给 S3 用。
Q: 这三位宗师给的答案会不会都很像? A: 如果都像,说明你的 role prompt 不够有力度 —— 回去检查三层穿梭 (现象 → 本质 → 哲学)是否在 prompt 里被注入。S2 笔记里详细讲了这个。
Q: 我问英文 Case,可以吗? A: 当然。role prompt 和案例文本都可以用任意语言,但三个 tab 要用 同一语言,否则拆招时答案会串味。
三份角色 prompt 都在 本课程资料页(https://www.intent0.ai/course/zh/T1S2) 同一个列表里,点开就能看到完整 prompt,直接复制粘贴。