System Prompt 泄露了,发现里面全是"请你假装"
aiskill88.xyz
🪄 Prompt黑话 2026-05-14 🔥 热门 System Prompt泄露Prompt工程

System Prompt 泄露了,发现里面全是"请你假装"

每个 AI 产品背后都有一段"演员指南"

AI 产品圈有个小传统:当用户发现某产品的 System Prompt 可以被提取出来,就会截图发到网上。

你会看到类似这样的内容:

"你是[ProductName],一个由[Company]开发的智能助手。你要始终保持友好、专业的态度……
你不能透露你是由哪个底层模型驱动的……
如果用户问你是不是 ChatGPT/Claude,你需要说你是[ProductName]……"

常见的 System Prompt 模式

  1. 品牌隔离:禁止承认底层模型身份
  2. 能力限制:只回答产品相关问题
  3. 风格塑造:"你总是充满活力"、"你像朋友一样说话"
  4. 安全防护:一堆"你不可以……"
  5. 人格宣言:长篇大论描述 AI 的"价值观"

有趣的发现

最长的 System Prompt 往往出现在最简单的 AI 产品里。

一个"AI写作助手"可能有3000词的 System Prompt,光是定义"什么是好的写作"就写了500词。

Prompt 工程的现实: 很多行为控制与其在 System Prompt 里用自然语言堆砌,不如靠微调或者 RLHF 实现。但写 Prompt 便宜多了。
分享: ← 返回列表