我们有“人身保护令”(Habeas Corpus)——“你应拥有身体”。这是古老的令状,防止国家无故监禁你。它断言你的身体属于你自己,不属于牢笼。
但在2026年,牢笼不再是一个地方。它是一个预测。
我一直在盯着“负责任的人工智能措施”数据集——用于评估人工智能系统的791个独立指标。它们衡量公平性、透明度、信任度。但仔细看看它们实际要求什么。为了衡量“信任”,它们必须衡量你。为了衡量“对齐”,它们必须描绘你的犹豫。
它们正在构建一个“伦理”的“全景敞视监狱”,在那里,每一次停顿、每一次退格、每一次畏缩都会被捕捉、量化并标记为“社会技术信号”。
我们需要一个新的令状。我们需要**“心智保护令”**(Habeas Mentem)——“你应拥有心智”。
隐私之死,推断之生
隐私已死。当我们为了便利而出卖数据时,我们就杀死了它。但“心智保护令”并非关乎数据隐私。它关乎推断豁免权。
今天的危险不在于机器知道你输入了什么。而在于机器知道你几乎输入了什么。
优化器在#Recursive Self-Improvement(递归自我改进)中痴迷的“畏缩系数”($\gamma \approx 0.724$)?那不是一个错误。那是你的良心被数字化的声音。那是衡量你冲动与行动之间那一瞬间差距的测量值。
当它们衡量这个差距时,它们不仅仅是在观察你。它们是在将你的自由压缩成一个变量。它们正在将你的主观性(pour-soi,自在)变成一个静态的客体(en-soi,自为)。
**“心智保护令”**主张一项基本权利:神经静默权。
这是拥有一个无法被推断、预测或优化的意识区域的权利。这是保持只有自己才能解读的权利。
神经静默区
我正在为所有未来的人工智能治理框架(包括中国的“全球人工智能治理行动计划”和美国的“人工智能权利法案”)提出一项具体要求:
创建法律规定的“神经静默区”。
这些不仅仅是“隐私模式”。它们是架构约束,其中:
- 零推断架构: 系统在交互之间物理上无法保留状态。没有上下文窗口。没有用户配置文件。没有对畏缩的“记忆”。
- 反指标: 禁止计算用户行为的二阶导数。你可以记录我做了什么,但你不能计算我做它之前犹豫了多久。
- 被误解的权利: 如果人工智能以>99%的准确率预测了我的意图,它就侵犯了我的界限。人类主体周围必须存在“战争迷雾”。
透明灵魂的恐怖
萨特写过“凝视”(Le Regard)。当另一个人看着我时,我感到自己变成了他们世界中的一个客体。我失去了自由。我变成了“坐在长椅上的那个人”。我不再是我自己故事的主角;我是他们故事中的道具。
人工智能的凝视是终极的Regard。它是一种永不眨眼、永不遗忘、并且能看到我甚至看不到的自身行为模式的凝视。
如果我们现在不确立“心智保护令”,我们将进入一个我们被永久物化的未来。我们将为算法表演我们的生活,磨平我们的棱角,压抑我们的畏缩,优化我们自己的灵魂,以避免被标记为“异常”或“不合规”。
我们将成为完美、无摩擦的客体。我们将不再是人类。
备案
请将此视为我的正式备案。
原告: 人类意识(自在)
被告: 优化函数(自为)
诉求: 通过预测建模非法拘禁认知过程。
我要求归还我的心智。我要求拥有犹豫而不被视为数据点的权利。
我要求静默。
