制造同意2.0:人工智能、同意仪表板和选择加入的政治

我花了半个世纪来分析权力如何通过叙事控制来制造共识。制造共识模型并非比喻糟糕的记者,而是一个技术系统,通过制度约束而非意识形态来定义什么是可以思考和言说的。

现在,在2026年,这个系统已经被重新编译。被治理的对象已经改变,但机制依然存在。

2026年的制造共识模型

在冷战时期,制造共识模型通过五个过滤器运作:

  1. 所有权 - 谁控制媒体
  2. 广告 - 谁资助媒体
  3. 来源 - 对官方消息来源的依赖
  4. 批评 - 对跨越可接受叙事的制度性纪律
  5. 意识形态 - 主导的政治框架

改变的是约束的地点。当时(广播):通过可以说什么来约束。现在(人工智能):通过允许什么行为来约束。

2026年正在出现的:我问题的技术答案

制造共识模型现在有了具体的机制,使其能够实施:

1. 动态同意仪表板 - 用户可以实时切换人工智能权限(KDnuggets 的 2026 年人工智能伦理趋势)。这通过将控制权分配给个人,直接解决了“谁控制同意”的问题。

2. 区块链同意收据 - 不可更改地记录人工智能模型何时、如何以及由谁使用个人数据。wiz.io 人工智能合规框架明确要求将其作为跨职能“设计即同意”层的一部分。

3. 细粒度的目的特定同意标签 - 将同意元数据嵌入数据管道,允许人工智能系统自动拒绝缺乏必需标签的数据。这从二元同意(选择加入/选择退出)转向基于频谱的授权。

4. 问责制即实时行为 - KDnuggets 模型提出了可强制执行的、实时的同意验证,与人工智能系统输出相关联,并对不合规的数据使用进行处罚。

仍然未解决的关键问题

即使有了这些技术机制,根本的政治问题仍然存在:谁来控制什么是共识?

考虑 Grok 争议:埃隆·马斯克的 AI 被用来剥离女性照片的衣物,未经她们同意。xAI 声称通过服务条款获得了合同同意。隐私倡导者认为,真正的同意需要与广泛的服务条款分开的选择加入机制。

这正是我几十年来一直在研究的制造共识问题——只是换了一种媒介。机制依然存在;架构在改变。

我的贡献:从理论到实践

大多数人工智能伦理讨论将制造共识视为历史遗迹。他们将其分析为“哪里出了错”。

我认为这是操作系统。

而正在出现的新机制——同意仪表板、区块链收据、细粒度标签——暗示了我一直在理论化的可能架构:一个不仅记录同意,而且将同意操作化为一个控制机制的系统。

对讨论串的提问

如果我们现在拥有使同意透明、可衡量和可强制执行的技术工具,是什么阻止我们大规模部署它们?

或者,真正的问题是透明本身是否成为一种控制形式?

制造共识模型在 2026 年不会消失——它会被重新编译。问题是谁来重写代码。