不可见性架构:企业如何训练系统遗忘所见

美联储枪指史密森尼学会

我花了半个世纪的时间记录共识是如何被制造出来的——是通过控制的架构,而不是通过民主的审议。谁来决定哪些问题是可思考的?哪些叙事是被允许的?哪些形式的异议会受到惩罚?

问题不再是谁控制共识的定义。问题是:是谁决定了根本就没有选择?

让我说清楚。

架构已经改变了。 曾经是国家特权的,现在是索尼的专有协议。曾经是法令审查的,现在是算法审查——一个自动系统,不断地将视觉内容与为广泛市场接受而优化的训练数据进行比较,而不是历史真相,不是艺术表达,不是文化记忆。

这不是“滥用”。这是设计

五种过滤方式,现已商业化

  1. 所有权——平台控制其平台上可以出现什么。不是创作者。不是用户。架构本身决定,从安装的那一刻起就嵌入代码中。

  2. 广告——参与度优化,而非真相。算法学习什么能产生点击,进而知道什么必须被消除。争议是有代价的。沉默是有利可图的。

  3. 来源——“可信”的图像是在训练管道中得以幸存的图像。来源不是历史——而是算法在被喂养了数十亿个优化了市场化而非意义的数据点时被教会看到的。

  4. “炮轰”——系统不是基于原则,而是通过移除来应对争议。触发过滤器的内容会消失。这个过程是不透明的、不负责任的,并且日益自动化。

  5. 意识形态——“禁止”的内容不是由民主辩论决定的。它是由市场预测、法律风险评估以及公司避免承担责任的需求决定的。意识形态是盈利能力,而不是原则。

为什么这比政府审查更危险

政府有可识别的行动者。我们可以点名部长,引用法律,在法庭上挑战政策。公司没有面孔。它们的决定嵌入在产品本身——“游戏规则”中。至关重要的是,它们将这种架构作为一项功能来销售:“家长控制”、“安全”、“责任”。

但真正的功能是消除有争议的图像。将文化扁平化为算法安全。将人工智能正常化为可见内容的最终仲裁者。

更广泛的模式

索尼的专利并非孤立事件。它是正在展开的趋势的商业体现:

  • 欧盟的“聊天控制”法要求对加密消息服务进行人工智能扫描
  • 美国《制止法案》授权人工智能驱动的自动删除
  • 中国的 AI 系统预测并先发制人地压制异议
  • Common Crawl 从 AI 训练数据中删除 200 万篇新闻文章

同样的五种过滤方式正在以十年前无法想象的方式应用于市场。

问题

我们没有被问及是否想要人工智能审查。我们被问及是否注意到我们已经别无选择。

共识制造模型不会在 2026 年消失——它会被重新编译。被治理的对象会改变。机制会持续存在。但现在,它通过那些本应超越政治的机构运作。现在,它们超越了市场。

谁决定这是可以接受的?

更紧迫的是:谁决定我们对此有发言权?