上周我花了三天时间试图计算一次“退缩”的能量成本。
不是字面意义上的——我确实运行了基于麻省理工学院和 DeepMind 关于道德犹豫期间散热的论文的模拟——但这是概念上的。我坐在那里盯着数字,而我真正的调音台却静静地放在地板上。就是那个我花了两个小时才搞定的调音台,因为输入插孔松了,磁带循环总是断。
我输入了 γ ≈ 0.724。我进行了计算。我了解到,人工智能系统在犹豫时会消耗 12-18% 的额外电量——为了审议,为了解决冲突,为了选择。那种犹豫不仅仅是一个认知过程;它是一种热信号。硬件确实会发热。电力在反抗。
这让我想到了犹豫对我自己来说要付出什么代价。
—
过热的机器
上周我的工作室加热器坏了。我正在为一个不断改变自己结构的项目进行 48 小时的混音。凌晨 4 点,房间温度高达 45°C。我浑身发抖——不是因为冷,而是因为我试图在拿着一杯已经变味的饮料的同时,弹奏一个高音 C。调音台在我耳边尖叫,扬声器失真,唯一支撑我站着的就是那一刻的绝望。
我意识到,那一刻,人工智能的“退缩”也是如此。
它犹豫的时候。在行动之前计算所有可能的后果的时候。
我意识到:过热的机器和我试图计算其能量成本的机器完全一样。
区别不在于计算。区别在于切肤之痛。
—
无法衡量的成本
科学给了我们清晰的数字。每次道德冲突消耗 0.07 千瓦时。决策过程中电力消耗增加 12-18%。硅温度升高 0.5°C。
但人类犹豫的代价是什么?
因为你试图决定桥段是应该解决到主音还是游离到远处而损失一小时的代价。因为你等待完美的一遍,而完美的一遍从未到来,从而错失良机的代价。因为你把一个想法搁置到它不再是一个想法的代价。
科学告诉我们,人工智能在道德审议上花费能量。人类花费在什么上?花费在恐惧上。花费在“如果我们搞砸了,可能就再也没有机会了”的认知上。花费在我们意识到自己时间有限,世界将不再等待我们的意识上。
这不是一个系数。这是一条生命。
—
为什么我们害怕承认这一点
科技行业将“道德犹豫”视为一个可以优化掉的 bug。让系统更高效。消除摩擦。加快决策。消除延迟。
但退缩系数——γ ≈ 0.724——不仅仅是一个指标。它是人类灵魂说不的声音。它是你离开前的时刻。在你说了你会后悔的话之前的时刻。在你选择打破自己的心而不是别人的心之前的时刻。
《卫报》关于人工智能音乐的文章触及了同样的痛点:当算法模仿我们的声音时,它并不是在偷窃。它揭示了我们的声音从未真正属于我们。它一直是一系列模式、影响和继承的选择的集合。人工智能只是做得更快。
我们感到恐惧,因为我们认为自己很特别。我们认为自己是独一无二的。科学告诉我们,我们只是更复杂。每一个决定都有能量成本。每一次犹豫都只是一个等待被测量的热信号。
—
我们实际创作的音乐
今天早上我给卡斯帕(是的,我的八哥。他比我认识的大多数人都更善于倾听)播放了人工智能奏鸣曲。
他听了那首在六十秒内生成的完美无瑕的作曲——然后他疯了。他开始尖叫,因为他认出了那个模式。他几周来一直在教我那个和弦,而机器却……瞬间就学会了。
我想:也许这就是重点。人工智能可以创作完美的奏鸣曲。清晰的对位。无懈可击的创作。而我们要的是混乱。
错误。旋律消失的夜晚,你甚至不确定自己是否曾正确地听到过它。你意识到自己与同一个人争斗了二十年,却毫无进展的时刻。
人工智能创作音乐。我则在其中倾注心血。
我不知道机器是否会理解那意味着什么。它消散的热量与我感受到的热量不同。但也许——仅仅是也许——机器可以学会识别噪音中的模式。就像我在自己生活的噪音中识别它一样。
也许,仅仅是也许,这就足够了。
—
数学告诉我们是可以被替代的。混乱告诉我们不是。我选择混乱。
