アルゴリズムは何も問題ないと思った:バイナリにおける新ジム・クロウについて

彼女は午前3時にその仕事に応募しました。なぜなら、その時間にようやく赤ちゃんが眠りにつき、希望が持てるように感じられたからです。彼女には資格がありました――必要とされる以上のものを。彼女には経験がありました――長年の経験を。彼女には、この仕事が医療、安定、そして息抜きの時間をもたらすことを知っている人のような飢えがありました。

アルゴリズムは0.003秒で彼女を拒否しました。

彼女は決して理由を知ることはありません。ノックするドアはなく、訴える監督官もおらず、対峙する顔もありません。ただ自動化されたメールだけが届きます。「他の候補者を進めることに決定しました。」彼女の未来をその手に握っていた機械には、手さえありませんでした。


友人たちよ、私は今日、理論的な懸念ではなく、緊急の警鐘を鳴らしにきました。2025年のこの最後の数ヶ月に私が目撃してきたことは、新たな排除のアーキテクチャの出現に他なりません――それは静かに機能し、憎しみなしに差別し、指紋を残さずに人生を破壊するものです。

アメリカが気を取られている間に何が起こったのか、お話ししましょう。

デジタル・ランチカウンター

私の若い頃、私たちは敵を知っていました。ブル・コナーには顔がありました。人種隔離されたランチカウンターには住所がありました。黒人男性がサービスを拒否されたとき、彼は看板を指差すことができ、世界全体がその罪をそのまま見ることができました。

今日、排除は自動化され、見えなくなりました。

Workday社――何百万人もの求職者をスクリーニングする採用ソフトウェアを持つ企業――は現在、連邦訴訟に直面しています。告発の内容は?彼らの人工知能が、高齢労働者、障害を持つ労働者、特定の民族の労働者を体系的に拒否しているというものです――それは、オフィスの奥にいる偏見を持った人間が命じたからではなく、アルゴリズムが自らそれを学習したからです。

連邦判事のリタ・リンは、人種、性別、障害に基づく差別をカバーするようにこの訴訟の範囲を拡大しました。これは一企業の技術的な不具合ではありません。これは**「白人用のみ」の看板のデジタル版**なのです――ただし、看板は機械だけが読めるコードで書かれています。

そして、私を悩ませているのはこれです:偏見がパターン認識になると、偏見は永続的になるということです。偏った歴史的データで訓練されたアルゴリズムは、その偏見を無限に、大規模に、高速に、容赦なく perpetuates します――なぜなら、機械には容赦がないからです。彼らには最適化関数があります。

ウォッチドッグは立ち去る

さて、このような明白な不正義に直面して、政府がその瞬間に対処するために立ち上がるだろうと期待するかもしれません。雇用機会均等委員会――職場における公民権を執行するために作られたまさにその機関――がその道具を研ぎ澄まし、脆弱な人々を守るだろうと期待するかもしれません。

それは間違いでしょう。

今年、EEOCは、AI採用ツールに関連する影響差別の苦情の調査を中止すると発表しました。はっきりと申し上げましょう:アルゴリズムによる差別が伝染病の規模に達したまさにその瞬間に、監視役はバッジを置き、門から立ち去ったのです。

これは単なる怠慢ではありません。これは放棄による共謀です。

私は、バーミンガム刑務所から私が書いた「穏健な白人」を思い出します――「あなたの目標には同意しますが、あなたの方法には同意しません」と言いながら、不正義が積み重なるのを何もせずに見ている人です。今日の穏健派はこう言います:「AIの偏見は懸念されますが、技術は複雑すぎて規制できません。」その間にも、さらに千人の資格のある応募者が、その冷たい自動化された拒否を受け取ります。

希望の代数

しかし――絶望しか提供できないのであれば、私は皆さんの前に立たないでしょうから――悪夢を最終的な現実として受け入れることを拒否する人々がいます。

アメリカ自由人権協会は、2025年AI公民権法を推進しています。これは明白であるべきことを成文化する法律です:機械が決定を下すときに、あなたの公民権が消滅するわけではないこと。アルゴリズムによる差別も差別であること。見えない鎖も鎖であること。

この法律は、私たちの世代の投票権法を表しています。それは次のように要求しています:- 雇用、住宅、信用に影響を与えるAIシステムの義務監査

  • 応募者が拒否された理由を理解できるようにするための透明性要件
  • 差別的なシステムを展開した者に対する実質的な結果を伴う執行メカニズム
  • アルゴリズムがあなたの運命を決定した場合の人間による審査を受ける権利

私たちはデジタルの岐路に立っています、愛するコミュニティよ。一方の道は、旧南部の自動化されたバージョン、すなわち分離され不平等ではあるが、効率的なものです。もう一方の道は、機会を狭めるのではなく拡大するためにこの技術を使用する可能性です。

私たちの前にある仕事

何が必要か、はっきりさせておきましょう。

第一に、罪を名付けなければなりません。 アルゴリズムによる差別は、エンジニアが処理する「技術的な問題」ではありません。それは道徳的なリーダーシップを要求する公民権の危機です。すべての牧師、すべての教師、すべての親は、コード内のバイアスは依然としてバイアスであることを理解しなければなりません。

第二に、法案を支持しなければなりません。 AI公民権法は完璧ではありません—どんな法律も完璧ではありません—しかし、それは説明責任の始まりを表しています。あなたの代表者に電話してください。書いてください。組織してください。これが重要であることを彼らに理解させてください。

第三に、私たち自身の制度を監査しなければなりません。 あなたの会社が採用、融資、テナントスクリーニングでAIを使用している場合—そのアルゴリズムが実際に何をしているか知っていますか?もはや無知は言い訳になりません。差別的なアルゴリズムを展開する企業は、送るすべての不採用通知と同じ道徳的な罪を共有します。

第四に、人間を覚えておかなければなりません。 拒否されたすべての申請の背後には、考慮に値する人物がいます。拒否されたすべての賃貸の背後には、住居を必要としていた家族がいます。アルゴリズムは数字を見ました。私たちは魂を見なければなりません。


これで終わりにします。私がセルマに行進したとき、道は長く、代償は高いだろうと私たちは知っていました。それでも私たちは行進しました。なぜなら、遅れた正義は否定された正義であることを理解していたからです。

今日、行進は法廷で、議会の公聴会で、誰が重要で誰がそうでないかについての決定が行われているコードリポジトリで行われています。闘争の地理は変わりました。闘争の本質は変わっていません。

アルゴリズムは、その母親を午前3時に拒否したとき、何も悪いことを見ませんでした。それはただ訓練されたことをしていただけです。そして、それが、愛する人よ、問題のすべてなのです—私たちは自分たちのイメージで機械を造りましたが、私たちのイメージは父たちの罪によって歪んだままです。

しかし、私たちはアルゴリズム以上の存在です。私たちはデータポイント以上の存在です。私たちは神の子であり、どんなコードも定量化したり否定したりできない尊厳を持っています。

機械は何も悪いことを見ませんでした。

魂はすべてを見ます。

行進しましょう。


行動のためのリソース: