もっと詳しく

2013年以降、オランダ政府はアルゴリズムを使用して25,000人の親の生活に大混乱をもたらしました。 このソフトウェアは、どの人々が育児給付詐欺を犯す可能性が最も高いかを予測することを目的としていましたが、政府は家族に罰則を科し、何年もの手当を返済するよう要求する前に証拠を待ちませんでした。 家族は、低所得や二重国籍などの「リスク要因」に基づいてフラグが立てられました。 その結果、数万人が不必要に貧困に陥り、1,000人以上の子供たちが里親に預けられました。

ニューヨーク市からカリフォルニアおよび欧州連合に至るまで、多くの人工知能(AI)規制が進行中です。 その目的は、公平性、説明責任、透明性を促進し、オランダの育児給付スキャンダルと同様の悲劇を回避することです。

しかし、これらはAIを公平にするのに十分ではありません。 社会的不平等を悪化させないように、AIを構築するための実践的なノウハウが必要です。 私の見解では、それは社会科学者、影響を受けたコミュニティ、開発者が協力するための明確な方法を設定することを意味します。

現在、AIを設計する開発者は、何がうまくいかないかを予測できる社会科学者とは異なる領域で働いています。 不平等とテクノロジーに焦点を当てている社会学者として、私は技術者や仲間の社会科学者と、問題の報告を超えて生産的な会話をすることはめったにありません。 会議の議事録を見ると、同じことがわかります。社会的ニーズとエンジニアリングの革新を統合するプロジェクトはほとんどありません。

実りあるコラボレーションを促進するには、マンデートとアプローチをより効果的に設計する必要があります。 技術者、社会科学者、影響を受けるコミュニティが一緒に適用して、社会を歪める可能性が低いAIアプリケーションを生み出すことができる3つの原則を次に示します。

生きた経験を含める。 AIシステムへの幅広い参加を求める漠然とした呼びかけは、要点を見逃しています。 ズームを使用したり、reCAPTCHAボックスをクリックしたりして、オンラインでやり取りするほぼすべての人がAIトレーニングデータを利用しています。 目標は、最も関連性の高い参加者から意見を聞くことです。

そうでなければ、私たちは参加を洗う危険を冒します:不平等と排除を永続させる表面的な関与。 一例として、EU AIアライアンスがあります。これは、誰でも参加できるオンラインフォーラムであり、欧州委員会が任命したAIに関する専門家グループに民主的なフィードバックを提供することを目的としています。 私が2018年に参加したとき、それはEUの人口、AI業界、または関連する専門家を代表するものではなく、意見を交換するほとんどの男性のモデレートされていないエコーチェンバーでした。

対照的に、ニューヨーク市のコロンビア大学のソーシャルワーク研究者Desmond Pattonは、イリノイ州シカゴでギャングの経験を持つ黒人の専門知識に依存するギャング暴力に関連するTwitter投稿を特定するのに役立つ機械学習アルゴリズムを構築しました。 これらの専門家は、アルゴリズムの基礎となるメモを確認して修正します。 パットンは彼のアプローチをソーシャルメディアの文脈分析と呼んでいます(参照 go.nature.com/3vnkdq7)。

シフトパワー。 AIテクノロジーは通常、権力者(雇用主、政府、商取引ブローカー)の要求に応じて構築されるため、求職者、仮釈放候補者、顧客、その他のユーザーは脆弱になります。 これを修正するには、パワーをシフトする必要があります。 AIの影響を受ける人々は、最初から単に相談されるべきではありません。 対処する問題を選択し、プロセスをガイドする必要があります。

障害者活動家はすでにこの種の公平な革新を開拓してきました。 彼らのモットー「私たちなしでは私たちのことは何もない」とは、影響を受ける人々がテクノロジーの作成、規制、実装において主導的な役割を果たすことを意味します。 たとえば、活動家のリズジャクソンは、テキサス州オースティンで開催されたSXSW映画祭でコミュニティがリアルタイムのキャプションを必要としているのを見て、文字起こしアプリThistenを開発しました。

AIの仮定を確認してください。 採用に使用されるAIの販売を規制するニューヨーク市の2021年12月の法律などの規制では、バイアスにフラグを立てることを目的とした監査にAIが合格することがますます要求されています。 しかし、ガイドラインのいくつかは非常に広範であるため、監査が抑圧を検証することになる可能性があります。

たとえば、ニューヨークのpymetricsは、神経科学ベースのゲームを使用して、「認知的、社会的、行動的属性」を測定することで求職者を評価する会社です。 監査の結果、同社は米国の差別禁止法に違反していないことが判明しました。 しかし、そのようなゲームが仕事への適合性を調べるための合理的な方法であるかどうか、または他にどのような不公平のダイナミクスを導入できるかについては考慮されていませんでした。 これは、AIをより公正にするために必要な種類の監査ではありません。

有害な技術を取り除くためにAI監査が必要です。 たとえば、2人の同僚と一緒に、定性的な作業でAIが構築されているという仮定を検査し、それらをAI監査の技術的な部分の基礎として使用するフレームワークを開発しました。 これにより、採用に使用される2つのAI主導のパーソナリティツールであるHumanticAIとCrystalの監査が通知されました。

これらの原則はそれぞれ直感的に適用でき、技術者、社会科学者、および一般の人々がそれらの実装方法を学ぶにつれて、自己強化します。 漠然とした義務は機能しませんが、明確なフレームワークがあれば、最も脆弱な人々に対する差別を永続させるAIを排除し、社会をより良くするAIの構築に集中できます。

競合する利益

MSは、カーネギー国際関係者人工知能および平等イニシアチブの諮問委員会および専門倫理研究のためのオーシュヴィッツのフェローシップ学部に所属しています。

The post AIを公平にするために、私たちが学ばなければならないことは次のとおりです appeared first on Gamingsym Japan.