もっと詳しく

AIは現在、ローン申請の評価から 懲役刑の決定

このアプローチの支持者は、それが人間の偏見を排除できると主張しますが、批評家は、アルゴリズムがどのように決定に到達したかを明らかにすることなく、私たちのバイアスを増幅できると警告します。

これにより、AIシステムが 黒人が不法に逮捕されている、 また 貧しい家庭を不当に対象とした児童奉仕。 犠牲者はしばしば、すでに限界に達したグループから来ています。

ヒューマノイドのご挨拶

今すぐ購読して、お気に入りのAIストーリーの毎週の要約をご覧ください

Alejandro Saucedo、チーフサイエンティスト 倫理AI研究所 MLスタートアップのエンジニアリングディレクター セルドン、アルゴリズムを展開する前に慎重に考えるように組織に警告します。 彼はTNWにリスクを軽減するためのヒントを伝えました。

説明可能性

機械学習システムは透明性を提供する必要があります。 これは、入力、操作、および結果が人間には明らかではない強力なAIモデルを使用する場合に課題となる可能性があります。

説明可能性は何年もの間解決策として宣伝されてきましたが、効果的なアプローチはとらえどころのないままです。

「機械学習の説明可能性ツール自体にバイアスがかかる可能性があります」とSaucedo氏は言います。 「関連するツールを使用していない場合、または特定のツールを誤った方法で使用している場合、または目的に適していない場合は、誤った説明が表示されます。 これは、ガベージイン、ガベージアウトの通常のソフトウェアパラダイムです。」

特効薬はありませんが、人間による監視と監視によってリスクを軽減できます。

Saucedoは、ヒューマンインザループを必要とするプロセスとタッチポイントを特定することをお勧めします。 これには、基礎となるデータ、使用されるモデル、および展開中に発生するバイアスの調査が含まれます。

目的は、機械学習のライフサイクルの各段階で人間による監視が必要なタッチポイントを特定することです。

理想的には、これにより、選択したシステムが目的に適合し、ユースケースに関連することが保証されます。

Alejandro Saucedoは、7月16日のTNW会議でAIバイアスについて話し合っています