もっと詳しく

MITの研究者たちは最近、私たちがこれまでに見た中で最も大胆な人工知能に関する主張の1つを発表しました。彼らは、医用画像のみを使用して人種を識別できるAIを構築したと信じています。 そして、によると 人気のメディア、彼らはそれがどのように機能するのか分かりません!

もちろん。 そして、ブルックリン橋のNFTを販売したいと思います。

あたり、前もって明確にしましょう チームの論文、モデルはできます 予測する 人の 自己報告 人種:

私たちの研究では、標準的なAI深層学習モデルをトレーニングして、複数の画像モダリティにわたって高性能な医療画像から人種を予測できることを示しています。

ヒューマノイドのご挨拶

今すぐ購読して、お気に入りのAIストーリーの毎週の要約をご覧ください

予測と識別は、まったく異なる2つのことです。 予測が間違っている場合でも、それは予測です。 識別が間違っている場合、それは誤認です。 これらは重要な違いです。

AIモデルは、現実ではない概念であっても、あらゆるものを予測するように微調整できます。

これが私がこれらの状況で引き出すのが好きな古いアナロジーです:

レモンの木にあるレモンの数が別の惑星からのエイリアンであるかを100%正確に予測できます。

レモンの中のエイリアンを見ることができるのは私だけなので、私はあなたが「データベース」と呼んでいるものです。

私はあなたのAIの隣に立って、エイリアンがいるすべてのレモンを指さすことができました。 AIは、私が指しているレモンについて、エイリアンがいると思わせるものを理解しようとします。

最終的に、AIは新しいレモンの木を見て、どのレモンにエイリアンがいると思うかを推測しようとします。

それを推測するのに70%正確だったとしても、どのレモンにエイリアンが含まれているかを判断するのに0%正確です。 レモンにはエイリアンがいないからです。

言い換えれば、次の場合に限り、AIをトレーニングして何でも予測できます。

  • 「わからない」と言うオプションを与えないでください。
  • 必要な答えが得られるまで、モデルのパラメーターの調整を続けます。

AIシステムのラベルの予測がどれほど正確であっても、AIシステムがどのように予測に到達したかを示すことができない場合、特に個々の人間に関連する問題に関しては、それらの予測は識別の目的には役立ちません。

さらに、「正確さ」の主張は、これらの種類のAIモデルに関してメディアが彼らが何をしていると考えているように見えるかを意味するものではありません。

MITモデルは、ラベル付けされたデータで99%未満の精度を達成します。 つまり、実際には(ラベルのない画像を見ると)、人間が結果を確認しない限り、AIが正しい評価を行ったかどうかを確認することはできません。

99%の精度でも、MITのAIは、生きているすべての人間の画像を含むデータベースが与えられた場合、7,900万人の人間に誤ったラベルを付けることになります。 さらに悪いことに、地球上の79億人すべてに行き、AIによる特定の画像の評価を確認するように依頼しない限り、どの7900万人の人間が誤ってラベル付けされたかを知る方法はまったくありません。 これは、そもそもAIを使用する目的を損なうことになります。

重要な点:データベース内のラベルを識別するようにAIに教えることは、に適用できるトリックです。 任意のデータベース任意のラベル。 AIができる方法ではありません 決定 また 識別 データベース内の特定のオブジェクト。 人間の開発者が使用したラベルを予測(推測)しようとするだけです。

MITチームは、彼らの論文で、彼らのモデルは悪意のある人にとって危険である可能性があると結論付けました。

私たちの研究の結果は、自己申告による人種を予測するAIディープラーニングモデルの能力自体が重要な問題ではないことを強調しています。

ただし、AIが、破損、トリミング、ノイズのある医用画像からでも、自己申告による人種を正確に予測できるという私たちの発見は、多くの場合、臨床専門家ができない場合に、医用画像のすべてのモデル展開に大きなリスクをもたらします。

AI開発者は、自分たちの作品の潜在的なリスクを考慮することが重要です。 しかし、この特定の警告は、実際にはほとんど根拠がありません。

MITチームが構築したモデルは、大規模なデータベースでベンチマークの精度を達成できますが、上で説明したように、グラウンドトゥルースをすでに知っていない限り、AIが正しいかどうかを判断する方法はまったくありません。

基本的に、MITは、これと同様のシステムを使用して、邪悪な医師や医療技術者が大規模な人種差別を実践する可能性について警告しています。

しかし、このAIは人種を特定できません。 特定のデータセットのラベルを予測します。 このモデル(またはそのようなモデル)を使用して識別できる唯一の方法は、幅の広いネットを使用することです。これは、ディスクリミネーターがマシンが何回間違っているかを気にしない場合に限ります。

あなたが確信できるのは、グラウンドトゥルースに対してそれを再確認することなしに個々の結果を信頼することはできないということだけです。 また、AIが処理する画像が多ければ多いほど、間違いを犯すことは間違いありません。

要約すると、MITの「新しい」AIは、マジシャンの幻想にすぎません。 これは良いモデルであり、このようなモデルは、物事を正しく行うことが迅速に行うほど重要ではない場合に非常に役立つことがよくありますが、悪役がこれをレース検出器として使用できると信じる理由はありません。

MIT まったく同じモードを適用できますl レモンの木の林に、そして私が作成したラベルのデータベースを使用して、99%の精度でどのレモンにエイリアンが含まれているかを予測するように訓練することができます。

このAIはラベルのみを予測できます。 人種を特定するものではありません。

The post いいえ、MITの新しいAIは、医用画像から人種を特定することはできません appeared first on Gamingsym Japan.