もっと詳しく

この記事は、最新の記事の一部です。 AI研究

敵対者があなたに機械学習モデルを提供し、その中に悪意のあるバックドアを密かに植え付けた場合、それを発見できる可能性はどのくらいありますか? カリフォルニア大学バークレー校、MIT、および高等研究所の研究者による新しい論文によると、ごくわずかです。

機械学習のセキュリティ MLモデルがますます多くのアプリケーションに組み込まれるにつれて、ますます重要になっています。 新しい調査では、機械学習モデルのトレーニングと開発をサードパーティやサービスプロバイダーに委任することによるセキュリティの脅威に焦点を当てています。

ヒューマノイドの挨拶

今すぐ購読して、お気に入りのAIストーリーの毎週の要約をご覧ください

AIの才能とリソースが不足しているため、多くの組織は、事前にトレーニングされたモデルまたはオンラインMLサービスを使用して、機械学習の作業をアウトソーシングしています。 これらのモデルとサービスは、それらを使用するアプリケーションに対する攻撃の原因となる可能性があります。

新しい 研究論文 悪意のある動作をトリガーするために使用できる機械学習モデルに検出できないバックドアを仕掛ける2つの手法を紹介します。

このホワイトペーパーでは、機械学習パイプラインの信頼を確立するための課題に光を当てています。

機械学習モデルは、顔の認識、画像の分類などの特定のタスクを実行するようにトレーニングされています。 スパムの検出、または製品レビューやソーシャルメディアの投稿の感情を判断します。

機械学習バックドアは、訓練されたMLモデルに秘密の動作を埋め込む手法です。 モデルは、敵から提供された特別に細工された入力によってバックドアがトリガーされるまで、通常どおり機能します。 たとえば、攻撃者は、ユーザーの認証に使用される顔認識システムをバイパスするバックドアを作成できます。

シンプルでよく知られているMLバックドア方式は データ中毒。 データポイズニングでは、攻撃者はターゲットモデルのトレーニングデータを変更して、1つ以上の出力クラスにトリガーアーティファクトを含めます。 その後、モデルはバックドアパターンに敏感になり、意図した動作(たとえば、ターゲット出力クラス)を検出するたびにトリガーします。

https://i0.wp.com/bdtechtalks.com/wp-content/uploads/2020/04/Adversarial-triggered-training-examples-1024x505.png?resize=696%2C343&ssl=1