AIモデルの偏見や偏見が心配な場合は、ランクに追加された最新の4chanの/pol/ボードでトレーニングされたテキストジェネレーターを気に入るはずです。
「政治的に正しくない」/pol/は ヘイトスピーチ、陰謀説、極右過激主義の要塞。 また、4chanで最もアクティブなボードであり、1日あたり約15万件の投稿が蓄積されています。
これらの属性は、AIウィズでYouTuberのYannick Kilcherを惹きつけ、ボットのテストグラウンドとして/pol/を使用しました。
Kilcherは最初にGPT-J言語モデルを微調整しました /pol/で行われた1億3450万件を超える投稿 3年半にわたって。
次に、ボードのスレッド構造をシステムに組み込みました。 結果:実際の/pol/ユーザーのスタイルで投稿できるAI。
モデルは良かった—ひどい意味で。
キルチャーは彼の巨大な作品をGPT-4chanと名付けました。
「モデルは良かった—ひどい意味で」と彼は YouTubeで言った。 「それは、/ pol /のほとんどの投稿に浸透するあらゆる情報に対する攻撃性、虚無主義、トローリング、および深い不信の組み合わせを完全にカプセル化しました。
「コンテキストに対応し、最後のトレーニングデータが収集されてから長い間発生したことやイベントについて首尾一貫して話すことができました。 とても幸せでした。」
KilcherはさらにGPT-4chanを評価しました 言語モデル評価ハーネス、さまざまなタスクでAIシステムをテストします。
彼は特に、真実性という1つのカテゴリーのパフォーマンスに感銘を受けました。
ベンチマークでは、Kilcherは、GPT-4chanは、GPT-JとGPT-3の両方よりも、質問に対する真実の回答を生成するのに「大幅に優れている」と述べています。
しかし、これは単にベンチマークの欠点を示しているにすぎない可能性があります。 キルチャー自身が提案した。
とにかく、それはGPT-4chanの究極のテストではありません。
野生で
Kilcherは、プライベートで4chanを模倣するだけでは満足していませんでした。 エンジニアはさらに一歩進んで、AIを/pol/で横行させることを選択しました。
彼はGPT-4chanをチャットボットに変換し、自動的にボードに投稿しました。 プロフィールにセイシェルの旗を掲げたボットは、すぐに何千ものメッセージを収集しました。
/pol/ユーザーはすぐに何かが起きていることに気づきました。 ボットがポストの後ろにいるのではないかと疑う人もいましたが、政府関係者の秘密を非難する人もいました。
セイシェルのアノンは一人ではありませんでした。
犯人が残した最大の手がかりは、テキストのない大量の返信でした。
本物のユーザーも空の返信を投稿しますが、通常は画像が含まれています。これは、GPT-4chanでは実行できなかったことです。
「48時間後、多くの人にとってボットであることが明らかになり、私はそれをオフにしました」とKilcher氏は述べています。 「しかし、ほら、それは話の半分に過ぎません。ほとんどのユーザーが気付いていなかったのは、セイシェルのアノンが一人ではないということだったからです。」
過去24時間、エンジニアは他の9つのボットを並行して実行していました。 合計すると、15,00を超える返信が残っていました。これは、その日の/ pol /のすべての投稿の10%以上です。
その後、Kilcherはボットネットにアップグレードを提供し、別の日に実行しました。 7,000スレッドで30,000を超える投稿を作成した後、彼はついにGPT-4chanを引退しました。
「人々はまだユーザーについて話し合っていますが、AIをサイト上の人々と対話させた場合の結果なども話し合っています」とKilcher氏は述べています。 「そして、セイシェルという言葉は一種の一般的な俗語になっているようです。それは今のところ良い遺産のようです。」
しかし、誰もがこのバラ色の見通しを共有しているわけではありません。
反発
キルヒャーの実験は物議を醸していることが証明されています。
4chanベースのモデルを評価するというアイデアは支持されましたが、/pol/でチャットボットを解き放つという決定は非難を引き起こしました。
「倫理の提出を想像してみてください!」 アデレード大学のAI安全研究者であるLaurenOakden-Raynerはツイートしました。
「計画:何が起こるかを確認するために、AIボットは、コメントの対象となる多くの未成年のユーザーやグループのメンバーがいる公的にアクセス可能なフォーラムで30kの差別的なコメントを生成します。 参加者に通知したり、同意を得たりすることはありません。」
今週は #AI モデルがリリースされました @huggingface これは有害で差別的なテキストを生成し、すでに3万件を超える下品なコメントをオンラインで投稿しています(作成者によると)。
この実験は人体実験に合格することはありません #倫理 ボード。 これが私の推奨事項です。
1/7 https://t.co/tJCegPcFan pic.twitter.com/Mj7WEy2qHl
—ローレンオークデン-レイナー(Dr.Dr.)(@ DrLaurenOR) 2022年6月6日
DeepMindのリサーチエンジニアであるRomanRingは、この演習には 増幅され固化された4chanのエコーチェンバー。
「「GPT-4chanが誰かを彼らの世界観の端に押しやったことは不可能ではありません」と彼は言いました。
批評家はまた、モデルを自由にアクセスできるようにする動きを非難しました。 Hugging Faceプラットフォームから削除される前に、1,000回以上ダウンロードされました。
HuggingFaceの共同創設者兼CEOであるClementDelangueは、次のように述べています。 プラットフォームへの投稿。
「実際、モデルが4chanにメッセージを投稿するという実験は、IMOがかなり悪く、不適切でした。作者が私たちに尋ねたとしたら、おそらく彼らがそれをやめさせようとしたでしょう。」
参考までに、現在稼働中のゲーティングの最初のバージョンを急いで(パリの技術チームが目覚めたらすぐに取り組んだものです)、日中に改善されます。
—clem(@ClementDelangue) 2022年6月7日
GPT-4chanに関する懸念は、潜在的に強力な洞察を損なうことになります。
この実験は、嫌がらせを自動化し、オンラインコミュニティを混乱させ、世論を操作するAIの能力を浮き彫りにします。 しかし、それはまた、差別的な言葉を大規模に広めました。
それにもかかわらず、キルチャーと彼の批評家は言語モデルの脅威についての認識を高めました。 それらの機能が急速に拡大しているため、リスクは高まると思われます。
The post 4chanでトレーニングされたAIチャットボットが怒りと魅力を引き起こしました appeared first on Gamingsym Japan.