膨大な量のテキストから流暢な言語を生成する機械学習アルゴリズムは、科学のやり方を変える可能性がありますが、必ずしも良いとは限りません、とミシガン大学アナーバー校の新興技術のガバナンスのスペシャリストであるShobitaParthasarathyは言います。
で 4月27日に公開されたレポート、Parthasarathyと他の研究者は、ラージランゲージモデル(LLM)と呼ばれる新しい人工知能(AI)テクノロジーの社会的影響を予測しようとしています。 これらは、驚くほど説得力のある散文を生み出し、言語間で翻訳し、質問に答え、さらにはコードを生成することができます。 Google、Facebook、Microsoftなど、それらを構築している企業は、チャットボットや検索エンジンでそれらを使用し、ドキュメントを要約することを目指しています。 (カリフォルニア州サンフランシスコにある少なくとも1つの会社、Oughtは、研究でLLMを試しています。科学文献を使用して質問に答えるために、「Elicit」と呼ばれるツールを構築しています。)
LLMはすでに物議を醸しています。 彼らは時々、彼らが訓練している何百万または何十億もの文書のエラーや問題のあるステレオタイプをオウムにします。 そして研究者たちは、人間の文章と見分けがつかない、明らかに権威のあるコンピューター生成言語の流れが不信と混乱を引き起こす可能性があることを心配しています。
Parthasarathyは、LLMは複雑な研究を理解するための取り組みを強化することができますが、科学に対する一般の懐疑論を深めることもできると述べています。 彼女は話しました 自然 レポートについて。
LLMは科学をどのように助けたり妨げたりするのでしょうか?
私は当初、LLMが民主化と権限付与の影響を与える可能性があると考えていました。 科学に関して言えば、たとえば病気の症状を調べたり、技術的なトピックの要約を生成したりすることで、人々が情報から洞察をすばやく引き出すことができるようになります。
しかし、アルゴリズムの要約は、ユーザーがこれを理解することなく、エラーを引き起こしたり、古い情報を含めたり、ニュアンスや不確実性を取り除いたりする可能性があります。 誰かがLLMを使用して複雑な研究を理解できるようにすることができても、プロ意識と権威を脅かす可能性のある、乱雑な現実と対立する、単純化された理想的な科学の見方を得るリスクがあります。 また、科学に対する国民の信頼の問題を悪化させる可能性もあります。 そして、これらのツールとの人々の相互作用は非常に個別化され、各ユーザーは独自に生成された情報を取得します。
LLMが時代遅れまたは信頼性の低い研究を利用する可能性がある問題は、大きな問題ではありませんか?
はい。 しかし、それは人々がLLMを使用しないという意味ではありません。 彼らは魅力的であり、彼らの流暢な出力と刺激的な新技術としての描写に関連する客観性のベニアを持っています。 それらに制限があるという事実(部分的または履歴データセットに基づいて構築されている可能性がある)は、平均的なユーザーには認識されない可能性があります。
科学者が自分たちが賢いと主張し、LLMは有用であるが不完全なツールであることに気付くのは簡単です。たとえば、文献レビューを開始するためです。 それでも、これらの種類のツールは視野を狭める可能性があり、LLMに問題が発生したときにそれを認識するのは難しいかもしれません。
LLMは、たとえば、デジタルヒューマニティーズで役立つ可能性があります。たとえば、特定のトピックについて歴史的なテキストが何を言っているかを要約するためです。 ただし、これらのモデルのプロセスは不透明であり、出力と一緒にソースを提供しないため、研究者はモデルをどのように使用するかを慎重に検討する必要があります。 私は社会学でいくつかの提案された使用法を見てきました、そして何人かの学者がどれほど信憑性があるかに驚いています。
科学のためにこれらのモデルを作成するのは誰ですか?
私の推測では、大規模な科学出版社は、論文の専有全文をクロールできる、科学固有のLLM(一般モデルから採用)を開発するのに最適な立場にあると思います。 彼らはまた、査読者として誰に相談すべきかを見つけるために科学的テキストを照会するなど、査読の側面を自動化することを検討することもできます。 LLMは、原稿や特許で特に革新的な結果を見つけようとするためにも、おそらくこれらの結果を評価するためにも使用される可能性があります。
出版社は、英語を話さない国の研究者が散文を改善するのを助けるためにLLMソフトウェアを開発することもできます。
もちろん、出版社はライセンス契約を結ぶ可能性があり、コーパスに含めるために大企業がテキストを利用できるようにします。 しかし、彼らはコントロールを維持しようとする可能性が高いと思います。 もしそうなら、科学者は知識の独占にますます不満を抱き、これに異議を唱えるだろうと私は思う。 オープンアクセス論文とペイウォール紙の要約に基づくLLMにはいくつかの可能性があります。 しかし、この方法で十分な量の最新の科学テキストを入手するのは難しいかもしれません。
LLMを使用して、現実的であるが偽の紙を作成できますか?
はい、簡単で自分のキャリアに役立つと考えている場合は、LLMを使用して偽物または偽物に近い紙を生成する人もいます。 それでも、それは、科学コミュニティの一員になりたいと思っているほとんどの科学者が、LLMを使用するための規制や規範に同意できないという意味ではありません。
LLMの使用はどのように規制されるべきですか?
体系的な規制や標準を維持するメカニズムを介したAIツールがほとんどないことは私にとって魅力的です。 これはLLMにも当てはまります。LLMのメソッドは不透明であり、開発者によって異なります。 私たちの報告書では、政府機関が一般的な規制に介入することを推奨しています。
特に科学におけるLLMの使用の可能性については、透明性が非常に重要です。 LLMを開発している人は、使用されているテキストと関連するアルゴリズムのロジックを説明する必要があります。また、出力の生成にコンピューターソフトウェアが使用されているかどうかを明確にする必要があります。 米国国立科学財団は、さまざまな分野にわたって、公開されているすべての科学論文でトレーニングされたLLMの開発もサポートする必要があると考えています。
また、科学者は、査読者を見つけるためにLLMに依存しているジャーナルや資金提供者、または(おそらく)このプロセスを原稿や助成金の評価などの査読の他の側面に拡張することに注意する必要があります。 LLMは過去のデータに傾倒しているため、推奨事項が保守的すぎる可能性があります。
このインタビューは、長さと明確さのために編集されています。
The post 言語生成AIが科学をどのように変えることができるか appeared first on Gamingsym Japan.