もっと詳しく

ピノーは、いくつかの最大規模の会議での研究の公開方法の変更を支援し、コードや実験の実行方法の詳細など、研究者が結果とともに提出しなければならないもののチェックリストを紹介しました。 彼女は2017年にMeta(当時はFacebook)に参加して以来、AIラボでその文化を擁護してきました。

「オープンサイエンスへのそのコミットメントが、私がここにいる理由です」と彼女は言います。 「私は他の条件でここにいることはありません。」

最終的に、PineauはAIの判断方法を変えたいと考えています。 「今日、私たちが最先端と呼んでいるのは、パフォーマンスだけではありません」と彼女は言います。 「責任の面でも最先端でなければなりません。」

それでも、大きな言語モデルを提供することは、メタにとって大胆な動きです。 「このモデルが私たちが誇りに思っていない言語を生み出すリスクがないことをあなたに言うことはできません」とピノーは言います。 “そうなる。”

リスクを比較検討する

Googleが2020年に強制したAI倫理研究者の1人で現在HuggingFaceにいるMargaretMitchellは、OPTのリリースを前向きな動きと見ています。 しかし、彼女は透明性には限界があると考えています。 言語モデルは十分な厳密さでテストされていますか? 予測可能な利益は、誤った情報の生成や人種差別的で誤解を招く言葉など、予測可能な害を上回っていますか?

「大規模な言語モデルを、幅広い視聴者がそれを使用する可能性が高い、またはその出力の影響を受ける可能性が高い世界にリリースすることには、責任が伴います」と彼女は言います。 ミッチェルは、このモデルはそれ自体だけでなく、研究者がその上に構築するダウンストリームアプリケーションを通じて有害なコンテンツを生成できると述べています。

メタAIはOPTを監査して、いくつかの有害な動作を削除しましたが、重要なのは、研究者が学ぶことができるモデルをリリースすることです。

「評判に関してはゼロ以外のリスクがあり、害に関してはゼロ以外のリスクがあることを知って、私たちが夜眠ることができる方法でそれを行う方法について多くの会話がありました」と彼女は言います。 彼女は、モデルが危険すぎるためにリリースすべきではないという考えを却下しました。これが、OpenAIがGPT-3の前身であるGPT-2をリリースしないことを理由にした理由です。 「私はこれらのモデルの弱点を理解していますが、それは研究の考え方ではありません」と彼女は言います。

The post Metaは大規模な新しい言語のAIを構築し、無料で提供しています appeared first on Gamingsym Japan.