もっと詳しく

GoogleのDeepMindの主任研究員であるナンドデフレイタス博士によると、人類は明らかに解決の危機に瀕している 人工知能 (AGI)私たちの生涯の中で。

あなたが本当に書いた意見に応えて、科学者はTwitterにスレッドを投稿しました。このスレッドは、AGIに向けた現在の進歩に関して、DeepMindの誰からも見た中でおそらく最も大胆な発言から始まりました。

私の意見:今は規模がすべてです! ゲームは終りだ!

ヒューマノイドのご挨拶

今すぐ購読して、お気に入りのAIストーリーの毎週の要約をご覧ください

deFreitasのスレッドからの全文は次のとおりです。

誰かの意見記事。 私の意見:今は規模がすべてです! ゲームは終りだ! それは、これらのモデルをより大きく、より安全に、計算効率を高め、サンプリングをより速くし、よりスマートなメモリ、より多くのモダリティ、革新的なデータ、オンライン/オフライン、…1/Nにすることです。

これらのスケーリングの課題を解決することが、AGIを実現するものです。 これらの問題に焦点を当てた研究、例えばより大きな記憶のためのS4が必要です。 シンボルに関する哲学はそうではありません。 シンボルは世界のツールであり、大きなネットはシンボルの作成と操作に問題はありません2 / n

最後にそして重要なことに、 [OpenAI co-founder Ilya Sutskever] @ilyasutは正しい [cat emoji]

リッチサットンも正しいですが、AIのレッスンは苦いものではなく、むしろ甘いものです。 私はそれをから学びました [Google researcher Geoffrey Hinton] @geoffreyhinton10年前。 ジェフは、驚くべき明快さで予測可能なものを予測しました。

そのスレッドで解凍することはたくさんありますが、「今はスケールがすべてです」というのは、かなり誤解されにくいステートメントです。

私たちはどうやってここへ来ましたか?

DeepMindは最近、研究論文を発表し、 ブログ投稿を公開しました その新しいマルチモーダルAIシステムについて。 「ガト」と呼ばれるこのシステムは、ロボットアームの制御から詩の作成まで、何百もの異なるタスクを実行できます。

同社はこれを「ジェネラリスト」システムと呼んでいますが、一般的なインテリジェンスが可能なとは言えませんでした。これが何を意味するのかについては、こちらをご覧ください。

GatoのようなものとAGIを混同するのは簡単です。 ただし、違いは、一般的な知性が事前のトレーニングなしで新しいことを行うことを学ぶことができるということです。

私の意見では、Gatoをゲーム機と比較しました。

Gatoの複数のタスクを実行する機能は、600の異なる方法でプレイできるゲームというよりも、600の異なるゲームを保存できるビデオゲームコンソールのようなものです。 これは一般的なAIではなく、事前にトレーニングされた狭いモデルがきちんとバンドルされたものです。

それがあなたが探しているものなら、それは悪いことではありません。 しかし、Gatoの付随する研究論文には、これがAGIの正しい方向を一目見ただけであり、踏み石ではないことを示すものは何もありません。

ドクター・ド・フレイタスは同意しません。 それは驚くべきことではありませんが、私が衝撃的だと思ったのは、彼らのスレッドの2番目のツイートでした。

「シンボルについての哲学」についてのちょっとしたことは、私の意見に直接応えて書かれたのかもしれません。 しかし、ゴッサムの犯罪者がバットシグナルの意味を知っているのと同じように、AIの世界を追う人々は、シンボルとAGIを一緒に言及することがゲイリーマーカスを召喚する確実な方法であることを知っています。

ゲイリーを入力してください

世界的に有名な科学者、作家、そして創設者兼CEOのマーカス Robust.AIは、過去数年間、AGIへの新しいアプローチを提唱してきました。 彼は、分野全体がそのコア方法論をAGIの構築に変更する必要があると考えており、その趣旨で「AIを再起動する」アーニーデービスと。

彼は 討論され議論された FacebookのYannLeCunからモントリオール大学のYoshuaBengioまでのすべての人との彼のアイデア。

そして、 サブスタックに関する彼のニュースレターの初版、マーカスは、反論の激しい(しかし敬意を表する)表現に相当するもので、deFreitasの発言を引き受けました。

マーカスは、AIモデルのハイパースケーリングを、AGIの「ScalingUber Alles」への認識されたパスと呼んでおり、これらのシステムを「Altインテリジェンス」の試みと呼んでいます。 人口的 人間の知性を模倣しようとする知性。

DeepMindの調査について、彼は次のように書いています。

Alt Intelligenceを追求すること自体、何も悪いことはありません。

Alt Intelligenceは、インテリジェントシステムを構築する方法についての直感(より正確には、直感のファミリー)を表します。人間の知能の柔軟性と機知に合ったシステムを構築する方法をまだ誰も知らないため、これは確かに人々にとって公正なゲームです。そこにたどり着く方法について複数の異なる仮説を追求する。

Nando de Freitasは、その仮説を擁護することについて、可能な限り顔を合わせています。これをScaling-Uber-Allesと呼びます。 もちろん、その名前、Scaling-Uber-Allesは完全に公平ではありません。

De Freitasは、モデルを大きくして成功を期待することはできないことを十分に理解しています(以下で説明します)。 人々は最近多くのスケーリングを行っており、いくつかの大きな成功を収めていますが、いくつかの障害にぶつかることもあります。

マーカスはさらに、AI業界の巨大なサイズのモデルに氾濫する不可解性の問題について説明します。

本質的に、マーカスは、OpenAIのDALL-E(説明から特注の画像を生成するモデル)やDeepMindのGatoなどのシステムがどれほど素晴らしくて驚くべきものであっても、それでも信じられないほど壊れやすいと主張しているようです。

彼は書く:

発表されたばかりのDeepMindの最新スターであるGatoは、AIでこれまでにないクロスモーダルな偉業を成し遂げることができますが、それでも、細かい部分を見ると、信頼性の低い同じ土地にとどまり、輝かしい瞬間と絶対的な理解が失われています。

もちろん、ディープラーニングの擁護者が人間が誤りを犯すという合理的な主張をすることも珍しくありません。

しかし、率直な人なら誰でも、これらの種類のエラーが、今のところ、何かが深く間違っていることを明らかにしていることを認識するでしょう。 私の子供たちのどちらかが日常的にこのような間違いを犯した場合、私は誇張せずに、私がしている他のすべてをやめ、すぐに神経内科医に連れて行きます。

それは確かに笑う価値がありますが、そこには深刻な基調があります。 DeepMindの研究者が「ゲームオーバー」と宣言すると、意味をなさない当面または近い将来のビジョンが思い浮かびます。

AGI? 本当に?

ない Gato、DALL-E、またはGPT-3は、自由な公共消費に十分な堅牢性を備えています。 それらのそれぞれは、それらがバイアスに向かって傾くのを防ぐためにハードフィルターを必要とし、さらに悪いことに、それらのどれも一貫して確実な結果を出力することができません。 また、AGIをコーディングする秘訣を理解していないだけでなく、人間の問題はしばしば困難であり、常に単一のトレーニング可能な解決策があるとは限らないためです。

画期的な論理アルゴリズムと組み合わせた場合でも、スケーリングがこれらの問題をどのように修正できるかは不明です。

それは、巨大なサイズのモデルが役に立たない、または価値のある努力ではないという意味ではありません。

DeepMind、OpenAI、および同様のラボが行っていることは非常に重要です。 それは最先端の科学です。

しかし、ゲームが終わったことを宣言するには? AGIが、モデルにどのように役立つかが際立った貢献をしているシステムから生じることをほのめかすには? ガトはすごいですが、それはストレッチのように感じます。

de Freitasの活発な反論には、私の意見を変えるものは何もありません。

ガトのクリエーターは明らかに素晴らしいです。 ガトは気が遠くなるほどで​​はないので、私はAGIについて悲観的ではありません。 実際、まったく逆です。

Gato、DALL-E、およびGPT-3のおかげで、AGIが数十年(おそらく数世紀)離れているのではないかと心配しています。 それらはそれぞれ、コンピューターを操作する私たちの能力におけるブレークスルーを示しています。

マシンがコッパーフィールド風のミスディレクションとプレスティディジテーションの偉業を成し遂げるのを見るのは奇跡にほかなりません。特に、そのマシンがトースターよりもインテリジェントではない(そして明らかに最も愚かなマウスよりも愚かである)ことを理解している場合はなおさらです。

私には、それ以上のものが必要になることは明らかです… もっと…「これはあなたのカードですか?」に相当するものから現代のAIを取り入れること AGIのガンダルフィアの魔術に私たちは約束されました。

マーカスが彼のニュースレターで結論付けているように:

AGIを構築する場合、人間から何かを学び、物理世界をどのように推論して理解し、言語や複雑な概念をどのように表現して習得するかを学ぶ必要があります。

そうでなければ信じるのは全くの傲慢です。

The post DeepMindの研究者は、新しいAIがAGIにつながる可能性があると主張し、「ゲームは終わった」と述べています appeared first on Gamingsym Japan.