もっと詳しく

この記事は、 人工知能のビジネス

先週、HuggingFaceはMicrosoftと共同で新製品を発表しました AzureでFaceEndpointsをハグする、これにより、ユーザーはMicrosoftのクラウドプラットフォームで数千の機械学習モデルをセットアップして実行できます。

チャットボットアプリケーションとしてスタートしたHuggingFaceは、 トランスモデル、OpenAIのような大規模な言語モデルを含む、人工知能の多くの最近の進歩の背後にある一種の深層学習アーキテクチャ GPT-3 およびDeepMindのタンパク質フォールディングモデル AlphaFold

ヒューマノイドのご挨拶

今すぐ購読して、お気に入りのAIストーリーの毎週の要約をご覧ください

Google、Facebook、Microsoftなどの大規模なテクノロジー企業は、数年前からトランスフォーマーモデルを使用しています。 しかし、ここ数年、社内に機械学習の才能を持たない多くの企業を含む、中小企業の間で変圧器への関心が高まっています。

これは、機械学習のGitHubになることをビジョンとするHuggingFaceのような企業にとって絶好の機会です。 会社は最近確保しました 20億ドルの評価でシリーズCの1億ドル。 同社は、既製の変圧器モデルを含む、幅広い機械学習サービスを提供したいと考えています。

ただし、変圧器を中心にビジネスを構築することは、大規模なテクノロジー企業に有利な課題を提示し、HuggingFaceのような企業を不利な立場に置きます。 Hugging FaceとMicrosoftのコラボレーションは、市場の統合の始まりであり、将来的には買収の可能性があります。

https://i0.wp.com/bdtechtalks.com/wp-content/uploads/2022/05/transformer-neural-network.jpg?resize=696%2C435&ssl=1

Transformerモデルは、テキストの分類、要約、生成など、多くのタスクを実行できます。 質問応答; 翻訳; 書き込み ソフトウェアのソースコード; 音声からテキストへの変換。 最近では、変圧器は、薬物研究やコンピュータービジョンなどの他の分野にも移行しています。

トランスモデルの主な利点の1つは、拡張性です。 近年、変圧器の性能は、変圧器が大きくなり、より大きなデータセットでトレーニングされるにつれて向上することが示されています。 ただし、大型変圧器のトレーニングと実行は非常に困難でコストがかかります。 A Facebookによる最近の論文 は、非常に大規模な言語モデルをトレーニングする際の舞台裏の課題のいくつかを示しています。 すべてのトランスフォーマーがOpenAIのGPT-3やFacebookのOPT-175Bほど大きいわけではありませんが、それでも正しく理解するのは難しいです。

Hugging Faceは、事前にトレーニングされたMLモデルの大規模なレパートリーを提供し、トランスを展開する負担を軽減します。 開発者は、Hugging Faceライブラリからトランスフォーマーを直接ロードして、独自のサーバーで実行できます。

事前にトレーニングされたモデルは、実験やダウンストリームアプリケーションのトランスの微調整に最適です。 ただし、MLモデルを実際の製品に適用する場合、開発者は、統合、インフラストラクチャ、スケーリング、再トレーニングのコストなど、他の多くのパラメーターを考慮する必要があります。 正しく構成されていない場合、変圧器の実行には費用がかかる可能性があり、製品のビジネスモデルに大きな影響を与える可能性があります。

したがって、変圧器は非常に便利ですが、変圧器の恩恵を受ける立場にある多くの組織には、費用効果の高い方法で変圧器をトレーニングまたは実行するための才能とリソースがありません。

AzureでFaceEndpointsをハグする

https://i0.wp.com/bdtechtalks.com/wp-content/uploads/2022/05/Hugging-Face-Endpoints-on-Azure.jpg?resize=696%2C424&ssl=1

独自のトランスフォーマーを実行する代わりに、クラウドサーバーでホストされているMLモデルを使用することもできます。 近年、いくつかの企業が、MLモデルのトレーニング、構成、デプロイの方法を知らなくても、API呼び出しを通じて機械学習モデルを使用できるようにするサービスを開始しました。

2年前、Hugging FaceはInferenceAPIと呼ばれる独自のMLサービスを開始しました。このサービスは、他のサービスの限られたオプションとは対照的に、事前にトレーニングされた何千ものモデル(主にトランスフォーマー)へのアクセスを提供します。 お客様は、共有リソースに基づいて推論APIをレンタルするか、HuggingFaceをセットアップしてインフラストラクチャを維持することができます。 クラウドホスティングサービスが独自のWebサーバーをセットアップできない組織にブログやWebサイトを提供したように、ホストモデルにより、さまざまな組織がMLにアクセスできるようになります。

では、なぜHuggingFaceがMicrosoftに目を向けたのでしょうか。 ホスト型MLを収益性の高いビジネスに変えることは非常に複雑です(たとえば、 OpenAIのGPT-3API)。 Google、Facebook、Microsoftなどの企業は、トランスフォーマーやその他の機械学習モデルの実行コストを削減する専用のプロセッサーとサーバーの作成に数十億ドルを投資してきました。

Hugging Face Endpointsは、柔軟なスケーリングオプション、グローバルな可用性、セキュリティ標準など、Azureの主な機能を利用します。 インターフェースは使いやすく、数回クリックするだけで、消費するモデルをセットアップし、さまざまな要求量でスケーリングするように構成できます。 Microsoftは、トランスフォーマーを実行するための大規模なインフラストラクチャをすでに作成しています。これにより、HuggingFaceのMLモデルを提供するコストが削減される可能性があります。 (現在ベータ版では、Hugging Face Endpointsは無料で、ユーザーはAzureインフラストラクチャのコストのみを支払います。同社は製品が一般に公開されたときに使用量ベースの価格設定モデルを計画しています。)

さらに重要なことに、MicrosoftはHuggingFaceがターゲットとしている市場の大きなシェアにアクセスできます。

による HuggingFaceブログ、「フォーチュン500企業の95%がAzureをビジネスに信頼しているため、HuggingFaceとMicrosoftがこの問題に一緒に取り組むことは完全に理にかなっています。」

多くの企業は、さまざまなクラウドサービスにサインアップして料金を支払うのはイライラしていると感じています。 HuggingFaceのホスト型ML製品をMicrosoftAzureMLと統合することで、製品の価値を提供する際の障壁が軽減され、会社の市場リーチが拡大します。

画像クレジット:123RF(変更あり)

https://i0.wp.com/bdtechtalks.com/wp-content/uploads/2022/05/microsoft-hugging-face-partnership.jpg?resize=696%2C435&ssl=1

Microsoftのツールスイート(Outlook、Word、Excel、Teamsなど)には数十億のユーザーがいて、トランスフォーマーモデルのユースケースが豊富にあるため、FaceEndpointsを抱き締めることは将来さらに多くの製品統合の始まりになる可能性があります。 会社の幹部はすでにマイクロソフトとのパートナーシップを拡大する計画をほのめかしている。

「これは、Hugging FaceとAzureのコラボレーションの始まりです。私たちは、ソリューション、機械学習プラットフォーム、モデルをアクセス可能にし、Azureでの作業を容易にするために協力して、本日発表します。 AzureでのHuggingFaceEndpointsは、Azure Marketplaceで利用できる最初のソリューションですが、Azureにさらに多くのHuggingFaceソリューションを提供するために懸命に取り組んでいます」とHuggingFaceの製品ディレクターであるJeffBoudier氏は述べています。 TechCrunch。 「私たちは認識しました [the] 機械学習ソリューションを本番環境に導入するための障害 [emphasis mine] シンプルな既製のソリューションへの関心の高まりを解決するために、Microsoftとのコラボレーションを開始しました。」

これは、20億ドルの評価を正当化するビジネスモデルを見つけなければならないHuggingFaceにとって非常に有利な場合があります。

しかし、Hugging FaceとMicrosoftのコラボレーションには、トレードオフがないわけではありません。

今月初め、 フォーブスへのインタビュー、Hugging Faceの共同創設者兼CEOであるClémentDelangueは、GitHubがMicrosoftに行ったように、複数の「意味のある買収提案」を断り、事業を売却しないと述べました。

ただし、彼の会社が現在取っている方向性により、ビジネスモデルはAzureにますます依存するようになり(ここでも、OpenAIは物事の方向性の良い例を提供します)、独立したInferenceAPI製品の市場を縮小する可能性があります。

Microsoftの市場調査がなければ、Hugging Faceの製品は、採用の障壁が大きくなり、価値提案が低くなり、コストが高くなります(上記の「障害」)。 そして、マイクロソフトはいつでも、より良く、より速く、より安くなるライバル製品を発売することができます。

マイクロソフトの買収提案が出た場合、HuggingFaceは難しい選択をしなければなりません。 これは、大規模な言語モデルと応用機械学習の市場がどこに向かっているのかを思い出させるものでもあります。

Delangueは、Hugging Faceブログに公開されたコメントの中で、次のように述べています。「Hugging Faceの使命は、優れた機械学習を民主化することです。 私たちは、すべての開発者と組織が、社会とビジネスにプラスの影響を与える高品質のMLベースのアプリケーションを構築できるように支援するよう努めています。」

実際、Hugging Face Endpointsのような製品は、開発者の機械学習を民主化します。

しかし トランスフォーマーと大規模な言語モデルも本質的に非民主的です そして、それらを構築して実行するためのリソースを持っているいくつかの企業にあまりにも多くの力を与えるでしょう。 より多くの人々がAzureを搭載したトランスフォーマーの上に製品を構築できるようになる一方で、Microsoftは、応用機械学習の未来と思われる市場シェアを確保し、拡大し続けます。 HuggingFaceのような企業はその結果に苦しむ必要があります。

この記事はもともとベンディクソンによって公開されました TechTalks、テクノロジーのトレンド、それが私たちの生活やビジネスのやり方にどのように影響するか、そしてそれらが解決する問題を調査する出版物。 しかし、テクノロジーの邪悪な側面、新しいテクノロジーのより暗い意味、そして私たちが注意する必要があることについても説明します。 元の記事を読むことができます ここ

The post HuggingFaceとMicrosoftのコラボレーションが応用AIにとって何を意味するか appeared first on Gamingsym Japan.