メタが AI のトレンドから離れないことは誰もが知っていたと思います。 Mark Zuckerberg の会社である Meta は、ここ数か月で非常に人気が高まっている人工知能システムの重要なコンポーネントである新しい大規模言語モデルをトレーニングし、研究者が利用できるようにしていることを発表しました。 ただし、このモデルは競合他社よりも小さくなり、同社はこれに利点があると考えています。

大規模言語モデル メタ AI (LLaMA) は ChatGPT AI の競合相手です

Meta は、Google が少し前に行ったのと同じ方法で、AI 企業間の支配権をめぐる戦いに参加しています。 LLaMA は、非商用ライセンスの下で、研究者や政府、市民活動、学界に関係する人々に間もなく提供される予定です。 他の同様のテクノロジーと同様に、膨大な量のテキストを処理してデータを要約し、コンテンツを作成することができます。

Meta は、そのモデルが他の製品よりも「大幅に少ない」計算能力を必要とし、ラテン文字とキリル文字を使用して 20 の言語で同時にトレーニングできると発表しました。 このようなツールを研究者が利用できるようにすることは、メタ社がコンテンツ生成人工知能に基づく将来の製品で使用したいと考えているモデルの広範なテストに向けた一歩となる。

今回はザッカーバーグの別のチャットボットですか?

Meta は ChatGPT や Barda のような生成 AI に関しては経験がほとんどありませんが、人工知能は同社がテクノロジー業界に投資する十分な理由です。 最近の業界の景気低迷により、メタ社を含む多くの企業で大規模な人員削減が行われている。 ザッカーバーグ氏の会社にとって、これは部分的にはメタバースに注力した結果でもあり、これまでのところ利益よりも損失の方が多い。

同社は、LLaMA は、アルゴリズムによって考慮されるパラメーターと変数の数に関して、競合他社よりも優れていると主張しています。 OpenAI の ChatGPT にはなんと 175 億のパラメーターがありますが、Meta はより少ないパラメーターで同じことが達成できると主張しています。 LLaMA は、わずか 7 億のパラメーターから 65 億のパラメーターまで、いくつかのオプションで利用できます。


推奨される:

シェア:

その他のニュース