ウェブサイト検索

Meta の新しい ChatGPT の競合相手は Llama 2


Meta (旧 Facebook) は、新しい AI モデルを無料で利用可能なオープンソースとしてリリースしました。

ChatGPT は、最も人気のある (最も人気ではないにしても) 生成型 AI チャットボットの 1 つであり、その基礎となる GPT 言語モデルは他の多くのサービスを強化しています。以前は Facebook として知られていた会社である Meta は、現在 Microsoft と提携して、代替となる Llama 2 を作成しています。

Llama は当初、大規模な言語モデルとして 2023 年 2 月にリリースされましたが、ChatGPT や Bing Chat を強化する GPT モデルとは異なり、汎用チャットボットとして意図されたものではありませんでした。代わりに、非営利ライセンスに基づいて提供され、大学や NGO などのグループ向けにデータセットの分析などの研究目的を目的としていました。モデルの少なくとも 1 つのバージョンは、強力なサーバーを接続しなくても実行できます。トレーニング後、LLaMA-13B モデルは、単一のデータセンター グレードの NVIDIA Tesla V100 GPU で実行できます。しかし、ラマモデルは発表から1週間後にオンラインに流出した。最近では、Llama と OpenAI の ChatGPT が著作権で保護された書籍を許可なくトレーニング データとして使用しているとして、サラ シルバーマンと他の 2 人の著者による訴訟の対象となっています。

Meta は Llama 2 を導入しました。これは研究および商用利用に無料で利用でき、またオープンソースです。 OpenAI の GPT-3.5 および GPT-4 モデルは無料ではなく、オープンソースでもありません。オリジナルのバージョンと同様に、研究データベースやソフトウェア ドキュメントなどのカスタム データセットでトレーニングされるように設計されています。 Meta は Microsoft とも提携して、Llama 2 をサーバーに簡単に導入できるようにしています。

Meta は発表の中で、「私たちは Llama 2 の次期バージョンをオープンソースにする準備が整い、研究や商業利用のために無料で利用できるようにしています。私たちはモデルの重みを含め、事前トレーニング済みモデルと会話型モデルの開始コードを含めています」と述べた。微調整バージョンも。」ドキュメントでは、「ラマ 2 の事前トレーニング済みモデルは 2 兆個のトークンでトレーニングされ、コンテキストの長さはラマ 1 の 2 倍です。その微調整されたモデルは、100 万以上の人による注釈でトレーニングされています。ラマ 2 は、公開されているオンライン データで事前トレーニングされています」と説明されています。微調整されたモデルである Llama-2-chat は、公開されている指示データセットと 100 万を超える人間による注釈を活用しています。

現在、Llama 2 チャットボットはありませんが、近い将来、Llama を使用する AI アプリケーションまたはツールが使用されるようになるかもしれません。

出典: メタ (1, 2)