本日、クラス最高の新しい言語モデルであるLFM-7Bをリリースしました。LFM-7B は、アラビア語や日本語などの言語を含め、優れたチャット機能向けに設計されています。Liquid Foundation Model (LFM) アーキテクチャを採用しており、メモリフットプリントが低く、推論速度が速いなどの独自の機能を備えています。これにより、特定のユースケース (スマートチャットボットや文書生成など) に合わせて微調整したり、オンプレミスまたはデバイスに直接デプロイしたりすることがコスト効率が良くなります。
Today, we release LFM-7B, a new best-in-class language model. LFM-7B is designed for exceptional chat capabilities, including languages like Arabic and Japanese. Powered by the Liquid Foundation Model (LFM) architecture, it exhibits unique features like low memory footprint and fast inference speed. This makes it cost-efficient to fine-tune for specific use cases (such as smart chatbots and document generation) and to deploy on-premises or directly on devices.
市場に出回っているサイズクラスで最高のパフォーマンスを発揮するモデルであるLFM-7Bを発表します。
LFM-7Bは、トランスフォーマーを使用しないLiquid Foundationモデルアーキテクチャを採用しており、スループットが高く、メモリフットプリントが最小です。
LFM-7Bは、ローカルでのデプロイメント、レイテンシーに制約のあるタスク、コストに制約のあるタスクに最適な言語モデルです。
LFM-7Bは、英語、アラビア語、日本語に対応した世界最高の多言語言語モデルです。
LFM-7Bを今すぐお試しください 液体プレイグラウンド、そしてまもなくOpenrouter、Perplexity Playground、Lambda API、AWSマーケットプレイスで公開されます。
LFM-7Bには、企業向けの推論スタックとカスタマイズスタックが付属しています。 連絡を取る 私たちと一緒にもっと学びましょう。
LFM-7Bは、応答品質、精度、および有用性を重視して特に最適化されています。チャット機能を評価するため、LFM-7Bが生成した回答を7B-8Bパラメータカテゴリの他のモデルと比較するために、多様なフロンティアLLM審査員を活用しています。これにより、個々のバイアスを減らし、より信頼性の高い比較を行うことができます。
以下の指示やArena-Hard-Autoからの質問など、厳選されたビジネスユースケースを含む英語のプロンプトへの回答を比較しました(リーら。)、および現実世界の会話 (鄭ら。)。当社の包括的な選好調整プロセスのおかげで、LFM-7Bは同じサイズカテゴリーのすべてのLLMよりも優れています。
以下の直接評価は、LLM審査員がLFM-7Bによって生成された回答を他のモデルの回答よりも優先した回数の割合を示しています。このテストには、まったく同じ英語のプロンプトが含まれています。
LFM-7Bは、次のような幅広い知識と推論というコア機能を維持しています その他のモデル。会話スキルの向上に加えて、コーディング能力や指示に従う能力も向上しています。
以下のスコアは、Eleuther AIの言語モデル評価ハーネスv0.4.5を使用して標準の自動ベンチマークで取得されました。比較するのは、トレーニング後のモデルのみです。
LFM-7Bは、英語、スペイン語、フランス語、ドイツ語、中国語、アラビア語、日本語、韓国語をサポートしています。モデルを評価したところ、MMMLU のような自動ベンチマークには混乱要因 (世界の知識など) が加わり、ターゲット言語でのライティングスキルは必要ないことがわかりました。一方、アリーナ評価では、特に文法的に正確で関連性の高い回答を出すことに重点が置かれています。そのため、モデルの質を公正かつ適切な方法で評価するために、アラビア語と日本語で言語別のアリーナを構築しました。
アラビア語の場では、現実世界の会話の厳選されたサブセットを使用します(鄭ら。)アラビア語で。LFM-7Bはアラビア語に堪能で、同じサイズカテゴリの他のモデルよりもかなり好まれています。
日本のアリーナでは、Elyza-Tasks-100を組み合わせて使用します(佐々木他) およびキュレーションによる実際のプロンプト パートナー伊藤忠CTC。これにより、ビジネスユースケースを代表する多様なプロンプトが生成されます。LFM-7Bは日本の分野でも大きな差をつけています。
以前のモデルと同様に、LFM-7Bは他のアーキテクチャと比較してメモリフットプリントが最小限に抑えられています。
LFM-7Bのメモリ効率により、長期的なコンテキストの理解、エネルギー効率の高い推論、ローカルデバイスへの高スループットの展開など、いくつかの重要な機能が可能になります。LFM-7B は、オンプレミスの微調整スタックを使用して、あらゆる知識やタスクに合わせて効率的にカスタマイズすることもできます。その結果、LFM-7Bは、プライベートエンタープライズチャット、安全なコード生成、迅速な指示追跡、長時間の文書分析、エネルギー効率の高いオンデバイスAIアシスタント、および多段階のエージェントワークフローなどのアプリケーションにおいて、エンドユーザーにとっての価値を大幅に高めます。
LFM-7Bは、長い入力コンテキストを効率的に処理する機能に加えて、長いコンテキストからの検索と推論を効果的に行うことができます。当社では、Liquid 社内のロングコンテキスト評価に特化して、開発の全段階でこれを検証しました。さらに、公開されているロングコンテキスト評価である RULER () という 2 つの公開ロングコンテキスト評価によって LFM-7B のロングコンテクスト機能を評価しています。シェイ他) とロングベンチ v2 (バイ他)。RULER では、対応するスコアが 85.6 を超える長さは「有効」とみなされます。このことから、LFM-7B の実効コンテキスト長は 32k であることがわかります。
LFMとチャットするには Playground. Liquid.AI
近日公開:
企業に、より少ないリソースでより多くのことを行うために、LFMの効率的で高スループットのパフォーマンスを必要とするユースケースがある場合は、 連絡を取る 当社モデルのライセンスや購入についてご相談ください。
私たちの使命があなたの個人的な目標や野心と一致するなら、私たちはあなたに次のことを勧めます 私たちのチームに参加してください そしてこのビジョンを前進させてください。私たちはこの取り組みのごく初期段階にあり、基盤モデルの開発と展開のさまざまな面で積極的に革新を行っています。
熱心なユーザーには、経験や批判を共有してもらい、レッドチームの取り組みに参加して、モデルの機能を継続的に改善していきます。 ここにフィードバックを送ってください。
はい。できます 私たちのチームと一緒に、クラス最高のモデルのライブラリへのライセンスアクセスを購入してください。
LFM には、LFM 推論スタックと LFM カスタマイズスタックの 2 つのソフトウェアスタックが付属しています。エッジやオンプレミスのユースケースを実現するために、クライアントと共同で取り組んでいるさまざまなモデルがあります。私たちのチームに連絡して、私たちのビジネスモデルについて詳しく学んでください。
はい。企業向けに購入可能な LFM カスタマイズスタックを構築しました。LFM は、エンタープライズアプリケーションのローカル、プライベート、セーフティクリティカル、レイテンシーに制約のあるユースケースに合わせて、迅速に微調整、特化、最適化できます。
LFM-7Bは、英語、アラビア語、日本語に対応した世界最高の多言語言語モデルです。スペイン語、フランス語、ドイツ語、中国語、韓国語もサポートしています。
LFMのさまざまな側面に関する私たちの研究についてもっと読む ここに 、XとLinkedInでフォローしてください。