MITのスピンオフ企業であり基礎モデル企業でもあるLiquid AIは、2024年10月23日に開催される限定発売イベントで最初の製品を発表します。これらの革新的な製品はLiquid Foundation Models (LFM) を活用し、オンデバイスコンピューティングやプライベートなオンプレミスのエンタープライズユースケース向けに、最先端のパフォーマンスとより効率的でスケーラブルなソリューションを提供します。
リキッド AIMITのスピンオフ企業であり基礎モデル企業でもある同社は、2024年10月23日(水)午前10時から午後1時(東部標準時)にMITのクレスゲオーディトリアムで開催される限定イベントで、最初の製品を発表します。 今すぐ登録 直接参加するか、ライブストリームで視聴する。
このイベントでは、Liquid AIの先駆的なLiquid Foundation Models(LFM)を使用して構築された金融サービス、バイオテクノロジー、コンシューマーエレクトロニクス向けのAI製品を紹介します。LFM(Liquid Foundation Models)は、トレーニング中および推論中のメモリ使用量を以前よりも大幅に削減しながら、あらゆる規模で最先端のパフォーマンスを実現する新世代のジェネレーティブAIモデルです。これにより、特にオンデバイスや民間企業のユースケースが可能になります。
この待望のイベントには、1,000人を超えるAIリーダー、科学者、経営幹部が参加します。Liquid AI の LFM は、AI システムの品質、制御、効率性、説明可能性の向上を求める業界に強力なソリューションを提供し、AI アプリケーションの環境を強化することを約束します。
Liquid AIのCEO兼共同創設者であるラミン・ハサニは、今回の製品発売の重要性を強調しました。 「当社のLiquid Foundationモデルは、あらゆる規模のあらゆるデータモダリティで、汎用AIシステムのスケーリング法則を強化します。当社の最初の言語LFMシリーズは、デバイス上のメモリフットプリントを小さく抑えながら、あらゆる規模で最先端のパフォーマンスを実現します。これにより、リアルタイムのローカルAIアプリケーションの新たな可能性が開かれ、企業のお客様は、クラウドへの依存度や大量のメモリ要件の制限を受けることなく、AIを活用できるようになります。」
Liquid AIのLFMは、計算効率を高めながら、多段階推論やロングコンテキストリコールなどの複雑なタスクを処理するように設計されています。第1シリーズの言語LFMは、1B、3B、40Bの構成で提供されており、さまざまな分野にわたって強力なパフォーマンスと幅広い知識容量を提供し、質問への回答、翻訳、作文、要約などのスキルの中でも課題の解決を可能にします。
リキッドファンデーションモデルの主な特徴は次のとおりです。
Liquid AIのモデルは用途が広く、さまざまな業界に適用でき、自然言語処理、オーディオ分析、ビデオ認識、およびあらゆるシーケンシャルマルチモーダルデータ用の高性能ソリューションを提供します。
Liquid AIは人工知能イノベーションの最前線に立ち、パフォーマンスと効率の新しい基準を設定する基盤モデルを開発しています。あらゆる規模で高性能で効率的な汎用 AI システムを構築するという使命のもと、Liquid AI は AI テクノロジーの可能性の限界に挑戦し続けています。