すでに数千社の企業が、Databricksのデータインテリジェンスプラットフォーム上でLlamaモデルを活用し、AIアプリケーション、エージェント、ワークフローを実現しています。
そして本日、Metaとのパートナーシップにより、最新のモデルシリーズ「Llama 4」をお届けできることを嬉しく思います。すでに多くのDatabricksワークスペースで利用可能であり、AWS、Azure、GCP全体に展開されています。
Llama 4は、オープンかつマルチモーダルなAIの分野において大きな飛躍を遂げたモデルです。業界をリードする性能に加え、高品質な出力、より広いコンテキストウィンドウ、そしてMoE(Mixture of Experts)アーキテクチャによる優れたコスト効率を実現しています。
これらすべては、統一されたREST API、SDK、SQLインターフェースを通じて利用可能で、既存のすべてのモデルと組み合わせて、安全かつガバナンスが効いた環境で簡単に活用できます。
Llama 4モデルは、オープンな基盤モデルの新たな基準を打ち立てました。従来のLlamaモデルと比較して、圧倒的に高い出力品質と高速な推論性能を実現しています。
今回のリリースでは、Metaが提供する最大・最高品質のモデル「Llama 4 Maverick」を発表します。Maverickは、高度なAI製品を構築する開発者向けに特化して設計されており、多言語対応、正確な画像理解、安全なアシスタント動作を兼ね備えています。Maverickは以下のような活用を可能にします:
複数のツールやワークフローを横断し、安全に推論・応答するエンタープライズ向けAIエージェント
PDFやスキャン画像、フォームなどから構造化データを抽出する文書理解システム
文化的な背景をふまえた自然な応対と高品質な回答を行う多言語サポートエージェント
ストーリー、マーケティングコピー、パーソナライズされたコンテンツの生成を支援するクリエイティブアシスタント
しかも、これらすべてを従来より大幅に高いパフォーマンスで構築できます。たとえば、Llama 3.3(70Bモデル)と比べてMaverickは以下の点で優れています:
標準的なベンチマークにおける出力品質の向上
推論速度が40%以上高速化(MoE〈Mixture of Experts〉アーキテクチャにより、トークンごとにモデルの一部のみを動作させることで、より賢く効率的な計算を実現)
最大100万トークンの長大なコンテキストウィンドウに対応予定。より長い会話、大規模文書、深い文脈理解が可能に
対応言語が8言語から12言語へ拡大
さらに近日中にDatabricksで提供予定のLlama 4 Scoutは、軽量ながらトップクラスのマルチモーダルモデルです。テキスト、画像、動画を初めから統合的に処理でき、最大1,000万トークンのコンテキストに対応。長文の推論、要約、ビジュアル理解など、高度なユースケースに最適です。
「Databricksを活用することで、LLMを使って不動産記録から取引データやエンティティ情報を抽出し、1日あたり100万件以上のファイル処理を自動化できました。Meta Llamaをファインチューニングしたことで、目標としていた精度を上回る成果を達成でき、さらにMosaic AI Model Servingを使うことで、大規模な高額GPUインフラを管理することなく、大規模な運用にスケールさせることができました。」— Prabhu Narsina, VP Data and AI, First American
Unity Catalogによってガバナンスされたツールを使って、Llama 4を自社のデータと連携させ、コンテキストを理解するエージェントを構築できます。非構造化コンテンツの取得、外部APIの呼び出し、カスタムロジックの実行などを通じて、コパイロット機能、RAGパイプライン、ワークフローの自動化を実現します。Mosaic AIを活用すれば、こうしたエージェントのプロトタイプ作成から本番運用まで、モニタリングやコラボレーション機能を使って簡単に反復・評価・改善できます。
Llama 4を活用して、ドキュメントの要約、サポートチケットの分類、数千件のレポート分析などをスケールさせて実行できます。インフラの管理は一切不要です。
バッチ推論はDatabricksのワークフローと深く統合されており、既存のパイプライン内でSQLやPythonを使って、Llama 4のようなLLMをガバナンスされたデータ上で直接・手間なく実行できます。
要約、アシスタントの応答スタイル、ブランドトーンなど、ユースケースに合わせてLlama 4を柔軟にカスタマイズできます。
ラベル付きデータセットを使ったファインチューニングはもちろん、Test-Time Adaptive Optimization(TAO)のような技術を活用すれば、アノテーションの手間をかけずに素早く反復・改善が可能です。
早期アクセスをご希望の方は、Databricksの担当チームまでお問い合わせください。
「Databricksを活用することで、Llamaモデルを迅速にファインチューニングし、安全にデプロイすることができました。その結果、カウンセラー研修用の会話シミュレーターや、応答品質を維持するためのフェーズ分類器など、複数の生成AIユースケースを構築できました。 これらの取り組みにより、リアルタイムでの危機対応が改善され、より迅速なスケールと、支援を必要とする方々への重要なメンタルヘルスサポートの提供が可能になりました。」— Matthew Vanderzee, CTO, Crisis Text Line
Mosaic AI Gatewayを使えば、ログ記録、レート制限、個人情報(PII)の検出、ポリシー制御などの機能が標準で組み込まれており、安全かつコンプライアンスに準拠したモデル利用が可能になります。
これにより、チームはLlama 4を他のモデルと同様に、Databricks上でセキュアかつスケーラブルに活用できます。
Llama 4は段階的に提供を開始しており、まずはAzure、AWS、GCP上で「Maverick」モデルからリリースしています。今後予定されている機能は以下の通りです:
Llama 4 Scout – 最大1,000万トークンに対応し、長文の推論に最適なモデル
バッチ推論のさらなるスケール対応 – 現在もバッチ処理は可能ですが、今後さらに高スループット対応が追加予定
マルチモーダル対応 – ネイティブな画像認識機能のサポートを準備中
今後の対応拡大により、超長文対応、高スループット処理、テキスト×画像の統合理解など、ワークロードに最適なLlamaモデルを柔軟に選択できるようになります。
Llama 4は、今後数日以内に順次、あなたのDatabricksワークスペースで利用可能になります。
Mosaic AI PlaygroundでLlama 4を体験
Databricksにおけるファウンデーションモデルの詳細はこちら
「AIエージェント コンパクトガイド」もぜひチェックを!