メインコンテンツへジャンプ
ページ 1
>

Databricks Generative AIパートナーアクセラレータとRAG PoC(Proof of Concepts: 実証実験) の紹介

December 11, 2024 Sidhtara Tep による投稿 in
今日の急速に進化する技術の風景では、生成型人工知能(GenAI)が組織の働き方を革新し、ビジネスに新たな可能性を開いています。最近の エコノミストの報告書 によると、1,100人の技術経営者、データエンジニア、データサイエンティスト、アーキテクトを対象に調査した結果、彼らのGenAIアプリケーションが製品化準備が整っていると考えているのはわずか37%です。主な課題は、サイロ、レイテンシ、セキュリティなどのデータインフラストラクチャの問題であり、そのため、彼らのアプリケーションはビジネス特有の、正確で、よく管理された出力を提供することができません。 これらの課題に対処するため、組織は単一のモデルを展開することを超えて、包括的なエージェントシステムを展開しています。 それが私たちが Databricks Data Intelligence Platform を基盤にしたGenAIパートナーアクセラレーターの発表を楽しみにしている理由です。これは、組織がAIエージェントシステムを展開するのを助けます。これらのアクセラレ

AWS re:InventでDatabricksを活用する5つの方法

November 15, 2024 Emily HartSarah Jack による投稿 in
Databricksは、 AWS re:Invent 2024 でデータとAIソリューション以外にも多くのものを提供します。ハンズオンデモや刺激的なセッション、ネットワーキングイベント、そして限定スニーカーが当たるチャンスまで—今年のブースを必ず訪れるべき5つの理由をご紹介します。 1. ブース1820でデータとAIイノベーションの加速方法を学ぶ Databricksブースで、データとAIイノベーションの最新情報をご覧ください。当社の専門家が、Data Intelligence Platformについてご案内し、Databricksがどのようにデータの活用を加速できるかをご説明します。デモステーションでは、以下の実践的な例をご覧いただけます: 迅速な洞察を得るための データウェアハウスとBI 高品質なAIアプリケーションを展開するための 生成AI データコンプライアンスを効率化する 統合ガバナンス ブース1820にお立ち寄りいただき、AWS上のDatabricksがどのようにAIを世界に届けるお手伝いができるかを

Aimpoint Digital:Databricksにおける安全で効率的なマルチリージョンモデル提供のためのDelta Sharingの活用

機械学習モデルを提供する際、 遅延 は、予測をリクエストしてからレスポンスを受け取るまでの時間であり、エンドユーザーにとって最も重要な指標の一つです。遅延は、リクエストがエンドポイントに到達する時間、モデルによって処理される時間、そしてユーザーに戻る時間を含みます。異なる地域に基づくユーザーにモデルを提供すると、リクエストとレスポンスの両方の時間が大幅に増加する可能性があります。顧客が基づいている地域とは異なる地域でモデルをホスティングし、提供している企業を想像してみてください。この地理的な分散は、データがクラウドストレージから移動する際の高いエグレスコストを発生させ、2つの仮想ネットワーク間のピアリング接続と比較してセキュリティが低下します。 地域間の遅延の影響を示すために、ヨーロッパから米国にデプロイされたモデルエンドポイントへのリクエストは、ネットワーク遅延として100-150ミリ秒を追加することができます。対照的に、米国内のリクエストは、この Azureネットワークの往復遅延統計 ブログから抽出した情報に

Logically AIでGPU推論をターボチャージ!

2017年に設立された Logically は、AIを使用してクライアントのインテリジェンス能力を強化する分野のリーダーです。ウェブサイト、ソーシャルプラットフォーム、その他のデジタルソースから大量のデータを処理し分析することで、Logicallyは潜在的なリスク、新たな脅威、重要なナラティブを特定し、それらをサイバーセキュリティチーム、プロダクトマネージャー、エンゲージメントリーダーが迅速かつ戦略的に行動できるように整理します。 GPU加速はLogicallyのプラットフォームの重要な要素であり、高度に規制されたエンティティの要件を満たすためのナラティブの検出を可能にします。GPUを使用することで、Logicallyは訓練と推論の時間を大幅に短縮し、ソーシャルメディアやインターネット全体での偽情報の拡散を防ぐために必要なスケールでのデータ処理を可能にしました。現在のGPUリソースの不足も、最適なレイテンシとAIプロジェクトの全体的な成功を達成するために、その利用を最適化することが重要であることを意味します。 ロ

新登場!Azure Cobalt 100 VM:Azure Databricksの未来を加速するパワー

Databricksでは、顧客がデータとAIの投資から最大の価値を引き出せるように、私たちは常にプラットフォームを革新し、最適化しています。今日、私たちは新たにローンチされた Azure Cobalt 100 Virtual Machines (VMs) のサポートを発表することを嬉しく思います。これは Azure Databricks のための大きなインフラストラクチャのアップグレードで、顕著な価格性能の利点を提供します。Azure Cobalt 100 VMsを私たちの Databricks Data Intelligence Platform on Azure に統合することで、データ重視のワークロードをより効率的に、スケーラブルに、コスト効果的に処理する新たな可能性が開かれます。 顕著な価格性能と効率性 Azure...

AIモデル共有のGAを発表

このブログへの貴重な洞察と貢献に対して、Daniel Benito(CTO、Bitext)、Antonio Valderrabanos(CEO、Bitext)、Chen Wang(リードソリューションアーキテクト、AI21 Labs)、Robbin Jang(アライアンスマネージャー、AI21 Labs)、Alex Godfrey(パートナーマーケティングリード、AI21 Labs)に特別な感謝を述べます。 Databricks Delta SharingとDatabricksマーケットプレイス内のAIモデル共有の一般提供をお知らせすることをうれしく思います。このマイルストーンは、 2024年1月のパブリックプレビュー発表 に続いています。Public Previewのローンチ以来、我々は新たなAIモデル共有の顧客やプロバイダー、例えば Bitext 、 AI21 Labs 、Rippleと共に、AIモデル共有をさらにシンプルにするために取り組んできました。 Delta Sharingを使用して、AIモデルを簡単

Amazon EC2 G6インスタンス対応をDatabricksが発表

September 23, 2024 ル・ワン(モザイクAI) による投稿 in
私たちは、Databricksが現在、 Amazon EC2 G6インスタンス をNVIDIA L4 Tensor Core GPUでサポートすることを発表することを嬉しく思います。これによりDatabricksデータインテリジェンスプラットフォーム上でのより効率的でスケーラブルなデータ処理、機械学習、AIワークロードを可能にする一歩を示しています。 AWS G6 GPUインスタンスの利点は何ですか? Amazon Web Services (AWS)のG6インスタンスは、低コストでエネルギー効率の高いNVIDIA L4 GPUを搭載しています。このGPUは、 NVIDIAの第4世代テンソルコアAda Lovelaceアーキテクチャ に基づいており、最も要求の厳しいAIや機械学習のワークロードをサポートします。 G6インスタンスは、NVIDIA T4...

長いシーケンスでLlama 3.1をファインチューニング

私たちは、 Mosaic AIモデルトレーニング が、Meta Llama 3.1モデルファミリーの微調整時に131Kトークンの全文脈長をサポートするようになったことを発表することを嬉しく思います。この新機能により、Databricksの顧客は、長い文脈長のエンタープライズデータを使用して特化したモデルを作成することで、さらに高品質なRetrieval Augmented Generation(RAG)またはツール使用システムを構築することができます。 LLMの入力プロンプトのサイズは、その コンテキスト長 によって決定されます。お客様は特にRAGやマルチドキュメント分析のようなユースケースでは、短いコンテキスト長に制限されることが多いです。Meta Llama 3.1モデルは、コンテキスト長が131Kトークンと長いです。比較すると、『グレート・ギャツビー』は 約72Kトークン です。Llama 3.1モデルは、大量のデータコーパスを理解することを可能にし、RAGでのチャンキングや再ランキングの必要性を減らすか、

DatabricksとのPyCharm統合を発表

Databricks開発者体験の最新の追加を発表することを嬉しく思います: DatabricksとのPyCharm Professional統合 !この新しいプラグインはJetBrainsによって作成され、Databricksで開発する際にお気に入りのIDE機能を活用できるようにします。これにより、ソフトウェア開発のベストプラクティスが可能になり、生産への道筋をスムーズにします。 私たちのJetBrainsとのパートナーシップは、開発者がどこにいても彼らのニーズに応えるという コミットメント を強調しています。お客様がお気に入りのサードパーティIDEを活用してDatabricks開発者体験を補完できるようにすることです。PyCharmプラグインは、 Databricks for Visual Studio Code や Posit workbench など、私たちがサポートしているIDEのリストに追加されました。 ここでDatabricks PyCharmプラグインの簡単なデモをご覧ください: PythonのID

Patronus AI x Databricks: 幻覚(ハルシネーション)検出のためのトレーニングモデル

大規模言語モデル (LLM) における幻覚は、モデルが実際の現実や提供されたコンテキストと一致しない応答を生成するときに発生します。 この問題は、LLM 出力がユーザー提供のドキュメントにアクセスできる RAG アプリケーションを開発する LLM 実践者にとって課題となります。 たとえば、金融に関する質問への回答や医療診断に使用されている LLM がソース ドキュメントから逸脱した応答を生成すると、ユーザーは誤った情報にさらされ、重大な悪影響が生じます。 LLM-as-a-judge パラダイムは、その柔軟性と使いやすさにより、生成 AI アプリケーションの応答における不正確さを検出するために人気が高まっています。 しかし、GPT-4 のようなトップクラスのパフォーマンスを誇るモデルを使用している場合でも、LLM をジャッジとして使用すると、複雑な推論タスクに対する応答を正確に評価できないことがよくあります。 さらに、クローズドソースの LLM の品質、透明性、コストについても懸念があります。...