メインコンテンツへジャンプ
LAKEFLOW CONNECT

あなたのレイクハウスへの効率的なデータ取り込み

データインテリジェンスを活用してイノベーションを解き放つ第一歩を踏み出しましょう。
Lakeflow Connect
メリット

あなたのデータから価値を引き出すための簡単な手順をいくつか紹介します

人気のエンタープライズアプリケーション、ファイルソース、データベース用の組み込みデータコネクタが利用可能です。

柔軟で使いやすい

完全に管理されたコネクタは、簡単な設定とデータアクセスの民主化のためのシンプルなUIとAPIを提供します。自動化された機能も、最小限のオーバーヘッドでパイプラインのメンテナンスを簡素化するのに役立ちます。

組み込みコネクタ

データの取り込みは、データインテリジェンスプラットフォームと完全に統合されています。Unity Catalogからのガバナンス、Lakehouse Monitoringからの観測性、そして分析、機械学習、BIのワークフローとのシームレスなオーケストレーションを用いて、摂取パイプラインを作成します。

効率的な取り込み

効率を上げ、価値を得るまでの時間を短縮します。最適化された増分読み取りと書き込み、およびデータ変換は、パイプラインのパフォーマンスと信頼性を向上させ、ボトルネックを減らし、スケーラビリティのためのソースデータへの影響を軽減します。

機能

人気のデータソースに対する堅牢な取り込み機能

すべてのデータをデータインテリジェンスプラットフォームに取り込むことは、価値を抽出し、組織の最も困難なデータ問題を解決するための最初のステップです。

ノーコードのユーザーインターフェース(UI)またはシンプルなAPIは、データ専門家が自己サービスを提供できるようにし、プログラミングの時間を節約します。

Lakeflow Connect UIのツアーをご覧ください
A screenshot of the Databricks UI and API interface, showcasing dashboard thumbnails and improved performance features.

新しいデータやテーブルの更新のみを取り込み、データの取り込みを高速化し、スケーラブルで運用効率を向上させます。

インクリメンタルな読み取りと書き込みについて詳しく
Incremental Reads and Writes

100%サーバーレスの環境内でデータを取り込み、迅速なスタートアップと自動的なインフラストラクチャのスケーリングを提供します。

完全に管理されたコネクタについて詳しく
Fully Managed

Databricks Unity Catalogとの深い統合により、系統図とデータ品質を含む堅牢な機能が提供されます。

Unity Catalogを使用した統一ガバナンスについて詳しく
Unified Governance

Databricksを使用したデータ取り込み

Salesforceコネクタ

Salesforce Sales Cloudをサポートするデータコネクタ。

Salesforceからデータを取り込む

Microsoft SQL Serverコネクタ

Azure SQL DatabaseとAmazon RDS for SQL Serverをサポートするデータコネクタ。

SQL Serverからデータを取り込む

Google Analytics コネクタ

すべてのフィールドをサポートするイベントレベルのGoogle Analytics 4(GA4)データをサポートするデータコネクタ。

Google Analyticsからデータを取り込む

ServiceNowコネクタ

ServiceNowデータを摂取するデータコネクタ。これは、分析やリソース計画などのさまざまなユースケースに対応します。

ServiceNowからのデータ取り込み

Workdayコネクタ

Workdayレポートを直接Databricksにロードするためのデータコネクタ。

Workdayからデータを取り込む

SharePointコネクタ

SharePoint(非構造化)データをサポートするデータコネクタ。ベクター検索や他のAIツールとの簡単な統合。

SharePointからデータを取り込む

オートローダー

サポートされるクラウドストレージソース(S3、ADLS、GCS)に新しいデータファイルが到着すると、それをインクリメンタルに取り込み、効率的に処理します。

Auto Loaderを使用してデータを取り込む

ストリーミングデータソース

常時稼働するインフラとほぼリアルタイムのデータ処理を用いて、Apache Kafkaのようなサポートされているソースからレコードを取り込みます。

ストリーミングソースからデータを取り込む

ネイティブSQLサポート

SQLユーザーは、COPY INTOコマンドを使用して、ファイルロケーションからDatabricks SQL、Databricksノートブック、Databricksジョブにデータを冪等に、そして増分的にロードすることができます。

COPY INTOを使用してデータを取り込む

マニュアルファイルアップロード

ローカルファイルを直接DatabricksにアップロードしてDeltaテーブルを作成するか、データをボリュームに保存します。

Databricksにファイルをアップロードする
ユースケース

様々な業界での顧客の問題を解決

ご利用料金

使用量に応じた価格設定で、支出を抑制

使用した製品に対する秒単位での課金となります。
関連製品

さらに詳しく

データインテリジェンスプラットフォームで他の統合された、インテリジェントなオファリングを探索してみてください。

Lakeflowジョブ

チームが深い観察可能性、高い信頼性、幅広いタスクタイプのサポートを持つETL、分析、AIワークフローをより良く自動化し、調整するための装備。

Lakeflow宣言的パイプライン

自動化されたデータ品質、変更データキャプチャ(CDC)、データ取り込み、変換、統一されたガバナンスでバッチおよびストリーミングETLを簡素化します。

Unity Catalog

Databricks Data Intelligence Platformに組み込まれた、データとAIのための業界唯一の統一されたオープンなガバナンスソリューションで、すべてのデータ資産をシームレスに管理します。

Delta Lake

あなたのレイクハウス内のデータを統一し、すべての形式とタイプを通じて、すべての分析とAIワークロードのために利用します。

次のステップ

データ取り込みFAQ

データ + AI の活用は Databricks で

貴社のデータ変革をお手伝いします。