メインコンテンツへジャンプ

Build Data Pipelines with Delta Live Tables - Japanese

このコースでは、Spark SQL と Python の Delta Live Tables (DLT) を使用して、レイクハウス内の複数のテーブルを介してデータを段階的に取り込んで処理するデータ パイプラインの定義とスケジューリングを行う方法を学習します。 このコースでは、DLT の使用を開始する方法、DLT によりデータ パイプラインでデータの依存関係を追跡する方法、Delta Live Tables の UI を使用してデータ パイプラインを構成および実行する方法、Auto Loader と DLT を使ってレイクハウス内の複数のテーブルを介してデータを取り込んで処理するデータ パイプラインの定義に Python または Spark SQL を使用する方法、APPLY CHANGES INTO 構文を使用してチェンジ データ キャプチャ フィードを処理する方法、パイプラインによって作成されたイベント ログとデータ アーティファクトを確認して、DLT 構文をトラブルシューティングする方法について説明します。


Languages Available: English日本語 | Português BR | 한국어

Skill Level
Associate
Duration
4h
Prerequisites
  • クラウドの基本的な概念 (仮想マシン、オブジェクトストレージ、ID管理) に関する初級レベルの知識
  • 基本的なコード開発タスク (コンピュートの作成、ノートブックでのコードの実行、基本的なノートブック操作の実行、Git からの Repos のインポートなど) を実行できる能力
  • SQL の基本的な概念 (CREATE、SELECT、INSERT、UPDATE、DELETE、WHILE、GROUP BY、JOINなど) に関する中級レベルの理解

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

See all our registration options

Registration options

Databricks has a delivery method for wherever you are on your learning journey

Runtime

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

Register now

Instructors

Instructor-Led

Public and private courses taught by expert instructors across half-day to two-day courses

Register now

Learning

Blended Learning

Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase

Purchase now

Scale

Skills@Scale

Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

Upcoming Public Classes

Data Analyst

Data Analysis with Databricks - Japanese

このコースでは、Databricks SQLの包括的な入門を提供します。学習者はデータのインジェスト、クエリの作成、ビジュアライゼーションとダッシュボードの作成、アラートの設定を行います。このコースは、Databricks認定データアナリストアソシエイト試験を受験するための準備コースです。

このコースは4時間のモジュール2つで構成されている。SQL Analytics on Databricks

このコースでは、特に Databricks SQL に焦点を当てて、データ分析に Databricks を効果的に使用する方法を学習します。 Databricks データアナリストの責任には、関連データの検索、潜在的なアプリケーションのための分析、貴重なビジネスインサイトを提供する形式への変換が含まれます。 

また、データオブジェクトの管理における自分の役割と、ノートブック、SQL エディター、Databricks SQL などのツールを使用して Databricks データインテリジェンスプラットフォーム内でデータオブジェクトを操作する方法についても理解できます。 

さらに、データ資産とプラットフォーム全体の管理における Unity Catalog の重要性についても学習します。 最後に、このコースでは、Databricksがパフォーマンスの最適化を促進する方法の概要を説明し、クエリーインサイトにアクセスして、DatabricksでSQLアナリティクスを実行するときにバックグラウンドで発生するプロセスを理解する方法について説明します。

AI/BI for Data Analysts

このコースでは、Databricks が提供する機能を使用してビジネスインテリジェンスのニーズに対応する方法を学習します。 AI/BI ダッシュボードと AI/BI Genie。 Databricks データアナリストは、プラットフォーム内に AI/BI ダッシュボードと AI/BI Genie Spaces を作成し、関係者や必要な関係者によるこれらの資産へのアクセスを管理し、これらの資産が編集、更新、または廃止されたときに、そのライフサイクル全体にわたって維持する任務を負います。 このコースでは、ビジネスインサイトのためのダッシュボードを設計し、それをコラボレーターや利害関係者と共有し、それらの資産をプラットフォーム内で維持する方法を参加者に指示することを目的としています。 また、Databricks Data Intelligence Engineを活用した環境の構築と保守を通じて、AI/BI Genie Spacesを活用してセルフサービスアナリティクスをサポートする方法も学びます。

Languages Available: English | 日本語 | Português BR | 한국어

Paid
8h
Lab
instructor-led
Associate
Apache Spark Developer

Apache Spark™ Programming with Databricks - Japanese

このコースは、Databricksを使ったApache Sparkプログラミングを学ぶための適切な入口となります。

以下では、このコースに含まれる4つのモジュール(4時間)について説明します。

Introduction to Apache Spark

この初心者向けのコースでは、大規模なデータ処理のための Apache Spark の基礎について説明します。 Spark の分散アーキテクチャを探索し、DataFrame API をマスターし、Python を使用してデータの読み取り、書き込み、処理する方法を学習します。 実践的な演習を通じて、Sparkの変換とアクションを効率的に実行するために必要なスキルを身に付けます。 

Developing Applications with Apache Spark

このハンズオンコースでは、Apache Spark を使用したスケーラブルなデータ処理を習得します。 Spark の DataFrame API を使用して、効率的な ETL パイプラインを構築し、高度な分析を実行し、分散データ変換を最適化する方法を学びます。 グループ化、集計、結合、集合演算、ウィンドウ関数について調べます。 配列、マップ、構造体などの複雑なデータ型を操作しながら、パフォーマンス最適化のベストプラクティスを適用します。

Stream Processing and Analysis with Apache Spark

このコースでは、Apache Spark を使用したストリーム処理と解析の基本について学習します。 ストリーム処理の基礎をしっかりと理解し、Spark 構造化ストリーミング API を使用してアプリケーションを開発します。 ストリーム集約やウィンドウ分析などの高度な手法を探索して、リアルタイム データを効率的に処理します。 このコースでは、動的データ環境向けにスケーラブルでフォールトトレラントなストリーミングアプリケーションを作成するスキルを身に付けます。

Monitoring and Optimizing Apache Spark Workloads on Databricks

このコースでは、セキュアなデータガバナンス、アクセスコントロール、リネージトラッキングのためのUnity Catalogを中心に、スケーラブルなデータワークフローのためのレイクハウスアーキテクチャとメダリオン設計を探求します。カリキュラムには、Delta Lakeを使用した信頼性の高いACID準拠のパイプラインの構築も含まれます。パーティショニング、キャッシング、クエリチューニングなどのSpark最適化テクニックを検証し、パフォーマンスモニタリング、トラブルシューティング、効率的なデータエンジニアリングとアナリティクスのベストプラクティスを学び、現実世界の課題に取り組みます。

Languages Available: English | 日本語

Paid
16h
Lab
Associate

Questions?

If you have any questions, please refer to our Frequently Asked Questions page.