メインコンテンツへジャンプ

Databricks Streaming and Delta Live Tables - Japanese

Databricks ストリーミングと Delta Live Tables (SDLT) コースは、Databricks 認定プロフェッショナル データ エンジニア認定試験の準備を目的としています。このコースの内容は、データエンジニアラーニングパスのプロフェッショナルレベルのモジュールで構成されており、インストラクター主導のトレーニング(ILT)として提供されます。


Languages Available: English | 日本語 | Português BR | 한국어

Skill Level
Professional
Duration
4h
Prerequisites
  • このコンテンツは、以下のスキル/知識/能力を持つ参加者向けに開発されています。

  • Databricks データエンジニアリングとデータサイエンス ワークスペース (クラスターの作成、ノートブックでのコードの実行、基本的なノートブック操作の使用、git からのリポジトリのインポートなど) を使用して、基本的なコード開発タスクを実行する機能

  • PySparkの中級レベルのプログラミング経験

    • さまざまなファイル形式やデータソースからデータを抽出

    • いくつかの一般的な変換を適用してデータをクリーンアップする

    • 高度な組み込み関数を使用して複雑なデータの形状変換と操作を行う

  • Delta Lakeを使用した中級レベルのプログラミング経験 (テーブルの作成、完全更新と増分更新の実行、ファイルの圧縮、以前のバージョンの復元など)

  • Delta Live Tables (DLT) UIを使用したデータパイプラインの構成とスケジュール設定の初歩的な経験

  • PySparkを使用したDelta Live Tablesパイプラインの定義の初歩的な経験

    • Auto LoaderとPySpark構文を使用してデータの取り込みと処理を行う

    • APPLY CHANGES INTO構文を使用した チェンジデータキャプチャ フィードの処理

    • パイプライン イベント ログと結果を確認して DLT 構文のトラブルシューティングを行う

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

See all our registration options

Registration options

Databricks has a delivery method for wherever you are on your learning journey

Runtime

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

Register now

Instructors

Instructor-Led

Public and private courses taught by expert instructors across half-day to two-day courses

Register now

Learning

Blended Learning

Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase

Purchase now

Scale

Skills@Scale

Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

Upcoming Public Classes

Data Analyst

Data Analysis with Databricks - Japanese

このコースでは、Databricks SQLの包括的な入門を提供します。学習者はデータのインジェスト、クエリの作成、ビジュアライゼーションとダッシュボードの作成、アラートの設定を行います。このコースは、Databricks認定データアナリストアソシエイト試験を受験するための準備コースです。

このコースは4時間のモジュール2つで構成されている。SQL Analytics on Databricks

このコースでは、特に Databricks SQL に焦点を当てて、データ分析に Databricks を効果的に使用する方法を学習します。 Databricks データアナリストの責任には、関連データの検索、潜在的なアプリケーションのための分析、貴重なビジネスインサイトを提供する形式への変換が含まれます。 

また、データオブジェクトの管理における自分の役割と、ノートブック、SQL エディター、Databricks SQL などのツールを使用して Databricks データインテリジェンスプラットフォーム内でデータオブジェクトを操作する方法についても理解できます。 

さらに、データ資産とプラットフォーム全体の管理における Unity Catalog の重要性についても学習します。 最後に、このコースでは、Databricksがパフォーマンスの最適化を促進する方法の概要を説明し、クエリーインサイトにアクセスして、DatabricksでSQLアナリティクスを実行するときにバックグラウンドで発生するプロセスを理解する方法について説明します。

AI/BI for Data Analysts

このコースでは、Databricks が提供する機能を使用してビジネスインテリジェンスのニーズに対応する方法を学習します。 AI/BI ダッシュボードと AI/BI Genie。 Databricks データアナリストは、プラットフォーム内に AI/BI ダッシュボードと AI/BI Genie Spaces を作成し、関係者や必要な関係者によるこれらの資産へのアクセスを管理し、これらの資産が編集、更新、または廃止されたときに、そのライフサイクル全体にわたって維持する任務を負います。 このコースでは、ビジネスインサイトのためのダッシュボードを設計し、それをコラボレーターや利害関係者と共有し、それらの資産をプラットフォーム内で維持する方法を参加者に指示することを目的としています。 また、Databricks Data Intelligence Engineを活用した環境の構築と保守を通じて、AI/BI Genie Spacesを活用してセルフサービスアナリティクスをサポートする方法も学びます。

Languages Available: English | 日本語 | Português BR | 한국어

Paid
8h
Lab
instructor-led
Associate
Apache Spark Developer

Apache Spark™ Programming with Databricks - Japanese

このコースは、Databricksを使ったApache Sparkプログラミングを学ぶための適切な入口となります。

以下では、このコースに含まれる4つのモジュール(4時間)について説明します。

Introduction to Apache Spark

この初心者向けのコースでは、大規模なデータ処理のための Apache Spark の基礎について説明します。 Spark の分散アーキテクチャを探索し、DataFrame API をマスターし、Python を使用してデータの読み取り、書き込み、処理する方法を学習します。 実践的な演習を通じて、Sparkの変換とアクションを効率的に実行するために必要なスキルを身に付けます。 

Developing Applications with Apache Spark

このハンズオンコースでは、Apache Spark を使用したスケーラブルなデータ処理を習得します。 Spark の DataFrame API を使用して、効率的な ETL パイプラインを構築し、高度な分析を実行し、分散データ変換を最適化する方法を学びます。 グループ化、集計、結合、集合演算、ウィンドウ関数について調べます。 配列、マップ、構造体などの複雑なデータ型を操作しながら、パフォーマンス最適化のベストプラクティスを適用します。

Stream Processing and Analysis with Apache Spark

このコースでは、Apache Spark を使用したストリーム処理と解析の基本について学習します。 ストリーム処理の基礎をしっかりと理解し、Spark 構造化ストリーミング API を使用してアプリケーションを開発します。 ストリーム集約やウィンドウ分析などの高度な手法を探索して、リアルタイム データを効率的に処理します。 このコースでは、動的データ環境向けにスケーラブルでフォールトトレラントなストリーミングアプリケーションを作成するスキルを身に付けます。

Monitoring and Optimizing Apache Spark Workloads on Databricks

このコースでは、セキュアなデータガバナンス、アクセスコントロール、リネージトラッキングのためのUnity Catalogを中心に、スケーラブルなデータワークフローのためのレイクハウスアーキテクチャとメダリオン設計を探求します。カリキュラムには、Delta Lakeを使用した信頼性の高いACID準拠のパイプラインの構築も含まれます。パーティショニング、キャッシング、クエリチューニングなどのSpark最適化テクニックを検証し、パフォーマンスモニタリング、トラブルシューティング、効率的なデータエンジニアリングとアナリティクスのベストプラクティスを学び、現実世界の課題に取り組みます。

Languages Available: English | 日本語

Paid
16h
Lab
Associate

Questions?

If you have any questions, please refer to our Frequently Asked Questions page.