주요 컨텐츠로 이동

Build Data Pipelines with Lakeflow Spark Declarative Pipelines - Korean

이 과정은 Databricks의 Lakeflow Spark Declarative Pipelines을 사용하여 증분 배치 또는 스트리밍 수집 및 처리를 위해 여러 스트리밍 테이블과 구체화된 뷰를 통해 데이터 파이프라인을 구축하는 데 필요한 핵심 개념과 기술을 소개합니다. Spark Declarative Pipelines을 처음 접하는 데이터 엔지니어를 위해 설계된 이 과정은 증분 데이터 처리, 스트리밍 테이블, 구체화된 뷰, 임시 뷰와 같은 핵심 구성 요소에 대한 포괄적인 개요를 제공하며, 각각의 특정 목적과 차이점을 강조합니다.


다루는 주제는 다음과 같습니다:

- SQL을 사용한 Spark Declarative Pipelines의 다중 파일 편집기로 ETL 파이프라인 개발 및 디버깅 (Python 코드 예제 제공)

- 파이프라인 그래프를 통해 Spark Declarative Pipelines이 파이프라인 내 데이터 종속성을 추적하는 방법

- 파이프라인 compute 리소스, 데이터 자산, 트리거 모드 및 기타 고급 옵션 구성


이어서 본 과정은 Spark Declarative Pipelines에서의 데이터 품질 기대치를 소개하며, 데이터 무결성을 검증하고 강제하기 위해 이러한 기대치를 파이프라인에 통합하는 과정을 안내합니다. 학습자는 스케줄링 옵션 포함 파이프라인을 프로덕션 환경에 배포하는 방법과 파이프라인 성능 및 상태 모니터링을 위한 이벤트 로깅 활성화 방법을 탐구하게 됩니다.


마지막으로, 본 과정은 Spark Declarative Pipelines 내에서 AUTO CDC INTO 구문을 사용하여 변경 데이터 캡처(CDC)를 구현하는 방법을 다루며, 이를 통해 느리게 변경되는 차원(SCD Type 1 및 Type 2)을 관리하고 사용자가 자신의 파이프라인에 CDC를 통합할 수 있도록 준비시킵니다.


Languages Available: English日本語 | Português BR | 한국어

Skill Level
Associate
Duration
4h
Prerequisites
  • ⇾ Databricks Data Intelligence platform에 대한 기본 이해(Databricks Workspaces, Apache Spark, Delta Lake, 메달리온 아키텍처, Unity Catalog 포함).

⇾ CSV, JSON, TXT, Parquet 등의 형식을 로드하기 위해 read_files SQL 함수를 사용하는 등 원시 데이터를 Delta 테이블로 가져오는 경험.

⇾ SQL을 사용한 데이터 변환 숙련도(중급 수준의 쿼리 작성 및 SQL 조인에 대한 기본 이해 포함).

Outline

Databricks 데이터 엔지니어링 소개

⇾ Databricks 데이터 엔지니어링

⇾ Lakeflow Spark Declarative Pipelines이란?

⇾ 과정 설정 및 파이프라인 생성

⇾ 과정 프로젝트 개요


Lakeflow Spark Declarative Pipelines 기초

⇾ 데이터셋 유형 개요

⇾ 간소화된 파이프라인 개발

⇾ 일반적인 파이프라인 설정

⇾ 간단한 파이프라인 개발

⇾ 기대값을 통한 데이터 품질 보장


Lakeflow Spark Declarative Pipelines 구축

⇾ 스트리밍 조인 개요

⇾ 파이프라인 프로덕션 배포

⇾ 변경 데이터 캡처(CDC) 개요

⇾ AUTO CDC INTO를 활용한 변경 데이터 캡처

⇾ 추가 기능 개요

Public Class Registration

If your company has purchased success credits or has a learning subscription, please fill out the Training Request form. Otherwise, you can register below.

Private Class Request

If your company is interested in private training, please submit a request.

See all our registration options

Registration options

Databricks has a delivery method for wherever you are on your learning journey

Runtime

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

지금 등록하세요

Instructors

Instructor-Led

Public and private courses taught by expert instructors across half-day to two-day courses

지금 등록하세요

Learning

Blended Learning

Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase

Purchase now

Scale

Skills@Scale

Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

Upcoming Public Classes

Apache Spark Developer

Apache Spark™ Programming with Databricks - Korean

이 과정은 Databricks를 사용하여 Apache Spark 프로그래밍을 배우기 위한 적절한 시작점 역할을 합니다.

아래에서는 이 과정에 포함된 4개의 4시간짜리 모듈을 각각 설명합니다.

Introduction to Apache Spark

이 과정은 분산 아키텍처와 대규모 데이터 처리를 위한 실제 응용 프로그램에 중점을 두고 Apache Spark™에 대한 필수 지식을 제공합니다. 참가자는 프로그래밍 프레임워크를 탐색하고 Spark DataFrame API를 배우며 Python 기반 Spark 워크플로를 사용하여 데이터를 읽고, 쓰고, 변환하는 기술을 개발하십시오. 

Developing Applications with Apache Spark

이 실습 과정에서 Apache Spark로 확장 가능한 데이터 처리를 마스터하세요. Spark의 DataFrame API를 사용하여 효율적인 ETL 파이프라인을 구축하고, 고급 분석을 수행하며, 분산 데이터 변환을 최적화하는 방법을 알아보세요. 그룹화, 집계, 조인, 집합 연산 및 창 함수를 살펴봅니다. 배열, 맵, 구조체와 같은 복잡한 데이터 유형으로 작업하면서 성능 최적화를 위한 모범 사례를 적용하세요.

Stream Processing and Analysis with Apache Spark

이 과정에서 Apache Spark를 사용하여 스트림 처리 및 분석의 기본 사항을 알아보세요.™ 스트림 처리 기본 사항에 대한 확실한 이해를 얻고 Spark Structured Streaming API를 사용하여 애플리케이션을 개발합니다. 스트림 집계 및 창 분석과 같은 고급 기술을 탐색하여 실시간 데이터를 효율적으로 처리하세요. 이 과정에서는 동적 데이터 환경을 위한 확장 가능하고 장애에 강한 스트리밍 애플리케이션을 만드는 기술을 습득합니다.

Monitoring and Optimizing Apache Spark Workloads on Databricks

이 과정에서는 안전한 데이터 거버넌스, 액세스 제어 및 계보 추적을 위한 Unity Catalog에 중점을 두고 확장 가능한 데이터 워크플로를 위한 레이크하우스 아키텍처 및 메달리온 설계를 살펴봅니다. 커리큘럼에는 Delta Lake를 사용하여 신뢰할 수 있는 ACID 호환 파이프라인 구축이 포함됩니다. 파티셔닝, 캐싱, 쿼리 튜닝과 같은 Spark 최적화 기술을 살펴보고 실제 문제를 해결하기 위한 효율적인 데이터 엔지니어링 및 분석을 위한 성능 모니터링, 문제 해결 및 모범 사례를 배웁니다.

Languages Available: English | 日本語 | 한국어

Paid
16h
Lab
instructor-led
Associate

Questions?

If you have any questions, please refer to our Frequently Asked Questions page.