주요 컨텐츠로 이동

Advanced Data Engineering with Databricks - Korean

이 과정은 고급 데이터 엔지니어링 with Databricks를 배우기 위한 적절한 입문 과정입니다. 

아래에서는 이 과정에 포함된 4개의 4시간짜리 모듈에 대해 각각 설명합니다.


참고: Databricks Academy는 Databricks 환경 내 강의 세션을 노트북 기반 형식으로 전환하며, 첫  모듈 강의에서 슬라이드 데크 사용을 중단합니다. 강의 노트북은 Vocareum 랩 환경에서 확인할 수 있습니다.


Advanced Techniques with Spark Declarative Pipelines

이 과정은 프로덕션 수준의 스트리밍 파이프라인을 구축하기 위한 Databricks의 Lakeflow Spark Declarative Pipelines(SDP)를 심층적으로 다룹니다. 여러분은 실제 레이크하우스(Lakehouse) 엔지니어링에 필수적인 고급 설계 패턴, 견고한 데이터 품질 관리 기법, 그리고 크로스 플랫폼 통합 방안을 학습하게 될 것입니다.


과정 전반에 걸쳐 여러분은 최신 데이터 수집 및 처리 기법을 깊이 있게 탐구하며, 레이아웃 최적화를 위한 Liquid Clustering이나 혼합 스키마 이벤트를 처리하는 Multiplex Streaming 패턴과 같은 도구들을 완벽하게 익히게 됩니다. 모든 모듈을 마치고 나면, 스키마 진화(Schema Evolution)에 자신 있게 대처하고, 변경 데이터 캡처(CDC)를 자동화하며, 데이터 무결성을 확실하게 보장하는 방법을 습득하게 될 것입니다.


강의와 실습 데모를 통해 여러분은 다음과 같은 역량을 갖추게 됩니다.

• 다중 소스에서 유입되는 데이터를 단일화된 Bronze 테이블로 수집하는 다중 흐름(Multi-flow) 파이프라인을 구축합니다.

• 실버 및 골드 레이어 전반에 걸쳐 리퀴드 클러스터링과 데이터 품질 기대치를 적용합니다.

• 크로스 플랫폼 데이터 접근을 위해 Iceberg UniForm을 활용한 Multiplex 패턴을 구현합니다.

• `AUTO CDC INTO` 기능을 사용하여 SCD Type 2 이력 추적을 자동화합니다.

• 유효하지 않은 레코드를 감사하고 관리하기 위한, 데이터 손실이 전혀 없는 격리(Quarantine) 파이프라인을 설계합니다.


Databricks Data Privacy

이 콘텐츠는 Databricks 내에서 데이터 프라이버시를 관리하는 포괄적인 가이드를 제공합니다. 델타 레이크 아키텍처, 지역별 데이터 격리, GDPR/CCPA 준수, 변경 데이터 피드(CDF) 사용법 등 핵심 주제를 다룹니다. 실습 데모와 핸즈온 랩을 통해 참가자는 민감한 데이터를 보호하고 규정 준수를 보장하기 위한 Unity catalog 기능을 활용하는 방법을 배우며, 데이터 무결성을 효과적으로 보호할 수 있는 역량을 강화합니다.


Databricks Performance Optimization

이 과정에서는 Spark와 Delta Lake를 활용해 워크로드와 물리적 레이아웃을 최적화하는 방법을 배우고, Spark UI를 분석하여 성능을 평가하고 애플리케이션을 디버깅하는 방법을 익히게 됩니다. 스트리밍, 유동적 클러스터링, 데이터 스키핑, 캐싱, 포토네이션 등 다양한 주제를 다룰 예정입니다. 


Automated Deployment with Databricks Asset Bundles

이 과정은 DevOps 원칙과 이를 Databricks 프로젝트에 적용하는 방법을 포괄적으로 검토합니다. 핵심 DevOps, DataOps, 지continuous integration (CI), continuous deployment (CD), 테스트에 대한 개요로 시작하여 이러한 원칙을 데이터 엔지니어링 파이프라인에 적용하는 방법을 탐구합니다.


이어서 CI/CD 프로세스 내 지속적 배포에 초점을 맞추며, 프로젝트 배포를 위한 Databricks REST API, SDK, CLI와 같은 도구를 살펴봅니다. Databricks Asset Bundles(DAB)와 CI/CD 프로세스 내에서의 역할을 학습하게 됩니다. 주요 구성 요소, 폴더 구조, Databricks 내 다양한 대상 환경에 걸친 배포 간소화 방식을 심층적으로 다룹니다. 또한 Databricks CLI를 활용하여 서로 다른 구성의 다중 환경에 대해 변수 추가, 수정, 검증, 배포 및 실행하는 방법을 익히게 됩니다.


마지막으로, Visual Studio Code를 인터랙티브 개발 환경(IDE)으로 활용하여 로컬에서 Databricks Asset Bundles를 빌드, 테스트, 배포하는 방법을 소개함으로써 개발 프로세스를 최적화합니다. GitHub Actions를 활용한 배포 파이프라인 자동화를 통해 Databricks Asset Bundles의 CI/CD 워크플로우를 강화하는 방법에 대한 소개로 강좌를 마무리합니다.


본 과정 수료 시, Databricks Asset Bundles를 활용한 Databricks 프로젝트 배포 자동화 역량을 갖추게 되어 DevOps 관행을 통해 효율성을 향상시킬 수 있습니다.


Languages Available: English | 日本語 | Português BR | 한국어

Skill Level
Professional
Duration
16h
Prerequisites

• Spark Declarative Pipelines — "Lakeflow Spark Declarative Pipelines으로 데이터 파이프라인 구축하기" 과정 수료, 또는 CREATE OR REFRESH STREAMING TABLE, CONSTRAINTS, 및 파이프라인 UI에 대한 숙지

• Delta Lake 기초 — Delta 테이블에 대한 이해 및 Delta가 데이터 파일과 트랜잭션 로그를 관리하는 방식에 대한 이해

• 스트리밍 개념 — SDP(Spark Declarative Pipelines)에서의 마이크로 배치 스트리밍, 체크포인팅, 및 이벤트 시간 처리(event-time processing)에 대한 지식

• SQL 활용 능력 — SELECT, JOIN, MERGE, CASE WHEN 및 일반적인 집계 함수를 포함한 SQL 읽기 및 작성 능력

• Databricks Notebook에서의 Python — Databricks Notebook 환경에서 Python 코드를 읽고 실행하는 데 익숙함

• Unity Catalog 기초 — Unity Catalog 내의 카탈로그, 스키마, 테이블, 및 볼륨에 대한 이해

• Databricks 데이터 엔지니어링 및 데이터 과학 작업 공간을 사용하여 기본 코드 개발 작업을 수행할 수 있는 능력(클러스터 생성, 노트북에서 코드 실행, 기본 노트북 작업 사용, git에서 리포지토리 가져오기 등).

• PySpark를 사용한 중급 프로그래밍 경험.

• 다양한 파일 형식 및 데이터 소스에서 데이터 추출.

• 데이터를 정리하기 위해 여러 가지 일반적인 변환을 적용합니다.

• 고급 내장 함수를 사용하여 복잡한 데이터 재구성 및 조작.

• Delta Lake를 사용한 중급 프로그래밍 경험(테이블 생성, 전체 및 증분 업데이트 수행, 파일 압축, 이전 버전 복원 등).

• Delta Live Tables (DLT) UI를 사용하여 데이터 파이프라인을 구성하고 예약하는 초급 경험 보유.

• PySpark를 사용하여 Delta Live Tables 파이프라인을 정의하는 초급 사용자 경험.

• Auto Loader 및 PySpark 구문을 사용하여 데이터 수집 및 처리하기.

• APPLY CHANGES INTO 구문을 사용하여 변경 데이터 캡처 피드 처리하기.

• 파이프라인 이벤트 로그 및 결과를 검토하여 DLT 구문 문제 해결.

• Databricks 워크스페이스, Apache Spark, Delta Lake, Medallion 아키텍처, Unity 카탈로그, Delta Live Tables, 워크플로우에 대한 경험을 포함하여 Databricks 플랫폼에 대한 강력한 지식이 있어야 합니다. 특히 DLT를 활용한 기대치 활용에 대한 지식이 있어야 합니다.

• 데이터 수집 및 변환 경험이 있어야 하며, 데이터 처리 및 DataFrame 조작을 위한 PySpark에 능숙해야 합니다. 또한 데이터 분석 및 변환을 위한 중급 수준의 • SQL 쿼리 작성 경험이 있어야 합니다.

• 함수와 클래스를 설계 및 구현하는 능력, Python 패키지 생성, 가져오기, 활용 경험 등 Python 프로그래밍에 능숙해야 합니다.

• DevOps 관행, 특히 continuous integration 및 continuous delivery/deployment (CI/CD) 원칙을 잘 알고 있어야 합니다.

• Git 버전 관리에 대한 기본적인 이해.

• 필수 과정 데이터 엔지니어링을 위한 DevOps 필수 과정.

Outline

Advanced Techniques with Spark Declarative Pipelines

• SDP에서의 다중 흐름, 기대치 및 액체 클러스터링 입문

• 데모 : 리퀴드 클러스터링 및 데이터 품질을 갖춘 Multi Flow SDP

• 다중화 스트리밍, Delta Sink 및 Iceberg Read 소개

• 데모 : Delta Sink 및 Iceberg Read를 활용한 다중 스트리밍 SDP

• 변경 데이터 캡처(CDC) 복습

• 데모 : Lakeflow Spark Declarative Pipelines에서 AUTO CDC를 활용한 SCD Type 2 자동화

• SDP에서의 고급 데이터 품질 검사 및 기대 사항

• 데모 : SDP에서의 고급 데이터 품질 검사 및 기대치

• 랩 - SDP를 활용한 멀티 소스 전자상거래 파이프라인 구축


Databricks Data Privacy

• 데이터 저장 안전하게

• Unity Catalog

• PII 데이터 보안

• 스트리밍 데이터 그리고 CDF


Databricks Performance Optimization

• Spark 아키텍처

• 기반 설계

• 코드 최적화

• 미세 튜닝: 올바른 클러스터 선택


Automated Deployment with Databricks Asset Bundles

• DevOps 및 CI/CD 검토

• 함께 배포 데이터브릭스 자산 번들들(DABs)

• 더 많이 활용하기 데이터브릭스 자산 번들

Upcoming Public Classes

Date
Time
Your Local Time
Language
Price
May 18 - 19
09 AM - 05 PM (Asia/Seoul)
-
Korean
$1500.00
Jun 23 - 24
09 AM - 05 PM (Asia/Seoul)
-
Korean
$1500.00
Jul 15 - 16
09 AM - 05 PM (Asia/Seoul)
-
Korean
$1500.00

Public Class Registration

If your company has purchased success credits or has a learning subscription, please fill out the Training Request form. Otherwise, you can register below.

Private Class Request

If your company is interested in private training, please submit a request.

See all our registration options

Registration options

Databricks has a delivery method for wherever you are on your learning journey

Runtime

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

지금 등록하세요

Instructors

Instructor-Led

Public and private courses taught by expert instructors across half-day to two-day courses

지금 등록하세요

Learning

Blended Learning

Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase

Purchase now

Scale

Skills@Scale

Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

Upcoming Public Classes

Data Engineer

Automated Deployment with Databricks Asset Bundles - Korean

이 과정은 DevOps 원칙과 이를 Databricks 프로젝트에 적용하는 방법을 포괄적으로 검토합니다. 핵심 DevOps, DataOps, 지continuous integration (CI), continuous deployment (CD), 테스트에 대한 개요로 시작하여 이러한 원칙을 데이터 엔지니어링 파이프라인에 적용하는 방법을 탐구합니다.

이어서 CI/CD 프로세스 내 지속적 배포에 초점을 맞추며, 프로젝트 배포를 위한 Databricks REST API, SDK, CLI와 같은 도구를 살펴봅니다. Databricks Asset Bundles(DAB)와 CI/CD 프로세스 내에서의 역할을 학습하게 됩니다. 주요 구성 요소, 폴더 구조, Databricks 내 다양한 대상 환경에 걸친 배포 간소화 방식을 심층적으로 다룹니다. 또한 Databricks CLI를 활용하여 서로 다른 구성의 다중 환경에 대해 변수 추가, 수정, 검증, 배포 및 실행하는 방법을 익히게 됩니다.

마지막으로, Visual Studio Code를 인터랙티브 개발 환경(IDE)으로 활용하여 로컬에서 Databricks Asset Bundles를 빌드, 테스트, 배포하는 방법을 소개함으로써 개발 프로세스를 최적화합니다. GitHub Actions를 활용한 배포 파이프라인 자동화를 통해 Databricks Asset Bundles의 CI/CD 워크플로우를 강화하는 방법에 대한 소개로 강좌를 마무리합니다.

본 과정 수료 시, Databricks Asset Bundles를 활용한 Databricks 프로젝트 배포 자동화 역량을 갖추게 되어 DevOps 관행을 통해 효율성을 향상시킬 수 있습니다.

Languages Available: English | 日本語 | Português BR | 한국어

Paid
4h
Lab
instructor-led
Professional
Data Engineer

Advanced Techniques with Spark Declarative Pipelines - Korean

이 과정은 프로덕션 수준의 스트리밍 파이프라인을 구축하기 위한 Databricks의 Lakeflow Spark Declarative Pipelines(SDP)를 심층적으로 다룹니다. 여러분은 실제 레이크하우스(Lakehouse) 엔지니어링에 필수적인 고급 설계 패턴, 견고한 데이터 품질 관리 기법, 그리고 크로스 플랫폼 통합 방안을 학습하게 될 것입니다.

과정 전반에 걸쳐 여러분은 최신 데이터 수집 및 처리 기법을 깊이 있게 탐구하며, 레이아웃 최적화를 위한 Liquid Clustering이나 혼합 스키마 이벤트를 처리하는 Multiplex Streaming 패턴과 같은 도구들을 완벽하게 익히게 됩니다. 모든 모듈을 마치고 나면, 스키마 진화(Schema Evolution)에 자신 있게 대처하고, 변경 데이터 캡처(CDC)를 자동화하며, 데이터 무결성을 확실하게 보장하는 방법을 습득하게 될 것입니다.

강의와 실습 데모를 통해 여러분은 다음과 같은 역량을 갖추게 됩니다.

• 다중 소스에서 유입되는 데이터를 단일화된 Bronze 테이블로 수집하는 다중 흐름(Multi-flow) 파이프라인을 구축합니다.

• 실버 및 골드 레이어 전반에 걸쳐 리퀴드 클러스터링과 데이터 품질 기대치를 적용합니다.

• 크로스 플랫폼 데이터 접근을 위해 Iceberg UniForm을 활용한 Multiplex 패턴을 구현합니다.

• `AUTO CDC INTO` 기능을 사용하여 SCD Type 2 이력 추적을 자동화합니다.

• 유효하지 않은 레코드를 감사하고 관리하기 위한, 데이터 손실이 전혀 없는 격리(Quarantine) 파이프라인을 설계합니다.

참고: Databricks Academy는 Databricks 환경 내의 대면 강의 형식을 노트북 기반 방식으로 전환함에 따라, 강의용 슬라이드 사용이 중단됩니다. Vocareum 랩 환경에서 강의용 노트북에 액세스할 수 있습니다.

Languages Available: English | 日本語 | Português BR | 한국어

Paid
4h
Lab
instructor-led
Professional

Questions?

If you have any questions, please refer to our Frequently Asked Questions page.