주요 컨텐츠로 이동

Databricks Streaming and Lakeflow Declarative Pipelines - Korean

이 과정에서는 계산 모델, 스트리밍 읽기를 위한 구성, 스트리밍 환경에서의 데이터 품질 유지 관리 등 Spark Structured Streaming 및 Delta Lake에 대한 포괄적인 이해를 제공합니다.


Languages Available: English | 日本語 | Português BR | 한국어

Skill Level
Professional
Duration
4h
Prerequisites
  • - Databricks 데이터 엔지니어링 및 데이터 과학 작업 영역을 사용하여 기본 코드 개발 작업 수행 능력(클러스터 생성, Notebooks에서 코드 실행, 기본 노트북 작업 사용, Git에서 Repos 가져오기 등)

- PySpark

 중급 프로그래밍 경험- 다양한 파일 형식 및 데이터 소스

에서 데이터 추출- 정제된 데이터를

 위해 여러 가지 일반적인 변환 적용- 고급 내장 기능을

 사용하여 복잡한 데이터 재구성 및 조작- Delta Lake 중급 프로그래밍 경험 (테이블 생성, 전체 및 증분 업데이트 수행, 파일 압축, 이전 버전 복원 등) 

 Lakeflow Declarative Pipelines UI 

를 사용하여 데이터 파이프라인 구성 및 예약에 대한 초급 경험 - PySpark 

 구문을 사용하여 Lakeflow Declarative Pipelines 정의에 대한 초급 경험 - Auto Loader 및 PySpark 구문

을 사용하여 데이터 수집 및 처리 - APPLY CHANGES INTO 구문

을 사용하여 변경 데이터 캡처 피드 처리 - 파이프라인 이벤트 로그 및 결과를 검토하여 선언적 Pipeline 구문 문제 해결 

Public Class Registration

If your company has purchased success credits or has a learning subscription, please fill out the Training Request form. Otherwise, you can register below.

Private Class Request

If your company is interested in private training, please submit a request.

See all our registration options

Registration options

Databricks has a delivery method for wherever you are on your learning journey

Runtime

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

Register now

Instructors

Instructor-Led

Public and private courses taught by expert instructors across half-day to two-day courses

Register now

Learning

Blended Learning

Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase

Purchase now

Scale

Skills@Scale

Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

Upcoming Public Classes

Questions?

If you have any questions, please refer to our Frequently Asked Questions page.