주요 컨텐츠로 이동

Databricks Performance Optimization - Korean

이 과정에서는 Spark와 Delta Lake를 활용해 워크로드와 물리적 레이아웃을 최적화하는 방법을 배우고, Spark UI를 분석하여 성능을 평가하고 애플리케이션을 디버깅하는 방법을 익히게 됩니다. 스트리밍, 유동적 클러스터링, 데이터 스키핑, 캐싱, 포토네이션 등 다양한 주제를 다룰 예정입니다. 


Languages Available: English | 日本語 | Português BR | 한국어

Skill Level
Professional
Duration
4h
Prerequisites

이 콘텐츠는 다음과 같은 기술/지식/능력을 갖춘 참가자를 위해 개발되었습니다 :

• Databricks를 사용하여 기본적인 코드 개발 태스크 수행 능력 (클러스터 생성, 노트북에서 코드 실행, 기본 노트북 작업 사용, git에서 저장소 가져오기 등)

• 다양한 파일 형식의 데이터 소스에서 데이터를 추출하고, 일반적인 변환을 적용하여 데이터를 정리하며, 고급 내장 함수를 사용하여 복잡한 데이터를 재구성 및 조작하는 등 PySpark에 대한 중급 프로그래밍 경험

• 테이블 생성, 완전 및 증분 업데이트 수행, 파일 압축, 이전 버전 복원 등 Delta Lake에 대한 중급 프로그래밍 경험

Upcoming Public Classes

Date
Time
Language
Price
Mar 06
09 AM - 01 PM (Asia/Seoul)
Korean
$750.00

Public Class Registration

If your company has purchased success credits or has a learning subscription, please fill out the Training Request form. Otherwise, you can register below.

Private Class Request

If your company is interested in private training, please submit a request.

See all our registration options

Registration options

Databricks has a delivery method for wherever you are on your learning journey

Runtime

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

지금 등록하세요

Instructors

Instructor-Led

Public and private courses taught by expert instructors across half-day to two-day courses

지금 등록하세요

Learning

Blended Learning

Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase

Purchase now

Scale

Skills@Scale

Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

Upcoming Public Classes

Data Engineer

Build Data Pipelines with Lakeflow Spark Declarative Pipelines - Korean

이 과정은 Databricks의 Lakeflow Spark Declarative Pipelines을 사용하여 증분 배치 또는 스트리밍 수집 및 처리를 위해 여러 스트리밍 테이블과 구체화된 뷰를 통해 데이터 파이프라인을 구축하는 데 필요한 핵심 개념과 기술을 소개합니다. Spark Declarative Pipelines을 처음 접하는 데이터 엔지니어를 위해 설계된 이 과정은 증분 데이터 처리, 스트리밍 테이블, 구체화된 뷰, 임시 뷰와 같은 핵심 구성 요소에 대한 포괄적인 개요를 제공하며, 각각의 특정 목적과 차이점을 강조합니다.

다루는 주제는 다음과 같습니다:

- SQL을 사용한 Spark Declarative Pipelines의 다중 파일 편집기로 ETL 파이프라인 개발 및 디버깅 (Python 코드 예제 제공)

- 파이프라인 그래프를 통해 Spark Declarative Pipelines이 파이프라인 내 데이터 종속성을 추적하는 방법

- 파이프라인 compute 리소스, 데이터 자산, 트리거 모드 및 기타 고급 옵션 구성

이어서 본 과정은 Spark Declarative Pipelines에서의 데이터 품질 기대치를 소개하며, 데이터 무결성을 검증하고 강제하기 위해 이러한 기대치를 파이프라인에 통합하는 과정을 안내합니다. 학습자는 스케줄링 옵션 포함 파이프라인을 프로덕션 환경에 배포하는 방법과 파이프라인 성능 및 상태 모니터링을 위한 이벤트 로깅 활성화 방법을 탐구하게 됩니다.

마지막으로, 본 과정은 Spark Declarative Pipelines 내에서 AUTO CDC INTO 구문을 사용하여 변경 데이터 캡처(CDC)를 구현하는 방법을 다루며, 이를 통해 느리게 변경되는 차원(SCD Type 1 및 Type 2)을 관리하고 사용자가 자신의 파이프라인에 CDC를 통합할 수 있도록 준비시킵니다.

Languages Available: English | 日本語 | Português BR | 한국어

Paid
4h
Lab
instructor-led
Associate
Data Engineer

Data Ingestion with Lakeflow Connect - Korean

이 과정에서는 다양한 소스에서 Databricks로 데이터를 수집하기 위한 확장 가능하고 간소화된 솔루션인 Lakeflow Connect에 대한 포괄적인 소개를 제공합니다. 먼저 다양한 유형의 Lakeflow Connect 커넥터(표준 및 관리형)를 탐색하고 배치, 증분 배치 및 스트리밍 수집을 포함한 다양한 데이터 수집 기술을 알아봅니다. 또한 Delta 테이블 및 Medallion 아키텍처를 사용할 때의 주요 이점도 검토합니다.

다음으로, Lakeflow Connect 표준 커넥터를 사용하여 클라우드 객체 스토리지에서 데이터를 수집하기 위한 실용적인 기술을 개발합니다. 여기에는 CREATE TABLE AS SELECT(CTAS), COPY INTO 및 Auto Loader와 같은 방법을 사용하는 작업이 포함되며 각 방법의 이점과 고려 사항에 중점을 둡니다. 또한 Databricks Data Intelligence Platform로 수집하는 동안 브론즈 수준 테이블에 메타데이터 열을 추가하는 방법도 알아봅니다. 그런 다음 이 과정에서는 복구된 데이터 열을 사용하여 테이블 스키마와 일치하지 않는 레코드를 처리하는 방법과 이 데이터를 관리하고 분석하기 위한 전략을 다룹니다. 또한 반정형 JSON 데이터를 수집하고 평면화하는 기술을 살펴봅니다.

그런 다음 Lakeflow Connect 관리형 커넥터를 사용하여 엔터프라이즈급 데이터 수집을 수행하여 데이터베이스 및 SaaS(Software-as-a-Service) 애플리케이션에서 데이터를 가져오는 방법을 살펴봅니다. 또한 이 과정에서는 파트너 도구를 수집 워크플로우에 통합하기 위한 옵션으로 Partner Connect를 소개합니다.

마지막으로, 이 과정은 MERGE INTO 작업 및 Databricks Marketplace 활용을 포함한 대체 수집 전략으로 마무리하여 최신 데이터 엔지니어링 사용 사례를 지원할 수 있는 강력한 기반을 제공합니다.

Languages Available: English | 日本語 | Português BR | 한국어

Paid
4h
Lab
instructor-led
Associate

Questions?

If you have any questions, please refer to our Frequently Asked Questions page.