주요 컨텐츠로 이동

Advanced Data Engineering with Databricks - Korean

이 과정은 고급 데이터 엔지니어링 with Databricks를 배우기 위한 적절한 입문 과정입니다. 

아래에서는 이 과정에 포함된 4개의 4시간짜리 모듈에 대해 각각 설명합니다.


Databricks Streaming and Delta Live Tables

Databricks 스트리밍 및 Delta Live Tables(SDLT) 과정은 학생들이 Databricks Certified Professional Data Engineer 인증 시험에 대비하도록 설계되었습니다. 이 과정의 콘텐츠는 데이터 엔지니어 학습 경로의 전문가 수준 모듈로 구성되어 있으며 강사가 진행하는 교육(ILT)으로 제공될 수 있습니다.


Databricks Data Privacy

이 콘텐츠는 Databricks 내에서 데이터 개인 정보를 관리하는 방법에 대한 포괄적인 가이드를 제공합니다. 여기에는 Delta Lake 아키텍처, 지역 데이터 격리, GDPR/CCPA 준수, Change Data Feed (CDF) 사용과 같은 주요 주제가 포함됩니다. 실습 데모와 실습 랩을 통해 참가자는 Unity Catalog 기능을 사용하여 민감한 데이터를 보호하고 규정 준수를 보장하는 방법을 배우고, 데이터 무결성을 효과적으로 보호할 수 있는 역량을 강화합니다.


Databricks Performance Optimization

이 과정에서는 Spark와 Delta Lake를 이용하여 워크로드와 물리적 레이아웃을 최적화하는 방법과 Spark UI를 분석하여 성능을 평가하고 애플리케이션을 디버깅하는 방법을 알아봅니다. 스트리밍, liquid 클러스터링, 데이터 스키핑, 캐싱, photon 등의 주제를 다룹니다.


Automated Deployment with Databricks Asset Bundles

이 과정에서는 DevOps 원칙과 이를 Databricks 프로젝트에 적용하는 방법을 포괄적으로 살펴봅니다. 이 과정은 핵심 DevOps, DataOps, continuous integration (CI), continuous deployment (CD) 및 테스트에 대한 개요부터 시작하여 이러한 원칙을 데이터 엔지니어링 파이프라인에 어떻게 적용할 수 있는지 알아봅니다.


그런 다음 이 과정은 CI/CD 프로세스 내에서 지속적 배포에 초점을 맞추고 프로젝트 배포를 위한 Databricks REST API, SDK, CLI와 같은 도구를 살펴봅니다. Databricks Asset Bundles (DAB)에 대해 알아보고 이것이 CI/CD 프로세스에 어떻게 적용되는지 알아보겠습니다. Databricks Asset Bundles의 핵심 구성 요소, 폴더 구조 및 이를 통해 다양한 대상 환경에서 배포를 간소화하는 방법에 대해 자세히 알아보겠습니다. 또한 Databricks CLI를 사용하여 다양한 구성의 여러 환경에서 Databricks Asset Bundles를 변수 추가, 수정, 검증, 배포 및 실행하는 방법도 알아봅니다.


마지막으로, 이 과정에서는 Databricks Asset Bundles를 로컬에서 빌드, 테스트 및 배포하여 개발 프로세스를 최적화하기 위한 대화형 개발 환경(IDE)인 Visual Studio Code를 소개합니다. 이 과정은 Databricks Asset Bundles를 사용하여 CI/CD 워크플로를 개선하기 위해 GitHub Actions를 사용하여 배포 파이프라인을 자동화하는 방법을 소개하면서 마무리됩니다.


이 과정을 마치면 Databricks Asset Bundles를 사용하여 Databricks 프로젝트 배포를 자동화하고 DevOps 방식을 통해 효율성을 개선할 수 있습니다.


Languages Available: English | 日本語 | Português BR | 한국어


Languages Available: English | 日本語 | Português BR | 한국어

Skill Level
Professional
Duration
16h
Prerequisites
  • Databricks 데이터 엔지니어링 및 데이터 과학 작업 공간을 사용하여 기본 코드 개발 작업을 수행할 수 있는 능력(클러스터 생성, 노트북에서 코드 실행, 기본 노트북 작업 사용, git에서 리포지토리 가져오기 등)
  • PySpark를 사용한 중급 프로그래밍 경험
  • 다양한 파일 형식 및 데이터 소스에서 데이터 추출
  • 데이터를 정리하기 위해 여러 가지 일반적인 변환을 적용합니다.
  • 고급 내장 함수를 사용하여 복잡한 데이터 재구성 및 조작
  • Delta Lake를 사용한 중급 프로그래밍 경험(테이블 생성, 전체 및 증분 업데이트 수행, 파일 압축, 이전 버전 복원 등)
  • Delta Live Tables (DLT) UI를 사용하여 데이터 파이프라인을 구성하고 예약하는 초급 경험 보유
  • PySpark를 사용하여 Delta Live Tables 파이프라인을 정의하는 초급 사용자 경험
  • Auto Loader 및 PySpark 구문을 사용하여 데이터 수집 및 처리하기
  • APPLY CHANGES INTO 구문을 사용하여 변경 데이터 캡처 피드 처리하기
  • 파이프라인 이벤트 로그 및 결과를 검토하여 DLT 구문 문제 해결
  • Databricks 워크스페이스, Apache Spark, Delta Lake, Medallion 아키텍처, Unity 카탈로그, Delta Live Tables, 워크플로우에 대한 경험을 포함하여 Databricks 플랫폼에 대한 강력한 지식이 있어야 합니다. 특히 DLT를 활용한 기대치 활용에 대한 지식이 있어야 합니다.
  • 데이터 수집 및 변환 경험이 있어야 하며, 데이터 처리 및 DataFrame 조작을 위한 PySpark에 능숙해야 합니다. 또한 데이터 분석 및 변환을 위한 중급 수준의 SQL 쿼리 작성 경험이 있어야 합니다.
  • 함수와 클래스를 설계 및 구현하는 능력, Python 패키지 생성, 가져오기, 활용 경험 등 Python 프로그래밍에 능숙해야 합니다.
  • DevOps 관행, 특히 continuous integration 및 continuous delivery/deployment (CI/CD) 원칙을 잘 알고 있어야 합니다.
  • Git 버전 관리에 대한 기본적인 이해.
  • 필수 과정 데이터 엔지니어링을 위한 DevOps 필수 과정

Upcoming Public Classes

Date
Time
Language
Price
Nov 10 - 11
09 AM - 05 PM (Asia/Seoul)
Korean
$1500.00
Dec 10 - 11
09 AM - 05 PM (Asia/Seoul)
Korean
$1500.00
Jan 12 - 13
09 AM - 05 PM (Asia/Seoul)
Korean
$1500.00

Public Class Registration

If your company has purchased success credits or has a learning subscription, please fill out the Training Request form. Otherwise, you can register below.

Private Class Request

If your company is interested in private training, please submit a request.

See all our registration options

Registration options

Databricks has a delivery method for wherever you are on your learning journey

Runtime

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

Register now

Instructors

Instructor-Led

Public and private courses taught by expert instructors across half-day to two-day courses

Register now

Learning

Blended Learning

Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase

Purchase now

Scale

Skills@Scale

Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

Upcoming Public Classes

Apache Spark Developer

Apache Spark™ Programming with Databricks - Korean

이 과정은 Databricks를 사용하여 Apache Spark 프로그래밍을 배우기 위한 적절한 시작점 역할을 합니다.

아래에서는 이 과정에 포함된 4개의 4시간짜리 모듈을 각각 설명합니다.

Introduction to Apache Spark

이 과정은 분산 아키텍처와 대규모 데이터 처리를 위한 실제 응용 프로그램에 중점을 두고 Apache Spark™에 대한 필수 지식을 제공합니다. 참가자는 프로그래밍 프레임워크를 탐색하고 Spark DataFrame API를 배우며 Python 기반 Spark 워크플로를 사용하여 데이터를 읽고, 쓰고, 변환하는 기술을 개발하십시오. 

Developing Applications with Apache Spark

이 실습 과정에서 Apache Spark로 확장 가능한 데이터 처리를 마스터하세요. Spark의 DataFrame API를 사용하여 효율적인 ETL 파이프라인을 구축하고, 고급 분석을 수행하며, 분산 데이터 변환을 최적화하는 방법을 알아보세요. 그룹화, 집계, 조인, 집합 연산 및 창 함수를 살펴봅니다. 배열, 맵, 구조체와 같은 복잡한 데이터 유형으로 작업하면서 성능 최적화를 위한 모범 사례를 적용하세요.

Stream Processing and Analysis with Apache Spark

이 과정에서 Apache Spark를 사용하여 스트림 처리 및 분석의 기본 사항을 알아보세요.™ 스트림 처리 기본 사항에 대한 확실한 이해를 얻고 Spark Structured Streaming API를 사용하여 애플리케이션을 개발합니다. 스트림 집계 및 창 분석과 같은 고급 기술을 탐색하여 실시간 데이터를 효율적으로 처리하세요. 이 과정에서는 동적 데이터 환경을 위한 확장 가능하고 장애에 강한 스트리밍 애플리케이션을 만드는 기술을 습득합니다.

Monitoring and Optimizing Apache Spark Workloads on Databricks

이 과정에서는 안전한 데이터 거버넌스, 액세스 제어 및 계보 추적을 위한 Unity Catalog에 중점을 두고 확장 가능한 데이터 워크플로를 위한 레이크하우스 아키텍처 및 메달리온 설계를 살펴봅니다. 커리큘럼에는 Delta Lake를 사용하여 신뢰할 수 있는 ACID 호환 파이프라인 구축이 포함됩니다. 파티셔닝, 캐싱, 쿼리 튜닝과 같은 Spark 최적화 기술을 살펴보고 실제 문제를 해결하기 위한 효율적인 데이터 엔지니어링 및 분석을 위한 성능 모니터링, 문제 해결 및 모범 사례를 배웁니다.

Languages Available: English | 日本語 | 한국어

Paid
16h
Lab
instructor-led
Associate

Questions?

If you have any questions, please refer to our Frequently Asked Questions page.