주요 컨텐츠로 이동

Deploy Workloads with Lakeflow Jobs - Korean

Lakeflow 작업를 사용하여 워크로드 배포 과정에서는 Databricks 에코시스템 내에서 통합 오케스트레이션 플랫폼으로 Lakeflow 작업를 사용하여 데이터, 분석 및 AI 워크플로를 오케스트레이션하고 자동화하는 방법을 설명합니다. 

- DAG(Directed Acyclic Graphs)를 사용하여 데이터 워크로드를 설계 및 구현하고, 다양한 스케줄링 옵션을 구성하고, 조건부 태스크 실행, 실행-조건부 종속성 및 각 루프와 같은 고급 워크플로 기능을 구현하는 방법을 배웁니다. 

- 이 과정에서는 적절한 컴퓨트 선택, 모듈식 오케스트레이션, 오류 처리 기술 및 내결함성 설계 - Databricks Data Intelligence Platform에 기본적으로 통합됨을 통해 강력한 프로덕션 준비 파이프라인을 만들기 위한 모범 사례를 다룹니다.


Languages Available: English | 日本語 | Português BR | 한국어

Skill Level
Associate
Duration
4h
Prerequisites
  • - "데이터 엔지니어링을 위한 Databricks 시작하기" 과정을 이수하거나 과정을 완료하거나 Databricks Data Intelligence Platform

- Databricks Workspace 탐색, Apache Spark, Delta Lake, 메달리온 아키텍처 및 Unity Catalog과 같은 주제에 대한 기본 이해에 대한 확실한 이해.

- Python/PySpark 

에 대한 지식 - 중급 SQL 쿼리 작성 경험.


Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

See all our registration options

Registration options

Databricks has a delivery method for wherever you are on your learning journey

Runtime

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

Register now

Instructors

Instructor-Led

Public and private courses taught by expert instructors across half-day to two-day courses

Register now

Learning

Blended Learning

Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase

Purchase now

Scale

Skills@Scale

Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

Upcoming Public Classes

Data Engineer

DevOps Essentials for Data Engineering - Korean

이 과정에서는 Databricks를 사용하여 작업하는 데이터 엔지니어를 위해 특별히 설계된 소프트웨어 엔지니어링 모범 사례와 DevOps 원칙을 살펴봅니다. 참가자는 코드 품질, 버전 제어, 문서화, 테스트와 같은 핵심 주제에 대한 강력한 기반을 구축하게 됩니다. 이 과정에서는 DevOps를 강조하여 핵심 구성 요소, 이점, 데이터 엔지니어링 워크플로 최적화에서 지속적인 통합 및 배포(CI/CD)의 역할에 대해 다룹니다.

PySpark에서 모듈성 원칙을 적용하여 재사용 가능한 구성 요소를 만들고 효율적으로 코드를 구성하는 방법을 학습합니다. 실습 경험에는 pytest 프레임워크를 사용하여 PySpark 함수에 대한 단위 테스트를 설계하고 구현하는 것과 DLT 및 Workflows를 사용하여 Databricks 데이터 파이프라인에 대한 통합 테스트를 수행하여 안정성을 보장하는 것이 포함됩니다.

또한 이 과정에서는 Databricks Git 폴더를 사용하여 지속적인 통합 관행을 통합하는 것을 포함하여 Databricks 내에서 필수적인 Git 작업도 다룹니다. 마지막으로 REST API, CLI, SDK, Databricks Asset Bundles(DAB) 등 Databricks 자산에 대한 다양한 배포 방법을 간략하게 살펴보고 파이프라인을 배포하고 관리하는 기술에 대한 지식을 얻습니다.

과정을 마치면 소프트웨어 엔지니어링과 DevOps 모범 사례에 능숙해져서 확장 가능하고 유지 관리가 가능하며 효율적인 데이터 엔지니어링 솔루션을 구축할 수 있게 됩니다.

Languages Available: English | 日本語 | Português BR | 한국어

Free
2h
Associate

Questions?

If you have any questions, please refer to our Frequently Asked Questions page.