Deploy Workloads with Lakeflow Jobs - Korean
Lakeflow 작업를 사용하여 워크로드 배포 과정에서는 Databricks 에코시스템 내에서 통합 오케스트레이션 플랫폼으로 Lakeflow 작업를 사용하여 데이터, 분석 및 AI 워크플로를 오케스트레이션하고 자동화하는 방법을 설명합니다.
- DAG(Directed Acyclic Graphs)를 사용하여 데이터 워크로드를 설계 및 구현하고, 다양한 스케줄링 옵션을 구성하고, 조건부 태스크 실행, 실행-조건부 종속성 및 각 루프와 같은 고급 워크플로 기능을 구현하는 방법을 배웁니다.
- 이 과정에서는 적절한 컴퓨트 선택, 모듈식 오케스트레이션, 오류 처리 기술 및 내결함성 설계 - Databricks Data Intelligence Platform에 기본적으로 통합됨을 통해 강력한 프로덕션 준비 파이프라인을 만들기 위한 모범 사례를 다룹니다.
Languages Available: English | 日本語 | Português BR | 한국어
- - "데이터 엔지니어링을 위한 Databricks 시작하기" 과정을 이수하거나 과정을 완료하거나 Databricks Data Intelligence Platform
- Databricks Workspace 탐색, Apache Spark, Delta Lake, 메달리온 아키텍처 및 Unity Catalog과 같은 주제에 대한 기본 이해에 대한 확실한 이해.
- Python/PySpark
에 대한 지식 - 중급 SQL 쿼리 작성 경험.
Self-Paced
Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos
Registration options
Databricks has a delivery method for wherever you are on your learning journey
Self-Paced
Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos
지금 등록하세요Instructor-Led
Public and private courses taught by expert instructors across half-day to two-day courses
지금 등록하세요Blended Learning
Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase
Purchase nowSkills@Scale
Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

