주요 컨텐츠로 이동

Get Started with SQL Analytics and BI on Databricks - Korean

이 과정에서는 Databricks Data Intelligence Platform을 사용하여 간단한 데이터 분석 워크플로를 수행하고 데이터 웨어하우징 작업을 지원하는 데 필요한 기본 기술을 학습합니다. 작업 공간을 둘러보고 카탈로그, 스키마, 테이블, 컴퓨팅 클러스터, 노트북, 대시보드 등 Databricks의 데이터 객체를 사용하는 방법을 보여드립니다. 그런 다음 기본 데이터 분석 워크플로에 따라 Databricks SQL을 사용하여 데이터를 조작하고, Delta Lake 버전 로그를 사용하여 시간 여행을 하고, 플랫폼 내에서 대시보드를 만들고, 자연어 프롬프트를 사용하여 데이터 탐색을 위한 Genie Space를 만드는 등의 작업을 수행합니다. 또한 Databricks SQL, Delta Live Tables 및 Unity Catalog를 사용하여 Databricks가 데이터 웨어하우징 요구 사항을 어떻게 지원하는지 알아봅니다. Databricks Labs 구독을 구매하면 이 과정은 실제 Databricks Workspace 환경에서 학습한 내용을 연습할 수 있는 포괄적인 랩 연습으로 마무리됩니다.


Languages Available: English | 日本語 | Português BR | 한국어

Skill Level
Onboarding
Duration
3h
Prerequisites

콘텐츠는 다음과 같은 기술/지식/능력을 가진 참가자를 위해 개발되었습니다.  

  • 데이터 분석(SQL, 통계 분석, 데이터 준비 및 프레젠테이션을 포함한) 원칙 및 주제에 대한 기본적인 이해

Databricks Academy 콘텐츠는 제공된 Vocareum 환경에서만 실행되도록 설계되었습니다. Databricks는 콘텐츠가 다른 Databricks Workspace 인스턴스에서 성공적으로 실행될 수 있음을 보장하지 않습니다.

Outline

Databricks 개요

Databricks 인프라

Databricks Data Intelligence Platform

Unity Catalog 개요

Databricks Workspace 가이드


데이터 분석을 위한 Databricks 사용

Databricks에서의 데이터 분석 소개

Databricks에서 쿼리를 작성하는 방법

Databricks SQL과 함께 Databricks Assistant를 사용하는 방법

Delta Lake 개요

Databricks SQL과 함께 Delta Lake 기능 사용


Databricks AI/BI

AI/BI 소개

Databricks에서 대시보드 만들기

Genie Space 만들기

데이터 분석 통합 실습

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

See all our registration options

Registration options

Databricks has a delivery method for wherever you are on your learning journey

Runtime

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

Register now

Instructors

Instructor-Led

Public and private courses taught by expert instructors across half-day to two-day courses

Register now

Learning

Blended Learning

Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase

Purchase now

Scale

Skills@Scale

Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

Upcoming Public Classes

Data Engineer

Build Data Pipelines with Lakeflow Declarative Pipelines - Korean

이 과정에서는 여러 스트리밍 테이블과 구체화된 보기를 통한 증분 배치 또는 스트리밍 수집 및 처리를 위해 Databricks의 Lakeflow 선언적 파이프라인를 사용하여 데이터 파이프라인을 구축하는 데 필요한 필수 개념과 기술을 사용자에게 소개합니다. Lakeflow 선언적 파이프라인를 처음 접하는 데이터 엔지니어를 위해 설계된 이 과정은 증분 데이터 처리, 스트리밍 테이블, 구체화된 보기 및 임시 보기와 같은 핵심 구성 요소에 대한 포괄적인 개요를 제공하고 구체적인 목적과 차이점을 강조합니다.

다루는 주제는 다음과 같습니다.

- SQL을 사용하여 Lakeflow의 다중 파일 편집기로 ETL 파이프라인 개발 및 디버깅 (Python 코드 예제 제공)

- Lakeflow 선언적 파이프라인이 파이프라인 그래프

를 통해 파이프라인의 데이터 종속성을 추적하는 방법- 파이프라인 컴퓨팅 리소스, 데이터 자산, 트리거 모드 및 기타 고급 옵션

 구성 다음으로, 이 과정에서는 Lakeflow의 데이터 품질 기대치를 소개하고, 데이터 무결성을 검증하고 적용하기 위해 기대치를 파이프라인에 통합하는 프로세스를 안내합니다. 그런 다음 학습자는 스케줄링 옵션, 프로덕션 모드, 파이프라인 이벤트 로깅을 활성화하여 파이프라인 성능 및 상태를 모니터링하는 등 파이프라인을 프로덕션에 적용하는 방법을 살펴봅니다.

마지막으로, 이 과정에서는 Lakeflow Declarative Pipelines 내에서 APPLY CHANGES INTO 구문을 사용하여 Change Data Capture  (CDC)를 구현하여 느리게 변화하는 차원(SCD 유형 1 및 유형 2)을 관리하여 사용자가 CDC를 자신의 파이프라인에 통합할 수 있도록 준비하는 방법을 다룹니다.

Languages Available: English | 日本語 | Português BR | 한국어

Paid & Subscription
4h
Lab
Associate

Questions?

If you have any questions, please refer to our Frequently Asked Questions page.