주요 컨텐츠로 이동

Data Analysis with Databricks - Korean

이 교육 과정에서는 Databricks SQL에 대한 포괄적인 소개를 제공합니다. 학습자는 데이터를 수집하고, 쿼리를 작성하고, 시각화 및 대시보드를 만들고, 알림을 구성합니다. 이 과정을 통해 Databricks 공인 데이터 분석가 자격증 시험을 준비할 수 있습니다.
이 과정은 4시간짜리 두 개의 모듈로 구성됩니다.

 

SQL Analytics on Databricks

이 과정에서는 Databricks SQL에 특히 초점을 맞춰 Databricks를 사용하여 데이터 분석을 효과적으로 수행하는 방법을 학습합니다. Databricks 데이터 애널리스트로서 귀하의 책임에는 관련 데이터를 찾고, 잠재적인 응용 프로그램을 위해 데이터를 분석하고, 귀중한 비즈니스 통찰력을 제공하는 형식으로 데이터를 변환하는 것이 포함됩니다. 

또한 Databricks Data Intelligence Platform에서 Notebooks, SQL Editor, Databricks SQL과 같은 도구를 사용하여 데이터 객체를 관리하는 역할과 이를 조작하는 방법을 이해하게 됩니다. 

또한, 데이터 자산과 전반적인 플랫폼을 관리하는 데 있어 Unity Catalog의 중요성에 대해서도 알아봅니다. 마지막으로, 이 과정에서는 Databricks가 어떻게 성능 최적화를 용이하게 하는지에 대한 개요를 제공하고, Databricks에서 SQL 분석을 실행할 때 내부적으로 발생하는 프로세스를 이해하기 위해 Query Insights에 액세스하는 방법을 알려드립니다.


AI/BI for Data Analysts

이 과정에서는 비즈니스 인텔리전스 요구 사항을 충족하기 위해 Databricks가 제공하는 기능을 사용하는 방법을 알아봅니다. AI/BI 대시보드 및 AI/BI Genie. Databricks 데이터 애널리스트는 플랫폼 내에서 AI/BI 대시보드와 AI/BI Genie Spaces를 만들고, 이해 관계자와 필수 당사자가 이러한 자산에 액세스하는 것을 관리하고, 자산이 수명 동안 편집, 새로 고침 또는 폐기될 때 이러한 자산을 유지 관리하는 태스크를 맡게 됩니다. 이 과정에서는 참가자에게 비즈니스 통찰력을 위한 대시보드를 디자인하는 방법, 이를 공동 작업자 및 이해관계자와 공유하는 방법, 플랫폼 내에서 해당 자산을 유지하는 방법을 교육합니다. 참가자는 또한 Databricks Data Intelligence Engine을 기반으로 하는 AI/BI Genie Spaces를 활용하여 셀프 서비스 분석을 지원하는 방법을 배웁니다.


Languages Available: English | 日本語 | Português BR | 한국어

Skill Level
Associate
Duration
8h
Prerequisites
  • 데이터 분석 목적으로 SQL을 사용하는 방법에 대한 실무 지식. 
  • 데이터가 어떻게 생성, 저장, 관리되는지 잘 알고 있어야 합니다. 
  • 통계 분석에 대한 기본적인 이해. 
  • CSV, JSON, TXT, Parquet 등 특정 데이터 형식의 구조와 정의적 특성을 이해합니다. - Databricks Data Intelligence Platform의 사용자 인터페이스에 익숙해야 합니다.
  • Databricks에서 기존 데이터 테이블을 쿼리하기 위한 SQL에 대한 기본적인 이해.
  • Databricks Workspace UI에 대한 사전 경험이나 기본적인 지식.
  • 통계 분석 결과의 목적과 용도에 대한 기본적인 이해.
  • 비즈니스 인텔리전스에 사용되는 대시보드와 관련된 개념에 익숙합니다.

Outline

SQL Analytics on Databricks

데이터 탐색

Unity Catalog를 데이터 검색 도구로 사용하기
데이터 개체 소유권 이해하기

Unity Catalog를 사용하여 데이터세트 찾아보기 및 검사하기

데이터 가져오기 

데이터를 Databricks로 수집하기

UI를 사용하여 Databricks에 데이터 업로드하기

Unity Catalog에 대한 프로그래매틱 탐색 및 데이터 수집

Databricks로 데이터 가져오기


SQL 실행 

Databricks SQL 및 Databricks SQL 웨어하우스

통합 SQL 편집기 

Databricks SQL을 사용한 데이터 조작 및 변환

Databricks SQL을 사용하여 뷰 만들기

테이블 조작 및 분석


쿼리 분석

Databricks Photon 및 Databricks의 최적화

쿼리 인사이트 

SQL 분석을 위한 모범 사례


AI/BI for Data Analysts

Databricks의 대시보드 및 시각화

소개 및 개요

AI/BI 대시보드

기본적인 SQL

대시보드를 위한 데이터 세트 설계

시각화 만들기 및 대시보드에 요약 통계 추가

AI 강화 기능

필터 및 매개변수

이해 관계자 및 기타 사람들과 대시보드 공유

프로덕션에서 대시보드 관리 데모

대시보드 및 시각화 랩 활동


AI/BI Genie

소개 및 개요

AI/BI Genie

Developing Genie Spaces

Genie Spaces 공유

Genie Space 유지

AI/BI Genie 개발 활동 랩

Public Class Registration

If your company has purchased success credits or has a learning subscription, please fill out the Training Request form. Otherwise, you can register below.

Private Class Request

If your company is interested in private training, please submit a request.

See all our registration options

Registration options

Databricks has a delivery method for wherever you are on your learning journey

Runtime

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

Register now

Instructors

Instructor-Led

Public and private courses taught by expert instructors across half-day to two-day courses

Register now

Learning

Blended Learning

Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase

Purchase now

Scale

Skills@Scale

Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

Upcoming Public Classes

Apache Spark Developer

Apache Spark™ Programming with Databricks - Korean

이 과정은 Databricks를 사용하여 Apache Spark 프로그래밍을 배우기 위한 적절한 시작점 역할을 합니다.

아래에서는 이 과정에 포함된 4개의 4시간짜리 모듈을 각각 설명합니다.

Introduction to Apache Spark

이 과정은 분산 아키텍처와 대규모 데이터 처리를 위한 실제 응용 프로그램에 중점을 두고 Apache Spark™에 대한 필수 지식을 제공합니다. 참가자는 프로그래밍 프레임워크를 탐색하고 Spark DataFrame API를 배우며 Python 기반 Spark 워크플로를 사용하여 데이터를 읽고, 쓰고, 변환하는 기술을 개발하십시오. 

Developing Applications with Apache Spark

이 실습 과정에서 Apache Spark로 확장 가능한 데이터 처리를 마스터하세요. Spark의 DataFrame API를 사용하여 효율적인 ETL 파이프라인을 구축하고, 고급 분석을 수행하며, 분산 데이터 변환을 최적화하는 방법을 알아보세요. 그룹화, 집계, 조인, 집합 연산 및 창 함수를 살펴봅니다. 배열, 맵, 구조체와 같은 복잡한 데이터 유형으로 작업하면서 성능 최적화를 위한 모범 사례를 적용하세요.

Stream Processing and Analysis with Apache Spark

이 과정에서 Apache Spark를 사용하여 스트림 처리 및 분석의 기본 사항을 알아보세요.™ 스트림 처리 기본 사항에 대한 확실한 이해를 얻고 Spark Structured Streaming API를 사용하여 애플리케이션을 개발합니다. 스트림 집계 및 창 분석과 같은 고급 기술을 탐색하여 실시간 데이터를 효율적으로 처리하세요. 이 과정에서는 동적 데이터 환경을 위한 확장 가능하고 장애에 강한 스트리밍 애플리케이션을 만드는 기술을 습득합니다.

Monitoring and Optimizing Apache Spark Workloads on Databricks

이 과정에서는 안전한 데이터 거버넌스, 액세스 제어 및 계보 추적을 위한 Unity Catalog에 중점을 두고 확장 가능한 데이터 워크플로를 위한 레이크하우스 아키텍처 및 메달리온 설계를 살펴봅니다. 커리큘럼에는 Delta Lake를 사용하여 신뢰할 수 있는 ACID 호환 파이프라인 구축이 포함됩니다. 파티셔닝, 캐싱, 쿼리 튜닝과 같은 Spark 최적화 기술을 살펴보고 실제 문제를 해결하기 위한 효율적인 데이터 엔지니어링 및 분석을 위한 성능 모니터링, 문제 해결 및 모범 사례를 배웁니다.

Languages Available: English | 日本語 | 한국어

Paid
16h
Lab
instructor-led
Associate

Questions?

If you have any questions, please refer to our Frequently Asked Questions page.