주요 컨텐츠로 이동

Data Preparation for Machine Learning - Korean

이 과정은 Databricks를 활용하여 머신러닝을 위한 데이터를 준비하는 기본 사항에 중점을 둡니다. 수강생들은 전통적인 머신러닝 애플리케이션에 적합한 데이터를 탐색, 정리 및 구성하는 데 필요한 핵심 기술을 습득하게 됩니다. 주요 주제로는 데이터 시각화, 특징 공학, 최적의 특징 저장 전략 등이 포함됩니다. 실습을 통해 수강생들은 Databricks 환경에서 머신러닝용 데이터 세트를 효율적으로 준비하는 실무 경험을 쌓게 됩니다. 본 과정은 준전문가 수준의 데이터 과학자 및 머신러닝 실무자, 그리고 데이터 준비 역량을 강화하여 성공적인 머신러닝 모델 배포를 위한 탄탄한 기반을 마련하고자 하는 분들을 대상으로 합니다. 


Languages Available: English | 日本語 | Português BR | 한국어

Skill Level
Associate
Duration
4h
Prerequisites

이 과정을 시작하기 전에 최소한 다음 사항에 익숙해야 합니다. :

• ‘머신러닝을 위한 Databricks 시작하기(온보딩)’ 과정을 수료했거나, Databricks 환경에서 작업하는 데 필요한 이에 상응하는 기초 지식을 갖추고 있어야 합니다.

    - 학습자는 Databricks 워크스페이스를 탐색하고, 노트북을 생성 및 실행하며, Databricks에서 기본적인 머신 러닝 워크플로를 이해하는 데 익숙해야 합니다. 이 과정은 그 기반을 바탕으로 머신 러닝을 위한 데이터 준비에 중점을 둡니다.

• 데이터 준비 및 분석을 위한 Python 프로그래밍 중급 숙련도.

    - 학습자는 pandas, numpy, scikit-learn과 같은 라이브러리를 사용하여 데이터 조작, 누락 값 처리, 기본 기능 변환에 익숙해야 합니다.

• 머신 러닝 기초에 대한 기본 이해.

    - 여기에는 학습 및 테스트 데이터셋, 기능 엔지니어링, 모델 개발 파이프라인과 같은 개념에 대한 친숙함이 포함됩니다.

• Databricks 플랫폼 워크플로에 대한 친숙함.

    - 학습자는 클러스터 생성, 노트북에서 코드 실행, 일반적인 노트북 작업 사용과 같은 기본 작업을 수행할 수 있어야 합니다.

• 데이터 형식과 레이크하우스 개념에 대한 기본 지식.

    - 학습자는 CSV, JSON, Parquet과 같은 일반적인 데이터 형식에 익숙하고, Delta Lake와 Lakehouse 아키텍처에 대한 기초 지식을 갖추고 있어야 합니다.

• 탐색적 데이터 분석 및 기본 통계에 대한 기초적인 이해가 필요합니다.

    - 여기에는 데이터 분포, 누락값, 이상치, 그리고 데이터 품질을 평가할 때 사용하는 간단한 데이터 시각화 기법에 대한 기본적인 이해가 포함됩니다.

Outline

데이터 관리 및 탐색

• Lakehouse에서 데이터 관리 및 탐색


데이터 준비 및 특성 엔지니어링

• 데이터 준비 및 특성 엔지니어링의 기초

• 데이터 결측값 처리

• 데이터 인코딩

• 데이터 표준화


특성 저장소

• 특성 저장소 소개

Upcoming Public Classes

Date
Time
Your Local Time
Language
Price
Jun 17
09 AM - 01 PM (Asia/Seoul)
-
Korean
$750.00

Public Class Registration

If your company has purchased success credits or has a learning subscription, please fill out the Training Request form. Otherwise, you can register below.

Private Class Request

If your company is interested in private training, please submit a request.

See all our registration options

Registration options

Databricks has a delivery method for wherever you are on your learning journey

Runtime

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

지금 등록하세요

Instructors

Instructor-Led

Public and private courses taught by expert instructors across half-day to two-day courses

지금 등록하세요

Learning

Blended Learning

Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase

Purchase now

Scale

Skills@Scale

Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

Upcoming Public Classes

Data Engineer

Automated Deployment with Databricks Asset Bundles - Korean

이 과정은 DevOps 원칙과 이를 Databricks 프로젝트에 적용하는 방법을 포괄적으로 검토합니다. 핵심 DevOps, DataOps, 지continuous integration (CI), continuous deployment (CD), 테스트에 대한 개요로 시작하여 이러한 원칙을 데이터 엔지니어링 파이프라인에 적용하는 방법을 탐구합니다.

이어서 CI/CD 프로세스 내 지속적 배포에 초점을 맞추며, 프로젝트 배포를 위한 Databricks REST API, SDK, CLI와 같은 도구를 살펴봅니다. Databricks Asset Bundles(DAB)와 CI/CD 프로세스 내에서의 역할을 학습하게 됩니다. 주요 구성 요소, 폴더 구조, Databricks 내 다양한 대상 환경에 걸친 배포 간소화 방식을 심층적으로 다룹니다. 또한 Databricks CLI를 활용하여 서로 다른 구성의 다중 환경에 대해 변수 추가, 수정, 검증, 배포 및 실행하는 방법을 익히게 됩니다.

마지막으로, Visual Studio Code를 인터랙티브 개발 환경(IDE)으로 활용하여 로컬에서 Databricks Asset Bundles를 빌드, 테스트, 배포하는 방법을 소개함으로써 개발 프로세스를 최적화합니다. GitHub Actions를 활용한 배포 파이프라인 자동화를 통해 Databricks Asset Bundles의 CI/CD 워크플로우를 강화하는 방법에 대한 소개로 강좌를 마무리합니다.

본 과정 수료 시, Databricks Asset Bundles를 활용한 Databricks 프로젝트 배포 자동화 역량을 갖추게 되어 DevOps 관행을 통해 효율성을 향상시킬 수 있습니다.

Languages Available: English | 日本語 | Português BR | 한국어

Paid
4h
Lab
instructor-led
Professional
Data Engineer

Advanced Techniques with Spark Declarative Pipelines - Korean

이 과정은 프로덕션 수준의 스트리밍 파이프라인을 구축하기 위한 Databricks의 Lakeflow Spark Declarative Pipelines(SDP)를 심층적으로 다룹니다. 여러분은 실제 레이크하우스(Lakehouse) 엔지니어링에 필수적인 고급 설계 패턴, 견고한 데이터 품질 관리 기법, 그리고 크로스 플랫폼 통합 방안을 학습하게 될 것입니다.

과정 전반에 걸쳐 여러분은 최신 데이터 수집 및 처리 기법을 깊이 있게 탐구하며, 레이아웃 최적화를 위한 Liquid Clustering이나 혼합 스키마 이벤트를 처리하는 Multiplex Streaming 패턴과 같은 도구들을 완벽하게 익히게 됩니다. 모든 모듈을 마치고 나면, 스키마 진화(Schema Evolution)에 자신 있게 대처하고, 변경 데이터 캡처(CDC)를 자동화하며, 데이터 무결성을 확실하게 보장하는 방법을 습득하게 될 것입니다.

강의와 실습 데모를 통해 여러분은 다음과 같은 역량을 갖추게 됩니다.

• 다중 소스에서 유입되는 데이터를 단일화된 Bronze 테이블로 수집하는 다중 흐름(Multi-flow) 파이프라인을 구축합니다.

• 실버 및 골드 레이어 전반에 걸쳐 리퀴드 클러스터링과 데이터 품질 기대치를 적용합니다.

• 크로스 플랫폼 데이터 접근을 위해 Iceberg UniForm을 활용한 Multiplex 패턴을 구현합니다.

• `AUTO CDC INTO` 기능을 사용하여 SCD Type 2 이력 추적을 자동화합니다.

• 유효하지 않은 레코드를 감사하고 관리하기 위한, 데이터 손실이 전혀 없는 격리(Quarantine) 파이프라인을 설계합니다.

참고: Databricks Academy는 Databricks 환경 내의 대면 강의 형식을 노트북 기반 방식으로 전환함에 따라, 강의용 슬라이드 사용이 중단됩니다. Vocareum 랩 환경에서 강의용 노트북에 액세스할 수 있습니다.

Languages Available: English | 日本語 | Português BR | 한국어

Paid
4h
Lab
instructor-led
Professional

Questions?

If you have any questions, please refer to our Frequently Asked Questions page.