주요 컨텐츠로 이동

Databricks Data Privacy - Korean

이 콘텐츠는 Databricks 내에서 데이터 프라이버시를 관리하는 포괄적인 가이드를 제공합니다. 델타 레이크 아키텍처, 지역별 데이터 격리, GDPR/CCPA 준수, 변경 데이터 피드(CDF) 사용법 등 핵심 주제를 다룹니다. 실습 데모와 핸즈온 랩을 통해 참가자는 민감한 데이터를 보호하고 규정 준수를 보장하기 위한 Unity catalog 기능을 활용하는 방법을 배우며, 데이터 무결성을 효과적으로 보호할 수 있는 역량을 강화합니다.


참고: 이 강좌는 '데이터브릭을 사용한 고급 데이터 엔지니어링' 시리즈의 두 번째 강좌입니다.


Languages Available: Languages Available: English | 日本語 | Português BR  | 한국어

Skill Level
Professional
Duration
2h
Prerequisites

이 과정에서는 다음과 같은 기술/지식/능력을 가진 참가자들을 위해 내용이 개발되었습니다:  

• Databricks 데이터 엔지니어링 및 데이터 사이언스 작업 공간을 사용하여 기본 코드 개발 태스크 수행 능력 (클러스터 생성, 노트북에서 코드 실행, 기본 노트북 작업 사용, git에서 저장소 가져오기 등)

• PySpark를 활용한 중급 프로그래밍 경험

• 다양한 파일 형식 및 데이터 소스에서 데이터 추출

• 데이터 정제를 위한 여러 일반적인 변환 적용

• 고급 내장 함수를 활용한 복잡한 데이터 재구성 및 조작

• Delta Lake를 활용한 중급 프로그래밍 경험(테이블 생성, 완전 및 증분 업데이트 수행, 파일 압축, 이전 버전 복원 등)

• Lakeflow Pipelines Editor를 사용한 데이터 파이프라인 구성 및 스케줄링 초급 경험

• PySpark를 사용한 Lakeflow Spark Declarative Pipelines 정의 초급 경험

• Auto Loader 및 PySpark 구문을 사용한 데이터 수집 및 처리

• APPLY CHANGES INTO 구문을 사용한 변경 데이터 캡처(CDCU) 피드 처리

• 파이프라인 이벤트 로그 및 결과 검토를 통한 DLT 구문 문제 해결

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

See all our registration options

Registration options

Databricks has a delivery method for wherever you are on your learning journey

Runtime

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

지금 등록하세요

Instructors

Instructor-Led

Public and private courses taught by expert instructors across half-day to two-day courses

지금 등록하세요

Learning

Blended Learning

Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase

Purchase now

Scale

Skills@Scale

Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

Upcoming Public Classes

Data Engineer

Automated Deployment with Databricks Asset Bundles - Korean

이 과정은 DevOps 원칙과 이를 Databricks 프로젝트에 적용하는 방법을 포괄적으로 검토합니다. 핵심 DevOps, DataOps, 지continuous integration (CI), continuous deployment (CD), 테스트에 대한 개요로 시작하여 이러한 원칙을 데이터 엔지니어링 파이프라인에 적용하는 방법을 탐구합니다.

이어서 CI/CD 프로세스 내 지속적 배포에 초점을 맞추며, 프로젝트 배포를 위한 Databricks REST API, SDK, CLI와 같은 도구를 살펴봅니다. Databricks Asset Bundles(DAB)와 CI/CD 프로세스 내에서의 역할을 학습하게 됩니다. 주요 구성 요소, 폴더 구조, Databricks 내 다양한 대상 환경에 걸친 배포 간소화 방식을 심층적으로 다룹니다. 또한 Databricks CLI를 활용하여 서로 다른 구성의 다중 환경에 대해 변수 추가, 수정, 검증, 배포 및 실행하는 방법을 익히게 됩니다.

마지막으로, Visual Studio Code를 인터랙티브 개발 환경(IDE)으로 활용하여 로컬에서 Databricks Asset Bundles를 빌드, 테스트, 배포하는 방법을 소개함으로써 개발 프로세스를 최적화합니다. GitHub Actions를 활용한 배포 파이프라인 자동화를 통해 Databricks Asset Bundles의 CI/CD 워크플로우를 강화하는 방법에 대한 소개로 강좌를 마무리합니다.

본 과정 수료 시, Databricks Asset Bundles를 활용한 Databricks 프로젝트 배포 자동화 역량을 갖추게 되어 DevOps 관행을 통해 효율성을 향상시킬 수 있습니다.

참고: 이 강좌는 ‘Databricks을 사용한 고급 데이터 엔지니어링’ 시리즈의 네 번째 강좌입니다.

Languages Available: English | 日本語 | 한국어

Free
2h
Professional

Questions?

If you have any questions, please refer to our Frequently Asked Questions page.