주요 컨텐츠로 이동

Generative AI Application Deployment and Monitoring - Korean

이 과정에서는 생성형 AI 애플리케이션을 배포, 운영 및 모니터링하는 방법에 대한 자세한 내용을 다룹니다. 이 과정에서는 Model Serving과 같은 도구를 사용하여 생성형 AI 애플리케이션을 배포하는 기술을 습득할 수 있습니다. 또한 모범 사례와 권장 아키텍처에 따라 생성형 AI 애플리케이션을 운영하는 방법도 다룹니다. 마지막으로, Lakehouse Monitoring을 사용하여 생성형 AI 애플리케이션과 그 구성 요소를 모니터링하는 방법에 대해 설명합니다.


Languages Available: English | 日本語 | Português BR | 한국어

Skill Level
Associate
Duration
4h
Prerequisites

콘텐츠는 다음과 같은 기술/지식/능력을 가진 참가자를 위해 개발되었습니다. 

  • 프롬프트 엔지니어링과 프롬프트 엔지니어링 모범 사례에 대한 이해 
  • 데이터브릭스 데이터 인텔리전스 플랫폼에 대한 지식
  • RAG에 대한 이해(데이터 준비, RAG 아키텍처 구축, 임베딩, 벡터, 벡터 데이터베이스 등의 개념)
  • 다단계 추론 LLM 체인 및 에이전트를 사용하여 LLM 애플리케이션 구축 경험
  • 평가 및 거버넌스를 위한 데이터브릭스 데이터 인텔리전스 플랫폼 도구에 대한 지식

Upcoming Public Classes

Date
Time
Your Local Time
Language
Price
Jun 22
02 PM - 06 PM (Asia/Seoul)
-
Korean
$750.00

Public Class Registration

If your company has purchased success credits or has a learning subscription, please fill out the Training Request form. Otherwise, you can register below.

Private Class Request

If your company is interested in private training, please submit a request.

See all our registration options

Registration options

Databricks has a delivery method for wherever you are on your learning journey

Runtime

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

지금 등록하세요

Instructors

Instructor-Led

Public and private courses taught by expert instructors across half-day to two-day courses

지금 등록하세요

Learning

Blended Learning

Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase

Purchase now

Scale

Skills@Scale

Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

Upcoming Public Classes

Data Engineer

Advanced Data Engineering with Databricks - Korean

이 과정은 고급 데이터 엔지니어링 with Databricks를 배우기 위한 적절한 입문 과정입니다. 

아래에서는 이 과정에 포함된 4개의 4시간짜리 모듈에 대해 각각 설명합니다.

Databricks Streaming and Lakeflow Spark Declarative Pipelines

이 과정은 Spark Structured Streaming과 Delta Lake에 대한 포괄적인 이해를 제공하며, 여기에는 계산 모델, 스트리밍 읽기 구성, 스트리밍 환경에서의 데이터 품질 유지 관리 등이 포함됩니다.

Databricks Data Privacy

이 콘텐츠는 Databricks 내에서 데이터 프라이버시를 관리하는 포괄적인 가이드를 제공합니다. 델타 레이크 아키텍처, 지역별 데이터 격리, GDPR/CCPA 준수, 변경 데이터 피드(CDF) 사용법 등 핵심 주제를 다룹니다. 실습 데모와 핸즈온 랩을 통해 참가자는 민감한 데이터를 보호하고 규정 준수를 보장하기 위한 Unity catalog 기능을 활용하는 방법을 배우며, 데이터 무결성을 효과적으로 보호할 수 있는 역량을 강화합니다.

Databricks Performance Optimization

이 과정에서는 Spark와 Delta Lake를 활용해 워크로드와 물리적 레이아웃을 최적화하는 방법을 배우고, Spark UI를 분석하여 성능을 평가하고 애플리케이션을 디버깅하는 방법을 익히게 됩니다. 스트리밍, 유동적 클러스터링, 데이터 스키핑, 캐싱, 포토네이션 등 다양한 주제를 다룰 예정입니다. 

Automated Deployment with Databricks Asset Bundles

이 과정은 DevOps 원칙과 이를 Databricks 프로젝트에 적용하는 방법을 포괄적으로 검토합니다. 핵심 DevOps, DataOps, 지continuous integration (CI), continuous deployment (CD), 테스트에 대한 개요로 시작하여 이러한 원칙을 데이터 엔지니어링 파이프라인에 적용하는 방법을 탐구합니다.

이어서 CI/CD 프로세스 내 지속적 배포에 초점을 맞추며, 프로젝트 배포를 위한 Databricks REST API, SDK, CLI와 같은 도구를 살펴봅니다. Databricks Asset Bundles(DAB)와 CI/CD 프로세스 내에서의 역할을 학습하게 됩니다. 주요 구성 요소, 폴더 구조, Databricks 내 다양한 대상 환경에 걸친 배포 간소화 방식을 심층적으로 다룹니다. 또한 Databricks CLI를 활용하여 서로 다른 구성의 다중 환경에 대해 변수 추가, 수정, 검증, 배포 및 실행하는 방법을 익히게 됩니다.

마지막으로, Visual Studio Code를 인터랙티브 개발 환경(IDE)으로 활용하여 로컬에서 Databricks Asset Bundles를 빌드, 테스트, 배포하는 방법을 소개함으로써 개발 프로세스를 최적화합니다. GitHub Actions를 활용한 배포 파이프라인 자동화를 통해 Databricks Asset Bundles의 CI/CD 워크플로우를 강화하는 방법에 대한 소개로 강좌를 마무리합니다.

본 과정 수료 시, Databricks Asset Bundles를 활용한 Databricks 프로젝트 배포 자동화 역량을 갖추게 되어 DevOps 관행을 통해 효율성을 향상시킬 수 있습니다.

Languages Available: English | 日本語 | Português BR | 한국어

Paid
16h
Lab
instructor-led
Professional
Generative AI Engineer

Generative AI Engineering with Databricks - Korean

이 과정은 최신 인기 프레임워크와 Databricks 기능을 활용하여 생성형 AI 애플리케이션을 구축하고자 하는 데이터 과학자, 머신러닝 엔지니어 및 기타 데이터 실무자를 대상으로 합니다.

참고: Databricks Academy는 Databricks 환경 내 강의 세션을 노트북 기반 형식으로 전환하며, 첫 두 모듈 강의에서 슬라이드 데크 사용을 중단합니다. 강의 노트북은 Vocareum 랩 환경에서 확인할 수 있습니다.

아래에서는 본 과정에 포함된 4개의 4시간 모듈을 각각 설명합니다.

Databricks 기반 검색 에이전트 구축

이 과정은 Databricks Data Intelligence Platform에서 검색 에이전트를 구축하기 위한 실습 중심 교육을 제공합니다. 참가자는 비정형 문서를 구조화된 데이터로 파싱하고, 검색 워크플로우를 위해 콘텐츠를 변환 및 분할하며, 문서 검색을 위한 벡터 검색 솔루션을 구축하고, MLflow 및 Agent Bricks를 사용하여 운영 환경에 바로 적용 가능한 에이전트를 개발하는 방법을 학습합니다. 본 과정은 문서 처리부터 임베딩 생성, 벡터 인덱싱, 거버넌스 기능을 갖춘 에이전트 배포에 이르는 완전한 에이전트 라이프사이클을 다룹니다.

Databricks에서 단일 에이전트 애플리케이션 구축

이 과정은 Databricks Data Intelligence Platform에서 단일 에이전트 애플리케이션을 구축하기 위한 실습 교육을 제공합니다. 수강생은 Unity catalog 기능을 도구로 활용하는 AI 에이전트 생성, MLflow를 통한 포괄적인 추적 및 모니터링 구현, LangChain과 같은 기존 프레임워크와 Agent Bricks와 같은 최신 솔루션을 모두 사용한 에이전트 배포 방법을 학습합니다. 본 과정은 AI Playground에서의 초기 도구 생성 및 테스트부터 거버넌스, 평가, 지속적인 개선 기능을 갖춘 프로덕션 배포에 이르기까지 에이전트의 전체 라이프사이클을 다룹니다.

생성형 AI 애플리케이션 평가 및 거버넌스

이 과정에서는 생성형 AI 시스템을 평가하고 관리하는 방법을 소개합니다. 첫째, 평가 및 거버넌스/보안 시스템 구축의 의미와 동기를 살펴보겠습니다. 둘째, 평가 및 거버넌스 시스템을 Databricks Data Intelligence Platform에 연결합니다. 셋째, 특정 구성 요소 및 응용 프로그램 유형에 대한 다양한 평가 기법에 대해 알려드립니다. 마지막으로 이 과정은 성능 및 비용과 관련하여 전체 AI 시스템을 평가하는 분석으로 마무리됩니다.

생성형 AI 애플리케이션 배포 및 모니터링

이 과정에서는 생성형 AI 애플리케이션을 배포, 운영 및 모니터링하는 방법에 대한 자세한 내용을 다룹니다. 이 과정에서는 Model Serving과 같은 도구를 사용하여 생성형 AI 애플리케이션을 배포하는 기술을 습득할 수 있습니다. 또한 모범 사례와 권장 아키텍처에 따라 생성형 AI 애플리케이션을 운영하는 방법도 다룹니다. 마지막으로, Lakehouse Monitoring을 사용하여 생성형 AI 애플리케이션과 그 구성 요소를 모니터링하는 방법에 대해 설명합니다.

Languages Available: English | 日本語 | Português BR | 한국어

Paid
16h
Lab
instructor-led
Associate
Apache Spark Developer

Apache Spark™ Programming with Databricks - Korean

이 과정은 Databricks를 사용하여 Apache Spark 프로그래밍을 배우기 위한 적절한 시작점 역할을 합니다.

아래에서는 이 과정에 포함된 4개의 4시간짜리 모듈을 각각 설명합니다.

Introduction to Apache Spark

이 과정은 분산 아키텍처와 대규모 데이터 처리를 위한 실제 응용 프로그램에 중점을 두고 Apache Spark™에 대한 필수 지식을 제공합니다. 참가자는 프로그래밍 프레임워크를 탐색하고 Spark DataFrame API를 배우며 Python 기반 Spark 워크플로를 사용하여 데이터를 읽고, 쓰고, 변환하는 기술을 개발하십시오. 

Developing Applications with Apache Spark

이 실습 과정에서 Apache Spark로 확장 가능한 데이터 처리를 마스터하세요. Spark의 DataFrame API를 사용하여 효율적인 ETL 파이프라인을 구축하고, 고급 분석을 수행하며, 분산 데이터 변환을 최적화하는 방법을 알아보세요. 그룹화, 집계, 조인, 집합 연산 및 창 함수를 살펴봅니다. 배열, 맵, 구조체와 같은 복잡한 데이터 유형으로 작업하면서 성능 최적화를 위한 모범 사례를 적용하세요.

Stream Processing and Analysis with Apache Spark

이 과정에서 Apache Spark를 사용하여 스트림 처리 및 분석의 기본 사항을 알아보세요.™ 스트림 처리 기본 사항에 대한 확실한 이해를 얻고 Spark Structured Streaming API를 사용하여 애플리케이션을 개발합니다. 스트림 집계 및 창 분석과 같은 고급 기술을 탐색하여 실시간 데이터를 효율적으로 처리하세요. 이 과정에서는 동적 데이터 환경을 위한 확장 가능하고 장애에 강한 스트리밍 애플리케이션을 만드는 기술을 습득합니다.

Monitoring and Optimizing Apache Spark Workloads on Databricks

이 과정에서는 안전한 데이터 거버넌스, 액세스 제어 및 계보 추적을 위한 Unity Catalog에 중점을 두고 확장 가능한 데이터 워크플로를 위한 레이크하우스 아키텍처 및 메달리온 설계를 살펴봅니다. 커리큘럼에는 Delta Lake를 사용하여 신뢰할 수 있는 ACID 호환 파이프라인 구축이 포함됩니다. 파티셔닝, 캐싱, 쿼리 튜닝과 같은 Spark 최적화 기술을 살펴보고 실제 문제를 해결하기 위한 효율적인 데이터 엔지니어링 및 분석을 위한 성능 모니터링, 문제 해결 및 모범 사례를 배웁니다.

Languages Available: English | 日本語 | 한국어

Paid
16h
Lab
instructor-led
Associate

Questions?

If you have any questions, please refer to our Frequently Asked Questions page.