주요 컨텐츠로 이동
LAKEFLOW CONNECT

당신의 레이크하우스로의 효율적인 데이터 수집

데이터 인텔리전스로 혁신을 시작하는 첫 걸음을 내딛으세요.
Lakeflow Connect
장점

몇 가지 간단한 단계로 데이터에서 가치를 찾아내세요

인기 있는 엔터프라이즈 애플리케이션, 파일 소스 및 데이터베이스를 위한 내장 데이터 커넥터가 제공됩니다.

유연하고 쉬운

완전히 관리되는 커넥터들은 간단한 UI와 API를 제공하여 쉬운 설정을 가능하게 하고, 데이터 접근을 민주화합니다. 자동화된 기능들은 미비한 오버헤드로 파이프라인 유지 관리를 단순화하는 데 도움을 줍니다.

내장형 커넥터

데이터 수집은 데이터 인텔리전스 플랫폼과 완전히 통합되어 있습니다. Unity Catalog의 거버넌스로 인제스션 파이프라인을 생성하고, Lakehouse Monitoring의 관찰 가능성과 분석, 머신러닝 및 BI를 위한 워크플로우와의 원활한 오케스트레이션을 통해 이를 실현합니다.

효율적인 수집

효율성을 높이고 가치 창출 시간을 단축하세요. 최적화된 증분 읽기 및 쓰기와 데이터 변환은 파이프라인의 성능과 신뢰성을 향상시키고, 병목 현상을 줄이며, 확장성을 위한 원본 데이터에 대한 영향을 줄입니다.

기능

인기 있는 데이터 소스에 대한 강력한 수집 기능

모든 데이터를 데이터 인텔리전스 플랫폼에 가져오는 것은 가치를 추출하고 귀사의 가장 도전적인 데이터 문제를 해결하는 첫 단계입니다.

코드 없는 사용자 인터페이스(UI) 또는 간단한 API는 데이터 전문가가 자체 서비스를 제공하게 하여 프로그래밍 시간을 절약합니다.

Lakeflow Connect UI에 대한 투어를 해보세요
A screenshot of the Databricks UI and API interface, showcasing dashboard thumbnails and improved performance features.

새로운 데이터 또는 테이블 업데이트만 가져와서 데이터 인제스션을 빠르고, 확장 가능하며, 운영적으로 효율적으로 만듭니다.

증분 읽기 및 쓰기에 대한 자세한 정보
Incremental Reads and Writes

100% 서버리스 환경에서 데이터를 수집하여 빠른 시작과 자동 인프라 스케일링을 제공합니다.

완전히 관리되는 커넥터에 대해 더 알아보기
Fully Managed

Databricks Unity 카탈로그와의 깊은 통합은 계보 및 데이터 품질을 포함한 강력한 기능을 제공합니다.

Unity Catalog를 이용한 통합 거버넌스에 대해 더 알아보기
Unified Governance

Databricks를 이용한 데이터 인제스션

Salesforce 커넥터

Salesforce Sales Cloud를 지원하는 데이터 커넥터.

Salesforce에서 데이터를 수집하세요

Microsoft SQL Server 커넥터

Azure SQL Database와 Amazon RDS for SQL Server를 지원하는 데이터 커넥터.

SQL 서버에서 데이터를 가져오기

Google Analytics 커넥터

이벤트 수준의 Google Analytics 4 (GA4) 데이터를 지원하는 데이터 커넥터로, 모든 필드가 지원됩니다.

Google Analytics에서 데이터를 수집하십시오

ServiceNow 커넥터

분석 및 자원 계획을 포함한 다양한 사용 사례를 위해 ServiceNow 데이터를 수집하는 데이터 커넥터.

ServiceNow에서 데이터를 수집합니다

Workday 커넥터

Workday 보고서를 직접 Databricks에 로드하기 위해 데이터를 수집하는 데이터 커넥터.

Workday에서 데이터를 수집하세요

SharePoint 커넥터

SharePoint (비구조화된) 데이터를 지원하는 데이터 커넥터입니다. 벡터 검색 및 기타 AI 도구와의 쉬운 통합.

SharePoint에서 데이터를 가져오기

Auto Loader

새로운 데이터 파일이 지원되는 클라우드 저장소 소스(S3, ADLS, GCS)에 도착하면 점진적으로 수집하고 효율적으로 처리합니다.

오토 로더를 사용하여 데이터 수집

스트리밍 데이터 소스

지원되는 소스인 Apache Kafka에서 항상 켜져 있는 인프라와 거의 실시간 데이터 처리를 통해 레코드를 수집합니다.

스트리밍 소스에서 데이터 수집

기본 SQL 지원

SQL 사용자는 COPY INTO 명령을 사용하여 파일 위치에서 Databricks SQL, Databricks 노트북 및 Databricks 작업으로 데이터를 멱등하게 및 증분적으로 로드할 수 있습니다.

COPY INTO를 사용하여 데이터를 가져오기

수동 파일 업로드

로컬 파일을 직접 Databricks에 업로드하여 델타 테이블을 생성하거나 데이터를 볼륨에 저장합니다.

Databricks에 파일 업로드
사용 사례

다양한 산업 분야에서 고객 문제 해결

가격

사용량 기반 가격 책정으로
지출 통제

사용한 제품에 대해서만 초 단위로 비용을 지불하세요.
관련 제품

더 자세히 알아보기

데이터 인텔리전스 플랫폼에서 다른 통합된, 지능형 제공물을 탐색해보세요.

Lakeflow 작업

깊은 관찰 가능성, 높은 신뢰성, 그리고 넓은 작업 유형 지원을 통해 ETL, 분석, AI 워크플로우를 더 잘 자동화하고 조정할 수 있도록 팀을 갖추십시오.

Lakeflow 선언적 파이프라인

자동화된 데이터 품질, 변경 데이터 캡처(CDC), 데이터 수집, 변환 및 통합 거버넌스를 통해 배치 및 스트리밍 ETL을 단순화하세요.

Unity Catalog

당신의 모든 데이터 자산을 산업에서 유일하게 통합되고 개방된 거버넌스 솔루션을 통해 원활하게 관리하세요. 이 솔루션은 데이터와 AI를 위해 만들어졌으며, Databricks 데이터 인텔리전스 플랫폼에 내장되어 있습니다.

Delta Lake

모든 형식과 유형에 걸쳐 레이크하우스의 데이터를 통합하여 모든 분석 및 AI 작업 부하를 위해 사용합니다.

시작하기

데이터 수집 FAQ

데이터 및 AI 기반 기업이 될 준비가 되셨나요?

데이터 변환의 첫 걸음 내딛기