Ingestão de Dados usando a Interface de Upload de Dados

O que você vai aprender

Neste vídeo, mostramos como importar dados para o Databricks usando a interface de upload de arquivo local.

Observação: o Databricks Lakeflow unifica o Data Engineering com o Lakeflow Connect, o Lakeflow Spark Declarative Pipelines (anteriormente conhecido como DLT) e o Lakeflow Jobs (anteriormente conhecidos como Workflows).

Recomendado

<p>Ingestão de dados usando COPY INTO</p>

Vídeo sob demanda

Ingestão de dados usando COPY INTO

<p>Obtenha Dados no Databricks a partir de SQL / Oracle</p>

Vídeo sob demanda

Obtenha Dados no Databricks a partir de SQL / Oracle

<p>Delta Lake</p>

Vídeo sob demanda

Delta Lake

Tudo pronto para começar?