Ir para o conteúdo principal

Geração aumentada de recuperação (RAG)

Crie implantações de IA generativa de alta qualidade usando RAG com Databricks

Retrieval Augmented Generation

A geração aumentada de recuperação (RAG) é um padrão de aplicação de IA generativa que encontra dados/documentos relevantes para uma pergunta ou tarefa e os fornece como contexto para o grande modelo de linguagem (LLM) dar respostas mais precisas.

A Databricks tem um conjunto de ferramentas de RAG que ajuda a combinar e otimizar todos os aspectos do processo de RAG, como preparação de dados, modelos de recuperação, modelos de linguagem (sejam SaaS ou código aberto), pipelines de classificação e pós-processamento, engenharia de prompt e modelos de treinamento em dados corporativos personalizados.

Retrieval Augmented Generation

Acesso a modelos SaaS proprietários e de código aberto

Com a Databricks, você pode implantar, monitorar, controlar e consultar qualquer modelo de IA generativo. Todos os modelos populares, como LangChain, Llama 2, MPT e BGE, e modelos no Azure OpenAI, Amazon Bedrock, Amazon SageMaker e Anthropic podem ser gerenciados e controlados no Model Serving, facilitando a experimentação e a produção de modelos para encontrar o melhor candidato para seu aplicativo RAG.

Pipelines automatizados em tempo real para qualquer tipo de dados

A Databricks oferece suporte nativo à exibição e indexação dos seus dados para recuperação online. Para dados não estruturados (texto, imagens e vídeo), o Vector Search indexa e disponibiliza dados automaticamente, tornando-os acessíveis para aplicativos RAG sem a necessidade de criar pipelines de dados separados. Nos bastidores, o Vector Search gerencia falhas, lida com novas tentativas e otimiza os tamanhos de batch para fornecer o melhor desempenho, rendimento e custo. Para dados estruturados, a disponibilização de recursos e funções fornece queries de milissegundos de dados contextuais, como dados do usuário ou da conta, que as empresas muitas vezes desejam injetar em prompts para personalizá-los com base nas informações do usuário.

Mova aplicativos RAG rapidamente para produção

A Databricks facilita a implantação, o controle, a criação de queries e o monitoramento de grandes modelos de linguagem ajustados ou pré-implantados pela Databricks ou por qualquer outro provedor de modelos. O Databricks Model Serving controla a criação automatizada de contêineres e o gerenciamento da infraestrutura para reduzir os custos de manutenção e acelerar a implantação.

Governança incorporada

A Databricks tem segurança, governança e monitoramento integrados. Os aplicativos RAG terão controles de acesso refinados em dados e modelos. Você pode definir limites de taxa e rastrear a linhagem em todos os modelos. Isso garante que o aplicativo RAG não exponha dados confidenciais aos usuários que não deveriam ter acesso.

Garantir qualidade e segurança na produção

Para atender ao padrão de qualidade exigido para aplicativos voltados para o cliente, a saída de IA deve ser precisa, atual, ciente do contexto empresarial e segura. A Databricks facilita a compreensão da qualidade do modelo com a avaliação automatizada do LLM, melhorando a utilidade, a relevância e a precisão das respostas do chatbot RAG. O Lakehouse Monitoring analisa automaticamente os resultados de aplicativos em busca de conteúdo tóxico, alucinado ou inseguro. Esses dados podem então alimentar dashboards, alertas ou outros pipelines de dados downstream para ações subsequentes.