Revenir au contenu principal

Génération augmentée de récupération (RAG)

Créez des déploiements d'IA générative de haute qualité grâce à la RAG avec Databricks

Retrieval Augmented Generation

La génération augmentée de récupération (RAG) est un modèle d'application d'IA générative qui retrouve des données et des documents utiles pour répondre à une question ou accomplir une tâche, puis les fournir au LLM en tant que contexte afin d'améliorer la pertinence des réponses.

Databricks fournit une suite d'outils RAG pour vous aider à combiner et optimiser tous les aspects du processus RAG : préparation des données, modèles de récupération, modèle de langage (SaaS ou open source), pipelines de classement et de post-traitement, ingénierie de prompt et entraînement de modèles à l'aide de données d'entreprise personnalisées.

Retrieval Augmented Generation

Accédez à des modèles open source et SaaS propriétaires

Avec Databricks, vous pouvez déployer, superviser, gérer et interroger n'importe quel modèle d'IA générative. Tous les modèles populaires tels que LangChain, Llama 2, MPT et BGE, de même que les modèles sur Azure OpenAI, Amazon Bedrock, Amazon SageMaker et Anthropic, peuvent être gérés et pilotés dans Model Serving. Cela permet d'expérimenter facilement avec des modèles et de les tester en production pour trouver le meilleur candidat pour votre application RAG.

Pipelines temps réel automatisés pour tous les types de données

Databricks prend nativement en charge le service et l'indexation de vos données en vue de leur récupération en ligne. Dans le cas des données non structurées (texte, images et vidéo), Vector Search indexe et sert automatiquement les données, les rendant disponibles pour des applications RAG sans qu'il faille créer des pipelines de données distincts. En coulisses, Vector Search gère les échecs et les nouvelles tentatives, ajustant automatiquement la taille des batches afin de trouver le meilleur compromis entre performance, débit et coût. Pour les données structurées, le service de fonctionnalités et de fonctions permet d'obtenir en quelques millisecondes les données contextuelles (données sur les utilisateurs et les comptes, notamment) que les entreprises veulent souvent injecter dans des prompts pour les personnaliser.

Mettez rapidement vos applications RAG en production

Databricks simplifie le déploiement, la gouvernance, l'interrogation et la supervision des grands modèles de langage finement réglés ou pré-déployés par Databricks ou tout autre fournisseur. Databricks Model Serving assure la création de conteneurs automatisés et la gestion de l'infrastructure pour réduire les coûts de maintenance et accélérer le déploiement.

Gouvernance intégrée

Databricks intègre la sécurité, la gouvernance et la supervision à sa plateforme. Les applications RAG appliquent des contrôles d'accès granulaires aux données et aux modèles. Vous pouvez définir des limites tarifaires et suivre le lineage sur tous les modèles. Cette approche interdit toute exposition de données confidentielles par l'application RAG à des utilisateurs non autorisés.

Garantissez la qualité et la sécurité en production

Pour atteindre les niveaux de qualité requis par les applications en contact avec les clients, les résultats produits par l'IA doivent être précis et à jour, tenir compte du contexte de votre entreprise et ne présenter aucun danger. Avec Databricks, il est plus facile d'interpréter la qualité des modèles : l'évaluation automatisée des LLM améliore l'utilité, la pertinence et l'exactitude des réponses des robots conversationnels RAG. Lakehouse Monitoring parcourt automatiquement les résultats de l'application pour détecter les contenus toxiques et dangereux, ainsi que les hallucinations. Ces données peuvent ensuite alimenter des tableaux de bord, des alertes ou d'autres pipelines de données en aval.