Revenir au contenu principal

State of Data + AI

Data intelligence and the race to customize LLMs

Nous entrons dans l'âge d'or des données et de l'IA. Le rythme inégalé des découvertes en matière d'IA, des améliorations de modèles et des nouveaux produits mis sur le marché place les données et la stratégie d'IA en tête des conversations dans toutes les organisations du monde. La prochaine génération d'entreprises performantes et de dirigeants visionnaires saura comprendre et exploiter l'IA

Dans l'édition inaugurale de notre rapport, État des données et de l'IA 2023, nous examinons les tendances de l'adoption des données et de l'IA chez plus de 9 000 clients Databricks du monde entier. Ce rapport a pour objectif d'aider les leaders des données et les dirigeants à comprendre le paysage de l'IA et à évaluer leurs propres investissements et stratégies.

État des données et de l'IA 2023 couvre l'ensemble du monde des données pour répondre à des questions telles que :

  • Comment les organisations exploitent-elles la data science et le machine learning (ML) dans le monde réel ?
  • Quelles sont les étoiles montantes parmi les produits de données et d'IA ?
  • Comment les organisations abordent-elles l'entreposage des données, en particulier dans cette nouvelle ère tournée vers l'IA ?

Voici un avant-goût de nos découvertes :

AI Is in Production

We analyzed the ratio of logged-to-registered models across all customers to assess ML production progress.

 

Production is where the true value of AI is realized, whether a product is for your internal teams or customers. We predict that the growing success in ML helps pave a path to greater success with building production-quality GenAI applications. 

NLP et LLM

Conclusion clé : les modèles de langage naturel et les grands modèles de langage suscitent une forte demande.

Nos données montrent que les entreprises comprennent la valeur du ML et investissent dans des outils de pointe – une tendance que vient confirmer les récentes innovations réalisées dans le domaine des LLM. Dans le sillage du lancement de ChatGPT, nous observons une croissance exponentielle des LLM en tant que service, qui permettent d'accéder à des modèles comme OpenAI. En effet, le nombre d'entreprises utilisant des API de LLM sous forme SaaS a augmenté de 1 310 % entre la fin novembre 2022 et début mai 2023.

Enfin, deux tendances très dynamiques émergent : les organisations développent leurs propres LLM – une option accessible et abordable comme le montre par exemple le modèle Dolly – et elles utilisent des modèles propriétaires comme ChatGPT.

Téléchargez le rapport pour lire le reste de nos observations sur les LLM

Chart - Use of LLM Python Libraries

Since the Public Preview launch of Databricks Vector Search, the entire vector database category grew 186%, far more than any other LLM Python libraries.

 

The explosion of vector databases indicates that companies are looking for GenAI alternatives that can help with problems or drive opportunities specific to their business. And it suggests that enterprises will likely be relying on a mix of different types of GenAI models throughout their operations.

La pile données et IA moderne

Conclusion clé : les outils d'intégration de données dominent

Une question revient souvent chez nos clients : « Quels outils de données et d'IA les autres entreprises utilisent-elles ? »

Nous avons analysé l'adoption et la croissance des outils chez des centaines de partenaires de notre écosystème. Nos produits les plus dynamiques témoignent d'une tendance nette : les entreprises s'équipent en outils d'intégration de données pour accélérer le développement de cas d'usage avancés à partir de leurs données. C'est dbt qui affiche le taux de croissance le plus élevé avec une augmentation de 206 % d'une année sur l'autre en nombre de clients.

Découvrez les produits de données et d'IA qui connaissent la plus forte croissance

Use of Open Source LLMS

Relative adoption of Mistral and Meta Llama open source models in Databricks foundation model APIs.

 

With each model, there is a trade-off between cost, latency and performance. The usage of the two smallest Meta Llama 2 models (7B and 13B) is significantly higher than that of the largest, Meta Llama 2 70B. Across both Llama and Mistral users, 77% choose models that are 13B parameters or smaller. This suggests that companies are weighing the costs and benefits of model size when selecting the right model for a specific use case.

State of Data and AI

To see more insights, download the full State of Data + AI report.

Download the report