Passa al contenuto principale

Mosaic AI

Crea e distribuisci applicazioni di ML e Gen AI di qualità

Databricks Mosaic AI fornisce strumenti unificati per creare, implementare, valutare e governare soluzioni di AI e ML, dalla creazione di modelli di machine learning predittivo alle più recenti app di GenAI. Basato sulla Databricks Data Intelligence Platform, Mosaic AI consente alle organizzazioni di creare in modo sicuro ed economico sistemi di AI composti di qualità produttiva integrati con i dati aziendali.

secondary-icon-graphic-10

Qualità produttiva

Fornisci output accurati, personalizzati con i dati aziendali

We Put the Company First

Controllo completo

Governance end-to-end su tutte le risorse di dati e AI

Value Action

Costi minori

Addestramento e serving dei tuoi LLM personalizzati a un costo 10 volte inferiore

Start building your generative AI solution

Inizia a costruire le tue soluzioni di AI generativa

Esistono quattro modelli architetturali da considerare quando si crea una soluzione basata su modelli linguistici di grandi dimensioni (LLM): l'ingegneria dei prompt, la generazione potenziata dal recupero (RAG), l'ottimizzazione e il pre-addestramento. Databricks è l'unico provider che abilita tutti e quattro i modelli architetturali per l'AI generativa, mettendo a tua disposizione un amplissimo ventaglio di opzioni e garantendo che i tuoi modelli possano evolvere man mano che le tue esigenze aziendali cambiano.

Complete ownership over your models and data

Mantieni la proprietà di modelli e dati

Mosaic AI è parte della Databricks Data Intelligence Platform, che unifica dati, addestramento di modelli e ambienti di produzione in un'unica soluzione. Puoi utilizzare in modo sicuro i tuoi dati aziendali per ampliare, ottimizzare o creare i tuoi modelli di machine learning e AI generativa, potenziandoli con una comprensione semantica della tua attività senza inviare dati e IP all'esterno.

Deploy and govern all your AI models centrally

Distribuisci e gestisci tutti i tuoi modelli AI a livello centrale

Model Serving è un servizio unificato per la distribuzione, la gestione e l'interrogazione dei modelli AI. Il nostro approccio onnicomprensivo, che semplifica la sperimentazione e la produzionalizzazione dei modelli, include:

  • Modelli ML personalizzati come PyFunc, Scikit-Learn e LangChain.
  • Modelli di base (FM, Foundation Models) su Databricks come Llama 2, MPT, Mistral e BGE
  • Modelli di base ospitati altrove come ChatGPT, Claude 3, Cohere e Stable Diffusion
Monitor data, features and AI models

Monitora dati, funzionalità e modelli AI in modo centralizzato

Lakehouse Monitoring fornisce una soluzione di monitoraggio unificata all'interno della Databricks Data Intelligence Platform che monitora proprietà statistiche e qualità di tutte le tabelle con un solo clic. Per le applicazioni basate sull'AI generativa, può scansionare gli output per individuare contenuti tossici e non sicuri e diagnosticare errori.

Govern and track lineage across the full AI lifecycle

Gestisci e monitora la derivazione lungo l'intero ciclo di vita dell'AI, dai dati ai modelli

Applica le autorizzazioni appropriate, imposta limiti di query e monitora la derivazione dei dati per soddisfare rigorosi requisiti di sicurezza e governance. Tutte le risorse di ML, dai dati ai modelli, si possono gestire con un unico strumento, Unity Catalog, per garantire supervisione e controllo coerenti in ogni fase del ciclo di vita del ML, dallo sviluppo all'implementazione fino alla manutenzione.

Train and serve your own custom LLMs at 10x lower cost

Addestramento e serving dei tuoi LLM personalizzati a un costo 10 volte inferiore

Con Mosaic AI, puoi creare da zero il tuo modello linguistico di grandi dimensioni personalizzato per garantire che la conoscenza di base del modello sia adattata al tuo specifico settore. Effettuando l'addestramento con i tuoi dati sull'IP della tua organizzazione, si crea un modello personalizzato e diverso da ogni altro. Databricks Mosaic AI Training è una soluzione di addestramento ottimizzata che può costruire nuovi LLM con miliardi di parametri in pochi giorni e costi di addestramento fino a 10 volte inferiori.