Sulla scia degli annunci della scorsa settimana sulla Retrieval Augmented Generation (RAG), siamo entusiasti di annunciare importanti aggiornamenti a Model Serving. Il Model Serving di Databricks ora offre una interfaccia unificata, semplificando la sperimentazione, la personalizzazione e la messa in produzione dei modelli di base su tutti i cloud e i provider. Ciò significa che è possibile creare app GenAI di alta qualità utilizzando il modello migliore per il proprio caso d'uso, sfruttando in modo sicuro i dati esclusivi della propria organizzazione.
La nuova interfaccia unificata consente di gestire tutti i modelli in un unico posto ed eseguire query su di essi con una singola API, indipendentemente dal fatto che si trovino su Databricks o siano ospitati esternamente. Inoltre, stiamo rilasciando le API dei Foundation Model che forniscono accesso immediato ai modelli linguistici di grandi dimensioni (LLM) più diffusi, come i modelli Llama2 e MPT, direttamente da Databricks. Queste API offrono opzioni di prezzi on-demand, come il pagamento per token o il throughput con provisioning, riducendo i costi e aumentando la flessibilità.
Start a creare app GenAI oggi stesso! Visita il Databricks AI Playground per provare rapidamente i modelli di IA generativa direttamente dal tuo workspace.
Il software ha rivoluzionato ogni settore industriale e crediamo che l'IA trasformerà presto il software esistente per renderlo più intelligente. Le implicazioni sono ampie e variegate, con un impatto su tutto, dall'assistenza clienti alla sanità e all'istruzione. Sebbene molti dei nostri clienti abbiano già iniziato a integrare l'IA nei loro prodotti, il passaggio alla produzione su larga scala presenta ancora diverse sfide:
Databricks Model Serving è già utilizzato in produzione da centinaia di aziende per un'ampia gamma di casi d'uso, tra cui modelli linguistici di grandi dimensioni e applicazioni di visione artificiale. Con l'ultimo aggiornamento, stiamo semplificando notevolmente la query, la gestione e il monitoraggio di qualsiasi modello di base.

“Con Databricks Model Serving, siamo in grado di integrare l'AI generativa nei nostri processi per migliorare l'esperienza del cliente e aumentare l'efficienza operativa. Model Serving ci consente di implementare modelli LLM mantenendo il pieno controllo sui nostri dati e modelli.” — Ben Dias, Direttore di Data Science e analitiche di easyJet
Model Serving di Databricks supporta qualsiasi Foundation Model, che si tratti di un modello completamente personalizzato, di un modello gestito da Databricks o di un Foundation Model di terze parti. Questa flessibilità consente di scegliere il modello giusto per il job giusto, mantenendo un vantaggio rispetto ai futuri progressi nella gamma di modelli disponibili. Per realizzare questa visione, oggi presentiamo due nuove funzionalità:
Inoltre, abbiamo aggiunto un elenco di foundation model selezionati al Databricks Marketplace, un marketplace aperto per asset di dati e IA, che possono essere sottoposti a fine tuning e distribuiti su Model Serving.

“Con le API di Databricks Foundation Model possiamo interrogare modelli aperti allo stato dell'arte con un solo clic, per concentrarci sui nostri clienti invece che sull'elaborazione di dati non organizzati. Utilizziamo molti modelli sulla piattaforma e siamo molto soddisfatti della stabilità e dell'affidabilità riscontrate finora, oltre che dell'assistenza ricevuta ogni volta che abbiamo avuto un problema." — Sidd Seethepalli, CTO e fondatore, Vellum
"Il prodotto APIs per Foundation Model di Databricks è stato estremamente facile da configurare e utilizzare fin da subito, rendendo i nostri flussi di lavoro RAG un gioco da ragazzi. Siamo rimasti entusiasti delle prestazioni, del throughput e dei prezzi di questo prodotto e siamo contenti di tutto il tempo che ci ha permesso di risparmiare!" - Ben Hills, CEO, HeyIris.AI"
Databricks Model Serving ora offre un'API e un SDK unificati compatibili con OpenAI per interrogare facilmente i Foundation Model. È anche possibile interrogare i modelli direttamente da SQL tramite le funzioni di IA, semplificando l'integrazione dell'IA nei flussi di lavoro di analitiche. Un'interfaccia standard consente una facile sperimentazione e confronto. Ad esempio, potresti iniziare con un modello proprietario e poi passare a un modello open ottimizzato per ridurre la latenza e i costi, come dimostrato dalla documentazione generata dall'IA di Databricks.
La nuova interfaccia utente e l'architettura di Databricks Model Serving consentono di gestire in un unico posto tutti gli endpoint dei modelli, compresi quelli ospitati esternamente. Ciò include la possibilità di gestire le autorizzazioni, tenere traccia dei limiti di utilizzo e monitorare la qualità di tutti i tipi di modelli. Ad esempio, gli amministratori possono configurare modelli esterni e concedere l'accesso a team e applicazioni, consentendo loro di eseguire query sui modelli tramite un'interfaccia standard senza esporre le credenziali. Questo approccio democratizza l'accesso a potenti LLM SaaS e aperti all'interno di un'organizzazione, fornendo al contempo i necessari meccanismi di protezione.
“Databricks Model Serving accelera i nostri progetti guidati da AI semplificando l'accesso sicuro e la gestione di numerosi modelli SaaS e aperti, inclusi quelli ospitati su Databricks o altrove. L'approccio centralizzato semplifica la gestione della sicurezza e dei costi, consentendo ai nostri team di gestione dei dati di concentrarsi più sull'innovazione e meno sulle attività amministrative." — Greg Rokita, AVP, Technology di Edmunds.com
Basato su una Piattaforma di Data Intelligence, Databricks Model Serving semplifica l'estensione delle potenzialità dei modelli di base utilizzando tecniche come la generazione aumentata da recupero (RAG), il perfezionamento efficiente dei parametri (PEFT) o il perfezionamento standard. È possibile perfezionare i modelli di base con dati proprietari e distribuirli agevolmente su Model Serving. Il nuovo Databricks Vector Search si integra perfettamente con Model Serving, consentendo di generare risposte aggiornate e contestualmente pertinenti.
“Utilizzando il Model Serving di Databricks, abbiamo implementato rapidamente un modello GenAI perfezionato per Stardog Voicebox, uno strumento di risposta alle domande e modellazione dei dati che democratizza le analitiche aziendali e riduce i costi per i grafi della conoscenza. La facilità d'uso, le opzioni di implementazione flessibili e l'ottimizzazione degli LLM fornite dal Model Serving di Databricks hanno accelerato il nostro processo di implementazione, consentendo al nostro team di concentrarsi sull'innovazione anziché sulla gestione dell'infrastruttura.” — Evren Sirin, CTO e cofondatore di Stardog
Visita ora l'AI Playground e inizia subito a interagire con potenti modelli di base. Con AI Playground, puoi usare i prompt, confrontare e regolare impostazioni come il prompt di sistema e i parametri di inference, il tutto senza bisogno di competenze di programmazione.

Engenharia
December 3, 2025/11 min de leitura
Soluções
December 30, 2025/5 min de leitura


