Passa al contenuto principale

Fizz accelera l'analisi dell'ecommerce con Databricks SQL

Il marketplace ungherese Fizz.hu migra da SQL Server a Databricks in tre mesi — offrendo reporting più veloce, architettura pronta per l'AI e analisi self-service.

Fizz.hu of OTP Group migrates to Databricks SQL

Pubblicato: 25 marzo 2026

Clienti4 min di lettura
Databricks SQL apre possibilità per quasi tutto ciò che vogliamo fare. È una piattaforma all-in-one con intelligenza dei dati completa. È per lo più automatica sotto il cofano, quindi non devi preoccuparti: puoi semplicemente costruire.— Tamas Bacskai, Head of Data, Fizz.hu

Fizz.hu è un marketplace di ecommerce in rapida crescita supportato da OTP Group. Lanciato solo due anni fa come parte della strategia “beyond banking” di OTP, Fizz ospita oltre 500 commercianti che offrono più di 1,5 milioni di offerte di prodotti attivi in elettronica, casalinghi e altro ancora.

Fin dall'inizio, i dati sono stati una priorità. Ma l'azienda è partita con una base semplice: Microsoft SQL Server e Power BI, con caricamenti batch giornalieri per la reportistica. Man mano che i cataloghi di prodotti si espandevano e emergevano nuovi casi d'uso, quella configurazione ha iniziato a mostrare i suoi limiti.

Fizz aveva bisogno di più di un data warehouse tradizionale. Aveva bisogno di una piattaforma all-in-one che potesse supportare SQL, Python e future iniziative di AI senza aggiungere complessità operativa. Il team ha trovato questo in Databricks SQL e ha deciso di migrare a un'architettura lakehouse costruita per scalare con il business.

Una migrazione pragmatica, completata in tre mesi

Quando Tamas Bacskai è entrato come Head of Data, il suo mandato era chiaro: costruire un team orientato ai dati e definire un percorso scalabile per il futuro. L'ambiente SQL Server esistente funzionava come un magazzino di base, ma i carichi di lavoro Python venivano eseguiti su una macchina virtuale separata, la governance era limitata e scalare significava aumentare la spesa per l'infrastruttura.

Il team ha valutato tre opzioni: continuare a concentrarsi solo sul warehousing, suddividere i carichi di lavoro avanzati a un altro team di sviluppo o adottare un'architettura lakehouse che potesse unificare SQL e Python. Il modello lakehouse “ha soddisfatto tutti i requisiti”, ha detto Bacskai, inclusa l'espansione futura nel machine learning e nell'AI.

Invece di puntare a una riprogettazione perfetta, Fizz ha adottato un approccio MVP-first. Con il supporto di un partner esterno, hanno migrato circa 50 tabelle e diverse stored procedure, ricreando viste principali in Databricks SQL. L'obiettivo era semplice: mantenere i report in esecuzione, ma puntarli a un nuovo motore.

“È stato poco ortodosso”, ha detto Bacskai. “Non volevamo una migrazione perfetta in cui tutto fosse riscritto. Volevamo muoverci il più velocemente possibile e perfezionare e modernizzare in seguito. È molto più facile farlo una volta che i dati sono in Databricks.”

In tre mesi, il vecchio SQL Server è stato completamente spento. I report di Power BI sono continuati senza intoppi, ora alimentati da Databricks. “Non era impossibile, solo ambizioso”, ha detto Bacskai, “ma prevedibile e realizzabile.”

Webinar

Databricks 101: una guida pratica

Reporting più veloce e migliori livelli di servizio

L'impatto immediato è stato sulle prestazioni. In precedenza, i cicli ETL giornalieri potevano richiedere da tre a quattro ore e la reportistica non era affidabilmente disponibile fino alle 7:00 o 8:00 del mattino. Ciò ha creato attrito con gli utenti aziendali che iniziavano la giornata prima.

Con Databricks SQL, Fizz ha ridotto la finestra di elaborazione notturna end-to-end a circa 90 minuti. I report sono ora pronti in modo coerente entro le 4:30 del mattino, anche nei fine settimana e nei giorni festivi. I cicli di aggiornamento di Power BI sono stati ridotti di circa il 50% e le esportazioni su scala di gigabyte ora completano in pochi minuti.

I guadagni non sono stati il risultato di un'infrastruttura sovradimensionata. Fizz esegue carichi di lavoro relativamente moderati, circa 10 TB in totale tra i livelli bronze e silver, ma il nuovo motore SQL e le capacità di auto-ottimizzazione hanno fornito miglioramenti misurabili senza un costante tuning.

“Non è che abbiamo semplicemente investito più soldi o cluster più grandi”, ha chiarito Bacskai. “Il motore di esecuzione SQL è semplicemente più veloce. Si auto-ottimizza e tutto è lì per noi.”

Allo stesso modo, Databricks ha eliminato la necessità di ambienti separati per eseguire Python. Tutti i job ora vengono eseguiti nativamente all'interno della piattaforma, semplificando le operazioni e creando una base più pulita per future iniziative di machine learning.

Espansione delle capacità con AI e self-service

Fin dall'inizio, Fizz voleva una piattaforma che non limitasse le sue ambizioni di AI. Anche durante la migrazione, il team ha anticipato la crescente domanda di machine learning, AI generativa e controlli di governance dei dati più avanzati.

Oggi, Databricks può supportare carichi di lavoro SQL, Python e di machine learning in un unico ambiente. Il team sta esplorando policy di mascheramento e controlli di governance per rafforzare la preparazione a GDPR e EU AI Act. Le funzioni SQL basate sull'AI aiuteranno a pulire e standardizzare i nomi dei prodotti, riducendo la dipendenza da complesse espressioni regolari e accelerando la preparazione dei dati.

Anche l'analisi self-service si sta espandendo tramite Databricks Genie. Gli utenti aziendali possono porre domande in linguaggio naturale, in ungherese, senza scrivere SQL. Circa 20 utenti attivi si affidano oggi a Genie, recuperando circa il 20% del tempo di un analista precedentemente impiegato per rispondere a richieste ad hoc, liberando il team per sforzi a maggior valore aggiunto.

“La nostra configurazione Genie non è ancora completa”, ha osservato Bacskai, “ma significa che non dobbiamo imparare SQL per fare una domanda. Puoi semplicemente chattare con i tuoi dati.”

Per un'azienda di ecommerce in crescita, il valore va oltre la velocità. Databricks fornisce una base unificata e pronta per l'AI che scala con nuovi casi d'uso, dall'integrazione dei dati di marketing agli endpoint di model serving, senza richiedere un team più grande per gestirla.

“Databricks SQL è stato molto meglio di quanto avessimo previsto”, ha detto Bacskai. “È qualcosa con cui amiamo lavorare. Può fare tutto ciò che vogliamo, quindi possiamo semplicemente costruire e creare ciò che vogliamo.”

(Questo post sul blog è stato tradotto utilizzando strumenti basati sull'intelligenza artificiale) Post originale

Non perdere mai un post di Databricks

Iscriviti al nostro blog e ricevi gli ultimi post direttamente nella tua casella di posta elettronica.