Passa al contenuto principale

Che cos'è Hosted Spark?

Piattaforma dati unificata con accesso API REST ai cluster Spark per applicazioni remote, che consente l'esplorazione interattiva e batch dei dati in più lingue

4 Personas Analytics AIBI 6

Summary

  • Supporta shell interattive Scala, Python, R e invii batch in Scala, Java, Python tramite API REST, consentendo a più utenti di condividere server e inviare lavori da qualsiasi luogo senza modifiche al codice.
  • Facilita l'interazione chiavi in ​​mano tra Spark e i server applicativi, semplificando l'architettura richiesta dalle app web e mobili interattive tramite servizi che collegano in modo efficiente le applicazioni remote ai cluster Spark.
  • Fornisce API di alto livello in tutti i linguaggi con un motore ottimizzato che supporta grafici di calcolo generali, oltre a Spark SQL, apprendimento automatico MLlib, elaborazione di grafici GraphX ​​e funzionalità Spark Streaming per un'analisi completa dei dati.

Che cosa significa Spark su host?

Originariamente costruito all'Università di Berkeley nel 2009, Apache Spark è un veloce motore di calcolo distribuito pensato per i Big Data che assicura velocità, facilità d'uso e funzionalità analitiche avanzate. Fornisce API di alto livello in Scala, Java, Python e R oltre a un motore ottimizzato che supporta l'elaborazione di grafici per l'analisi dei dati. Inoltre, supporta anche diversi altri strumenti come Spark SQL per SQL e DataFrames, MLlib per il machine learning, GraphX per l'elaborazione di grafici e Spark Streaming per l'elaborazione dei flussi di dati.

Spark offre due modalità di esplorazione dei dati:

  • Interattiva
  • Batch

Modalità di esplorazione di Spark Per semplificare l'interazione con l'utente finale, Spark viene fornito alle organizzazioni anche in una piattaforma dati unificata su host. In mancanza di un accesso diretto alle risorse Spark da parte delle applicazioni remote, l'utente doveva affrontare un percorso più lungo per arrivare alla produzione. Per superare questo ostacolo, sono stati creati servizi che consentono alle applicazioni remote di connettersi in modo efficiente a un cluster Spark tramite un'API REST da qualsiasi luogo. Queste interfacce supportano l'esecuzione di frammenti di codice o programmi in un contesto Spark che viene eseguito localmente o in Apache Hadoop YARN. Facilitando l'interazione tra Spark e i server applicativi, le interfacce di Spark su host offrono soluzioni chiavi in mano, semplificando l'architettura richiesta dalle app interattive per web e mobile.

LEADER PER LA 5ª VOLTA

Gartner®: Databricks leader dei database cloud

I servizi Spark su host offrono le seguenti funzionalità:

  • Supporto interattivo per Scala, Python e R
  • Invio batch in Scala, Java, Python
  • Condivisione dello stesso server tra più utenti
  • Possibilità di inviare job da qualsiasi luogo tramite REST
  • Nessuna modifica al codice dei programmi

Le organizzazioni possono ora superare facilmente i colli di bottiglia che ostacolano la loro capacità di operazionalizzare Spark per concentrarsi sull'acquisizione del valore promesso dai Big Data.  

Risorse aggiuntive

Non perdere mai un post di Databricks

Iscriviti al nostro blog e ricevi gli ultimi post direttamente nella tua casella di posta elettronica.