Führen Sie R-Programme in großem Umfang mit der verteilten Rechenplattform von Apache Spark und der gewohnten R-Syntax aus.
SparkR ist ein Tool zum Ausführen von R in Spark. Es folgt den gleichen Prinzipien wie alle anderen Sprachbindungen von Spark. Um SparkR zu verwenden, importieren wir es einfach in unsere Umgebung und führen unseren Code aus. Es ist der Python-API sehr ähnlich, außer dass es der R-Syntax anstelle von Python folgt. Fast alles, was in Python verfügbar ist, ist auch in SparkR verfügbar.
Abonnieren Sie unseren Blog und erhalten Sie die neuesten Beiträge direkt in Ihren Posteingang.