Exécutez des programmes R à grande échelle grâce au moteur de calcul distribué Apache Spark, avec une syntaxe R familière.
SparkR est un outil qui permet d'exécuter R sur Spark. Il se conforme aux mêmes principes que toutes les autres liaisons de langage de Spark. Pour utiliser SparkR, il suffit de l'importer dans votre environnement et d'exécuter votre code. Il ressemble beaucoup à l'API Python, sauf qu'il suit la syntaxe de R plutôt que celle de Python. Pour l'essentiel, ce qui est disponible dans Python est disponible aussi dans SparkR.
Abonnez-vous à notre blog et recevez les derniers articles directement dans votre boîte mail.