
Un notebook Jupyter est une application Web open source qui permet aux data scientists de créer et de partager des documents comprenant du code en direct, des équations et d'autres ressources multimédias.
Les notebooks Jupyter sont utilisés pour toutes sortes de tâches de data science telles que l'analyse exploratoire des données (EDA), leur nettoyage, leur transformation et leur visualisation, ainsi que la modélisation statistique, le machine learning et le deep learning.
Les notebooks Jupyter sont particulièrement utiles pour présenter le travail effectué par votre équipe data, notamment grâce à une combinaison de code, de markdown, de liens et d'images. Ils sont faciles à utiliser et peuvent être exécutés cellule par cellule pour mieux comprendre ce que fait le code.
Les notebooks Jupyter peuvent également être convertis dans un certain nombre de formats de sortie standard (HTML, Powerpoint, LaTeX, PDF, ReStructuredText, Markdown, Python) via l'interface Web. Cette flexibilité permet aux data scientists de partager facilement leur travail avec d'autres.
Un notebook Jupyter comporte deux éléments : une page Web front-end et un noyau back-end. La page Web front-end permet aux data scientists de saisir du code ou du texte dans des « cellules » rectangulaires. Le navigateur transmet ensuite le code au noyau back-end qui l'exécute et renvoie les résultats.
Êtes-vous à la recherche d'un puissant outil de collaboration pour la data science ? Plus besoin d'en chercher. Databricks est là ! Nos notebooks vous permettent de travailler avec vos collègues des équipes data engineering, data science et machine learning, et ce dans plusieurs langues. Ils vous offrent également des visualisations de données intégrées et une opérationnalisation avec les jobs. Inscrivez-vous pour un essai gratuit.
Tout à fait. Les clusters Databricks peuvent être configurés pour utiliser le noyau IPython afin de profiter des outils open source de l'écosystème Jupyter (outils d'affichage et de sortie, par exemple). Databricks prend également en charge l'importation et l'exportation de fichiers .ipynb. Ainsi, vous pouvez facilement reprendre une tâche sur Databricks exactement là où vous vous êtes arrêté dans votre notebook Jupyter, et vice versa. Enfin, Databricks prend en charge depuis longtemps les bibliothèques Jupyter open source dans le runtime Databricks pour le machine learning.
C'est simple. Consultez la documentation, puis inscrivez-vous pour un essai gratuit de Databricks.
