Tutorial de Apache Spark

Tutorial de Apache Spark

Apache Spark es una computación en clúster ultrarrápida diseñada para computación rápida. Se construyó sobre Hadoop MapReduce y amplía el modelo MapReduce para usar de manera más eficiente más tipos de cálculo, incluidas consultas interactivas y transmisión. Este es un tutorial rápido que explica los conceptos básicos de la programación de Spark Core.

La audiencia

Este tutorial ha sido preparada para profesionales que buscan aprender los conceptos básicos de Big Data Analytics utilizando Spark Framework y convertirse en desarrolladores de Spark. También será útil para analistas y desarrolladores de ETL.

Prerrequisitos

Antes de continuar con este tutorial, asumimos que ya está familiarizado con la programación de Scala, los conceptos de bases de datos y cualquier versión del sistema operativo Linux.

🚫