Apache Spark es un clúster de computación veloz diseñada para el cálculo rápido. Fue construido en la cima de Hadoop MapReduce y se extiende el modelo MapReduce para utilizar de manera eficiente más tipos de cálculos que incluye Interactivo Consultas y Procesamiento Stream. Este es un breve tutorial que explica los fundamentos de la programación Spark Core.
Audiencia
Este tutorial ha sido preparado para los profesionales que aspiran a aprender los fundamentos de Big Data Analytics utiliza Marco Spark y convertirse en un desarrollador de chispa. Además, sería útil para los profesionales de Analytics y desarrolladores ETL también.
Requisitos previos
Antes de empezar a continuar con este tutorial, se supone que tiene la exposición previa a la programación Scala, conceptos de bases de datos, y cualquiera de los sabores del sistema operativo Linux.
No hay comentarios.:
Publicar un comentario