sábado, 14 de noviembre de 2015

Spark - Tutorial

Apache Spark es un clúster de computación veloz diseñada para el cálculo rápido. Fue construido en la cima de Hadoop MapReduce y se extiende el modelo MapReduce para utilizar de manera eficiente más tipos de cálculos que incluye Interactivo Consultas y Procesamiento Stream. Este es un breve tutorial que explica los fundamentos de la programación Spark Core.

Audiencia

Este tutorial ha sido preparado para los profesionales que aspiran a aprender los fundamentos de Big Data Analytics utiliza Marco Spark y convertirse en un desarrollador de chispa. Además, sería útil para los profesionales de Analytics y desarrolladores ETL también.

Requisitos previos

Antes de empezar a continuar con este tutorial, se supone que tiene la exposición previa a la programación Scala, conceptos de bases de datos, y cualquiera de los sabores del sistema operativo Linux.

No hay comentarios.:

Publicar un comentario