Tutorial do Apache Spark

Apache Spark é uma computação em cluster extremamente rápida, projetada para computação rápida. Ele foi construído sobre o Hadoop MapReduce e estende o modelo MapReduce para usar com eficiência mais tipos de cálculos, incluindo consultas interativas e processamento de fluxo. Este é um breve tutorial que explica o básico da programação Spark Core.

Público

Este tutorial foi preparado para profissionais que desejam aprender o básico do Big Data Analytics usando o Spark Framework e se tornar um desenvolvedor Spark. Além disso, também seria útil para os profissionais do Analytics e desenvolvedores de ETL.

Pré-requisitos

Antes de começar a prosseguir com este tutorial, presumimos que você tenha exposição prévia à programação Scala, aos conceitos de banco de dados e a qualquer um dos sabores do sistema operacional Linux.