Tutorial do Apache Flume

O Flume é uma ferramenta padrão, simples, robusta, flexível e extensível para ingestão de dados de vários produtores de dados (servidores da Web) no Hadoop. Neste tutorial, usaremos um exemplo simples e ilustrativo para explicar o básico do Apache Flume e como usá-lo na prática.

Público

Este tutorial é destinado a todos os profissionais que desejam aprender o processo de transferência de dados de log e streaming de vários servidores da web para HDFS ou HBase usando o Apache Flume.

Pré-requisitos

Para aproveitar ao máximo este tutorial, você deve ter um bom entendimento dos conceitos básicos dos comandos Hadoop e HDFS.