Hadoop Distributed File System

Este material visa explicar o funcionamento do sistema de arquivo distribuído, o HDFS, do projeto Apache Hadoop. Com isso, pretende contribuir para o ensino e aprendizado dessa ferramenta.É destinado a pessoas com conhecimento em computação, interessados em aprender sobre Hadoop e principalmente o sistema de armazenamento distribuído. A motivação para produzir esse material foi a dificuldade de encontrar um material mais abrangente sobre o HDFS, principalmente em português.

O Apache Hadoop foi baseado no Google File System. É usado por ser econômico, flexível e com tolerância a falhas, é dividido em dois componentes principais o processamento distribuído com Map Reduce e o armazenamento distribuído com o HDFS (foco desse material).

O material está dividido da seguinte forma:

Por que?

Coloca o motivo do surgimento dessa ferramenta, onde é usada e um pequeno histórico.

O que?

Explica como funciona o HDFS.

Como?

Apresenta demonstrações sobre alguns tópicos, incluindo o MapReduce (essencial para utilizar a ferramenta).

Na real

Um guia de instalação.