Herramientas de usuario

Herramientas del sitio


wiki2:hadoop:ecosystem

¡Esta es una revisión vieja del documento!


Hadoop ecosystem

HDFS y YARN

Yarn se utiliza para subir datos o directamente lanzar tareas en HDFS (el sistema de archivos de Hadoop), que es distribuido. Esto acaban siendo tareas en batch, que se van corriendo cada hora o cada día.

Ambari

Es un frontend web para administrar el cluster de Hadoop

Pig

Pig nos permite asignar un formato a los datos leídos y, con este, hacer operaciones sobre los datos. Puede utilizar varios gestores de ejecución como MapReduce o Tez (para executar en memoria, mucho más rápido).

Spark

Es un motor para ejecutar programas sobre un cluster Hadoop. Substituye al MapReduce que es únicamente para Java (a pesar de sus ports).

RDD es un objeto que internamente crea Spark para trabajar con datos.

Hive

Es una forma de lanzar queries parecidas al SQL a un cluster hadoop. Como Pig, puede ejecutarse sobre MapReduce o sobre Tez.

Se crean tablas de forma paecida al CREATE TABLE de SQL que definirán el estilo de datos.

Se puede extender Hive con User Defined Functions. También puedes cargar datos con varias aplicaciones o formatos (avro, xml…). También se puede usar con Spark (Spark puede usar Hive para obtener datos).

Formas de leer datos en real time

Otra forma distinta a Yarn para leer datos, en vez de hacerlo en batch, es leerlos por streams. Kafka es perfecto para esto, una queue pub-sub distribuida.

Storm puede procesar evento por evento. Se le puede añadir Trident, que permite procesar múltiples eventos a la vez.

Los datos pueden venir de un flujo tipo Flume, Logstash, whatever y se envían a una cola Kafka.

Para procesar los datos puedes hacerlo por eventos (con Storm), o por pequeños batch (con Spark Streaming).

Para guardar los datos lo mejor es utilizar una base de datos distribuida, tipo HBase o Accumulo.

Kafka

Es un sistema distribuido de mensajes. Los procesos que envían datos, pub, se les llaman produtores. Los que los leen, subs, consumidores.

Los nodos son llamados brokers; la conjunción de nodos Kafka cluster. Zookeeper controla los mensajes y la sincronización.

wiki2/hadoop/ecosystem.1553964661.txt.gz · Última modificación: 2020/05/09 09:24 (editor externo)