What you'll learn:
- Instalar un entorno de Hadoop Big Data
- Administrar y configurar los componentes de Hadoop
- Instalar un cluster Hadoop con ambari
- Aprender a manejar el sistema de ficheros HDFS
- Entender los conceptos más importantes de MapReduce y YARN
- Aprender a instalar y configurar productos asociados como HIVE, HUE, HBASE, SPARK, ETC....
Durante este curso vamos a aprender los conceptos y componentes que os permitirán trabajar con un entorno de BigData y Hadoop y montar un cluster con esta tecnología y veremos los productos y herramientas más habituales de este ecosistema
Válido para versiones 2 y 3 de Hadoop
¿Qué contenidos vamos a ver?
- Aprenderás los conceptos básicos de esta tecnología
- Verás como descargar e instalar Hadoop manualmente
- También aprenderás a instalar y configurar Hadoop con ambari
- Trabajarás con HDFS para entender la gestión de ficheros en Hadoop
- Instalarás y configuraras Map Reduce y YARN
- Aprenderás a instalar y configurar los productos y herramientas más usadas dentro del ecosistema Hadoop:
HIVE
SQOOP
SPARK
HUE
ZooKeeper
HBASE
Otros productos que iré subiendo y actualizando
PIG
FLUME
......
¡¡¡¡Con máquinas virtuales preparadas para el curso!!!!
- Una máquina básica en Linux Centos 6con la que podrás hacer todas las prácticas desde el principio
- Tres máquinas virtuales en Linux Centos 7 con Hadoop ya instalado y configuradoen modo Cluster con las que podrás empezar a trabajar con Hadoop sin necesidad de hacer la parte de instalación y configuración inicial
En resumen, este curso te capacitará para poder empezar a desarrollar y usaresta infraestructura en tu entorno laboral.
El curso será sobre todo práctico, de forma que aprendas de forma amena, divertida y también productiva
Cualquier duda estamos a tu disposición. Pregunta sin problemas¡¡¡¡
Espero lo disfrutes¡¡¡¡¡