KMMX - Centro de Capacitación en Ti, Web y Mobile

Diseñando y Construyendo aplicaciones Big Data con Hadoop

KMMX - Centro de Capacitación en Ti, Web y Mobile
En línea

$ 11,600
¿Quieres hablar con un Asesor sobre este curso?

Información importante

Tipología Capacitación laboral
Metodología En línea
Horas lectivas 30h
Inicio Fechas a escoger
  • Capacitación laboral
  • En línea
  • 30h
  • Inicio:
    Fechas a escoger
Descripción

Hadoop es un sistema de código abierto que se utiliza para almacenar, procesar y analizar grandes volúmenes de datos; cientos de terabytes, petabytes o incluso más. Hadoop surgió como iniciativa open source (software libre) a raiz de la publicación de varios papers de Google sobre sus sistemas de archivo, su herramienta de mapas y el sistema BigTable Reduce. Como resultado nació un conjunto de soluciones en el entorno Apache: HDFS Apache, Apache MapReduce y Apache HBase; que se conocen como Hadoop, con herramientas como Sqoop (para importar datos estructurados en Hadoop cluster) o NoSQL (para realizar el análisis de los datos no estructurados) entre otros.

Instalaciones (1) y fechas
Dónde se imparte y en qué fechas
Inicio Ubicación
Fechas a escoger
En línea
Inicio Fechas a escoger
Ubicación
En línea

Preguntas Frecuentes

· ¿Cuáles son los objetivos de este curso?

En en el entorno tecnológico que actualmente se mueven todas las organizaciones, donde los sistemas no sólo son capaces de generar e ingestar los datos rápidamente sobre formatos estructurados (SQL), también, cada vez más, se generan datos que no son estructurados (NoSQL). El asistente aprenderá y será capaz a través de Hadoop implementaciones como almacenar toda clase de datosestructurados, no estructurados, semiestructurados; archivos de registro, imágenes, video, audio, comunicación, etc

¿Qué aprendes en este curso?

Otros
Apache

Programa académico

Tema 1: Primeros conceptos

Procesando Big Data  | Cómputo en la nube con Amazon Web Services

Tema 2: Hadoop en funcionamiento

Hadoop en un host local Ubuntu | Prerequisitos, descargando Hadoop y configurando SSH | Configurando el modo pseudo-distribuido | Cambiando la baseHDFS | Formateando el NameNode | Iniciando con Hadoop | Usando HDFS | WordCount, el "Hola Mundo" de MapReduce | Usando MapReduce elástico | WordCount en EMR

Tema 3: Comprendiendo MapReduce

Pares Key/Value | Hadoop Java API para MapReduce | Escribiendo programas MapReduce | WordCount, el camino fácil | WordCount con un combinador | Tipos de dato esoecíficos de Hadoop | Usando Writable | Input/Output

Tema 4: Desarrollando programas MapReduce

Usando Hadoop con otros lenguajes | WordCount usando Streaming | Analizando un gran conjunto de datos | Resumiendo y correlacionando datos | Optimizando la forma y tiempo de análisis | Utilizando ChainMapper para validación/análisis | Creando contadores, estados de tarea y escribiendo logs de salida

Tema 5: Técnicas avanzadas de MapReduce

Joins | MultipleInputs | Algoritmos de grafos | Representando grafos | Creando código fuente | Estructuras de dato de un lenguaje independiente | Utilizando Avro | Generando resúmenes en MapReduce | Examinando la salida de datos con Ruby y Java

Tema 6: Rompiendo procesos

Failure | Terminando un proceso DataNode | Bloques faltantes | Terminando proceso TaskTracker | Terminando proceso JobTracker | Terminando proceso NameNode

Tema 7: Mantener las cosas funcionando

Configuración de propiedades en Hadoop | Configurando un clúster | Examinando la configuración de rack | Rack awarness script | Control de acceso a clúster | Gestionando el NameNode | Gestionando HDFS | Gestión de MapReduce | Escalando

Tema 8: Vista relacional en datos con Hive

Primeros pasos con Hive | Configurando, instalando y usando Hive |


Los usuarios que se interesaron por este curso también han mostrado interés por...
Ver más cursos similares