Curso-BIG DATA

NYCE
En Distrito Federal - Miguel Hidalgo

$ 10001-20000
¿Quieres hablar con un Asesor sobre este curso?

Información importante

Tipología Curso
Nivel Nivel iniciación
Lugar Distrito federal - migue...
Horas lectivas 24h
Duración 3 Días
  • Curso
  • Nivel iniciación
  • Distrito federal - migue...
  • 24h
  • Duración:
    3 Días
Descripción

El participante conocerá los conceptos básicos de Hadoop, Hadoop Distributed File System (HDFS) Sistema de archivos distribuido, MapReduce, Hive, Pig, y HBase y aprenderá a cubrir habilidades básicas de administración e implementación de Clústers y gestión laboral.

Instalaciones

Dónde se imparte y en qué fechas

Inicio Ubicación
Consultar
Distrito Federal - Miguel Hidalgo
Lomas de Sotelo 1112, Col. Lomas de Sotelo, 11200, Ciudad de México (Distrito Federal), México
Ver mapa
Inicio Consultar
Ubicación
Distrito Federal - Miguel Hidalgo
Lomas de Sotelo 1112, Col. Lomas de Sotelo, 11200, Ciudad de México (Distrito Federal), México
Ver mapa

Preguntas Frecuentes

· ¿Cuáles son los objetivos de este curso?

Desarrollará habilidades básicas de administración, como la implementar clústeres, Gestión laboral en curso de mantenimiento y Hadoop, a medida que adquiera los conocimientos necesarios para apoyar sus entornos en las actividades del día a día

· ¿A quién va dirigido?

Administradores de sistemas que deseen comprender todas las medidas necesarias para operar y administrar grupos Apache Hadoop.

Opiniones

No hay opiniones de este curso todavía

¿Qué aprendes en este curso?

Desarrollo de Habilidades
Implementación de clústeres

Profesores

INSTRUCTOR DE NYCE ESPECIALISTA EN SU AREA
INSTRUCTOR DE NYCE ESPECIALISTA EN SU AREA
INSTRUCTOR ESPECIALIZADO

* Todos los instructores que imparten capacitación en NYCE pasan por un filtro de selección para verificar que son calificados en la especialidad que imparten. *La experiencia profesional y la habilidad de transmitir conocimientos es esencial para ser instructor de NYCE.

Programa académico

  • TEMA 1: HADOOP and HDF
  •  Why Hadoop  HDFS  Map Reduce  Hive, Pig, HBase, and Other Ecosystem  Projects
  • TEMA 2: PLANNING YOUR HADOOP CLUSTER
  • General Planning Consideration  Choosing the Right Hardware  Node Topologies  Choosing the Right Software
  • TEMA 3: MANAGING AND SCHEDULING JOBS
  •  Starting and Stopping Map Reduce Jobs  FIFO Scheduler  Fair Schedule
  • TEMA 4: CLUSTER MAINTENANCE
  •  Checking HDFS with Fsck  Copying Data with Distcp  Rebalancing Cluster Nodes  Adding and Removing Cluster Node  Backup and Restore  Upgrading and Migrating  NameNode Metadata
  • TEMA 5: CLUSTER MONITORING, TROUBLESHOOTING AND OPTIMIZING
  •  Hadoop Log Files  Using the NameNode and Job Tracker  Web Uls  Interpreting Job Logs  Monitoring with Ganglia  Other Monitoring Tools  General Optimization Tips  Benchmarking Your Cluster
  • TEMA 6: POPULATING HDFS FROM EXTERNAL SOURCES
  •  Using Sqoop  Using Flume  Best Practices for Data Ingestion
  • TEMA 7: INSTALLING AND MANAGING OTHER HADOOP PROJECTS
  •  Hive  Pig  HBase  Metastore
  • TEMA 8: LABS
  •  Install a Pseudo- Distributed Cluster  Install a Hadoop Cluster  Manage Jobs  Use the Fair Scheduler  Break the Cluster  Verify the Cluster´s Self- Healing Features  Back Up and Restoring  Configure the Hive Shared

Los usuarios que se interesaron por este curso también han mostrado interés por...
Ver más cursos similares