Saltar al contenido

Curso de Hadoop. Sistema para procesar grandes volúmenes de datos

El curso está dedicado a los métodos de procesamiento de grandes volúmenes de datos (BigData) utilizando el sistema Hadoop. Después de pasar el curso recibirá conocimientos de las formas básicas de almacenamiento y métodos de procesamiento de grandes volúmenes de datos, comprenderá los principios de trabajo de los sistemas distribuidos en un contexto de marco Hadoop y dominará los conocimientos prácticos de desarrollo de aplicaciones, utilizando el modelo de programa MapReduce.

Para quien:

Curso de Hadoop. Sistema para procesar grandes volúmenes de datos
Curso de Hadoop. Sistema para procesar grandes volúmenes de datos

Estudiantes de último año, desarrolladores en los niveles elemental y medio. El curso también será útil para aquellos que ya tienen un poco de experiencia con el Hadoop.

Requisitos:

El conocimiento de los lenguajes de programación no es obligatorio, pero es muy deseable. Hay muestras de programas en el curso y deberías ser capaz de leer y escribir código en tareas prácticas. En este caso se utilizan Java y Python. No se requiere un conocimiento profundo de estos lenguajes y no habrá problemas si sólo sabe C++.

Necesitas estar familiarizado con Linux y ser capaz de trabajar en la línea de comandos.

Es deseable conocer el inglés al menos un poco, ya que hay términos e inscripciones en inglés.