El curso está dedicado a los métodos de procesamiento de grandes volúmenes de datos (BigData) utilizando el sistema Hadoop. Después de pasar el curso recibirá conocimientos de las formas básicas de almacenamiento y métodos de procesamiento de grandes volúmenes de datos, comprenderá los principios de trabajo de los sistemas distribuidos en un contexto de marco Hadoop y dominará los conocimientos prácticos de desarrollo de aplicaciones, utilizando el modelo de programa MapReduce.
Para quien:
Estudiantes de último año, desarrolladores en los niveles elemental y medio. El curso también será útil para aquellos que ya tienen un poco de experiencia con el Hadoop.
Requisitos:
El conocimiento de los lenguajes de programación no es obligatorio, pero es muy deseable. Hay muestras de programas en el curso y deberías ser capaz de leer y escribir código en tareas prácticas. En este caso se utilizan Java y Python. No se requiere un conocimiento profundo de estos lenguajes y no habrá problemas si sólo sabe C++.
Necesitas estar familiarizado con Linux y ser capaz de trabajar en la línea de comandos.
Es deseable conocer el inglés al menos un poco, ya que hay términos e inscripciones en inglés.