4. Big Data: Conceptos, Métodos y Tecnologías. Objetivos Francisco Javier Cervigon Ruckauer

4. Big Data: Conceptos, Métodos y Tecnologías

Objetivos

El principal objetivo de este módulo es ofrecer una visión introductoria al análisis de conjuntos de datos masivos y complejos, conocidos hoy día como big data. En particular, se presentarán los conceptos básicos relacionados con el análisis de big data, los métodos computacionales y estadísticos más importantes para llevar a cabo este análisis y las tecnologías más relevantes en este ámbito. En este contexto, se hará especial hincapié en la familia de tecnologías open source más popular para el análisis de big data: el ecosistema Apache Hadoop.
Al concluir el tema, habrás adquirido los siguientes conocimientos y competencias:
  • Conocer los principales factores que definen el big data, así como su importancia hoy día en múltiples sectores de actividad.
  • Conocer los diferentes actores y perfiles de trabajo involucrados en proyectos de análisis de big data, así como el ciclo de desarrollo habitual en estos proyectos.
  • Comprender las diferencias entre datos estructurados, semi-estructurados y no estructurados, así como su papel dentro del análisis de big data.
  • Comprender las diferencias entre el procesado de datos por lotes (batch) y el procesado de flujos de datos (streaming).
  • Conocer y comprender las principales arquitecturas, tecnologías y métodos de análisis empleados para trabajar con big data, especialmente el ecosistema Apache Hadoop.
  • Comprender las diferencias entre el análisis de big data en un entorno tipo laboratorio (prototipos y pruebas) frente al despliegue de soluciones basadas en big data en un entorno en producción.

Contenidos

Los contenidos de este tema son:

1. Conceptos básicos para análisis de big data.

  • 1.1 Introducción al procesado y análisis de big data.
  • 1.2 Ejemplo de análisis de datos con Apache Spark.
  • 1.3 Clasificación de tipos de datos.
  • 1.4 Ciclo de desarrollo de proyectos de big data.

2. Arquitecturas de Análisis de big data.

  • 2.1 Estrategias de procesado de datos.
  • 2.2 Test sobre estrategias de procesado de datos.
  • 2.3 Arquitecturas híbridas para big data.
  • 2.4 Laboratorio de análisis vs. análisis en producción.

3. Tecnologías y herramientas para Análisis de big data.

  • 3.1 Entrevista sobre tecnologías de big data.
  • 3.2 Test sobre tecnologías de big data.
  • 3.4 El ecosistema Apache Hadoop.
  • 3.4 Introducción a bases de datos NoSQL.

Metodología y recursos

Para el desarrollo de este módulo, se va a utilizar una metodología que combina la presentación dinámica de conceptos teóricos y metodológicos junto con ejemplos que ilustran el análisis de big data. Se conmiarán diversos tipos de materiales:
  • Videoclases para presentar de forma detallada los conceptos, métodos, técnicas y herramientas más importantes en análisis de big data.
  • Presentaciones multimedia para focalizar el proceso de aprendizaje sobre herramientas o conceptos de especial relevancia.
  • Pruebas de test a lo largo de todo el tema, para reforzar la asimilación de ideas y conceptos básicos, permitiendo además la autoevaluación y la asimilación de los contenidos.
  • Entrevistas con invitados del sector empresarial para conocer de primera mano cómo se desarrollan los proyectos de análisis de big data en entornos reales.
Todas las herramientas tecnológicas mencionadas en el tema son software libre y se pueden descargar sin coste siguiendo los enlaces que se indicarán en los apartados correspondientes.
Francisco Javier Cervigon Ruckauer

No hay comentarios:

Publicar un comentario