logo
Máster de Formación Permanente

Máster en Big Data y Analytics

Cambia la forma de analizar de tu organización para transformarla en una data driven company.

Fecha de inicio
Convocatoria abierta
Precio
7.500 €
Metodología
Online
Duración
10 meses (60 ECTS)
Partner académico

Objetivos

El Máster en Big Data y Analytics da respuesta al nuevo escenario laboral que el almacenaje, la gestión y la interpretación de los datos han aportado a las empresas y organizaciones en todo el mundo y prepara a profesionales para que sean capaces de implantar proyectos de Big Data de principio a fin en sus organizaciones.

El objetivo general es proporcionar los conocimientos necesarios para gestionar un proyecto de Big Data desde todas sus vertientes, empezando desde cómo identificar la oportunidad en una organización hasta qué se entrega a las áreas de negocio.

Conseguir que el profesional responsable pueda identificar si una organización se encuentra delante de un reto de Big Data y tener un proceso definido de los pasos a seguir: identificar la tipología de soluciones que debe adoptar; los perfiles profesionales que va a necesitar; preparar un plan de viabilidad económica y tener los fundamentos para manejar su escalabilidad.

Transformación data driven

Transformación data driven
Entender cómo transformar una organización tradicional, mediante la aplicación del concepto de análisis de datos o Big Data Analytics, en una data driven organization.

Frameworks

Frameworks
Conocer los principales frameworks tecnológicos del mercado y sus principales aplicaciones: Hadoop, Spark, Neo4j.

Tipologías de información

Tipologías de información
Identificar cuáles son las diferentes tipologías de información, su almacenamiento y procesos de calidad.

Gobierno de datos

Gobierno de datos
Dominar las técnicas de gobierno de datos: adquisición, almacenado, proceso, análisis, visualización.

Transformación data driven

Entender cómo transformar una organización tradicional, mediante la aplicación del concepto de análisis de datos o Big Data Analytics, en una data driven organization.

Frameworks

Conocer los principales frameworks tecnológicos del mercado y sus principales aplicaciones: Hadoop, Spark, Neo4j.

Tipologías de información

Identificar cuáles son las diferentes tipologías de información, su almacenamiento y procesos de calidad.

Gobierno de datos

Dominar las técnicas de gobierno de datos: adquisición, almacenado, proceso, análisis, visualización.

Una vez que completes con éxito tu programa, obtendrás un doble título:

  • Máster en Big Data y Analytics por Inesdi Business Techschool
  • Máster de Formación Permanente en Big Data y Analytics por la Universidad Internacional de la Empresa (UNIE).

 

Empleabilidad

95%
De nuestros Alumni encuentran trabajo relacionado con Data Analytics.
+3000
Alumnos de Inesdi que realizan prácticas las obtienen gracias al departamento de Carreras Profesionales.
75%
De nuestros Alumni ascienden al finalizar el Máster.

Nuestros alumnos trabajan en

Razones por las que estudiar Máster en Big Data y Analytics en Inesdi

Visión Global

Con el nuevo marco laboral donde el almacenaje, gestión e interpretación de los datos son puntos clave en el funcionamiento de las empresas, el máster aporta una visión global sobre las etapas existentes en el proceso de gestión de un proyecto de Big Data

Enfoque Estratégico

El máster hace énfasis en la continua actualización de las soluciones Big Data para ayudar a los estudiantes a aplicarlo y hacer un uso estratégico en la organización. Desarrollarán las capacidades necesarias para una mejor adaptación a los cambios.

Contenidos Diferenciales

El máster ofrece una perspectiva genérica sobre todos los temas relacionados con el procesamiento de datos, abordando temas como los procesos ETLs y ELTs, y el Data Governance. Además, se realizan casos prácticos con herramientas como PowerBI y Cognos.

Certificación Oficial

Además de los estudios teóricos se preparará a los estudiantes mediante talleres prácticos, en los cuales podrán obtener las certificaciones aCAP y CAP de Informs.
sin compromiso del Máster en Big Data y Analytics

Testimonios

"Ha sido una experiencia formidable. Realmente en mi día a día he aplicado todos los conocimientos adquiridos en el Máster y me ha ayudado a crecer profesionalmente"
Salvador Chorro, Visual Analytics Manager en Avianca
Salvador Chorro,
Visual Analytics Manager en Avianca

Programa

El Máster en Big Data & Analytics se estructura en 10 módulos terminando el programa con el Proyecto Fin de Máster.

Contamos con varias membresías y certificaciones que nos permiten agregar un extra a nuestros programas y brindar herramientas complementarias a nuestros alumnos.

as           asd           asd          ghfd          ametic

Bootcamp Tecnológico

Los estudiantes inician el programa de Big Data y Analytics con este bootcamp que provee de las bases de conocimiento técnicas necesarias para cursar y para llevar cabo proyectos de Big Data.

En este curso, los estudiantes encontrarán recursos materiales que les permitirán profundizar en diferentes temas necesarios para el seguimiento del máster y realizarán actividades que les servirán como guía para la evaluación de sus conocimientos y la evaluación final del curso.

Módulo 1- Gerencia del Big Data y Analytics 

En este módulo introduciremos los conceptos fundamentales del Big Data para saber identificar las claves de cada proyecto y escalabilidad. Descubrir la variabilidad de los datos, la volumetría y la velocidad nos servirá para identificar qué fases se deben llevar a cabo antes de arrancar un proyecto de Big Data y, lo más importante, qué retorno esperamos del proyecto y qué expectativas tiene el negocio.

Objetivos:

  • Identificar cuándo un proyecto es Big Data.
  • Encontrar el ROI en un proyecto de Big Data.
  • Entender y aplicar los conceptos de Dark Data y Open Data.
  • Orientar la organización para que sea una Data Driven organization y respalde el
  • proyecto.
  • Conocer la legalidad de los datos.
  • Definir la figura del Data Science dentro de una organización.
  • Examinar casos de éxito y fracasos en la industria en el mundo de Big Data.
  • Comprender la organización interna del área del CDO.

Módulo 2- Arquitectura Big Data

En este módulo descubriremos los pros y los contras de cada arquitectura, los principales proveedores de soluciones y las estrategias para construir entornos lo más elásticos posibles, buscando siempre la arquitectura más eficaz en soluciones y coste.

Objetivos:

  • Estudiar los conceptos fundamentales de Arquitectura de referencia de Big Data.
  • Analizar las características de las arquitecturas de proceso de Big Data (Lambda y Kappa).
  • Comprender las Arquitecturas de Computación (Velocidad).
  • Entender cómo funciona un Hadoop.
  • Examinar la evolución de los motores de proceso de Big Data.
  • Aprender las Arquitecturas de Almacenamiento (Volumen) para Big Data: Réplicas, Particionado, Rendimiento y Disponibilidad.
  • Examinar ejemplos de arquitecturas de almacenamiento de Big Data. Data Lake y DataWarehouse.
  • Familiarizarse con la gestión de una Arquitectura de Big Data.
  • Analizar las conexiones entre cloud y Big Data. Servicios de datos en Cloud Públicos, Snowflake y DataBricks.

Módulo 3- Integración de datos (ETLs, ELTs...)

En este momento, deberemos definir reglas de calidad para verificar que los datos son correctos y no empobrecen nuestro Data Lake. En este módulo aprenderemos a definir las bases que deben tener todo proceso de carga de datos para garantizar una integridad, sanitización, historificación y recursividad en las cargas.

Objetivos:

  • Comprender los retos de los datos en los procesos de integración de datos.
  • Estudiar la Integración de Datos – Procesos ETL y ELT.
  • Aprender a usar técnicas avanzadas de integración de datos con Machine Learning.
  • Analizar Data Quality y métricas en los procesos de integración de datos.
  • Examinar el uso del Data Lineage en los procesos de integración de datos.
  • Aproximarse al Master Data Management. La factoría de Datos.
  • Entender los beneficios de Open Data, para enriquecer nuestros datos con datos externos.
  • Familiarizarse con las herramientas de Integración de Datos y Cloud.

Módulo 4- Repositorios analíticos y operacionales. SQL y NoSQL 

Registrar grandes cantidades de información requiere de diferentes tipologías de base de datos, más allá de las relacionales con un enfoque más tradicional. Así, por ejemplo, el vídeo, las rutas o caminos críticos, los documentos o las redes sociales son fuentes de datos cada vez más habituales entre las fuentes de información que interesan a un negocio. El mercado tecnológico se ha adaptado a todas ellas y ha creado soluciones para poder almacenarlas y explotarlas de forma óptima. En este módulo descubriremos sus ventajas e inconvenientes y realizaremos pequeñas prácticas sobre cada una de ellas para explorar su potencial.

Objetivos:

  • Entender los retos de las bases de datos relacionales en Big Data.
  • Comprender la necesidad de escalar. La consistencia BASE vs ACID.
  • Aprender a usar las bases de datos NoSQL.
  • Aproximarse a Deep Dive MongoDB y aprender a crear un DataLake con MongoDB.
  • Analizar las bases de datos NewSQL.
  • Examinar las bases de datos en streaming. Proceso en tiempo real.

Módulo 5- Data Mining: Estadística básica y preprocesado de datos 

En este módulo aprenderemos a extraer información del conjunto de datos del Data Lake y, sobre todo, a convertirla en interpretable. En todo el proceso, deberemos tener claros los objetivos de negocio, las herramientas que nos ayudarán a analizar los datos, a determinar qué modelos matemáticos son mejores y a cualificar los resultados.

Objetivos:

  • Seleccionar el conjunto de datos que mejor puede resolver la pregunta de negocio, de entre los datos disponibles.
  • Transformar el conjunto de datos de entrada.
  • Seleccionar la técnica de minería de datos más adecuada (redes neuronales, árboles de decisión, clustering, reglas de asociación, etc.).
  • Entender el proceso de extracción de conocimiento.
  • Interpretar y evaluar los datos.

Módulo 6- Advanced Analytics: R

Una vez dispongamos de unos datos correctos habrá llegado el momento de extraer el conocimiento, interpretarlos y llevar el conocimiento a un nuevo nivel. En este módulo, sentaremos una pequeña base estadística para poder trabajar con una de las principales herramientas de Advanced Analytics del mercado: R. Con ella se realizarán pequeñas prácticas para extraer el máximo potencial de los datos.

Objetivos:

  • Conocer las bases dela estadística y del cálculo de probabilidades.
  • Aplicar el análisis multivariante de datos.
  • Entender y aplicar las series temporales.
  • Entender el proceso de control estadístico de la calidad de los datos.
  • Calcular correlaciones y patrones.
  • Conocer el proceso de clusterización de los datos.

Módulo 7- Machine Learning & Inteligencia Artificial

En los módulos anteriores se ve cómo interpretar los datos existentes, cómo extraer conocimiento de todo lo que nos ha sucedido. En este módulo nos acercaremos al Machine Learning para ver cómo, con buena información, podemos acercarnos a los predictivos. Descubriremos las principales técnicas y herramientas de mercado, qué tipología y volumen de información es necesaria y realizaremos pequeños módulos prácticos para ver su aplicabilidad.

Objetivos:

  • Entender la diferencia entre aprendizaje supervisado y aprendizaje no supervisado.
  • Conocer las diferentes técnicas de clasificación, de los árboles de decisiones a las técnicas bayesianas.
  • Entender el concepto de aprendizaje automático.
  • Identificar los principales softwares de código abierto y comercial.

Módulo 8- Data Governance 

Una vez tenemos toda la información, debemos definir las reglas de uso: quién puede ver los datos, la definición de cada dato, linaje y dotar a los usuarios de las herramientas para poder interpretarlos.
El gobierno del dato es donde muchas empresas fracasan, tener dos valores diferentes para un mismo KPI o predictivo, provoca desconfianza entre las diferentes áreas de negocio.
En este módulo, aprenderemos las técnicas de gobierno de la información para mantener la integridad, seguridad y trazabilidad, para garantizar que los datos ayuden a la toma de decisiones seguras sin generar desconfianza.

Objetivos:

  • Entender qué es la accesibilidad de los datos.
  • Gestionar los datos como un activo.
  • Asegurar la integridad.
  • Definir los principales KPIs y trazabilidad de los datos.
  • Entender el concepto de securización.

Módulo 9- Técnicas de visualización 

En este módulo descubriremos cuáles son las diferentes técnicas de visualización de datos y cuándo utilizar cada una de ellas. Los grandes volúmenes de datos necesitan de nuevas representaciones gráficas para poder interpretarlos: mapas de calor, clústeres, dimensionales, caminos críticos, entre otros.
Además de los gráficos, es importante asociar la valoración a cada uno de ellos y generar una interpretación. Los indicadores pueden confundir y dificultar la toma de decisiones, orientarlos, ponerlos en contexto y subjetivarlos ayudará a una mejor interpretación.

Objetivos:

  • Descubrir las tipologías disponibles de gráficos.
  • Conocer los casos de uso y sus principales representaciones gráficas.
  • Entender el proceso vinculado al paso delos gráficos al Story telling de negocio.
  • Saber simplificar y agregar datos para Dashboards de dirección.

Módulo 10 - Herramientas de visualización y autoservicio 

Finalmente, como el ecosistema de herramientas de visualización es complejo, será importante escoger el más adecuado para cada tipo de organización. Habrá que tener en cuenta que en una organización se busca simplificar la tecnología y deberemos buscar una solución para toda la organización. Es sólo entonces cuando podremos garantizar fácilmente la seguridad, accesibilidad y disponibilidad de los
mismos KPIs.

El autoservicio es una pieza clave en organizaciones grandes con delegaciones, sucursales, etc. Permite descentralizar la información y convertir cada nodo de la organización en autónomo. En este módulo descubriremos las principales herramientas de data visualization y
autoservicio.

Objetivos:

  • Identificar las principales herramientas de mercado:Qlikview/sense, Tableau, PowerBI, Cognos.
  • Conocer los puntos fuertes y puntos débiles de cada una ellas.

Talleres

Taller 1. Neo4j-QSense: En este taller los estudiantes aprenderán a usar dos productos interesantes en el mundo de los datos. Por una parte, Neo4j, la base de datos de grafos más extendida actualmente que permite establecer, descubrir y explotar múltiples relaciones entre las entidades existentes. Además, la segunda parte del taller se dedicará a Qlik Sense, un producto de explotación BI sofisticado, muy extendido y orientado al analista de negocio, que facilita mucho la obtención de los insights de los datos.

neo          das

 

Taller 2. Construimos un Lakehouse en Cloud: Este segundo taller tiene por objetivo construir un Lakehouse en uno de los proveedores de cloud más importantes en la actualidad: AWS. La construcción del Lakehouse pasa por la utilización e integración de diferentes componentes o servicios de datos que encajan en la arquitectura de referencia usada a lo largo del Máster. Un Lakehouse es una propuesta de arquitectura que combina la flexibilidad de los Data Lakes con la sólida gestión de los datos estructurados de los Data Warehouse. Si se ubica esta arquitectura en el Cloud entonces también se disfruta de todas sus ventajas de escalabilidad, flexibilidad, gestión y pago por uso.

sd          

Certificaciones

Para todos aquellos alumnos que finalicen con éxito el Máster, opcionalmente, podrán realizar el examen para la obtención de las certificaciones aCAP® o CAP®, acreditaciones clave para los profesionales del área de operaciones y analytics.

  • aCAP® (Associate Certified Analytics Professional) es una certificación orientada a aquellos profesionales dedicados al análisis de datos, sin experiencia laboral o experiencia inferior a 3 años.
  • CAP® (Certified Analytics Professional) es una certificación orientada a aquellos profesionales dedicados al análisis de datos, con experiencia laboral más de 3 años.

El objetivo de estas certificaciones es validar los conocimientos y habilidades de los estudiantes en materia de análisis de datos. Obtener una acreditación de estas características es un elemento diferenciador, que aporta valor a los profesionales, abriéndoles las puertas al mercado laboral o a la mejora de la posición laboral ocupada. Para las empresas que buscan mejorar su capacidad para transformar los datos en información y acciones rentables, CAP® y aCAP® proporcionan una distinción para identificar, reclutar y retener el mejor talento analítico.

Ambas certificaciones están avaladas por Informs, una institución integrada por 12.500 profesionales y estudiantes de este ámbito y que está comprometida con dar respuesta a las necesidades de los profesionales encargados del desarrollo, aplicación, investigación y docencia en el área de anlytics. El objetivo principal de la organización es promover las buenas prácticas y avances en operaciones, gestión empresarial y Analytics con el fin de mejorar los procesos operativos, la toma de decisiones y los beneficios.

El Máster en Big Data y Analytics proporciona a los estudiantes los conocimientos y habilidades necesarios para superar satisfactoriamente el examen de aCAP® o CAP®, que les permitirán diferenciarse de la competencia y aportar valor a sus carreras profesionales.

asd

Preparación a la Certificación en PSM® (Professional Scrum Master)

Es una certificación orientada a demostrar conocimiento de Scrum y las responsabilidades de Scrum Master. El objetivo de la certificación es validar los conocimientos y habilidades de los estudiantes. La certificación es reconocida y respetada mundialmente porque pone a prueba una verdadera comprensión de Scrum y como aplicarlo. Una vez que se obtiene no se necesita renovación.

Logo PSM

Proyecto final de Master

10 ECTS

Es un trabajo académico-práctico que los estudiantes realizarán, transversalmente. El objetivo de este trabajo es favorecer la aplicación práctica de los conocimientos, metodologías y herramientas vistos a lo largo de todo el máster.

Claustro

Claustro

Marc Subirà

Director del Máster

Responsable de DATA y Deporte en Kingfisher/Brico depot Iberia

Francesc Taxonera

Profesor del Máster

Senior Architect | Client Technical Leader en IBM

Fernando López Bello

Profesor del Máster

Machine Learning Platform Product Manager en Nestlé

Elena Cordero

Profesora del Máster

Senior Consultant BI en Abast

Ernesto Lores

Profesor del Máster

Head of Operations en Aquiles Solutions

Jordi Cahue

Profesor del Máster

Innovation Lead en Kyndryl

Albert Fernández

Profesor del Máster

Product Manager & Business Consultant at SCRM - Lidl International Hub

Raquel Jorge Hernando

Profesora del Máster

Senior BI Engineer en Elastacloud

Salidas profesionales

Una vez finalizado el programa, los estudiantes podrán ocupar posiciones como:

Responsable de proyectos Big Data y analítica avanzada de negocio
Consultor externo
Responsable de infraestructuras Big Data en el área TIC
(CDO) Chief Data Officer
Analista de datos

Perfil del estudiante

El perfil de los alumnos del máster en Big Data & Analytics

DATOS DEMOGRÁFICOS
18%
Europa
82%
Latinoamérica
SEXO
EDAD
37 años
Media
11 años
Media experiencia
BACKGROUND
67%
31%
10%
Business
Otros
Tech
EXPERIENCIA
Dirección General
Técnico / Especialista
10%
24%
30%
35%
Dirección / Gerente de Dpto
Otros

Salidas profesionales

Una vez finalizado el programa, los estudiantes podrán ocupar posiciones como:

Responsable de proyectos Big Data y analítica avanzada de negocio
Consultor externo
Responsable de infraestructuras Big Data en el área TIC
(CDO) Chief Data Officer
Analista de datos

Perfil del estudiante

Inesdi da respuesta al escenario económico y empresarial actual.

DATOS DEMOGRÁFICOS
18%
Europa
82%
Latinoamérica
SEXO
EDAD
37 años
Media
11 años
Media experiencia
BACKGROUND
67%
31%
10%
Business
Otros
Tech
EXPERIENCIA
Dirección General
Técnico / Especialista
10%
24%
30%
35%
Dirección / Gerente de Dpto
Otros

Salidas profesionales

Una vez finalizado el programa, los estudiantes podrán ocupar posiciones como:

Responsable de proyectos Big Data y analítica avanzada de negocio
Consultor externo
Responsable de infraestructuras Big Data en el área TIC
(CDO) Chief Data Officer
Analista de datos

Proceso de admisión

Nuestro proceso de admisión tiene como objetivo fundamental asegurar la idoneidad y desarrollo de los candidatos, para que todos nuestros alumnos puedan vivir una experiencia digital que responda a sus necesidades actuales y futuras.

Solicitud de admisión
Entrevista con el alumno
Documentación de admisión
Evaluación comité de admisiones
Admisión aprobada
Matriculación del alumno
CampusMadrid

Madrid

Campus Madrid

C/Arapiles, 14
28015
CampusBarcelona

Barcelona

Campus Barcelona

Av. Gran Via de l’Hospitalet, 153
L'Hospitalet de Llobregat · 08908
Desde cualquier lugar del mundo

Online

Desde cualquier lugar del mundo. Online

Planet Earth


© Instituto de Innovación Digital de las Profesiones. Planeta Formación y Universidades. Todos los derechos reservados.
Por cualquier consulta, escríbanos a info@inesdi.com