Maestrías y MBA en linea y a distancia

Maestría en Data Science

Titulación Europa ProfesionalTitulación Europa Profesional
Programa Internacional de Becas LimitadasPrograma Internacional de Becas Limitadas
Conferencias Virtuales en DirectoConferencias Virtuales en Directo
Facilidades de pagos sin interesesFacilidades de pagos sin intereses
Presencia en rankings internacionalesPresencia en rankings internacionales
Ficha del Programa
Área: Tecnología - Sistemas
Fecha: Inicio: Octubre 2021
Duración: 12 meses
Evaluación: Continua con casos prácticos
Financiación: Consulte con su asesor el mejor plan que se adapte
Descarga PDF

TITULO DE POSTGRADO ACADÉMICO
Maestría en Data Science, expedido por el Centro Europeo de Postgrado (Centro Oficial de la Asociación Española de Escuelas de Negocios)
60 ECTS

TÍTULOS / CERTIFICADOS PROFESIONALES
Professional Certificate - Data Science Expert

REQUISITOS DE ACCESO
Titulación Universitaria o experiencia profesional acreditada en el área

ACCESO A UN AÑO EN IDIOMAS
Como valor añadido al programa se le facilita la opción de un año de estudios en el aprendizaje de uno de los siguientes idiomas: inglés británico, inglés americano, francés, alemán, italiano, ruso y portugués (de Brasil)

SERVICIOS DE ORIENTACIÓN PROFESIONAL
Complementario al master se facilita la inmersión en un programa de networking y desarrollo profesional para potenciar la capacidad de incorporación laboral y crecimiento de la empresa

FORMA DE PAGO
Tarjeta bancaria / Pagos electrónicos / Flyware / Paypal / Transferencia bancaria
Descuento del 8% del coste en pagos al contado
Fraccionamiento del pago sin intereses ni intervención bancaria

ELIGE CÓMO QUIERES ESTUDIAR
modalidades de estudio

SOLICITA INFORMACION
Fernando Agudo Tarancón
Fernando Agudo Tarancón
Big Data Architect at Pragsis Bidoop & VP Product
LinkedIn

Fernando Agudo es diplomado en informática por la Universidad de Alicante especializado en las tecnologías Big Data. Hace más de 8 años empezó a trabajar como responsable técnico en el área de Big Data en una de las empresas pioneras de estas tecnologías en España: Pragsis.

Durante este periodo de tiempo se ha ido especializando en las diferentes distribuciones de Hadoop (Cloudera, Hortonworks, MapR) obteniendo múltiples certificaciones en el área de Big Data(Desarrollador Hadoop, Administrador Hadoop, Spark, etc…)

Actualmente su puesto es de “Big Data Architect at Pragsis-Bidoop” compaginando sus tareas de arquitecto con tareas de docencia: Es profesor certificado por Cloudera para impartir los cursos oficiales y ocupa el cargo de CEO en Formación Hadoop.

Entre otras de sus muchas tareas destaca la de “VP Product Manager” de AnalyticMate.

Alfieri Olcese
Alfieri Olcese
Big Data Business Consultant at PRAGSIS BIDOOP
LinkedIn

Ingeniero de Sistemas de la Universidad de Lima – Perú.  Master MBA en Dirección y Administración de Empresa en el Instituto Europeo de Estudios Empresariales. Certificado Scrum Manager-Autoridad en Estratecno. 

Sólida experiencia en empresas multinacionales líderes en Outsourcing y Tecnologías de Información. Amplia experiencia en proyectos de gestión y desarrollo BIG DATA, Business Intelligence, logísticos y en Medios de Pago Transaccional en el sector bancario y sanitario, gestión de proyectos llave en mano de Services Desk, HelpDesk, contingencias y administración de Data Center. 

Actualmente Big Data Business Consultant en Pragsis Biddop (España) y  Coordinador de proyecto de formación elearning CEUPE-Formación Hadoop (España-latinoamerica), entre otras principales empresas que ha laborado: UNISYS DEL PERÚ, BANCO CITIBANK N.A. (Perú), GRUPO SANDOVAL – DINET (Perú) , IBM DEL PERU, Formación Integral y desarollo Empresarial - FIDE (Perú).

En la docencia destaca su experiencia en  centros de extensión de tecnología en la Universidad de Ingeniería (UNI-Perú) y la Universidad Nacional Mayor de San Marcos (UNMSM-Perú). 

David Adrián Cañones Castellano
David Adrián Cañones Castellano
Data Scientist @ Pragsis Bidoop
LinkedIn

Ingeniero Industrial por la Universidad de Sevilla y MBA por la Escuelade Organización Industrial con especialidad en Finanzas. Actualmente Data Scientist en Pragsis Bidoop, ha trabajado en proyectos de investigación premiados con fondos europeos del Horizonte 2020, así como para importantes clientes de los sectores editorial, financiero, telecomunicaciones y energético. Experto en aprendizaje automático y modelización estadística, contribuye activamente al desarrollo de proyectos open source relacionados con el tratamiento y análisis de datos.

Pedro Muñoz Botas
Pedro Muñoz Botas
Data Scientist - White Box
LinkedIn

Llcenciado en Ingeniería Aeronáutica y máster en Matemática Avanzada por la Universidad Politécnica de Madrid. 

Actualmente trabaja como Data Scientist en su propia empresa WhiteBox. Anteriormente ha desempeñado este rol en varias empresas de consultoría hasta dar el paso de formar su propia firma. 

Su stack tecnológico abarca varias ramas del Machine Learning entre las que se encuentran Computer Vision o NLP, teniendo especial importancia el Reinforcement Learning, área en la que es campeón de España de la AWS Deepracer. 

Entre sus clientes se encuentran importantes empresas españolas como Iberdrola o Ferrovial, así como varias startups de San Francisco.

Titulaciones Académicas

El Centro Europeo de Postrado (CEUPE), líder en el desarrollo, organización y difusión de programas de Postgrado, destacado en el ámbito universitario europeo e internacional por su calidad y exhaustivos controles académicos. Por ello, la obtención del Título Maestría está supeditado a la superación de todas las pruebas formativas de evaluación continua que se realizan.

Una vez aprobadas con éxito cada una de las partes del programa, el alumno recibirá por parte del Centro Europeo de Postgrado el título profesional, que acreditan haber superado todas las pruebas académicas. En el Título se detalla el nombre de la Maestría que se ha superado y el programa académico. Además, la titulación va acompañada de las firmas de las máximas autoridades académicas y responsables.

CEUPE - Centro Europeo de Postgrado ofrece a sus alumnos egresados con residencia fuera de España el servicio de gestión de la Apostilla de la Haya sobre todos sus Títulos. Este sello garantiza la validez de la firma del documento académico que se expide y es reconocido automáticamente en cualquier país que haya suscrito el Convenio de la Haya de 5 de octubre de 1961, sin necesidad de ninguna otra autenticación. Enseñanza no reglada y sin carácter oficial. Los títulos profesionales expedidos por CEUPE cuentan con el aval de la Asociación Española de Escuelas de Negocios - AEEN, así como Certificación Internacional de Excelencia Educativa - ICEEX

La solicitud de este servicio de gestión administrativa puede ser solicitado por el alumno al departamento académico en cualquier momento, dirigiéndose para ello a la siguiente dirección de correo electrónico: coordinacion.academica@ceupe.com o bien a través del número de teléfono 0034 918 295 892, previo pago de las tasas académicas correspondientes.

El título de Máster tiene el reconocimiento tanto académico como profesional de la institución y del programa, lo que significa una garantía y aval de que los estudios adquiridos con un alto prestigio en el actual mercado laboral. 

Título Académico
Institución Académica
Título Centro Europeo de Postgrado
Centro Europeo de Postgrado

Título del Centro Europeo de Postgrado - CEUPE

COMPLEMENTO DE IDIOMAS AL PROGRAMA MASTER

En un mundo tan globalizado como es el actual, las necesidades del mercado laboral demandan un profesional cada vez más competitivo. Por ello, desde CEUPE, hemos querido apostar plenamente por una formación  en la que nuestro programa de especialización impartido en español, vaya integrado de forma paralela en el aprendizaje del inglés de negocio para poder reforzar el perfil profesional de nuestros alumnos.

CEUPE cuenta con una de las herramientas de formación online de idiomas más innovadoras y potentes del mercado, posibilitando al alumno el acceso durante un año del estudio del idioma, prestando especial atención a la formación en el idioma seleccionado centrándonos en una perspectiva de estudio orientada hacia los negocios en las diferentes vertientes comercial, jurídico, en el ámbito del marketing, coloquial, profesional, etc. 

Una vez finalizado el curso de idiomas elegido, podrás obtener un Certificado que acredita las horas cursadas, las fechas de realización y los contenidos superados.

 

CURSO IDIOMAS 1 AÑO GRATIS

 

La metodología de aprendizaje, en el caso de seleccionar el idioma Inglés, permite la posibilidad de una vez finalizado los niveles, poder presentarse al acceso para obtener el certificado TOEIC, actualmente, la certificación empresarial más reconocido a nivel internacional.

Asimismo, es importante aprender un tercer idioma de lenguas consolidadas en el mundo profesional como francés, alemán, italiano, ruso y portugués (de Brasil). Para aquellas personas que ya dominen la lengua inglesa y deseen aprender otro idioma, desde CEUPE damos la posibilidad de acceder al estudio de esas otras lenguas citadas.

Para tener más información sobre la herramienta de estudio que vamos a ofrecerte con este  programa máster, te facilitamos este enlace que te ayudará bastante: VIDEO DEMOSTRACION

La contratación de este módulo es independiente al precio del curso, teniendo un coste de 180€.

HERRAMIENTA DE NETWORKING Y DESARROLLO PROFESIONAL

Comprometidos con la preparación integral de nuestros alumnos en el mercado laboral, CEUPE es la única Escuela de Negocios que apuesta por un nuevo servicio exclusivo, capaz de fortalecer el perfil profesional de cada estudiante. Desde el Departamento de Orientación Profesional, y en colaboración con las principales agencias de colocación y outplacement, consultoras de selección de personal y coaches especializados en la rama empresarial, se ha desarrollado una Herramienta con la que, a lo largo de su formación, el alumno podrá contar para mejorar su desarrollo profesional y empleabilidad.

CURSO HERRAMIENTA DE NETWORKING Y DESARROLLO PROFESIONAL

La Herramienta está pensada para la mejora y crecimiento profesional del alumno, con tres ejes conductores: 

  1. La búsqueda activa de empleo, donde el alumno dispondrá de las principales bases de datos de empleo del país, así como fuentes de reclutamiento internacionales. 
  2. Cambio profesional, con herramientas para elaborar una estrategia directa y efectiva que gire en torno a la preparación del CV, de la entrevista y de las dinámicas de grupo o networking.  
  3. Desarrollo de la carrera profesional, en la que podrá hacer uso de aprendizaje interactivo relacionado con el coaching profesional activo o employer branding, para perfiles con una experiencia profesional más amplia.

Esta Herramienta de apoyo está integrada en el Campus Virtual, donde su uso es de fácil acceso para nuestros alumnos. Desarrollado y estructurado de forma muy intuitiva por el equipo equipo de Orientación Profesional, garantiza una formación en constante actualización, para un aprendizaje ágil y efectivo. En ella el alumno encontrará el apoyo de tutoriales, foros, vídeos, bases de datos, documentación digital e imprimible, conferencias online y grabadas, así como otros soportes de trabajo. VIDEO INFORMATIVO

Conoce nuestro Curso

Las empresas cada vez disponen de más datos provenientes de sus procesos de negocios, los cuales necesitan almacenar y procesar para obtener la información de valor que les permita mejorar todos su procesos productivos. La empresa que sea capáz de realizar esa mejora, obtendrá ese punto diferenciador sobre la competencia que les supondrá conseguir el éxito empresarial.

Por todo esto, uno de los perfiles más demandados en la actualidad es el de científico de datos o “Data Scientist”, el cual se encarga de trabajar con todo ese volumen de datos para obtener la información de valor que les acerque al éxito. El Data Scientist se encuentra en el TOP 5 de los perfiles más demandados a nivel internacional por empresas multinacionales y organizaciones gubernamentales. 

En el Máster en Data Science te prepararemos para desarrollar tú carrera profesional en ese perfil tan demandado. De la mano de profesionales del sector, aprenderás todos los conceptos y herramientas, tanto técnicos como analíticos, para poder abordar un proyecto Big Data con garantías: desde la parte más core del Big Data (Hadoop), pasando por el procesamiento de datos (Hive, Spark, etc..), almacenamiento de datos NoSql y finalizando con el área de analítica (Machine learning, creación de modelos, visualización, etc..)

El programa académico de la Maestría en Data Science se encuentra estructurado de la siguiente manera:

Área 1: Conocimientos tecnológicos

En esta área se dará una visión general de los conceptos de la arquitectura Big Data y Analítica. Se explicará el concepto de computación distribuida así como las ventajas que ofrece y se introducirán las principales herramientas que se utilizan para procesar y analizar grandes cantidades de datos.

Además se profundizará en las herramientas imprescindibles que nos ayudarán a afrontar un proyecto con las máximas garantías posibles de éxito, tanto en la parte de procesamiento como en la de analítica (Hadoop, Hive, Spark, Kafka, MongoDB, etc..) .

Área 2: Conocimientos Analíticos

En esta área se sientan las bases para realizar proyectos de analítica, comenzando por el aprendizaje de los principales lenguajes de programación en proyectos de Data Science: Python y R. También se aprenderá a realizar el setup de un entorno de trabajo completo para realizar proyectos de Data Science usando Jupyter y Anaconda. A continuación se aprenderán los principales conceptos de modelado del dato para la realización de analítica descriptiva y predictiva, se conocerán las principales herramientas de dashboarding y data discovery, y se aprenderán los principales algoritmos de Machine Learning supervisado y no supervisado, así como las mejores prácticas para no cometer errores durante el desarrollo de modelos predictivos.

Área 3: Herramientas de un Data Science

En este área, eminentemente práctica, se aprenderán las principales librerías para tratamiento de datos en memoria, con especial foco en pandas, siendo estas la base del tratamiento previo a cualquier librería de modelado estadístico. A continuación se estudiarán en profundidad las librerías más importantes para el desarrollo de modelos de Machine Learning, como scikit-learn o xgboost. Posteriormente se presentarán algunas opciones para conectar entornos analíticos basados en Python con el ecosistema Big Data de Hadoop, para finalizar con algunas herramientas de visualización científica (matplotlib, plotly) y orquestación de procesos para puesta en producción de modelos de Machine Learning, como Apache Airflow.

Área 4: Desarrollo de un Proyecto Big Data

En esta última área se enseñará al alumno a ser capaz de afrontar un proyecto Big Data desde 0 (definición, diseño, desarrollo), aportando casos de usos reales para que le sirva de ejemplo en su desarrollo del trabajo final de máster (TFM).

Temario del Curso

Herramientas analíticas y nociones de Big Data

Fundamentos básicos de Big Data

  • ¿Qué es? Múltiples definiciones. Poner énfasis en que los mismos datos se convierten en big data en función de lo que se quiera hacer con ellos. Ejemplo: 100M registros, hacer una media = no big data, entrenar un modelo complejo = big data.
  • Principio de funcionamiento: MapReduce. Ejemplos clásicos para entender el concepto (contar palabras en un texto, etc.).
  • Framework Open Source para computación distribuida. Basado en el whitepaper de Google sobre MapReduce de 2004 y GFS (Google File System).
  • Concepto de Data Lake
  • Concepto ETL, ELT
  • La importancia del metadato y el data governance para la analítica.
  • Los Datalabs en un modelo de integración analítica con el Data Lake y el Gobierno del dato.

Infraestructura Big Data

Infraestructura Big Data

  • Hadoop: Almacenamiento y procesamiento distribuido
  • Herramientas de obtención de datos: Sqoop , Flume y Nifi.
  • Motores de consulta SQL:
    • Hive e impala:
      • Principio de funcionamiento.
      • Sintaxis y funciones propias de HiveQL e Impala.
  • Introducción y principio de funcionamiento.
  • Spark Core.
  • DataFrames & Spark SQL.
  • Configuración y ejecución
  • Buenas prácticas.
  • Interfaces:
    • Web (Hue,Oozie Ambari,Cloudera Manager).
  • Bases de datos NoSQL:
    • Hbase, Cassandra, MongoDB y Neo4J
  • Procesamiento de datos en Streaming: Kafka y Spark Streaming

Lenguajes de programación de un data science

Lenguajes de programación de un data science

  • Python: lenguaje vehicular del máster.
    • Principios, sintaxis y buenas prácticas. Casos típicos de utilización.
      • Declaración de variables.
      • Control de flujo (condicionales, bucles, etc.).
      • Input / Ouput (lectura y escritura de ficheros, salida por pantalla, etc.).
      • Orientación a objetos.
      • Distribución del código (módulos, paquetes y librerías).
    • Gestión de entornos: Anaconda, virtualenv.
    • Notebooks analíticos: Jupyter (Notebook, Lab). ¿Por qué utilizarlos? Casos típicos de uso.
    • Entornos de desarrollo: PyCharm, Spyder. ¿Qué ofrece un entorno de desarrollo frente a un editor de texto?
  • R: todavía es muy utilizado en estadística y por perfiles provenientes de ciencias puras, se darían algunas nociones del mismo.
    • Principios y sintaxis. Casos típicos de utilización.
    • IDE’s: RStudio.
  • Control de versiones con Git.
    • Fundamentos del control de versiones.
    • Conceptos básicos (branch, commit, pull, push, merge).
    • Metodologías de versionado: Gitflow.

Estudio y Modelado del Dato

Análisis inicial del dato

  • Análisis exploratorio.
  • Localización de dato atípico y métodos de detección de outliers.
  • Realización de estadísticos descriptivos.
  • Evaluación de la calidad del dato.
  • Tipologías de datos: categóricos, numéricos, ordinales, temporales (fechas).

El modelo de datos en tres capas.

  • Capa raw.
  • Capa Master.
  • Capa de consumo.
  • Caso Práctico: Construir un modelo en tres capas a partir del análisis anterior.

Explotación eficiente del dato mediante herramientas de BI y Data Discovery.

  • Cómo explotar un modelo de datos sin sobrecargar el sistema.
  • Herramientas de reporting. (Spotfire, PBI…).

Diseño de un Modelo Escalable

Prototipado de modelos

  • Preprocesamiento
  • Feature selection
  • Prototipado en local

Elección del juego de algoritmos óptimo

  • Aprendizaje supervisado:
    • Modelos lineales:
      • Regresión lineal.
      • Regresión logística.
      • Máquinas de Soporte Vectorial.
    • Modelos basados en árboles:
      • Árbol de decisión.
      • Random Forest.
      • Gradient Boosting.
    • Redes neuronales:
      • Principio de funcionamiento. Perceptrón.
      • Aprendizaje profundo. Se explicaría muy por encima.
    • Regresión vs. Clasificación.
  • Aprendizaje no supervisado:
    • Clusterización.
      • Jerárquica.
    • Detección de anomalías.
  • Técnicas de reducción de la dimensionalidad:
    • t-SNE.
  • Análisis de series temporales.
  • Entrenamiento:
    • Nociones básicas para entrenar un modelo correctamente:
      • División en conjunto de entrenamiento, validación y test. Concepto de Data Leakage.
      • Bias, Variance y Overfitting. Cómo detectarlos y prevenirlos. Curvas de entrenamiento.
      • Validación cruzada.
    • Optimización automática de hiperparámetros:
      • Grid Search.
      • Random Search.
      • Basados en gradiente.
    • Elección óptima del algoritmo:
      • Según la tipología de los datos.
      • Según el número de observaciones.

Según el objetivo del modelo.

Herramientas de un Data Science: Librerías

Librerías para Machine Learning

  • scikit-learn: exclusiva para Python. Librería genérica de Machine Learning. Funcionamiento en local con opción a distribuir. Idónea para prototipado.
  • XGboost: tiene API en múltiples lenguajes. Modelo de boosting muy probado y ampliamente utilizado. Open Source desarrollado para competir en Kaggle.
  • LightGBM: tiene API en múltiples lenguajes. Modelo de boosting muy probado y ampliamente utilizado. Desarrollado por Microsoft, Open Source.
  • catboost: API en múltiples lenguajes. Modelo de boosting especializado en datos con variables categóricas. Desarrollada por Yandex.
  • Spark ML: API en múltiples lenguajes, distribuida de forma nativa con el motor de Spark.
  • TensorFlow: librería de referencia para el desarrollo de redes neuronales, tiene API en múltiples lenguajes aunque la de Python es la más ampliamente usada.
  • Keras: API de Python consistente en una capa de abstracción para el manejo de las librerías de TensorFlow, CNTK y Theano a la hora de realizar modelos de redes neuronales
  • fbprophet:es una librería en Python y R que implementa un procedimiento para pronosticar datos de series temporales basados ??en un modelo aditivo en el que las tendencias no lineales se ajustan a la estacionalidad anual, semanal y diaria, más los efectos festivos
  • H2O: framework para el aprendizaje automático desarrollado por H2O.ai en Java. Tiene API en múltiples lenguajes e introduce el concepto de AutoML para la generación automática de modelos.
  • Caret: exclusiva para R. Desarrollo de modelos de aprendizaje automático en general.

Librerías para interactuar con entornos Big Data

  • impyla: cliente python para implementaciones de HiveServer2 con motores de búsqueda distribuida como Impala o Hive.
  • Apache Arrow: API para múltiples lenguajes (C++, Python, Ruby…) para almacenamiento de datos representados de forma columnar. Permite intercambiar de forma nativa datos entre diferentes plataformas (Python, R, Hadoop, Spark, etc.).
  • HdfsCLI: API de WebHDFS para Python.
  • Ibis: toolbox para conectar Python con distintos componentes de Hadoop como HDFS.
  • PySpark: API de Python para manejo de Spark.

Librerías para tratamiento de datos en memoria y cálculo numérico

  • NumPy: principal librería de álgebra lineal en Python.
  • pandas: principal herramienta para el tratamiento de datos tabulares en Python.
  • Dask: distribución de tareas analíticas en Python de forma nativa.
  • dplyr: exclusiva de R. Soporte a la manipulación de datos.
  • tidyR: exclusiva de R. Tratamiento de datos tabulares.

Visualización

  • Matplotlib: principal librería de visualización en Python.
  • folium: librería para visualización geográfica en Python.
  • seaborn: librería a alto nivel de visualización estadística basada en Matplotlib.
  • Basadas en D3: Bokeh, Plotly. Visualización general. Gráficos interactivos usando Javascript.
  • Para Big Data (visualización de millones / billones de registros): datashader.

Orquestación

  • Oozie: orquestador incluido con las distribuciones de Hadoop. Basado en configuración mediante archivos .xml.
  • Airflow: herramienta de creación de data pipelines programada en Python muy flexible. Soporte para gran cantidad de tecnologías (Spark, Hive, HDFS, etc.). Definición mediante DAGs en archivos Python.
  • Luigi: Es una alternativa a Airflow. Herramienta de creación de pipelines en batch. Lo que busca al igual que el resto de herramientas de orquestación es automatizar de forma visual los distintos procesos que se realizan en el flujo del programa.

Casos de uso y trabajo fin de master

Objetivos del Curso

Los objetivos fundamentales de la Maestría en Data Science son: 

  • Conocer en profundidad una arquitectura Big Data así como todas las herramientas necesarias para el procesamiento/explotación de los datos.
  • Utilizar el valor de aplicar Big Data para obtener los mejores resultados a través la ciencia de datos (Data Science), a través de las herramientas imprescindibles de un científico de datos.
  • Adquirir conocimientos necesarios sobre el uso, análisis y la explotación de los datos.
  • Tomar decisiones fundadas en el análisis de Big Data, Analítica Web y Data Science
Salidas Profesionales del Curso

Los alumnos que finalizan este programa tienen la ventaja competitiva de saber que se encuentran ante uno de los sectores con mayor presente y futuro del mercado profesional. Tal es así que actualmente existe una oferta de empleo profesional que no es capaz de ser cubierta por los profesionales que existen en el sector. 

  • Científico de datos (data scientist)
  • Analista de datos.
  • Analista de macrodatos.
  • Responsable, jefe de proyecto o analista de sistemas de información de inteligencia de negocio.
  • Emprendedor de negocios basados en el análisis de datos y en productos y servicios basados en datos.
Destinatarios del Curso

La Maestría está dirigido a:

  • Estudiantes y profesionales que quieran desarrollar o fortalecer las capacidades técnicas y analíticas necesarias para una carrera de éxito en Big Data o Data Science.
  • Perfiles que, teniendo parte de esas capacidades analíticas, deseen fortalecer sus capacidades técnicas para poder desarrollar una carrera en la industria del Big Data obteniendo una visión más completa (end to end).
  • En general, el público objetivo será personal técnico con conocimientos básicos en programación e interpretación de conceptos matemáticos.
SOLICITA INFORMACIÓN
He leído y acepto el aviso legal

Maestrías que te pueden interesar

Duración: 12 meses | 60 ECTS
Titulación: Título Propio CEUPE
Sector profesional: Tecnología
Professional Certificate: Expert in Information and Security Systems
Duración: 12 meses | 60 ECTS
Titulación: Titulación Europea Profesional
Sector profesional: Tecnología
Duración: 3 meses
Titulación: Titulación Universitaria + Titulación Profesional
Sector profesional: Sistemas de Información
Professional Certificate: Cybersecurity Expert

ESCUELA INTERNACIONAL

Proyección Internacional, con alumnos y antiguos alumnos residentes en más de 38 países y sedes en América Latina

AYUDAS DIRECTAS AL ESTUDIO

Plan Internacional de Ayudas Global Learning con una dotación anual superior al millón de euros repartidas entre 1.000 alumnos

PROFESORADO UNIVERSITARIO Y DIRECTIVO

Contamos con un claustro de profesores de alto nivel académico y directivo, con más de 15 años de experiencia docente y profesional