Universidad Anáhuac México. Líderes de Acción Positiva.

Egresado Anáhuac, aprovecha tu 20% de beca.

Diplomados, Cursos, Talleres y más...

Diplomado en inteligencia artificial y machine learning aplicada con python

Precio regular $ 66,000 MXN
Pago total: $ 66,000 MXN
6 mensualidades de: $ 11,000 MXN
Precio de venta $ 66,000 MXN Precio regular
Descuento Cupo Lleno
Precio unitario
/por 
Comparte en tus redes
Texto previo al pedido

Convierte los datos en decisiones y las ideas en modelos inteligentes.


La IA está transformando todas las industrias y quienes dominan estas herramientas son los que hoy están marcando la diferencia.

Este diplomado te lleva desde cero hasta implementar modelos de inteligencia artificial con Python, el lenguaje estándar en ciencia de datos.

¿Qué hace único a este diplomado?

  • Aprendizaje progresivo y práctico: empieza desde lo básico y llega hasta la construcción de soluciones inteligentes completas.

  • Aplicación 100% en Python: cada concepto se convierte en código real y aplicable a proyectos de negocio.

  • Docentes expertos en activo: aprenderás con profesionales que usan IA todos los días en sectores como finanzas, energía, tecnología y retail.

  • Casos de uso reales: datasets y retos auténticos que simulan problemas de la industria.

  • Master Classes de vanguardia: explora AutoML, arquitecturas multiagente, ética en IA y más.

  • Visión ética y responsable: forma parte de los profesionales que entienden el impacto social de la IA.

  • Certificado en Blockchain: un diploma inteligente, trazable y con validez permanente.

  • Comunidad y networking de élite: únete a una universidad en el top 2% global y con alta empleabilidad.

¿Por qué inscribirte?

Vas a desarrollar habilidades altamente demandadas, reconocidas por la industria y respaldadas con un certificado que nunca perderá validez.

Inscríbete ahora y empieza a construir la carrera que la IA te puede dar.
Los lugares son limitados y la demanda crece cada día.

 

Programa en alianza con Start business builder and consulting.

Fecha de inicio: 18 de noviembre

Duración: 132 horas

HORARIO

Martes y jueves 19:00 hrs. a 22:00 hrs vía zoom

CONTACTO

Lic. María del Rosario Martínez Vargas

Coordinadora de programas del Centro de Educación Continua

📧 Correo: rosario.martinez@anahuac.mx

📞 Teléfono: 55 5627 0210 ext. 8665

📱 Celular: 55 4351 2696

Profesionales y estudiantes de
áreas como ingeniería, economía, estadística, matemáticas, informática, actuaría o afines, interesados en iniciar o fortalecer su formación en ciencia de datos y aprendizaje automático.


Profesionales en activo que buscan mantenerse a la vanguardia en sus industrias, adquirir nuevas habilidades en programación, análisis de datos e inteligencia artificial, y comprender en profundidad cómo estas disciplinas pueden potenciar su desempeño y aportar valor en sus roles actuales.

Personas con conocimientos básicos de
matemáticas y lógica que deseen desarrollar competencias técnicas en programación y modelado estadístico para integrarse al entorno profesional cada vez más impulsado por datos y automatización.

Capacitar a los participantes en las habilidades y conocimientos esenciales de la ciencia de datos utilizando Python como herramienta principal.

Durante el programa, se brindará una formación sólida en programación, estadística, análisis y visualización de datos, así como en técnicas de Machine Learning que
forman parte de la inteligencia artificial.

Además, los participantes desarrollarán
competencias para diseñar, implementar y evaluar soluciones basadas en inteligencia artificial, entendiendo los fundamentos que sustentan estas tecnologías y su aplicación en contextos reales.

El programa también les permitirá comprender y evaluar críticamente las herramientas emergentes de IA que están transformando el entorno laboral, posicionándolos a la vanguardia del conocimiento tecnológico actual.

Módulo I - Bases de programación en Python para la IA (duración 28 horas)


  1. Introducción a la programación

    1.1 Lenguajes de programación y aplicaciones

    1.2 Uso de Python en la actualidad

    1.3 Instalación de herramientas necesarias

    1.4 Entornos de ejecución (Jupyter Lab, Jupyter Notebooks, Google Colab)

  2. Estructuras y tipos de datos en Python

    2.1 Enteros, cadenas, flotantes, objetos

    2.2 Listas, diccionarios y series

    2.3 Conjuntos y tuplas

    2.4 Variables

  3. Condicionales y Ciclos

    3.1 Estructuras booleanas y condicionales

    3.2 For

    3.3 While

    3.4 Do While

  4. Funciones y métodos

    4.1 Definición y estructura

    4.2 Argumentos y parámetros

  5. Programación funcional

    5.1 Instalación e importación de módulos

    5.2 Funciones lambda

    5.3 Aplicaciones de funciones lambda

    5.4 List Comprehensions

  6. Manejo de aritmética de fechas

    6.1 Date

    6.2 DateTime

    6.3 Time

    6.4 Time Delta

  7. Pandas

    7.1 Series en Pandas

    7.2 Métodos de una Serie: ejemplos y aplicaciones

    7.3 Método apply()

    7.4 DataFrames: estructura, definición y creación

    7.5 Lectura, importación y exportación de archivos

    7.6 Métodos para manipular información de un DataFrame

    7.7 Groupby object

    7.8 Unión de DataFrames

  8. Introducción a Numpy

    8.1 Arreglos y matrices

  9. Visualización de datos

    9.1 Matplotlib

    9.2 Aplicaciones

  10. Tipo de variables

    10.1 Escalas de variables

    10.2 Medidas de asociación entre variables

    10.3 Interpretación de medidas de asociación

Master Class: “El Programador Aumentado: IA como copiloto de código” (2.5 hrs)

En esta sesión exploraremos cómo los asistentes de inteligencia artificial están transformando la forma en que programamos. Veremos cómo estas herramientas pueden acelerar el desarrollo en Python.

Módulo II - Estadística y probabilidad: Elementos fundamentales para la IA (duración 30 horas)


  1. Álgebra lineal con Python

    1.1 Matrices, vectores y escalares: definición y operaciones

    1.2 Combinación lineal, definición y ejemplos

    1.3 Dependencia e independencia lineal de vectores

    1.4 Inversas y determinantes

    1.5 Eigenvectores y Eigenvalores

    1.6 Diagonalización de matrices

    1.7 Aplicaciones

  2. Probabilidad

    2.1 Conceptos y definiciones

    2.1.1 Reglas de Probabilidad e inferencia

    2.1.2 Probabilidad Condicional

    2.1.3 Teorema de Bayes

    2.1.4 Inferencia Bayesiana

    2.1.5 Aplicaciones en Python

    2.1.6 Medidas de tendencia central y dispersión

    2.1.7 Correlación

    2.2 Distribuciones de Probabilidad Discretas Univariadas

    2.2.1 Bernoulli

    2.2.2 Binomial

    2.2.3 Uniforme

    2.2.4 Poisson

    2.2.5 Binomial Negativa

    2.2.6 Ejemplos y aplicaciones en Python

    2.3 Distribuciones Continuas

    2.3.1 Uniforme

    2.3.2 Normal

    2.3.3 Distribución t

    2.3.4 Exponencial

    2.3.5 Chi cuadrada

    2.3.6 Ejemplos y aplicaciones

  3. Estadística aplicada

    3.1 Técnicas de Inferencia

    3.2 Ejemplos y aplicaciones en Python

    3.3 Análisis de Componentes Principales: Aplicación

  4. Introducción a modelos lineales para Machine Learning

    4.1 Regresión Lineal: definición y problema de optimización

    4.2 Estimador de Mínimos Cuadrados y su interpretación

    4.3 Teorema de Gauss-Markov

    4.4 Pruebas de hipótesis

    4.5 Estadísticos de ajuste y calidad de modelo

    4.6 Aplicación del modelo de regresión

Master Class: “Del Azar a la Decisión: Inferencia Bayesiana en la Era de la IA” (2.5 hrs)

Veremos cómo la inferencia Bayesiana se usa hoy en día en ámbitos como la salud y el sector financiero.

Módulo III - Datos como fundamento de la IA: Almacenamiento y Visualización (duración 25 horas)


  1. Bases de datos

    1.1 Introducción a las Bases de datos

    1.2 Tablas, llaves primarias y llaves foráneas

    1.3 Diagrama entidad-relación de una Base de Datos

    1.4 Consultas a una base de datos

    1.5 SQL en Python

    1.5.1 Consultas avanzadas en SQL

    1.5.2 Operaciones entre tablas

    1.5.3 Manipulación de datos

  2. Visualización de datos

    2.1 Introducción a la visualización de datos

    2.2 Tipos de gráficos y figuras para mostrar relaciones en los datos

    2.3 Selección de gráficos adecuados según los tipos de datos

    2.4 Introducción a librerías de visualización en Python

    2.5 Gráficos básicos

    2.6 Gráficos avanzados

    2.6.1 Configuración y personalización de gráficos con Seaborn

    2.6.2 Interpretación de los gráficos

    2.6.3 Matrices de correlación y mapas de calor

    2.6.4 Histogramas

  3. Aplicaciones de ciencia de datos

    3.1 Procesamiento del lenguaje natural (NLP)

    3.2 Caso práctico 1: Procesamiento de lenguaje natural (NLP) en Modelos de Machine Learning

    3.3 Caso práctico 2

Master Class: “Bases de datos aumentadas con IA” (2.5 hrs)

En esta sesión veremos consultas de datos y visualización en lenguaje natural.

Master Class: “Ética y responsabilidad en la era de la Inteligencia Artificial” (2 hrs)

Módulo IV - Machine Learning: El Poder Predictivo de la IA (duración 35 horas)


  1. Introducción al Machine Learning

    1.1 Conceptos y definiciones

    1.2 Motivación para los métodos de aprendizaje

    1.3 Modelos supervisados vs modelos no supervisados

    1.4 Regresión como método de machine learning

  2. Modelos generales de regresión

    2.1 Diagnósticos y validación del modelo

    2.2 Colinealidad y calidad en la predicción

    2.3 Métodos de regularización

    2.3.1 Regresión Ridge

    2.3.2 Lasso (Least Absolute Shrinkage and Selection Operator)

    2.3.3 Elastic Net

    2.4 Validación Cruzada y estimación de hiperparámetros

    2.5 Método de optimización: Descenso de Gradiente

    2.6 Árboles de Regresión

    2.7 Random Forest Regressor

    2.8 Aplicaciones

  3. Modelos de clasificación

    3.1 Regresión Logística

    3.2 Árboles de Clasificación

    3.3 Ensemble Learning: Boosting y Bagging

    3.4 El algoritmo XGBoost

    3.5 Naive Bayes

    3.6 Máquinas de Soporte Vectorial (SVM)

    3.6.1 Planteamiento y formalización del problema de optimización

    3.6.2 El truco del Kernel

    3.6.3 Las SVM en la detección de anomalías

    3.7 Casos prácticos: Modelos de Clasificación

  4. Redes neuronales

    4.1 Tipos de problemas que abordan las redes neuronales

    4.2 Redes neuronales clásicas y arquitecturas más importantes

    4.3 Redes neuronales convolucionales (CNN)

    4.4 Redes neuronales recurrentes (RNN)

Master Class: “AutoML y el futuro del aprendizaje automático” (2.5 hrs)

Veremos cómo la IA puede diseñar y entrenar modelos de ML de forma automática.

  1. Programar en Python para manipular, transformar y analizar conjuntos de datos con eficiencia.

  2. Aplicar conceptos de estadística, probabilidad y álgebra lineal para sustentar rigurosamente el análisis de datos y la construcción de modelos.

  3. Visualizar información compleja mediante herramientas gráficas avanzadas para facilitar la comunicación efectiva de hallazgos.

  4. Desarrollar modelos de Machine Learning supervisados y no supervisados para resolver problemas de predicción, clasificación y segmentación.

  5. Evaluar y ajustar modelos predictivos con técnicas de validación, regularización y optimización para mejorar su desempeño.

  6. Implementar soluciones de inteligencia artificial en casos reales, desde el análisis exploratorio hasta la automatización de decisiones con modelos avanzados.

Alexis Caballero Souza

Alexis Caballero Souza es un profesional con más de 18 años de experiencia en el campo de la Ciencia de Datos. Su expertise se centra en áreas como modelos predictivos y estadísticos, Advanced Analytics, optimización, métodos de simulación de Monte Carlo, estadística bayesiana y Deep Learning.

A lo largo de su carrera, ha ocupado posiciones de liderazgo en la industria, incluyendo la Dirección de Ciencia de Datos para BBVA México y para Latinoamérica en Uber. En el ámbito académico, ha fungido como profesor de matemáticas y estadística en el Instituto Tecnológico Autónomo de México (ITAM) y en la Universidad Nacional Autónoma de México (UNAM).

Formación Académica:

  • Licenciatura en Matemáticas Aplicadas | ITAM
  • Especialización en Data Mining | ITAM
  • Maestría en Ciencias - Estadística y Ciencia de Datos | University of Warwick, Reino Unido

José Antonio Rojas Bonilla

José Antonio Rojas Bonilla cuenta con más de 18 años de experiencia en los sectores financiero y asegurador, tanto a nivel nacional como internacional. Su labor se ha enfocado en la consultoría para empresas líderes, dirigiendo proyectos en áreas como gestión de riesgos, reservas, siniestros, procesos, marketing y normativas como Solvencia II e IFRS17.

Es un especialista reconocido en la creación, lanzamiento y posicionamiento de empresas de servicios (financieras y de protección), donde ha incorporado herramientas de inteligencia artificial para optimizar la eficiencia de los procesos.

Formación Académica:

  • Licenciatura en Actuaría | Universidad de las Américas Puebla
  • Maestría en Ciencias Actuariales y Financieras | Universidad de Alcalá de Henares, Madrid

José Ramos Ramos

José Ramos Ramos es un profesional con más de 14 años de experiencia en la dirección de proyectos tecnológicos y la implementación de soluciones de Ciencia de Datos e Inteligencia Artificial. Su trayectoria abarca los sectores financiero, asegurador y de salud, donde ha liderado iniciativas de transformación digital, automatización de procesos y análisis de datos.

Actualmente, se desempeña como Consultor Senior en Tecnología de la Información, asesorando a organizaciones en el desarrollo de sistemas de información, arquitecturas de datos e integración de modelos de IA, Machine Learning y biometría. Colabora también con el Laboratorio Internacional de Investigación Espacial iSTAR en la capacitación sobre tecnologías aplicadas a la geografía y el análisis espacial.

En el ámbito académico, ha sido profesor adjunto en la Facultad de Ciencias y profesor titular en el Instituto de Geografía de la UNAM, impartiendo asignaturas y cursos sobre lenguajes de programación y matemáticas. Su enfoque docente integra su experiencia en proyectos reales con una metodología didáctica clara y práctica.

Formación Académica:

  • Formación en Ciencias de la Computación y Administración de la Tecnología, complementada con cursos y diplomados en Liderazgo, Gestión de Proyectos, Metodologías Ágiles y Calidad de Software

Ricardo Aguirre Reyna

Ricardo Aguirre Reyna es un ingeniero en tecnología de información y comunicación con 11 años de experiencia en consultoría. Su formación incluye una especialización en gobierno corporativo por el IPADE.

A lo largo de su trayectoria, ha participado en proyectos estratégicos para las principales instituciones financieras del país. Se ha destacado en áreas como el cumplimiento regulatorio, la reingeniería de procesos y la gestión del cambio. Ocupó el rol de Responsable de Gobierno Corporativo y, posteriormente, el de Director de Operaciones, donde lideró la gestión operativa, la administración de clientes y el desarrollo de herramientas de software, incluyendo la implementación de Inteligencia Artificial.

Formación Académica:

  • Ingeniería en Tecnología de Información y Comunicación | Tecnológico de Monterrey
  • Especialidad en Gobierno Corporativo | IPADE

Carlos Carrasco

Carlos Carrasco es un profesional con más de 10 años de experiencia en el mercado financiero y 5 años de trayectoria como docente en el ITAM. Se ha desempeñado en el área de Riesgos Financieros en Mizuho Bank, como Data Scientist en BBVA, y actualmente ocupa el puesto de Responsable de Estrategias de Inversión y Asset Allocation en Actinver.

Su excelencia académica ha sido reconocida con Menciones Honoríficas en sus programas de licenciatura y maestría, así como con el Premio de Investigación ITAM en 2018 y 2019.

Formación Académica:

  • Licenciatura en Actuaría | ITAM
  • Licenciatura en Dirección Financiera | ITAM
  • Maestría en Finanzas | ITAM
  • Maestría en Administración de Riesgos | ITAM

Amiel Sánchez

Amiel Sánchez es actuario por la UNAM con más de 7 años de experiencia en Ciencia de Datos aplicada. Su trayectoria profesional abarca los sectores de banca, fintech, marketing y gobierno, donde ha desarrollado soluciones analíticas que incluyen modelos de churn y scoring, optimización de campañas y automatización de reportes regulatorios.

Actualmente, se desempeña como Data Scientist en BBVA México, liderando proyectos de análisis conversacional, segmentación de clientes y desarrollo de herramientas basadas en datos. Ha participado en competencias de ciencia de datos, obteniendo:

  • Primer lugar global en el Hackathon BBVA 2022
  • Segundo lugar en el Climate and Sustainability Cloudera Hackathon 2024

Complementa su formación con un Diplomado en Modelos de Lenguaje por la Universidad de Waterloo, donde profundizó en arquitecturas RAG, técnicas de prompt engineering, LangChain y evaluación de modelos.

Formación Académica:

  • Actuario | UNAM
  • Diplomado en Modelos de Lenguaje | Universidad de Waterloo

Guillermo Pedro Zárate de Lara

Guillermo Pedro Zárate de Lara es un experto en Estadística y Business Intelligence con una destacada trayectoria en el ámbito académico y empresarial. Es Doctor en Estadística por la North Carolina State University.

Durante su carrera profesional, fue Director Senior de Business Intelligence en Pepsico International (Sabritas). Actualmente, dirige la empresa L15L-Solutions, especializada en servicios de inteligencia de negocios y analítica para compañías líderes como Banamex, Pepsico, Colgate y Coca-Cola, entre otras.

Con una experiencia docente de 43 años, fue profesor en la Universidad Autónoma de Chapingo y actualmente colabora en el programa de MBA Ejecutivo del ITAM. Es miembro fundador y expresidente de la Asociación Mexicana de Estadística y miembro electo del International Statistical Institute.

Formación Académica:

  • Doctor en Estadística | North Carolina State University, EE. UU.
  • Maestría en Ciencias en Estadística | Colegio de Postgraduados, México
  • Ingeniero Agrónomo Especialista en Suelos | Escuela Nacional de Agricultura, Chapingo, México
A QUIÉN VA DIRIGIDO

Profesionales y estudiantes de
áreas como ingeniería, economía, estadística, matemáticas, informática, actuaría o afines, interesados en iniciar o fortalecer su formación en ciencia de datos y aprendizaje automático.


Profesionales en activo que buscan mantenerse a la vanguardia en sus industrias, adquirir nuevas habilidades en programación, análisis de datos e inteligencia artificial, y comprender en profundidad cómo estas disciplinas pueden potenciar su desempeño y aportar valor en sus roles actuales.

Personas con conocimientos básicos de
matemáticas y lógica que deseen desarrollar competencias técnicas en programación y modelado estadístico para integrarse al entorno profesional cada vez más impulsado por datos y automatización.

OBJETIVO

Capacitar a los participantes en las habilidades y conocimientos esenciales de la ciencia de datos utilizando Python como herramienta principal.

Durante el programa, se brindará una formación sólida en programación, estadística, análisis y visualización de datos, así como en técnicas de Machine Learning que
forman parte de la inteligencia artificial.

Además, los participantes desarrollarán
competencias para diseñar, implementar y evaluar soluciones basadas en inteligencia artificial, entendiendo los fundamentos que sustentan estas tecnologías y su aplicación en contextos reales.

El programa también les permitirá comprender y evaluar críticamente las herramientas emergentes de IA que están transformando el entorno laboral, posicionándolos a la vanguardia del conocimiento tecnológico actual.

TEMARIO

Módulo I - Bases de programación en Python para la IA (duración 28 horas)


  1. Introducción a la programación

    1.1 Lenguajes de programación y aplicaciones

    1.2 Uso de Python en la actualidad

    1.3 Instalación de herramientas necesarias

    1.4 Entornos de ejecución (Jupyter Lab, Jupyter Notebooks, Google Colab)

  2. Estructuras y tipos de datos en Python

    2.1 Enteros, cadenas, flotantes, objetos

    2.2 Listas, diccionarios y series

    2.3 Conjuntos y tuplas

    2.4 Variables

  3. Condicionales y Ciclos

    3.1 Estructuras booleanas y condicionales

    3.2 For

    3.3 While

    3.4 Do While

  4. Funciones y métodos

    4.1 Definición y estructura

    4.2 Argumentos y parámetros

  5. Programación funcional

    5.1 Instalación e importación de módulos

    5.2 Funciones lambda

    5.3 Aplicaciones de funciones lambda

    5.4 List Comprehensions

  6. Manejo de aritmética de fechas

    6.1 Date

    6.2 DateTime

    6.3 Time

    6.4 Time Delta

  7. Pandas

    7.1 Series en Pandas

    7.2 Métodos de una Serie: ejemplos y aplicaciones

    7.3 Método apply()

    7.4 DataFrames: estructura, definición y creación

    7.5 Lectura, importación y exportación de archivos

    7.6 Métodos para manipular información de un DataFrame

    7.7 Groupby object

    7.8 Unión de DataFrames

  8. Introducción a Numpy

    8.1 Arreglos y matrices

  9. Visualización de datos

    9.1 Matplotlib

    9.2 Aplicaciones

  10. Tipo de variables

    10.1 Escalas de variables

    10.2 Medidas de asociación entre variables

    10.3 Interpretación de medidas de asociación

Master Class: “El Programador Aumentado: IA como copiloto de código” (2.5 hrs)

En esta sesión exploraremos cómo los asistentes de inteligencia artificial están transformando la forma en que programamos. Veremos cómo estas herramientas pueden acelerar el desarrollo en Python.

Módulo II - Estadística y probabilidad: Elementos fundamentales para la IA (duración 30 horas)


  1. Álgebra lineal con Python

    1.1 Matrices, vectores y escalares: definición y operaciones

    1.2 Combinación lineal, definición y ejemplos

    1.3 Dependencia e independencia lineal de vectores

    1.4 Inversas y determinantes

    1.5 Eigenvectores y Eigenvalores

    1.6 Diagonalización de matrices

    1.7 Aplicaciones

  2. Probabilidad

    2.1 Conceptos y definiciones

    2.1.1 Reglas de Probabilidad e inferencia

    2.1.2 Probabilidad Condicional

    2.1.3 Teorema de Bayes

    2.1.4 Inferencia Bayesiana

    2.1.5 Aplicaciones en Python

    2.1.6 Medidas de tendencia central y dispersión

    2.1.7 Correlación

    2.2 Distribuciones de Probabilidad Discretas Univariadas

    2.2.1 Bernoulli

    2.2.2 Binomial

    2.2.3 Uniforme

    2.2.4 Poisson

    2.2.5 Binomial Negativa

    2.2.6 Ejemplos y aplicaciones en Python

    2.3 Distribuciones Continuas

    2.3.1 Uniforme

    2.3.2 Normal

    2.3.3 Distribución t

    2.3.4 Exponencial

    2.3.5 Chi cuadrada

    2.3.6 Ejemplos y aplicaciones

  3. Estadística aplicada

    3.1 Técnicas de Inferencia

    3.2 Ejemplos y aplicaciones en Python

    3.3 Análisis de Componentes Principales: Aplicación

  4. Introducción a modelos lineales para Machine Learning

    4.1 Regresión Lineal: definición y problema de optimización

    4.2 Estimador de Mínimos Cuadrados y su interpretación

    4.3 Teorema de Gauss-Markov

    4.4 Pruebas de hipótesis

    4.5 Estadísticos de ajuste y calidad de modelo

    4.6 Aplicación del modelo de regresión

Master Class: “Del Azar a la Decisión: Inferencia Bayesiana en la Era de la IA” (2.5 hrs)

Veremos cómo la inferencia Bayesiana se usa hoy en día en ámbitos como la salud y el sector financiero.

Módulo III - Datos como fundamento de la IA: Almacenamiento y Visualización (duración 25 horas)


  1. Bases de datos

    1.1 Introducción a las Bases de datos

    1.2 Tablas, llaves primarias y llaves foráneas

    1.3 Diagrama entidad-relación de una Base de Datos

    1.4 Consultas a una base de datos

    1.5 SQL en Python

    1.5.1 Consultas avanzadas en SQL

    1.5.2 Operaciones entre tablas

    1.5.3 Manipulación de datos

  2. Visualización de datos

    2.1 Introducción a la visualización de datos

    2.2 Tipos de gráficos y figuras para mostrar relaciones en los datos

    2.3 Selección de gráficos adecuados según los tipos de datos

    2.4 Introducción a librerías de visualización en Python

    2.5 Gráficos básicos

    2.6 Gráficos avanzados

    2.6.1 Configuración y personalización de gráficos con Seaborn

    2.6.2 Interpretación de los gráficos

    2.6.3 Matrices de correlación y mapas de calor

    2.6.4 Histogramas

  3. Aplicaciones de ciencia de datos

    3.1 Procesamiento del lenguaje natural (NLP)

    3.2 Caso práctico 1: Procesamiento de lenguaje natural (NLP) en Modelos de Machine Learning

    3.3 Caso práctico 2

Master Class: “Bases de datos aumentadas con IA” (2.5 hrs)

En esta sesión veremos consultas de datos y visualización en lenguaje natural.

Master Class: “Ética y responsabilidad en la era de la Inteligencia Artificial” (2 hrs)

Módulo IV - Machine Learning: El Poder Predictivo de la IA (duración 35 horas)


  1. Introducción al Machine Learning

    1.1 Conceptos y definiciones

    1.2 Motivación para los métodos de aprendizaje

    1.3 Modelos supervisados vs modelos no supervisados

    1.4 Regresión como método de machine learning

  2. Modelos generales de regresión

    2.1 Diagnósticos y validación del modelo

    2.2 Colinealidad y calidad en la predicción

    2.3 Métodos de regularización

    2.3.1 Regresión Ridge

    2.3.2 Lasso (Least Absolute Shrinkage and Selection Operator)

    2.3.3 Elastic Net

    2.4 Validación Cruzada y estimación de hiperparámetros

    2.5 Método de optimización: Descenso de Gradiente

    2.6 Árboles de Regresión

    2.7 Random Forest Regressor

    2.8 Aplicaciones

  3. Modelos de clasificación

    3.1 Regresión Logística

    3.2 Árboles de Clasificación

    3.3 Ensemble Learning: Boosting y Bagging

    3.4 El algoritmo XGBoost

    3.5 Naive Bayes

    3.6 Máquinas de Soporte Vectorial (SVM)

    3.6.1 Planteamiento y formalización del problema de optimización

    3.6.2 El truco del Kernel

    3.6.3 Las SVM en la detección de anomalías

    3.7 Casos prácticos: Modelos de Clasificación

  4. Redes neuronales

    4.1 Tipos de problemas que abordan las redes neuronales

    4.2 Redes neuronales clásicas y arquitecturas más importantes

    4.3 Redes neuronales convolucionales (CNN)

    4.4 Redes neuronales recurrentes (RNN)

Master Class: “AutoML y el futuro del aprendizaje automático” (2.5 hrs)

Veremos cómo la IA puede diseñar y entrenar modelos de ML de forma automática.

RESULTADOS DE APRENDIZAJE
  1. Programar en Python para manipular, transformar y analizar conjuntos de datos con eficiencia.

  2. Aplicar conceptos de estadística, probabilidad y álgebra lineal para sustentar rigurosamente el análisis de datos y la construcción de modelos.

  3. Visualizar información compleja mediante herramientas gráficas avanzadas para facilitar la comunicación efectiva de hallazgos.

  4. Desarrollar modelos de Machine Learning supervisados y no supervisados para resolver problemas de predicción, clasificación y segmentación.

  5. Evaluar y ajustar modelos predictivos con técnicas de validación, regularización y optimización para mejorar su desempeño.

  6. Implementar soluciones de inteligencia artificial en casos reales, desde el análisis exploratorio hasta la automatización de decisiones con modelos avanzados.
PROFESORES

Alexis Caballero Souza

Alexis Caballero Souza es un profesional con más de 18 años de experiencia en el campo de la Ciencia de Datos. Su expertise se centra en áreas como modelos predictivos y estadísticos, Advanced Analytics, optimización, métodos de simulación de Monte Carlo, estadística bayesiana y Deep Learning.

A lo largo de su carrera, ha ocupado posiciones de liderazgo en la industria, incluyendo la Dirección de Ciencia de Datos para BBVA México y para Latinoamérica en Uber. En el ámbito académico, ha fungido como profesor de matemáticas y estadística en el Instituto Tecnológico Autónomo de México (ITAM) y en la Universidad Nacional Autónoma de México (UNAM).

Formación Académica:

  • Licenciatura en Matemáticas Aplicadas | ITAM
  • Especialización en Data Mining | ITAM
  • Maestría en Ciencias - Estadística y Ciencia de Datos | University of Warwick, Reino Unido

José Antonio Rojas Bonilla

José Antonio Rojas Bonilla cuenta con más de 18 años de experiencia en los sectores financiero y asegurador, tanto a nivel nacional como internacional. Su labor se ha enfocado en la consultoría para empresas líderes, dirigiendo proyectos en áreas como gestión de riesgos, reservas, siniestros, procesos, marketing y normativas como Solvencia II e IFRS17.

Es un especialista reconocido en la creación, lanzamiento y posicionamiento de empresas de servicios (financieras y de protección), donde ha incorporado herramientas de inteligencia artificial para optimizar la eficiencia de los procesos.

Formación Académica:

  • Licenciatura en Actuaría | Universidad de las Américas Puebla
  • Maestría en Ciencias Actuariales y Financieras | Universidad de Alcalá de Henares, Madrid

José Ramos Ramos

José Ramos Ramos es un profesional con más de 14 años de experiencia en la dirección de proyectos tecnológicos y la implementación de soluciones de Ciencia de Datos e Inteligencia Artificial. Su trayectoria abarca los sectores financiero, asegurador y de salud, donde ha liderado iniciativas de transformación digital, automatización de procesos y análisis de datos.

Actualmente, se desempeña como Consultor Senior en Tecnología de la Información, asesorando a organizaciones en el desarrollo de sistemas de información, arquitecturas de datos e integración de modelos de IA, Machine Learning y biometría. Colabora también con el Laboratorio Internacional de Investigación Espacial iSTAR en la capacitación sobre tecnologías aplicadas a la geografía y el análisis espacial.

En el ámbito académico, ha sido profesor adjunto en la Facultad de Ciencias y profesor titular en el Instituto de Geografía de la UNAM, impartiendo asignaturas y cursos sobre lenguajes de programación y matemáticas. Su enfoque docente integra su experiencia en proyectos reales con una metodología didáctica clara y práctica.

Formación Académica:

  • Formación en Ciencias de la Computación y Administración de la Tecnología, complementada con cursos y diplomados en Liderazgo, Gestión de Proyectos, Metodologías Ágiles y Calidad de Software

Ricardo Aguirre Reyna

Ricardo Aguirre Reyna es un ingeniero en tecnología de información y comunicación con 11 años de experiencia en consultoría. Su formación incluye una especialización en gobierno corporativo por el IPADE.

A lo largo de su trayectoria, ha participado en proyectos estratégicos para las principales instituciones financieras del país. Se ha destacado en áreas como el cumplimiento regulatorio, la reingeniería de procesos y la gestión del cambio. Ocupó el rol de Responsable de Gobierno Corporativo y, posteriormente, el de Director de Operaciones, donde lideró la gestión operativa, la administración de clientes y el desarrollo de herramientas de software, incluyendo la implementación de Inteligencia Artificial.

Formación Académica:

  • Ingeniería en Tecnología de Información y Comunicación | Tecnológico de Monterrey
  • Especialidad en Gobierno Corporativo | IPADE

Carlos Carrasco

Carlos Carrasco es un profesional con más de 10 años de experiencia en el mercado financiero y 5 años de trayectoria como docente en el ITAM. Se ha desempeñado en el área de Riesgos Financieros en Mizuho Bank, como Data Scientist en BBVA, y actualmente ocupa el puesto de Responsable de Estrategias de Inversión y Asset Allocation en Actinver.

Su excelencia académica ha sido reconocida con Menciones Honoríficas en sus programas de licenciatura y maestría, así como con el Premio de Investigación ITAM en 2018 y 2019.

Formación Académica:

  • Licenciatura en Actuaría | ITAM
  • Licenciatura en Dirección Financiera | ITAM
  • Maestría en Finanzas | ITAM
  • Maestría en Administración de Riesgos | ITAM

Amiel Sánchez

Amiel Sánchez es actuario por la UNAM con más de 7 años de experiencia en Ciencia de Datos aplicada. Su trayectoria profesional abarca los sectores de banca, fintech, marketing y gobierno, donde ha desarrollado soluciones analíticas que incluyen modelos de churn y scoring, optimización de campañas y automatización de reportes regulatorios.

Actualmente, se desempeña como Data Scientist en BBVA México, liderando proyectos de análisis conversacional, segmentación de clientes y desarrollo de herramientas basadas en datos. Ha participado en competencias de ciencia de datos, obteniendo:

  • Primer lugar global en el Hackathon BBVA 2022
  • Segundo lugar en el Climate and Sustainability Cloudera Hackathon 2024

Complementa su formación con un Diplomado en Modelos de Lenguaje por la Universidad de Waterloo, donde profundizó en arquitecturas RAG, técnicas de prompt engineering, LangChain y evaluación de modelos.

Formación Académica:

  • Actuario | UNAM
  • Diplomado en Modelos de Lenguaje | Universidad de Waterloo

Guillermo Pedro Zárate de Lara

Guillermo Pedro Zárate de Lara es un experto en Estadística y Business Intelligence con una destacada trayectoria en el ámbito académico y empresarial. Es Doctor en Estadística por la North Carolina State University.

Durante su carrera profesional, fue Director Senior de Business Intelligence en Pepsico International (Sabritas). Actualmente, dirige la empresa L15L-Solutions, especializada en servicios de inteligencia de negocios y analítica para compañías líderes como Banamex, Pepsico, Colgate y Coca-Cola, entre otras.

Con una experiencia docente de 43 años, fue profesor en la Universidad Autónoma de Chapingo y actualmente colabora en el programa de MBA Ejecutivo del ITAM. Es miembro fundador y expresidente de la Asociación Mexicana de Estadística y miembro electo del International Statistical Institute.

Formación Académica:

  • Doctor en Estadística | North Carolina State University, EE. UU.
  • Maestría en Ciencias en Estadística | Colegio de Postgraduados, México
  • Ingeniero Agrónomo Especialista en Suelos | Escuela Nacional de Agricultura, Chapingo, México