Diplomado en Data Science and AI: Del Concepto a Desarrollo de Aplicaciones - Live en Guanajuato - Guanajuato - Guanajuato

Informática e Información > Base de Datos
Diplomado en Data Science and AI: Del Concepto a Desarrollo de Aplicaciones - Live - En línea
El curso se imparte:
En línea
Tipo de Curso:
Diplomado
Precio:
mx$ 50,900
Inicio: A partir del 08/09/2021
Precio: $50900
Solicita información sin compromiso
Tecnológico de Monterrey - LIVE
Diplomado - Diplomado en Data Science and AI: Del Concepto a Desarrollo de Aplicaciones - Live - Guanajuato - Guanajuato - Guanajuato
Nombre
Apellido
E-Mail
Teléfono
Estado
Ciudad
Nivel de estudios
¿Cuándo deseas iniciar el programa?
¿Cómo deseas ser contactado?
Preguntas

Para enviar la solicitud debes aceptar la política de privacidad

Enviar Solicitud
* Campos obligatorios



Por favor, completa todos los datos correctamente.
Por favor, acepta la política de privacidad para enviar la solicitud

INFORMACIÓN BÁSICA POLÍTICA DATOS

ResponsableEducaedu Business, S.L., con domicilio en la calle Gran Vía 81, 5 ª Planta Dpto 1, 48011 Bilbao (Vizcaya). Email de contacto: contacto@educaedu.com. Email contacto Delegado Protección datos: delegadoprotecciondatos@educaedu.com.
FinalidadGestionar el envío de solicitudes de información requeridas por el usuario. Gestionar el envío de comunicaciones promocionales e informativas propias y de terceros sobre formación, derivadas del servicio de orientación académica del portal.
LegitimaciónConsentimiento del interesado
DestinatariosEmpresas del grupo Educaedu Business, S.L., y los centros de formación del que el usuario ha solicitado información.
DerechosAcceder, rectificar y suprimir los datos, así como otros derechos, recogidos en la información adicional
Información AdicionalPuedes consultar la información adicional y detallada sobre nuestra Política de Protección de datos en el siguiente link política de privacidad
Loading...
Descripción de Diplomado en Data Science and AI: Del Concepto a Desarrollo de Aplicaciones - Live
Contenido:
Diplomado en Data Science and AI: Del Concepto a Desarrollo de Aplicaciones - Live del centro Tecnológico de Monterrey.

Modalidad: Online
Inicio: A partir del 08/09/2021
Precio: $50900

Descripción.

¿Tomas decisiones importantes en tu trabajo por instinto o experiencia? ¡Fortalece aún más tu toma de decisiones con el uso del data science!

Vivirás sesiones síncronas y sesiones asíncronas, para interactuar en tiempo real con los instructores, así como para poder estudiar a tu propio ritmo.

Realizarás actividades prácticas vinculadas a los temas presentados en cada módulo y resolverás problemas enfocados a tu entorno laboral.

Al terminar tu diplomado, obtendrás una insignia digital blue con tecnología blockchain para fortalecer tu currículum digital y demostrar tus habilidades de una manera rápida y segura en plataformas digitales.


¿CÓMO VIVIRÁS TU APRENDIZAJE?.

- Enfoque a la aplicabilidad en tu entorno laboral
- Acompañamiento de tu instructor
- Gran parte del programa se imparte en sesiones sincrónicas
- Grupos pequeños para maximizar interacción con expertos
- Plataforma de aprendizaje virtual.

A quién va dirigido.

Es ideal para profesionistas encargados de generar análisis descriptivos, inferenciales, predictivos y prescriptivos; dashboards para la toma de decisiones; desarrollar una aplicación de datos y emprendimiento.

Objetivos.

Con este diplomado en modalidad live aprenderás a aplicar las herramientas tecnológicas y matemáticas para desarrollar modelos de ciencia de datos para el perfil data science jr, requeridos en organización / innovación /emprendimiento para la toma decisiones basadas en datos.


Temario.

01. FUNDAMENTOS DE PYTHON I 10 HORAS.

Diseñarás programas en lenguaje de programación Python sobre el ambiente de programación notebook, para que se cumpla con los requerimientos de la aplicación de Ciencia de Datos

1. Introducción
2. Estándares en Python
3. Estructuras de datos: lista, diccionarios, tuple, strings;
4. Estatutos condicionales
5. Control de flujo
6. Definición de funciones
7. Manejo de archivos csv: incluir identificar archivos vacíos, crear una lista de archivos a procesar
8. Ambiente de programación notebook (Jupiter y/o “Google Colab)


02. PLATAFORMAS DE APLICACIÓN SOBRE PYTHON.

1. Introducción (plataformas / frameworks)
2. Manipulación de datos en Panda
3. Manipulación de datos en Numpy
6. Definición de funciones
7. Manejo de archivos csv: incluir identificar archivos vacíos, crear una lista de archivos a procesar
8. Ambiente de programación notebook (Jupiter y/o “Google Colab)
4. Instalar bibliotecas que no estén la pre-instaladas (plataformas / frameworks)


03. MANIPULACIÓN DE DATOS EN PYTHON.

Manipularás una base de datos en la plataforma de Panda de Python que involucre llamadas (queries) a las bases de datos y estatuos para concatenar y unir bases de datos

1. Introducción
2. Algebra relacional
3. Funciones: join, merge, append
4. Ejemplo


ÁREA DE CONCENTRACIÓN 2: VISUALIZACIÓN PARA ANÁLISIS DESCRIPTIVO E INFERENCIAL Y DISEÑO DE APLICACIONES DASHBOARD IN WEB.

04. PLATAFORMAS DE VISUALIZACIÓN.

Explotarás las ventajas y desventajas que tienen Python, y las plataformas de visualización Matplotlib y Seaborn, para generar gráficas que compartan ejes horizontales (x); el eje vertical (y) puede ser compartido a la misma escala, para que se cumpla con los requerimientos de interfase de la visualización requerida.

1. Introducción
2. Validación estadística del modelo
3. Plataformas de visualización: panda, matplotlib, y seaborn
4. Gráficas superpuestas compartiendo eje horizontal (x) y vertical (y)
5. Gráficas superpuestas compartiendo eje horizontal (x) y con ejes verticales diferentes (y1, y2), cada uno con escala diferente
6. Sub-gráficas (subplots)
7. Anotaciones de texto en las gráficas
8. Diferentes tipos de gráficas para exploración de los datos: Boxplot, distribuciones, dispersiones (Scatter Plot), matriz de dispersiones (Scatter Plot Matrix)


05. INGENIERÍA DE CARACTERÍSTICAS.

Seleccionarás las características de las bases de datos más importantes por su importancia para la visualización o por su importancia en mejorar la exactitud, precisión de un modelo de datos.

1. Imputación de valores perdidos
2. Valores atípicos (handling outliers)
3. Agrupamiento en contenedores (binning)
4. Transformación logarítmica
5. Distribución de valores de una columna en múltiples columnas binarias (one-hot encoding)
6. Operaciones en grupos (groupby)
7. Separación de datos (feature split)
8. Escalamiento (Scaling)
9. Extracción de fecha (date)
10.Reducción de dimensiones (FA, PCA, IDA)


06. APLICACIÓN WEB DE CIENCIA DE DATOS.

Desarrollarás un dashboard en la plataforma Streamlit para la visualización de datos interactivos requeridos por la organización para presentar KPIs o para toma de decisiones.

1. Fundamentos de UX/UI
2. Plataforma Streamlit
3. Manipulación de datos
4. Sidebar
5. Estatutos slider, radio, selectbox
6. Estatuto caching


ÁREA DE CONCENTRACIÓN 3: MÁQUINAS INTELIGENTES.


07. APRENDIZAJE NO-SUPERVISADO.

Desarrollarás modelos inteligentes no supervisado de datos utilizando scikitlearn de Python, seleccionando el número de agrupaciones adecuadas y analizando la efectividad del modelo utilizando medidas de calidad que cumplan lo mejor posible con los requerimientos de la tarea requerida

1. Introducción
2. Medidas de calidad de los algoritmos de clusterización
3. Número de agrupaciones utilizando la gráfica K-Elbow.
4. Número de agrupaciones utilizando los valores de los coeficientes de Silhouette (gráfica Silhouette Plot)
5. Distancia relativa entre agrupaciones; importancia relativa de las agrupaciones
6. Índice Calinski-Harabasz


08. APRENDIZAJE SUPERVISADO.

Desarrollarás modelos inteligentes supervisado de datos utilizando scikit-learn de Python; seleccionar el modelo adecuado y analizar la exactitud, precisión del modelo que cumplan lo mejor posible con los requerimientos de la tarea requerida.

1. Introducción
2. Modelación de datos clásica: Árboles, Bosques, Gaussian NaiveBayes, regresión lógica, Support Vector Machine
3. Evaluación de modelos medida a utilizar: matriz de confusión, exactitud, precisión, F1, curva ROC


09. VISUALIZACIÓN DE MÁQUINAS INTELIGENTES.

Utilizarás herramientas visuales de máquinas inteligentes para desarrollar modelos de datos más exactos y/o precisos, que cumplan con los requerimientos de la necesidad del problema a resolver. 

1. Herramienta Yellow Brick
2. Hyperparameters optimization
3. Data wrapper
4. Export_graphviz from sklearn.tree
5. Decision boundaries
6. ANN Visualiser
7. Variational autoencoders (VAE)


10. PLATAFORMAS Y MÁQUINAS INTELIGENTES EN BIG DATA.

Desarrollarás modelos inteligentes supervisados de grandes volúmenes de datos utilizando PySpark de Python, seleccionarás el modelo adecuado y analizarás la exactitud, precisión del modelo, que cumplan lo mejor posible con los requerimientos de la tarea requerida.

1. Introducción
2. Estructura de datos en PySpark
3. Modelación inteligente de datos en PySpark


11. ANALÍTICA DE TEXTO.

Desarrollarás modelos inteligentes supervisado de datos de texto utilizando la plataforma máquinas inteligentes en Python, seleccionarás el modelo adecuado y analizarás la exactitud, precisión del modelo, que cumplan lo mejor posible con los requerimientos de la tarea requerida. 

1. Introducción herramientas NLTK, Spacy, TextBlob, PyTorch-NLP, Textacy
2. Introducción: aplicaciones en detección de plagio y detección de autoría
3. Análisis de frecuencias, personas, eventos
4. Conceptos de transformadores
5. Modelo inteligentes estadísticos, lingüísticos y profundos
6. Visualización de texto
7. Visualización del Corpus t-SNE: use stochastic neighbor embedding to project documents
8. Visualizar la dispersión de palabras clave en el Corpus.
9. Visualiza de documentos similares (UMAP)


12. ANALÍTICA DE REDES SOCIALES.

Desarrollarás modelos de redes de datos utilizando la NetworkX en Python; analizarás la robustez de las redes, encontrarás las personas que más se comunican, así como los líderes de las conversaciones en una red social.

1. Introducción: aplicaciones
2. Definición de nodos, vértices, y atributos
3. Tipos de redes: direccional, bidireccional, pesada, bipartita
4. Representación y manipulación de datos utilizando NetworkX
5. Métricas: distancia, alcance (reachability) y redundancia para explorar lo robusto de redes a ataques intencionales o al quitar nodos o vértices
6. Centralidad (grado, “closeness”, and “betweenness”, “page rank”

Titulación obtenida.

Diplomado en Data Science & AI: Del Concepto a desarrollo de aplicaciones - Live

Requisitos.

No se requiere de documentación específica.
¿Deseas recibir más información?