Ciencia de datos práctica en la nube de Amazon (AWS)
Ciencia de datos práctica en la nube de Amazon (AWS)
3 CURSOS - PROGRAMA ESPECIALIZADO

Curso online - Las clases se graban y quedan disponibles
Horario: viernes de 18.30 a 21.30, hora de Buenos Aires, Argentina, GMT-3
Comienzo: viernes 12 de mayo
Son 12 clases - Es un curso de tres meses

Se otorga certificado oficial de Deeplearning.ai

Organiza: Centro de Graduados de Ingeniería de la Universidad de Buenos Aires

ARANCELES

Precio en dólares U$S 199
Precio para Argentina: AR$ 36.000 en dos cuotas de AR$ 18.000

Acerca de este Programa Especializado

Los entornos de desarrollo pueden no tener los mismos requisitos que los de producción. Trasladar los proyectos de ciencia de datos y aprendizaje automático de la idea a la producción requiere habilidades de vanguardia. Debés diseñar e implementar tus proyectos para que sean escalables y eficientes desde el punto de vista operativo. La ciencia de datos es un campo interdisciplinar que combina el conocimiento del dominio con las matemáticas, la estadística, la visualización de datos y las habilidades de programación.

La especialización práctica en ciencia de datos aúna estas disciplinas utilizando herramientas de ML creadas específicamente en la nube de AWS. Te ayuda a desarrollar las habilidades prácticas para implementar eficazmente tus proyectos de ciencia de datos y superar los desafíos en cada paso del flujo de trabajo de ML con Amazon SageMaker.

Esta especialización está diseñada para desarrolladores, científicos y analistas centrados en los datos y familiarizados con los lenguajes de programación Python y SQL que deseen aprender a crear, entrenar e implementar canalizaciones de ML escalables e integrales, tanto automatizadas como humanas, en la nube de AWS.

Cada una de las 10 semanas incluye un laboratorio completo desarrollado específicamente para esta especialización que proporciona experiencia práctica con algoritmos de última generación para el procesamiento del lenguaje natural (NLP) y la comprensión del lenguaje natural (NLU), incluidos BERT y FastText con Amazon SageMaker.

Cursos en este Programa Especializado

CURSO 1 -Analizando conjuntos de datos y entrenando modelos ML con AutoML

En el primer curso de la especialización en ciencia de datos práctica, aprenderás los conceptos básicos del análisis exploratorio de datos (EDA), el aprendizaje automático de máquinas (AutoML) y los algoritmos de clasificación de texto. Con Amazon SageMaker Clarify y Amazon SageMaker Data Wrangler, analizarás un conjunto de datos en busca de sesgos estadísticos, transformarás el conjunto de datos en características legibles por máquinas y seleccionarás las características más importantes para entrenar un clasificador de texto multiclase. A continuación, realizarás el aprendizaje automático de máquinas (AutoML) para entrenar, ajustar e implementar automáticamente el mejor algoritmo de clasificación de texto para el conjunto de datos dado mediante Amazon SageMaker Autopilot. A continuación, trabajarás con Amazon SageMaker BlazingText, una implementación altamente optimizada y escalable del popular algoritmo FastText, para entrenar un clasificador de texto con muy poco código.

La ciencia de datos práctica está orientada al manejo de conjuntos de datos masivos que no caben en tu hardware local y que podrían proceder de múltiples fuentes. Una de las mayores ventajas de desarrollar y ejecutar proyectos de ciencia de datos en la nube es la agilidad y elasticidad que ofrece la nube para ampliar y reducir a un coste mínimo.

SEMANA 1 - Explorando casos de uso y analizando el dataset

Ingerir, explorar y visualizar un conjunto de datos de reseñas de productos para la clasificación de texto multiclase.

Objetivos de aprendizaje

Describir la disciplina de la ciencia de datos práctica en la nube
Definir la tarea y el caso de uso: Clasificación multiclase para el análisis de opiniones sobre productos
Ingesta y exploración de datos
Analizar datos utilizando visualizaciones

SEMANA 2 - Sesgo de los datos e importancia de las características

Determinar las características más importantes de un conjunto de datos y detectar sesgos estadísticos.

Objetivos de aprendizaje

Describir el concepto de sesgo de datos y comparar las métricas de sesgo más populares.
Demostrar cómo detectar sesgos en los datos
Comprender la importancia de las características

SEMANA 3 - Usando Auto ML para entrenar un clasificador de textos

Inspeccionar y comparar modelos generados con aprendizaje automático de máquinas (AutoML).

Objetivos de aprendizaje

Describir el concepto de Aprendizaje Automático de Máquinas (AutoML)
Discutir cómo SageMaker Autopilot implementa de manera única AutoML
Demostrar cómo entrenar un clasificador de texto con AutoML

SEMANA 4 - Algoritmos integrados

Entrenar un clasificador de texto con BlazingText y desplegar el clasificador como un endpoint de inferencia en tiempo real para servir predicciones.

Objetivos de aprendizaje

Resumir por qué y cuándo elegir algoritmos integrados
Describir casos de uso y algoritmos
Comprender la evolución de los algoritmos de análisis de texto
Analizar los algoritmos word2vec, FastText y BlazingText
Transformar datos de revisión sin procesar en características para entrenar un clasificador de texto
Aplicar el algoritmo BlazingText integrado en Amazon SageMaker para entrenar un clasificador de texto
Implementar el clasificador de texto y realizar predicciones


CURSO 2 - Creando, entrenando e implantando pipelines ML con BERT

En el segundo curso de la Especialización práctica en ciencia de datos, aprenderás a automatizar una tarea de procesamiento de lenguaje natural mediante la creación de una canalización de aprendizaje automático integral con la implementación altamente optimizada de Hugging Face del algoritmo BERT de última generación con Amazon SageMaker Pipelines. Tu canalización primero transformará el conjunto de datos en características legibles por BERT y almacenará las características en el almacén de características de Amazon SageMaker. A continuación, ajustarás un modelo de clasificación de texto al conjunto de datos utilizando un modelo preentrenado de Hugging Face, que ha aprendido a comprender el lenguaje humano a partir de millones de documentos de Wikipedia. Por último, la canalización evaluará la precisión del modelo y solo lo desplegará si supera un umbral determinado.

SEMANA 5 - Feature engineering y feature store

Transformar un conjunto de datos de texto sin procesar en características de aprendizaje automático y almacenar las características en un almacén de características.

Objetivos de aprendizaje

Describir el concepto de ingeniería de características
Aplicar la ingeniería de características para preparar conjuntos de datos para el entrenamiento
Comprender la importancia de un almacén de características
Demostrar cómo almacenar y compartir características utilizando Amazon SageMaker Feature Store

SEMANA 6 - Entrenando, depurando y perfilando un modelo de Machine Learning

Ajuste, depuración y perfilado de un modelo BERT preentrenado.

Objetivos de aprendizaje

Explicar cómo entrenar un clasificador de texto personalizado basado en BERT.
Demostrar cómo depurar y perfilar modelos  

SEMANA 7 - Desplegando pipe-lines de Machine Learning end-to-end

Organice los flujos de trabajo de ML y realice un seguimiento del linaje y los artefactos del modelo en un canal de aprendizaje automático de extremo a extremo.

Objetivos de aprendizaje

Describir el concepto de operaciones y canalizaciones de aprendizaje automático (MLOps)
Comparar la orquestación y la automatización de canalizaciones
Demostrar cómo orquestar pipelines
Discutir como automatizar pipelines
Describir el concepto de linaje de modelos y seguimiento de artefactos
Demostrar cómo rastrear el linaje del modelo y los artefactos

CURSO 3 - Optimizar modelos de ML e implantar pipelines human-in-the-loop

En el tercer curso de la especialización Practical Data Science, aprenderás una serie de técnicas de mejora del desempeño y reducción de costos para ajustar automáticamente la precisión del modelo, comparar el desempeño de la predicción y generar nuevos datos de entrenamiento con inteligencia humana. Después de ajustar tu clasificador de texto mediante el ajuste de hiperparámetros (HPT) de Amazon SageMaker, implementarás dos modelos candidatos en una prueba A/B para comparar su desempeño de predicción en tiempo real y escalar automáticamente el modelo ganador mediante el hospedaje de Amazon SageMaker. Por último, configurarás una canalización humana en el bucle para corregir predicciones mal clasificadas y generar nuevos datos de entrenamiento con Amazon Augmented AI y Amazon SageMaker Ground Truth.

SEMANA 8 - Entrenamiento, ajuste y evaluación avanzada de modelos

Entrená, ajustaá y evaluá modelos utilizando estrategias paralelas a datos y modelos y ajuste automático de modelos.

Objetivos de aprendizaje

Describir los retos prácticos relacionados con los datos para el aprendizaje automático - escala, recursos (almacenamiento, computación, memoria)
Explicar enfoques para abordar los retos relacionados con los datos para el aprendizaje automático
Describir los desafíos prácticos relacionados con la formación de ML, como grandes conjuntos de datos, optimización del tiempo y los costes de formación
Explicar enfoques para abordar los retos de la formación de ML utilizando técnicas como el streaming de datos, la monitorización de la infraestructura de formación de perfiles, el paralelismo de datos, etc.
Describir el concepto de ajuste de hiperparámetros
Explicar los algoritmos más utilizados para el ajuste automático de modelos
Aplicar el ajuste de hiperparámetros a un clasificador de texto basado en BERT y a un conjunto de datos
Describir el concepto de evaluación de modelos
Demostrar cómo evaluar un modelo

SEMANA 9 - Despliegue y monitoreo avanzada de modelos

Implementá modelos con pruebas A/B, supervisá el rendimiento de los modelos y detectá desviaciones de las métricas de referencia.

Objetivos de aprendizaje

Describir los desafíos prácticos relacionados con el despliegue y la supervisión de ML
Explicar los enfoques para abordar los retos de despliegue y supervisión mediante técnicas como el autoescalado, la automatización de la supervisión de la calidad del modelo y la automatización de los procesos de reentrenamiento.
Evaluar las opciones y consideraciones de despliegue de modelos
Describir los retos y estrategias comunes de despliegue de modelos
Explicar las consideraciones para supervisar una carga de trabajo de aprendizaje automático
Describir enfoques para la monitorización de modelos
Explicar cómo utilizar Amazon SageMaker para realizar pruebas A/B
Demostrar el despliegue de una versión del modelo en Amazon SageMaker mediante pruebas A/B

SEMANA 10 - Etiquetado de datos y pipelines human-in-the-loop

Etiquetar datos a escala utilizando fuerzas de trabajo humanas privadas y construir pipelines human-in-the-loop

Objetivos de aprendizaje

Describir la importancia del etiquetado de datos
Discutir el concepto de etiquetado automático de datos y aprendizaje activo
Implementar tareas de etiquetado de datos con fuerza de trabajo humana con SageMaker Ground Truth
Discutir el concepto de "human-in-the-loop pipelines
Implementar pipelines human-in-the-loop con Amazon AugmentedAI (Amazon A2I) 
Sign in to Google to save your progress. Learn more
Email *
Apellido *
Nombres *
Celular (Solo números) *
Localidad de residencia *
País de residencia *
¿Cómo llegaste hasta acá? *
Comentarios
Submit
Clear form
Never submit passwords through Google Forms.
This form was created inside of Centro de Graduados de la Facultad de Ingenieria. Report Abuse