Al final de este curso, habrás dominado los conceptos clave y habrás adquirido los conocimientos prácticos necesarios para aplicar de forma rápida y potente el aprendizaje automático a los problemas del mundo real. Si estás buscando entrar en la IA o construir una carrera en el aprendizaje automático, este curso es el mejor lugar para empezar.
Curso online con docentes en vivo en español
Las clases se graban y quedan disponibles
Horario: lunes y martes de 18.30 a 21.30, hora de Buenos Aires, Argentina GMT-3
Comienza: lunes 5 de febrero
Son 24 clases - Es un curso de tres meses
Se entrega certificado oficial de la Universidad de Stanford
Organiza: Centro de Graduados de Ingeniería de la Universidad de Buenos Aires
1 - Introducción a Machine Learning
Aplicaciones de machine learning
Aprendizaje supervisado vs. no supervisado
Python y las Jupyter notebooks
2 - El modelo de regresión
Modelo de regresión lineal
Función de costo
3 - Entrenando el modelo con el descenso del gradiente
Descenso del gradiente: concepto e implementación
Tasa de aprendizaje
Descenso del gradiente para regresión lineal
4 - Regresión con múltiples variables de input
Features múltiples
Vectorización
Python, Numpy y vectorización
Descenso del gradiente para regresión lineal múltiple
5 - El descenso del gradiente en la práctica
Normalización
Chequeando la convergencia del descenso del gradiente
Eligiendo la tasa de aprendizaje
Feature engineering
Regresión polinomial
Regresión lineal con scikit-learn
6 - Clasificación con regresión logística
Motivaciones
Regresión logística
Frontera de decisión
Función de costo para regresión logística
Descenso del gradiente para regresión logística
Regresión logística con Scikit-learn
7 - El problema del sobreajuste
PROGRAMA
1 - Introducción a Machine Learning
Aplicaciones de machine learning
Aprendizaje supervisado vs. no supervisado
Python y las Jupyter notebooks
2 - El modelo de regresión
Modelo de regresión lineal
Función de costo
3 - Entrenando el modelo con el descenso
Entendiendo el sobreajuste
Función de costo con regularización
Regresión lineal con regularización
Regresión logística con regularización
8 - Conceptos básicos de redes neuronales artificiales
Las neuronas y el cerebro
Predicción de demanda
Reconociendo imágenes
El modelo de las redes neuronales
Inferencia: haciendo predicciones(forward propagation)
9 - Implementación de las ANN en Tensorflow y en Python
Inferencia en código
Datos en Tensorflow
Construyendo una red neuronal
Forward propagation en una capa
Implementación general de forward propagation
10 - Especulaciones sobre la AGI: Inteligencia Artificial de tipo general
¿Hay un camino hacia la AGI?
11 - Vectorización
Cómo implementar eficientemente redes neuronales
Multiplicación de matrices. Reglas y código
12 - Entrenamiento de las redes neuronales
Implementación en Tensorflow
Detalles del entrenamiento
13 - Funciones de activación
Alternativas a la activación sigmoide
Eligiendo funciones de activación
¿Porqué necesitamos funciones de activación?
Activación RELU
14 - Clasificación multiclase
Multiclase
Softmax
Redes neuronales con salida Softmax
Implementación mejorada de la función Softmax
Clasificación con múltiples salidas
15 - Conceptos adicionales sobre redes neuronales
Optimización avanzada
Tipos de capas adicionales
16 - Backpropagation
¿Qué es una derivada?
Grafos de computación
Ejemplo de una red neuronal mayor
17 - Consejos para aplicar Machine Learning
Decidiendo cómo seguir
Evaluando un modelo
Selección del modelo y conjuntos de datos de training, test y cross-validation
18 - Sesgo y varianza
Diagnosticando el sesgo y la varianza
Regularización y sesgo/varianza
Estableciendo un nivel de rendimiento básico de referencia
Curvas de aprendizaje
Decidiendo cómo seguir: una vuelta de rosca
Sesgo/varianza y redes neuronales
19 - El proceso de desarrollo del machine learning
Desarrollo ML: bucle iterativo
Análisis de errores
Agregando datos
Transfer learning: usando datos de tareas diferentes
El ciclo completo de un proyecto de machine learning
Equidad, prejuicios y ética
20 - Datasets desbalanceados
Métricas de error para datasets desbalanceados
La solución de compromiso entre precisión y recall