Procesamiento de Lenguaje Natural
Procesamiento de Lenguaje Natural

Curso online
Horario: miércoles de 18.30 a 21.30
Horas: 15 en cinco clases de tres horas
Comienzo: miércoles 18 de noviembre

Para hacer este curso debes sentirte cómodo programando en Python y tener conocimientos básicos de machine learning, álgebra lineal y probabilidad condicional.

Arancel: $5000

El Procesamiento de Lenguaje Natural (NLP) usa algoritmos para entender y manipular el lenguaje humano.
Esta tecnología es una de las más ampliamente aplicadas en machine learning. La IA se sigue expandiendo, por lo que demandará profesionales con habilidades en construir modelos que analicen discurso y lenguaje, descubran patrones conceptuales y extraigan conceptos de textos y audios.

Conceptos sobre modelos secuenciales

Los modelos secuenciales permiten construir modelos para lenguaje natural, audio y otros tipos de datos secuenciales. Gracias a Deep Learning, los algoritmos para datos secuenciales están trabajando mucho mejor que hace unos pocos años y están abriendo el camino para un rango de numerosas y desafiantes aplicaciones como speech recognition, music synthesis, chatbots, machine translation, natural language understanding y muchas otras.

Con los modelos secuenciales se puede....

- Entender como construir y entrenar Redes Neuronales Recurrentes (RNNs), y sus variantes como GRUs y
  LSTMs.
- Resolver problemas de lenguaje natural, incluyendo sintetización de textos.
- Construir aplicaciones de audio, incluyendo speech recognition y music synthesis.

En este curso veremos en detalle....

Natural Language Processing with Classification and Vector Spaces

a) Análisis de sentimientos en tweets usando logistic regression y naïve Bayes.

b) Usar vector space models para descubrir relaciones entre palabras y usar PCA para reducir la
     dimensionalidad y visualizar esas relaciones.

c) Escribir un algoritmo simple para traducir del inglés al francés usando word embeddings y locality sensitive
    hashing para relacionar palabras con k-nearest neighbour.


Veremos también conceptos sobre Redes Neuronales Recurrentes

- Porqué modelos secuenciales
- Notación
- El modelo de RNN
- Backpropagation a lo largo del tiempo
- Diferentes tipos de RNNs
- Language model and sequence generation
- Sampling novel sequences
- Vanishing gradients with RNNs
- Gated Recurrent Unit (GRU)
- Long Short Term Memory (LSTM)
- Bidirectional RNN
- Deep RNNs


Introducción a Word Embeddings

- Word Representation
- Using word embeddings
- Properties of word embeddings
- Embedding matrix

Aprendiendo Word Embeddings: Word2vec & GloVe

- Learning word embeddings
- Word2Vec
- Negative Sampling
- GloVe word vectors

Aplicaciones usando Word Embeddings

- Sentiment Classification
- Debiasing word embeddings


Arquitecturas varias sequence to sequence

- Basic Models
- Picking the most likely sentence
- Beam Search
- Refinements to Beam Search
- Error analysis in beam search
- Bleu Score (optional)
- Attention Model Intuition
- Attention Model

Speech recognition - Audio data

- Speech recognition
- Trigger Word Detection


Sign in to Google to save your progress. Learn more
Email *
Apellido *
Nombres *
Celular (Solo números) *
¿Es Graduado FIUBA? *
Localidad de residencia *
¿Te interesa participar en la cooperativa de trabajo?
Clear selection
Otra casilla de correo
Teléfono Particular
Carrera - Facultad - Universidad (En curso SI/NO)
Año de Graduación
Institución Relacionada
Posición que ocupa
Comentarios y Sugerencias
Submit
Clear form
Never submit passwords through Google Forms.
This content is neither created nor endorsed by Google. Report Abuse - Terms of Service - Privacy Policy