Procesamiento de Lenguaje Natural en Tensorflow
Procesamiento de Lenguaje Natural en Tensorflow
CURSO ON-LINE
* Clases teóricas
* Ejercicios prácticos
* Evaluaciones
Se otorga certificación oficial de Coursera
Horario: sábados de 14 a 18 - Hora de Buenos Aires GMT-3
Comienzo: sábado 8 de mayo
Horas: 16 en cuatro clases de cuatro horas
ARANCEL: $AR 6.000
Precio abonando antes del 24 de abril: $AR 5.000
Precio general: pago único de U$S 150
Si sos un desarrollador de software que quiere construir algoritmos de IA escalables, necesitás entender cómo usar las herramientas necesarias para eso. Construirás sistemas de NLP usando TensorFlow.
Aprenderás a procesar texto, incluyendo tokenizado y representación de oraciones como vectores para que sean ingeridos por una red neuronal. Aprenderás a aplicar RNNs, GRUs y LSTMs en TensorFlow. Finalmente, entrenarás una LSTM con textos para crear poesía original.
1 Sentimientos en texto
El primer paso es tokenizar, convertir el texto en números, con un número representado un caracter o una palabra. Vamos a ver las APIs de Tokenizer y pad_sequences y cómo se pueden usar para preparar y codificar textos y oraciones.
Word based encodings
Using APIs
Text to sequence
Looking more at the Tokenizer
Padding
Sarcasm, really?
dataset for sarcasm detection
Explore the BBC News Archive
2 Word Embeddings
Mapearemos los tokens obtenidos en la semana 1 como vectores de un espacio de alta dimensión. Estos vectores pueden ajustarse con embeddings y ejemplos etiquetados de tal manera que palabras con significados similares tengan direcciones similares. Con esto, comenzaremos el proceso de entrenamiento de una red neuronal para analizar sentimientos en un texto. Veremos críticas de películas y entrenaremos una RNN en textos etiquetados como "positivos" o "negativos" y determinaremos qué palabras de esas oraciones conducen a esos significados.
The IMBD dataset
Looking into the details
How can we use vectors?
More into the details
Remember the sarcasm dataset?
Building a classifier for the sarcasm dataset
Let’s talk about the loss function
Pre-tokenized datasets
TensorFlow datasets
Diving into the code (part 1)
Subwords text encoder
Diving into the code (part 2)
3 Modelos secuenciales
En el análisis de sentimiento influye también el orden en el que aparecen la palabras. Comenzaremos a ver una variedad de formatos que se usan para entrenar modelos que permitan entender el contexto en una secuencia.
LSTMs
Implementing LSTMs in code
Accuracy and loss
A word from Laurence
Looking into the code
Using a convolutional network
Going back to the IMDB dataset
Tips from Laurence
Exploring different sequence models
Exploring overfitting in NLP
4 Modelos secuenciales y literatura
Dado un cuerpo de palabras, podríamos predecir la próxima palabra más probable a continuación de una dada palabra o frase y seguir luego agregando más palabras a continuación. Construiremos un poeta automático entrenado con canciones irlandesas.
Looking into the code
Training the data
More on training the data
Finding what the next word should be
Predicting a word
link to Laurence's poetry
Laurence the poet!
Your next task
Link to generating text using a character-based RNN
Using LSTMs, see if you can write Shakespeare!