Procesamiento de Lenguaje Natural en Tensorflow
Procesamiento de Lenguaje Natural en Tensorflow

CURSO  ON-LINE

* Clases teóricas
* Ejercicios prácticos
* Evaluaciones

Se otorga certificación oficial de Coursera

Horario: sábados de 14 a 18 - Hora de Buenos Aires GMT-3
Comienzo: sábado 8 de mayo
Horas: 16 en cuatro clases de cuatro horas

ARANCEL: $AR 6.000
Precio abonando antes del 24 de abril: $AR 5.000

Precio general: pago único de U$S 150

Si sos un desarrollador de software que quiere construir algoritmos de IA escalables, necesitás entender cómo usar las herramientas necesarias para eso. Construirás sistemas de NLP usando TensorFlow.

Aprenderás a procesar texto, incluyendo tokenizado y representación de oraciones como vectores para que sean ingeridos por una red neuronal. Aprenderás a aplicar RNNs, GRUs y LSTMs en TensorFlow. Finalmente, entrenarás una LSTM con textos para crear poesía original.
 

1 Sentimientos en texto

El primer paso es tokenizar, convertir el texto en números, con un número representado un caracter o una palabra. Vamos a ver las APIs de Tokenizer y pad_sequences y cómo se pueden usar para preparar y codificar textos y oraciones.

Word based encodings
Using APIs
Text to sequence
Looking more at the Tokenizer
Padding
Sarcasm, really?
dataset for sarcasm detection
Explore the BBC News Archive

2 Word Embeddings

Mapearemos los tokens obtenidos en la semana 1 como vectores de un espacio de alta dimensión.  Estos vectores pueden ajustarse con embeddings y ejemplos etiquetados de tal manera que palabras con significados similares tengan direcciones similares. Con esto, comenzaremos el proceso de entrenamiento de una red neuronal para analizar sentimientos en un texto. Veremos críticas de películas y entrenaremos una RNN en textos etiquetados como "positivos" o "negativos" y determinaremos qué palabras de esas oraciones conducen a esos significados.
 

The IMBD dataset
Looking into the details
How can we use vectors?
More into the details
Remember the sarcasm dataset?
Building a classifier for the sarcasm dataset
Let’s talk about the loss function
Pre-tokenized datasets
TensorFlow datasets
Diving into the code (part 1)
Subwords text encoder
Diving into the code (part 2)

3 Modelos secuenciales

En el análisis de sentimiento influye también el orden en el que aparecen la palabras. Comenzaremos a ver una variedad de formatos que se usan para entrenar modelos que permitan entender el contexto en una secuencia.  

LSTMs
Implementing LSTMs in code
Accuracy and loss
A word from Laurence
Looking into the code
Using a convolutional network
Going back to the IMDB dataset
Tips from Laurence
Exploring different sequence models
Exploring overfitting in NLP

4 Modelos secuenciales y literatura

Dado un cuerpo de palabras, podríamos predecir la próxima palabra más probable a continuación de una dada palabra o frase y seguir luego agregando más palabras a continuación. Construiremos un poeta automático entrenado con canciones irlandesas.


Looking into the code
Training the data
More on training the data
Finding what the next word should be
Predicting a word
link to Laurence's poetry
Laurence the poet!
Your next task
Link to generating text using a character-based RNN
Using LSTMs, see if you can write Shakespeare!
Sign in to Google to save your progress. Learn more
Email *
Apellido *
Nombres *
Celular (Solo números) *
¿Es Graduado FIUBA? *
Localidad de residencia *
¿Te interesa participar en la cooperativa de trabajo?
Clear selection
Otra casilla de correo
Teléfono Particular
Carrera - Facultad - Universidad (En curso SI/NO)
Año de Graduación
Institución Relacionada
Posición que ocupa
Comentarios y Sugerencias
Submit
Clear form
Never submit passwords through Google Forms.
This content is neither created nor endorsed by Google. Report Abuse - Terms of Service - Privacy Policy