ММОВС22. Механизм внимания и трансформеры
В тесте встречаются задания со множественным выбором. В таких задания правильных ответов строго больше одного. 
Sign in to Google to save your progress. Learn more
Email *
Укажите ваши ФИО *
Чем трансформеры принципиально отличаются от рекуррентных моделей?
*
1 point
Required
Зачем нужны позиционные энкодинги в трансформере? *
1 point
Допустим, что размерность эмбеддингов трансформера равна d, а число голов attention - h. С какой размерностью эмбеддингов работает каждая голова при подсчете матрицы внимания (attention map)? *
1 point
Хорошая ли идея обрабатывать очень длинные последовательности (>1024 токена) с помощью классического трансформера? *
1 point
Что визуализировано на картинке ниже? *
1 point
Captionless Image
Что визуализировано на картинке ниже? *
1 point
Captionless Image
Зачем при обучении трансформера нужны attention masks?
*
1 point
Как обучается классический seq2seq трансформер?
*
1 point
Отметьте все верные утверждения о модели BERT *
2 points
Required
Выберите верные утверждения о задаче question answering, которая решалась на семинаре *
1 point
Required
Выберите верные утверждения о задаче question answering, которая решалась на семинаре
*
1 point
Required
Submit
Clear form
Never submit passwords through Google Forms.
This content is neither created nor endorsed by Google. - Terms of Service - Privacy Policy

Does this form look suspicious? Report