Resumen del trabajo fin de master
Título:
Análisis de la arquitectura Transformer en el procesamiento del lenguaje natural |
Universidad que ofrece el proyecto:
Universidade da Coruña |
Resumen:
La arquitectura Transformer es introducida por primera vez en el artículo de
2017 ‘Attention is all you need’ [2], donde se consigue una mejora sustancial
en la velocidad y la calidad de la traducción entre lenguas en el ámbito del
NLP. Esto fue posible gracias a su mecanismo de ‘Attention’ que es capaz de
destacar partes específicas de la información cuando se considera relevante
para una tarea dada. Más aún, el mecanismo permite operaciones de
aprendizaje y de inferencia en paralelo, optimizando así el tiempo de
procesamiento y la calidad de las predicciones. Esto ha permitido un gran
avance en todos los ámbitos de aplicación del Deep Learning como la visión
por ordenador, el NLP o el reconocimiento de voz.
En este TFM buscamos estudiar su estructura, cómo aprende y obtiene
conocimiento de los datos; su especial valor en el ámbito del NLP, qué
mejoras ha introducido con respecto a los modelos predecesores; y su
rendimiento en una serie de casos de uso, como la clasificación de
sentimientos o la generación de texto.
|
|