dc.contributor.advisor | Sancho Caparrini, Fernando | es |
dc.creator | Jiménez Revuelta, José Carlos | es |
dc.date.accessioned | 2024-03-01T11:16:53Z | |
dc.date.available | 2024-03-01T11:16:53Z | |
dc.date.issued | 2023-07 | |
dc.identifier.citation | Jiménez Revuelta, J.C. (2023). Modelos Grandes de Lenguaje y aplicaciones a la generación automática de texto. (Trabajo Fin de Máster Inédito). Universidad de Sevilla, Sevilla. | |
dc.identifier.uri | https://hdl.handle.net/11441/155736 | |
dc.description.abstract | This Master’s Thesis delves into the evolution and application of large-scale language
models, with a particular focus on the fourth iteration of the Generative Pre-trained Transformer
(GPT-4) developed by OpenAI. Through a profound theoretical and mathematical
analysis, it examines how advances in Natural Language Processing (NLP), Recurrent
Neural Networks (RNN), Convolutional Neural Networks (CNN), Transformers, and selfattention
have facilitated the development of more sophisticated and accurate language
models.
Key mathematical concepts such as vector spaces, embeddings, activation functions, and
loss and optimization functions are explored in detail to provide a more robust understanding
of the computational complexity, convergence, optimization, and the generalization
and learning capacity of these models. This study also discusses performance metrics, the
interpretability and explainability of language models, as well as the inherent limitations
of current mathematical approaches.
This thesis also addresses the critical ethical and societal issues that arise with the use
of large-scale language models, including bias and fairness, privacy and security and AI
regulation and governance. By providing critical insight and comprehensive analysis of
these topics, this work seeks to pave the way for future research in this rapidly evolving
and highly relevant field. | es |
dc.description.abstract | Este Trabajo de Fin de Máster (TFM) explora la evolución y la aplicación de los modelos
de lenguaje a gran escala, con un enfoque particular en la cuarta iteración del modelo
Generative Pre-trained Transformer (GPT-4) desarrollado por OpenAI. A través de un
análisis teórico y matemático profundo, se examina cómo los avances en el Procesamiento
del Lenguaje Natural (NLP), las Redes Neuronales Recurrentes (RNN), las Redes Neuronales
Convolucionales (CNN), los Transformers, y la auto-atención han facilitado el
desarrollo de modelos de lenguaje más sofisticados y precisos.
Los conceptos matemáticos clave, como los espacios vectoriales, los embeddings, las
funciones de activación, y las funciones de pérdida y optimización son explorados en
detalle para proporcionar una comprensión más sólida de la complejidad computacional,
la convergencia, la optimización, y la capacidad de generalización y aprendizaje de estos
modelos. Este estudio también discute las medidas de rendimiento, la interpretabilidad y
la explicabilidad de los modelos de lenguaje, así como las limitaciones inherentes de los
enfoques matemáticos actuales.
Este TFM también aborda las importantes cuestiones éticas y sociales que surgen con
el uso de los modelos de lenguaje a gran escala, incluyendo el sesgo y la equidad, la
privacidad y seguridad y la regulación de la Inteligencia Artificial (IA). Al proporcionar
una visión crítica y un análisis exhaustivo de estos temas, este trabajo busca abrir nuevos
caminos para la investigación futura en esta área en constante evolución y altamente
relevante. | es |
dc.format | application/pdf | es |
dc.format.extent | 110 p. | es |
dc.language.iso | spa | es |
dc.rights | Attribution-NonCommercial-NoDerivatives 4.0 Internacional | * |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/4.0/ | * |
dc.subject | Natural Language Processing | es |
dc.subject | Language Models | es |
dc.subject | Deep Learning | es |
dc.subject | GPT-4 | es |
dc.subject | Recurrent Neural Networks | es |
dc.subject | Convolutional Neural Networks | es |
dc.subject | Transformers | es |
dc.subject | Self-attention | es |
dc.subject | Computational Complexity | es |
dc.subject | Optimization | es |
dc.subject | Generalization | es |
dc.subject | Interpretability | es |
dc.subject | AI Ethics | es |
dc.subject | AI Regulation | es |
dc.subject | Procesamiento del Lenguaje Natural | es |
dc.subject | Modelos de Lenguaje | es |
dc.subject | Aprendizaje Profundo | es |
dc.subject | Redes Neuronales Recurrentes | es |
dc.subject | Redes Neuronales Convolucionales | es |
dc.subject | Auto-atención | es |
dc.subject | Complejidad Computacional | es |
dc.subject | Optimización | es |
dc.subject | Generalización | es |
dc.subject | Interpretabilidad | es |
dc.subject | Ética de la IA | es |
dc.subject | Regulación de la IA | es |
dc.title | Modelos Grandes de Lenguaje y aplicaciones a la generación automática de texto | es |
dc.type | info:eu-repo/semantics/masterThesis | es |
dc.type.version | info:eu-repo/semantics/publishedVersion | es |
dc.rights.accessRights | info:eu-repo/semantics/openAccess | es |
dc.contributor.affiliation | Universidad de Sevilla. Departamento de Ciencia de la Computación e Inteligencia Artificial | es |
dc.description.degree | Universidad de Sevilla. Doble Máster Universitario en Profesorado de Educación Secundaria Obligatoria y Bachillerato, Formación Profesional y Enseñanza de Idiomas (MAES) y en Matemáticas (MUM)) | es |