Mostrar el registro sencillo del ítem

Trabajo Fin de Máster

dc.contributor.advisorSancho Caparrini, Fernandoes
dc.creatorJiménez Revuelta, José Carloses
dc.date.accessioned2024-03-01T11:16:53Z
dc.date.available2024-03-01T11:16:53Z
dc.date.issued2023-07
dc.identifier.citationJiménez Revuelta, J.C. (2023). Modelos Grandes de Lenguaje y aplicaciones a la generación automática de texto. (Trabajo Fin de Máster Inédito). Universidad de Sevilla, Sevilla.
dc.identifier.urihttps://hdl.handle.net/11441/155736
dc.description.abstractThis Master’s Thesis delves into the evolution and application of large-scale language models, with a particular focus on the fourth iteration of the Generative Pre-trained Transformer (GPT-4) developed by OpenAI. Through a profound theoretical and mathematical analysis, it examines how advances in Natural Language Processing (NLP), Recurrent Neural Networks (RNN), Convolutional Neural Networks (CNN), Transformers, and selfattention have facilitated the development of more sophisticated and accurate language models. Key mathematical concepts such as vector spaces, embeddings, activation functions, and loss and optimization functions are explored in detail to provide a more robust understanding of the computational complexity, convergence, optimization, and the generalization and learning capacity of these models. This study also discusses performance metrics, the interpretability and explainability of language models, as well as the inherent limitations of current mathematical approaches. This thesis also addresses the critical ethical and societal issues that arise with the use of large-scale language models, including bias and fairness, privacy and security and AI regulation and governance. By providing critical insight and comprehensive analysis of these topics, this work seeks to pave the way for future research in this rapidly evolving and highly relevant field.es
dc.description.abstractEste Trabajo de Fin de Máster (TFM) explora la evolución y la aplicación de los modelos de lenguaje a gran escala, con un enfoque particular en la cuarta iteración del modelo Generative Pre-trained Transformer (GPT-4) desarrollado por OpenAI. A través de un análisis teórico y matemático profundo, se examina cómo los avances en el Procesamiento del Lenguaje Natural (NLP), las Redes Neuronales Recurrentes (RNN), las Redes Neuronales Convolucionales (CNN), los Transformers, y la auto-atención han facilitado el desarrollo de modelos de lenguaje más sofisticados y precisos. Los conceptos matemáticos clave, como los espacios vectoriales, los embeddings, las funciones de activación, y las funciones de pérdida y optimización son explorados en detalle para proporcionar una comprensión más sólida de la complejidad computacional, la convergencia, la optimización, y la capacidad de generalización y aprendizaje de estos modelos. Este estudio también discute las medidas de rendimiento, la interpretabilidad y la explicabilidad de los modelos de lenguaje, así como las limitaciones inherentes de los enfoques matemáticos actuales. Este TFM también aborda las importantes cuestiones éticas y sociales que surgen con el uso de los modelos de lenguaje a gran escala, incluyendo el sesgo y la equidad, la privacidad y seguridad y la regulación de la Inteligencia Artificial (IA). Al proporcionar una visión crítica y un análisis exhaustivo de estos temas, este trabajo busca abrir nuevos caminos para la investigación futura en esta área en constante evolución y altamente relevante.es
dc.formatapplication/pdfes
dc.format.extent110 p.es
dc.language.isospaes
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 Internacional*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.subjectNatural Language Processinges
dc.subjectLanguage Modelses
dc.subjectDeep Learninges
dc.subjectGPT-4es
dc.subjectRecurrent Neural Networkses
dc.subjectConvolutional Neural Networkses
dc.subjectTransformerses
dc.subjectSelf-attentiones
dc.subjectComputational Complexityes
dc.subjectOptimizationes
dc.subjectGeneralizationes
dc.subjectInterpretabilityes
dc.subjectAI Ethicses
dc.subjectAI Regulationes
dc.subjectProcesamiento del Lenguaje Naturales
dc.subjectModelos de Lenguajees
dc.subjectAprendizaje Profundoes
dc.subjectRedes Neuronales Recurrenteses
dc.subjectRedes Neuronales Convolucionaleses
dc.subjectAuto-atenciónes
dc.subjectComplejidad Computacionales
dc.subjectOptimizaciónes
dc.subjectGeneralizaciónes
dc.subjectInterpretabilidades
dc.subjectÉtica de la IAes
dc.subjectRegulación de la IAes
dc.titleModelos Grandes de Lenguaje y aplicaciones a la generación automática de textoes
dc.typeinfo:eu-repo/semantics/masterThesises
dc.type.versioninfo:eu-repo/semantics/publishedVersiones
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses
dc.contributor.affiliationUniversidad de Sevilla. Departamento de Ciencia de la Computación e Inteligencia Artificiales
dc.description.degreeUniversidad de Sevilla. Doble Máster Universitario en Profesorado de Educación Secundaria Obligatoria y Bachillerato, Formación Profesional y Enseñanza de Idiomas (MAES) y en Matemáticas (MUM))es

FicherosTamañoFormatoVerDescripción
TFM MAES-MUM JIMENEZ REVUELTA, ...2.136MbIcon   [PDF] Ver/Abrir  

Este registro aparece en las siguientes colecciones

Mostrar el registro sencillo del ítem

Attribution-NonCommercial-NoDerivatives 4.0 Internacional
Excepto si se señala otra cosa, la licencia del ítem se describe como: Attribution-NonCommercial-NoDerivatives 4.0 Internacional