Trabajo Fin de Máster
Desarrollo de nuevas estructuras neuronales para la implementación de Deep Learning
Autor/es | Gómez Pérez, Gerardo |
Director | Quero Reboul, José Manuel |
Departamento | Universidad de Sevilla. Departamento de Ingeniería Electrónica |
Fecha de publicación | 2020 |
Fecha de depósito | 2021-05-12 |
Titulación | Universidad de Sevilla. Máster Universitario de Ingeniería Electrónica, Robótica y Automática |
Resumen | En este Trabajo Fin de Máster se definen y desarrollan nuevos modelos matemáticos de sinapsis
para su incorporación en redes neuronales artificiales con el objetivo de dar solución a
problemáticas de asociación de patrones ... En este Trabajo Fin de Máster se definen y desarrollan nuevos modelos matemáticos de sinapsis para su incorporación en redes neuronales artificiales con el objetivo de dar solución a problemáticas de asociación de patrones y su clasificación. El documento comenzará con una descripción del proyecto general mostrando conocimientos generales del diseño tradicional de redes neuronales artificiales tipo perceptrón para comprender su funcionamiento y dar una mayor claridad, previa a su posterior modificación, al sustituir el modelo de sinapsis estándar por estos nuevos modelos. Luego se describe cada modelo de sinapsis exponiendo su interpretación geométrica y características principales. También se analizarán las respuestas de la sinapsis estándar ante casos críticos de valores de entrada seleccionados que conllevan a salidas indeseadas y cómo se logran corregir con cada uno de estos nuevos modelos. Para medir la capacidad de aprendizaje de redes conformadas con estos nuevos modelos se implementó un desarrollo genérico del algoritmo Backpropagation para redes multicapas mediante entrenamiento supervisado. Por último, se estudia las prestaciones de redes neuronales modificadas con estos modelos de sinapsis ante una problemática de reconocimiento, de dígitos escritos a mano, utilizando la base de datos MNIST. Además, se realiza una comparación final del desempeño de cada red, destacando aspectos del proceso de entrenamiento y tasa de aciertos con el conjunto de validación. Los mayores problemas encontrados durante el desarrollo del proyecto fueron, en primer lugar, el carácter novedoso de la investigación que dificultó la obtención de conocimientos y resultados previos sobre el tema y, por otro lado, la dificultad del ajuste de los parámetros de diseño de las redes neuronales, por lo que se optó por la utilización de métodos de diseño de experimentos, permitiéndonos optimizarlas y compararlas de la forma más justa posible. This Master's Final Project defines and describes new mathematical models of synapses for their incorporation into Artificial Neural Networks (ANN) in order to solve pattern association’s problems and their classification. The ... This Master's Final Project defines and describes new mathematical models of synapses for their incorporation into Artificial Neural Networks (ANN) in order to solve pattern association’s problems and their classification. The document begins with a description of the general project showing general knowledge of the traditional design of perceptron-type ANN to understand its operation and provide greater clarity, prior to its subsequent modification, by replacing the standard synapse model with these new models. Then each synapse model is described while exposing its geometric interpretation and main characteristics. The standard synapse’s responses to critical cases of selected input values that lead to unwanted outputs will also be analyzed, as well as how they can be corrected with each of these new models. To measure the learning capacity of networks built with these new models, a generic development of the Backpropagation algorithm for multilayer networks was implemented through supervised learning. Finally, the performance of the modified ANNs with these synapse models is studied in the application of a recognition problem of handwritten digits while using the MNIST database. Moreover, a final comparison of the performance of each network is made while highlighting aspects of the training process and hit rate with the validation set. The main problems encountered during the development of the project were, first, the novel nature of the research that made it difficult to obtain knowledge and previous results on the subject and, secondly, the difficulty of adjusting the design parameters of the neural networks, which is why the use of experimental design methods was chosen, allowing us to optimize and compare them in the fairest way possible. |
Cita | Gómez Pérez, G. (2020). Desarrollo de nuevas estructuras neuronales para la implementación de Deep Learning. (Trabajo Fin de Máster Inédito). Universidad de Sevilla, Sevilla. |
Ficheros | Tamaño | Formato | Ver | Descripción |
---|---|---|---|---|
M1924 Gómez Pérez, Gerardo.pdf | 1.696Mb | [PDF] | Ver/ | |