Doble Grado en Matemáticas y Estadística

URI permanente para esta colecciónhttps://hdl.handle.net/11441/77614

Examinar

Envíos recientes

Mostrando 1 - 20 de 47
  • Acceso AbiertoTrabajo Fin de Grado
    Métodos Estadísticos en Diagnóstico Clínico
    (2024-10-22) Guerrero Martín, Patricia; Pino Mejías, José Luis; García de las Heras, Joaquín Antonio
    En el presente Trabajo de Fin de Grado se aborda el uso de métodos estadísticos para el diagnóstico de enfermedades. Para ello, en el primer capítulo, hablaremos sobre qué es el diagnóstico clínico y cuales son los procedimientos más comunes actualmente para llevarlo a cabo mediante la estadística y las matemáticas. Tras ello, expondremos las bases teóricas de tres de estas técnicas: el método de k-Vecinos Más Cercanos en el siguiente capítulo y el algoritmo de Árboles de decisión y de Random Forests en sucesivos capítulos. Las tres serán vistas tanto para problemas de clasificación como para problemas de regresión. Los problemas de clasificación tienen como objetivo identificar las características que indican el grupo al que pertenece cada caso. Este patrón se puede utilizar para comprender los datos existentes y para predecir cómo se comportarán las nuevas instancias. La minería de datos crea modelos de clasificación examinando datos ya clasificados (casos) y encontrando por inducción un modelo predictivo. Por otro lado, la regresión se refiere a una tarea en la que el objetivo es predecir un valor numérico continuo basado en uno o más atributos de entrada. Una vez analizada la teoría, se complementa con una aplicación. En esta, se hace un estudio sobre si un individuo presenta o no diabetes de tipo II. Trabajamos sobre una base de datos de la plataforma ‘Kaggle’ con información relativa a un estudio en un grupo de mujeres donde se recogen variables explicativas como la presión arterial, índice de masa corporal. . . y su respectiva variable respuesta acerca de si son sanas o diabéticas. Hemos desarrollado los distintos algoritmos con un conjunto de funciones recogidas en la biblioteca ‘Scikit-Learn’ de Python. Nos quedamos con el mejor y haremos predicciones con nuevos datos.
  • Acceso AbiertoTrabajo Fin de Grado
    Modelos de Predicción para la Detección Prenatal del Síndrome de Down
    (2024-10-24) Hernández Barba, Noelia; Valencia Cabrera, Luis; Orellana Martín, David
    Este trabajo aborda el desarrollo de modelos de clasificación para la detección del síndrome de Down en el primer trimestre del embarazo. Se basa en datos sobre las características físicas de la mujer, como el peso, la edad, la altura y la etnia, así como en datos genéticos del ARN obtenido del plasma fetal, utilizando técnicas de aprendizaje automático que permiten una evaluación más precisa de los riesgos asociados. A lo largo del proceso, se llevan a cabo diferentes etapas. Comenzamos con un análisis descriptivo de los datos, intentando extraer características relevantes y patrones que puedan influir en la detección del síndrome de Down. A continuación, implementamos los modelos de clasificación utilizando tidymodels, lo que nos permite gestionar y optimizar los modelos de manera eficiente. Esta implementación se complementa con una discusión detallada sobre los resultados obtenidos, donde analizamos el rendimiento de cada modelo y su capacidad para discriminar entre las clases. Finalmente, se presentan las conclusiones sobre los objetivos planteados que impulsan el estudio, así como propuestas para mejorar ciertos aspectos en investigaciones futuras.
  • Acceso AbiertoTrabajo Fin de Grado
    Modelos Ocultos de Markov
    (2024-10-22) Ortega Cartelle, Cristina; Pino Mejías, Rafael
    Hidden Markov Models (HMM) are powerful probabilistic tools for analyzing sequential data where observations depend on unobservable internal states. Their flexibility allows them to model a wide range of complex phenomena across various fields, including speech recognition, bioinformatics, finance, and cognitive analysis. HMMs are particularly useful in situations where underlying processes cannot be directly measured, enabling the inference of hidden dynamics from observable data. Over time, these models have proven effective in uncovering hidden patterns, predicting future behaviors, and segmenting time series based on internal states. This work explores the fundamental principles of HMMs and their applicability, emphasizing their value in understanding and representing complex sequential systems.
  • Acceso AbiertoTrabajo Fin de Grado
    Introducción a la Minería de Texto con R
    (2023-10-19) Lobato Cantos, Alejandro; Luque Calvo, Pedro Luis; Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
    En este trabajo se ofrecen unos primeros pasos para introducirse en el campo de la minería de textos, desde una base teórica de las principales tareas hasta una implementación utilizando el software “R”. El objetivo principal es intentar dar una visión general de las tareas de las que se encarga esta rama así como representar algunas de sus aplicaciones. Los resultados y la teoría vienen de una diversidad de fuentes. A la hora de la implementación práctica utilizamos tanto aplicaciones construidas para este trabajo así como una serie de librerías específicas de R creadas para la minería de texto. Las subramas de la minería de texto que se desarrollan en este trabajo son la reducción de dimensionalidad, el resumen de textos, la clasificación de textos y la extracción de información.
  • Acceso AbiertoTrabajo Fin de Grado
    Análisis de conglomerados con series temporales
    (2023-06) Veas Lerdo de Tejada, Mencía; Beato Moreno, Antonio; Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
    El análisis de conglomerados con series temporales es una técnica estadística novedosa y aplicable a numerosos campos como las fi nanzas y las telecomunicaciones. Se trata de agrupar series temporales semejantes. Aquí radica el problema, pues es necesario de finir una distancia entre series temporales que minimice la pérdida de información. Sin embargo, a priori es posible no saber qué metodología se adaptaría mejor a los datos, por ello es esencial hacer un estudio de diferentes distancias y aplicar diferentes métodos de análisis cluster para hacer una comparación de resultados. Para desarrollar esta investigación se han de asentar las bases teóricas mínimas en las que se fundamenta. Por ello, se introducen conceptos de análisis de conglomerdos, de series temporales, así como de distancias y teoría de conjuntos. A continuación, se propone una relación de distancias entre series temporales que tiene en cuenta diferentes aspectos de las mismas, de modo que ninguna de ellas aporta resultados exactamente iguales. Por último, se muestra el código heurístico de cómo aplicar todo lo explicado sobre un conjunto de datos inventado en Python. Además, a título ilustrativo, también se incluye la aplicación real de este procedimiento con datos del Índice de Precios del Consumo (IPC) con el correspondiente análisis de los resultados.
  • Acceso AbiertoTrabajo Fin de Grado
    Forecast combinations
    (2023-06) Tobar Fernández, Cristina; Carrizosa Priego, Emilio José; Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
    In the forecasting community, forecast combinations have grown dramatically. Their uses in time series span a multitude of fields, including assisting in recent years to predict COVID-19 deaths and hospital admissions with excellent accuracy, thus helping the organization of public health in different countries. Since the 1960s, a multitude of studies have confirmed the benefits of using a combination of different base predictions. These base predictions involve a given model. They highlight the improved accuracy of the combination methods, avoiding the need to identify the "best model". Combining techniques range from the simplest to the most challenging methods, including the optimization of different evaluation metrics. There are also many methods to measure the performance and accuracy of our predictions depending on the target of interest. In this thesis the problem of combined point forecasts is addressed, after describing several methods we discuss their application according to the characteristics of our time series and our objectives. Finally, we will conclude with a couple of experiments using different time series in order to empirically test our assumptions. We will also end with a proposal for different research lines for the future.
  • Acceso AbiertoTrabajo Fin de Grado
    Lógica Epistémica Dinámica
    (2023-07) Romero Vinogradov, Alexander; Cordón Franco, Andrés; Universidad de Sevilla. Departamento de Ciencias de la Computación e Inteligencia Artificial
    En este trabajo hacemos un repaso de algunas de las principales propuestas en el área de la lógica epistémica dinámica, rama de la lógica modal: lógica epistémica (interpretada sobre la clase semántica S5), lógica epistémica con anuncios públicos y lógica epistémica probabilística. Se exponen propiedades básicas y conceptos de interés para cada uno de estos sistemas, y se discuten en el contexto de ejemplos, muchos de ellos clásicos, que ponen de manifiesto su relevancia en diversos ámbitos de la realidad práctica. En aras de integrar los sistemas anteriormente mencionados, y en particular la lógica epistémica con anuncios públicos y la lógica epistémica probabilística, se propone una generalización de los anuncios públicos que es coherente con los aspectos probabilísticos de nuestro lenguaje, y se estudian también las propiedades teóricas básicas de esta propuesta. Se discuten varias conjeturas, de las que se espera obtener resultados adicionales en investigaciones futuras, sobre el comportamiento formal de esta nueva construcción.
  • Acceso AbiertoTrabajo Fin de Grado
    Muestreo espacialmente balanceado. Aplicaciones en R
    (2023-06) Ojeda Silva, Cintia María; Muñoz Reyes, Ana María; Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
    Las técnicas de muestreo tradicionales no suelen contemplar las características propias de los datos distribuidos espacialmente, como la dependencia espacial. Vamos a estudiar procedimientos a partir del muestreo aleatorio simple sin reemplazamiento, del muestreo exponencial y del método pivotal, con probabilidades de inclusión iguales o distintas, en los que integraremos la dependencia espacial. El enfoque adoptado nos servirá para corroborar argumentos intuitivos sobre la necesidad de integrar la dependencia en el muestreo. Podemos trabajar en cualquier dimensión, pero en el caso de datos con tendencia espacial, si seleccionamos una muestra bien distribuida (balanceada), conseguiremos mejores estimadores.
  • Acceso AbiertoTrabajo Fin de Grado
    Machine Learning Techniques for Natural Language Processing
    (2023-07) Jareño García, Amparo; Pino Mejías, Rafael; Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
    Language is such a powerful tool that enables communication between humans. However, there have been some barriers, historically, which arose the need for automatisation of linguistic tasks. After overcoming setbacks, a balance between linguistics and computer science was achieved, which was based mainly on artificial intelligence. The objective of this work is to understand the text preprocessing so that machine learning algorithms can be applied to draw insights. For this purpose, we will dive into supervised learning theory together with discriminative and generative algorithms that will be perform text classification tasks: a fake news classifier and a film reviews sentiment analysis. Furthermore, we will explore the variety of purposes and the industrial applications that Natural Language Processing has.
  • Acceso AbiertoTrabajo Fin de Grado
    Aplicación de técnicas estadísticas, matemáticas y de Inteligencia Artificial para la modelización ecológica
    (2023-06) Jáñez Vaz, Magdalena; Valencia Cabrera, Luis; Universidad de Sevilla. Departamento de Ciencias de la Computación e Inteligencia Artificial
    La modelización ecológica trata de comprender y traducir las complejas interacciones presentes en un ecosistema y expresarlas como un modelo matemático de forma más esquematizada de cara a ayudarnos a comprender mejor la realidad que estamos estudiando, explicar mejor su comportamiento ante determinados escenarios de interés y tratar de predecir la respuesta del sistema ante nuevos casos. El presente proyecto trabaja con datos de campo recogidos en el parque natural de Doñana, Huelva, relativos al Cangrejo Rojo Americano, Procambarus clarkii. En él se intentará procesar la información recolectada para presentarla de forma más clara y sencilla, descifrar el comportamiento de las variables implicadas, sus interacciones, vislumbrar patrones de respuesta temporal, así como utilizarla para modelizar distintos aspectos de esta especie y del ecosistema. Al tratarse de una especie invasora, es de interés analizar formas de controlar su población, y poder comprender mejor el desarrollo y comportamiento que tiene en las localizaciones estudiadas. Entre los modelos con los que se trabajará hay algunos dedicados a predecir las capturas en trampas de cangrejos según las condiciones climáticas, lo que nos sirve como una posible estimación del tamaño de la población, así como para poder observar cuál es la tendencia local, global o ante distintos posibles escenarios. Otros modelos se dedican a estudiar características de individuos en concreto como su tamaño, sexo y etapa de madurez. Por último, simplemente matizar que este estudio trata de atacar un problema real, con todo lo que ello conlleva. Al tratarse de una situación auténtica, el interés es mayor, ya que puede ayudar a comprender mejor un problema existente que se está enfrentando. Por otro lado, implica un aumento en la dificultad debido a las limitaciones de los datos frente a los conjuntos de datos que suelen darse en problemas ficticios ya preparados para realizar el estudio.
  • Acceso AbiertoTrabajo Fin de Grado
    Estudio matemático-computacional de la producción oleícola en explotaciones agrarias
    (2023-07) Bejarano Segado, Manuel; Valencia Cabrera, Luis; Universidad de Sevilla. Departamento de Ciencias de la Computación e Inteligencia Artificial
    En este trabajo se ha llevado a cabo a través del lenguaje R, a través del entorno RStudio, un análisis exhaustivo de los datos de producción de aceite de oliva, utilizando métodos matemáticos y modelos computacionales avanzados. Se han aplicado técnicas de análisis de series temporales, modelización estadística y aprendizaje automático para comprender los factores que influyen en la producción y realizar predicciones precisas. El enfoque multidisciplinario adoptado en este estudio ha permitido integrar conceptos y herramientas de las ciencias matemáticas y de la computación, en combinación con el conocimiento agrícola y los datos empíricos recopilados. Esto ha posibilitado una visión integral y enriquecedora de la producción oleícola, proporcionando nuevas perspectivas y oportunidades para mejorar los procesos y la toma de decisiones en el sector. Se han explorado diferentes enfoques estadísticos y de aprendizaje automático para comprender la naturaleza de las variables, identificar interacciones significativas y desarrollar modelos predictivos precisos. Los resultados obtenidos han proporcionado un mayor conocimiento sobre el tema y han permitido realizar aportaciones relevantes al campo de estudio. Se han planteado las conclusiones derivadas del estudio y posibles trabajos futuros para ampliar la investigación en esta área.
  • Acceso AbiertoTrabajo Fin de Grado
    Algebraic tools in quantum computing algorithms
    (2023) Absalom Bautista, Lucía; Tornero Sánchez, José María; Universidad de Sevilla. Departamento de Álgebra
    Universal quantum gates play a crucial role in quantum computing as they form the building blocks for quantum circuits. Unlike classical circuits which are made up of classical gates such as AND, OR, and NOT gates, quantum circuits are composed of quantum gates that operate on qubits instead of classical bits. These gates can be used to perform various operations on qubits such as rotations, phase shifts, and entanglement, allowing for the execution of quantum algorithms. In this dissertation, we will explore the fundamental principles behind universal quantum gates and their significance in quantum computing.We will examine the various types of quantum gates including the single-qubit gates such as the Hadamard gate, Pauli gates, and phase gates, as well as the multi-qubit gates such as the ????? gate. This work aims to provide an introductory overview of universal quantum gates and their applications in quantum computing, leaving aside the current state of the art in research and development of quantum gate technology. We hope that this dissertation will shed some light on the ongoing effort to build more powerful and reliable quantum computers that will pave the way for groundbreaking advances in a variety of fields, including cryptography, chemistry, and optimization.
  • Acceso AbiertoTrabajo Fin de Grado
    Reconocimiento de imágenes con TensorFlow desde R
    (2022-06-07) Quirós Pérez, Francisco de Paula; Luque Calvo, Pedro Luis; Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
    La presente investigación se refiere al aprendizaje automático, definido como un tipo de inteligencia artificial que proporciona a los ordenadores la capacidad de aprender centrándose en el desarrollo de programas informáticos y que haga que estos actúen de distinta forma en función de los datos expuestos. La prioridad es utilizar herramientas que nos permitan desarrollar dicho aprendizaje en el reconocimiento y clasificación de imágenes y todo ello en torno a la introducción de las redes neuronales convolucionales, lo cual, supone un antes y un después en el concepto de automatización, como veremos. Conoceremos el funcionamiento de dichas redes desde dentro con la formulación matemática que se lleva a cabo en cada capa y cómo la lectura idónea ante cualquier anomalía en una neruona será desde la última capa a la primera. Para un análisis en profundidad, necesitamos echar la vista atrás y observar cuánto ha avanzado la tecnología en este terreno desde mediados del siglo XX, desde el primer momento en el que se consideró oportuno un símil entre la red de neuronas de nuestro cerebro y el funcionamiento interno de programas informáticos. La finalidad será, por tanto, avanzar en la historia de las redes neuronales desde sus inicios, saber cómo funcionan y qué grandes progresos se han hecho recientemente para, más tarde, exponer ejemplos sencillos de aplicación de redes neruonales convolucionales a la creación, entrenamiento, compilación y predicción de un modelo de redes neruonales capaz de clasificar imágenes, apoyados en paquetes de aprendizaje automático como Keras o TensorFlow y a través de R.
  • Acceso AbiertoTrabajo Fin de Grado
    Evaluación de la Información demográfica publicada en los ayuntamientos de Andalucía
    (2022-06-06) Blázquez Molino, Álvaro; Luque Calvo, Pedro Luis; Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
    En este Trabajo Fin de Grado se estudiarán las páginas web de los ayuntamientos andaluces de más de 50.000 habitantes para elaborar varias clasificaciones de las páginas web de mejor a peor, y así ver cuáles son los mejores y peores, qué cosas se hacen bien y qué otras se pueden mejorar. Se aplicarán métodos de Teoría de la Decisión a los datos recogidos de las páginas web para elaborar los rankings. Los procedimientos serán explicados y ofrecerán resultados, que serán analizados individual y conjuntamente para extraer las conclusiones finales.
  • Acceso AbiertoTrabajo Fin de Grado
    Modelos estadísticos en Sports Analytics
    (2022-06-04) Solís García, Ana; Pino Mejías, José Luis; Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
    El objetivo de este trabajo ha sido ajustar distintos modelos estadísticos a los datos de la liga española de voleibol femenino. La estadística es esencial en el mundo del deporte. Actualmente, el desarrollo de cualquier deporte o actividad física lleva consigo un estudio acerca de la realización del mismo. El fin de este estudio es analizar los datos recogidos y utilizarlos de la forma más eficiente posible de cara al éxito deportivo. Con respecto a la aplicación de modelos estadísticos, algunas de las principales funciones podrían ser describir el desarrollo de competiciones y/o partidos por parte de los equipos y poder predecir a partir de ellos. En este Trabajo Fin de Grado (TFG), se han considerado los 132 partidos de la fase regular de la Liga Iberdrola de la temporada 2020/2021, con la finalidad de obtener aquellos modelos que mejor clasificaban el resultado final del partido a partir de las acciones que se desarrollaron durante los mismos. Es decir, se han buscado algoritmos estadísticos que den mayor fiabilidad para aplicarlos a nuevos datos y poder predecir con ellos. Este trabajo se ha dividido en 3 capítulos. En el primero introducimos pequeñas nociones sobre la estadística deportiva y nos centramos en artículos recientes en los que la aplicación de métodos estadísticos ha sido el objetivo fundamental. Hablamos tanto de deportes populares, como lo es el fútbol, como del voleibol ya que es el objetivo principal de este trabajo. En el Capítulo 2 hacemos una descripción de lo que es el Aprendizaje Estadístico, donde se engloban los modelos de regresión y clasificación y su correspondiente estudio. También se centra en modelos estadísticos con gran capacidad de aplicación a distintos ámbitos. Se ha evaluado la mayoría de métodos estudiados a lo largo de la carrera sobre los datos disponibles. Además, a partir de las técnicas de selección y medición del rendimiento descritas en el Capítulo 2, finalmente se han seleccionado los modelos con mejor rendimiento y se ha realizado un estudio exhaustivo en el Capítulo 3. Se ha realizado una comparación empírica del modelo de Redes Neuronales y el de Máquinas de vectores soporte sobre el conjunto de datos. Estos modelos recogen lo relativo a las estadísticas de cada equipo en los encuentros disputados de la Liga Iberdrola. En la última parte de este capítulo se toman una serie de conclusiones finales acerca del estudio realizado. Como anexo, se ha incluido el código de R donde se encuentran los cálculos descritos en el Capítulo 3 de la aplicación de los modelos. Y finalmente, se indican las referencias bibliográficas de los documentos consultados.
  • Acceso AbiertoTrabajo Fin de Grado
    Tecnologías biométricas aplicadas a la ciberseguridad
    (2022-06-01) Ruiz Montaño, Rocío; Valencia Cabrera, Luis; Universidad de Sevilla. Departamento de Ciencias de la Computación e Inteligencia Artificial
    Rodeados de una sociedad en constante evolución y con un gran afán de desarrollo tecnológico, la Inteligencia Artificial (IA) se posiciona como una de las áreas de mayor impacto en la actualidad. Una de las aplicaciones más útiles de IA es la verificación de la identidad a través de perfiles biométricos y conductuales. En este proyecto veremos algunos de los sistemas biométricos que existen, los tipos y la estructura del procedimiento biométrico. En este contexto, se encuentra el reconocimiento facial, una herramienta que cada vez se utiliza más en cualquier ámbito o situación; desde el desbloqueo de dispositivos móviles, a través de cientos de aplicaciones, hasta su uso como medida de seguridad implementada por algunos gobiernos. Este proyecto se basa en el análisis, tanto teórico como experimental, de un sistema de reconocimiento facial a partir de una base de datos. El código se implementa en el lenguaje de programación R junto a la librería de machine learning y visión por computador OpenCV y, la API de redes neuronales de alto nivel Keras. El proceso de identificación de una cara se divide en dos subprocesos consecutivos. En cuanto al primer subproceso, la detección facial, el método utilizado se centra en el algoritmo Viola-Jones basado en Haar Cascades. Para el segundo subproceso, el reconocimiento facial, el método utilizado para ello han sido las redes neuronales convolucionales, de las cuales se ha implementado su código y se ha realizado un estudio detallado. Cabe mencionar que existen también otros métodos interesantes como son Fisherfaces, Eigenfaces y LBPH (Local Binary Pattern Histogram). De esta forma, se ha realizado una comparación entre las diferentes redes que hemos diseñado para determinar su comportamiento, estudiando sus tasas de éxito, tratando de analizar la influencia de diversos factores y tratando de buscar una mejora progresiva hasta dar con la mejor solución que hemos podido encontrar, apoyándonos además en técnicas adicionales como transfer learning o data augmentation.
  • Acceso AbiertoTrabajo Fin de Grado
    La ciencia de datos como herramienta diferenciadora en el scouting deportivo en el fútbol de élite
    (2022-06-19) Maqueda Ruiz, José Manuel; Valencia Cabrera, Luis; Universidad de Sevilla. Departamento de Ciencias de la Computación e Inteligencia Artificial
    En este documento se explica cómo utilizar algunas herramientas de la ciencia del dato para el scouting de futbolistas de élite. El objetivo principal del estudio es el análisis y predicción del valor de mercado de los futbolistas que se encuentran en activo en la temporada 2021/2022, es decir, realizar un scouting de futbolistas y poder ayudar aconsejando a secretarías técnicas de clubes a la hora de tomar decisiones para la confección de la plantilla. La fuente de datos original, elegida tras un largo proceso de búsqueda, es pública y sus conjuntos de datos se transforman para dar lugar a un conjunto de datos final sobre el que se realizan los análisis descriptivos de las variables. Primero, se describe la variable objetivo valor de mercado. Posteriormente, se analiza conjuntamente con las demás variables, para descubrir cuáles son las variables más influyentes en el valor de mercado de los futbolistas profesionales. Los análisis incluyen gráficos y tablas para facilitar la compresión de los contenidos. Además del análisis, la predicción del valor de mercado de los futbolistas es uno de los objetivos principales del estudio. Para dicha predicción se usan diferentes modelos de regresión y se obtienen las métricas de cada uno de ellos, para posteriormente elegir cuál de ellos será el modelo final y con el que se realizarán futuras predicciones si esta aplicación se instaurara en el departamento de scouting y análisis deportivo de un club. Para todos los procesos explicados anteriormente se utilizan paquetes de R, sobre todo las librerías tidyverse y tidymodels. Como conclusión, se debe destacar la posibilidad de usar este estudio en la práctica real de una secretaría técnica de un equipo de élite y la capacidad de mejora que tiene el proyecto si se tuvieran medios económicos suficientes para ello. Además, se obtienen diferentes estrategias de mercado que deben seguirse en función de si se quiere comprar o vender un futbolista de determinada posición. Por último, se concluye que la predicción realizada para el valor de mercado puede usarse como una estimación propia del mismo para la toma de decisiones.
  • Acceso AbiertoTrabajo Fin de Grado
    Análisis bibliométrico de la producción científica sobre Economía Experimental
    (2022-06-19) Maldonado Ruiz de Villegas, Cristina; González-Limón, Myriam; Universidad de Sevilla. Departamento de Análisis Económico y Economía Política
    La Economía Experimental (EE) es un método de trabajo de la Economía del comportamiento que desarrolla modelos teóricos de comportamiento humano en ámbitos económicos. Los experimentos económicos tienen ya una larga tradición, y han proporcionado resultados espectaculares y conclusiones ampliamente admitidas sobre la dinámica de mercados y el efecto de las instituciones económicas. Las nuevas tecnologías facilitan la realización y el análisis de estos experimentos. El objetivo principal de este estudio es la revisión sistemática de la producción científica sobre Economía Experimental, desde el año 1990 hasta finales de 2021, en las bases de datos de Web of Science Core Collection y Scopus. El análisis descriptivo de datos se realizó con el software Rstudio, mientras que el análisis de redes se hizo con el software Vosviewer. El estudio muestra, entre otras cosas, que la producción bibliográfica en este campo se ha intensificado exponencialmente; así como, que el país con más investigaciones es Estados Unidos y el autor más citado es Urs Fischbacher.
  • Acceso AbiertoTrabajo Fin de Grado
    Predicción en datos espaciales y espacio-temporales: Modelos estadísticos e implementación en R
    (2022-06-01) Lago Arenal, Montemayor; Muñoz Reyes, Ana María; Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
    Este trabajo de fin de grado tiene como objetivo recopilar información sobre los procesos de predicción de datos espaciales y espacio temporales fixed rank kriging (FRK) y fixed rank filtering (FRF), ya que no existe información abundante sobre ellos. De esta forma, se quiere dar a conocer estas herramientas de tratamiento de datos, puesto que tienen un enorme potencial analítico. Este trabajo de fin de grado se divide en tres capítulos. El primero de ellos nos sirve como base teórica para la construcción de los modelos. En él se definen los conceptos necesarios para la correcta comprensión del proyecto, principalmente nociones de probabilidad y procesos estocásticos. Además, se muestra información sobre el tratamiento y almacenamiento de los datos espaciales y espacio temporales, y sobre el Sistema de Información Geográfica. El segundo capítulo consta del marco teórico. Se definen los modelos SRE y STRE, con los que se trabajarán para elaborar los procedimientos de fixed rank kriging (FRK) y fixed rank filtering (FRF). Con ellos, se mostrará una forma innovadora y eficaz de predecir datos espaciales y espacio temporales. El tercer capítulo contiene los paquete previos y necesarios para la ejecución del paquete FRK, así como la definición de las diferentes clases y métodos usados en ellos. El cuarto capítulo se basa en la implementación en R del modelo FRK, ya que para modelo FRF no existe aún librería que lo implemente en R, actualmente se implementa en Matlab. Se trabajará con ejemplos de datos almacenados en paquetes de R. Se llevará a cabo la construcción de los elementos imprescindibles para la estimación y predicción de los datos.
  • Acceso AbiertoTrabajo Fin de Grado
    Técnicas conjuntas de reducción de la dimensión y agrupamiento
    (2022-06-02) Irizo Cruz, María Eugenia; Muñoz Pichardo, Juan Manuel; Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
    Este trabajo muestra el desarrollo de una técnica simultánea de reducción de la dimensión y análisis de conglomerados, a través del lenguaje de programación R y el paquete “clustrd” de este. Se ha divido en cuatro capítulos. El primero, de introducción, donde se recoge la necesidad y motivación de aplicar esta técnica, además de los métodos que van a usarse. En el segundo capítulo, se desarrolla teóricamente tres diferentes métodos de resolución de la técnica estadística para conjuntos de datos continuos. Además, se expone una forma de estudiar la estabilidad de los grupos formados en la parte de análisis de conglomerados. El tercer capítulo es un ejemplo de ilustración de esta técnica. Se genera un conjunto de datos y se les aplica la resolución de esta técnica a través del paquete ya nombrado “clustrd” de R. Se obtienen interpretaciones y conclusiones sobre estos resultados. Por último, en el cuarto capítulo, se explican distintas funcionalidades del paquete en R con varios ejemplos y conjuntos de datos incluidos en el programa base.