Grado en Estadística

URI permanente para esta colecciónhttps://hdl.handle.net/11441/40546

Examinar

Envíos recientes

Mostrando 1 - 20 de 51
  • Acceso AbiertoTrabajo Fin de Grado
    Redes recurrentes
    (2023-07) Rodríguez Fenoy, Fernando; Cubiles de la Vega, María Dolores; Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
    Las redes neuronales recurrentes, aunque fueron concebidas en el siglo pasado, han ganado mucho protagonismo en los últimos años gracias a los avances tecnológicos que se han producido. Su habilidad para modelar secuencias encontrando patrones que se repiten dentro de éstas, ha hecho que este tipo de red neuronal se aplique en una gran diversidad de tareas que todos conocemos y usamos, como puede ser traducir un texto o pronosticar el clima de una ciudad. El objetivo de este trabajo ha sido introducir estas redes recurrentes. En primer lugar repasando a qué campo de la ciencia pertenecen, después explicando el funcionamiento de una red neuronal, para finalmente profundizar en nuestro tema del trabajo. Para ello, primero se ha indagado en la teoría que lleva detrás y después hemos terminado realizando una aplicación práctica utilizando el lenguaje de programación R junto con la librería Keras, que consistía en realizar una predicción de la temperatura del aire en una ciudad para catorce días, con ayuda de un histórico de datos acerca de la presión atmosférica, la humedad o la temperatura, entre otras más variables. Los resultados de esta práctica nos llevaron a concluir que cuando tenemos datos secuenciales, es decir, que siguen un orden específico y que por tanto tiene sentido analizarlos de forma conjunta, el aplicar redes recurrentes puede ser una gran opción para capturar patrones que se repitan en el tiempo y que los datos sean tratados teniendo en cuenta el contexto en el que se presentan.
  • Acceso AbiertoTrabajo Fin de Grado
    Diseño y desarrollo de una aplicación software didáctica para el aprendizaje en el ámbito del Grado en Estadística
    (2023-06) Pérez Tinoco, Samuel; Valencia Cabrera, Luis; Universidad de Sevilla. Departamento de Ciencias de la Computación e Inteligencia Artificial
    En este proyecto se plantea como objetivo fundamental el de proporcionar una herramienta útil para estudiantes e interesados en el aprendizaje de los aspectos fundamentales relacionados con el grado en estadística. Para la creación de una aplicación hay que tener bien definidas cual va a ser su funcionalidad y la necesidad de la aplicación además de contar con una buena base de conocimientos que permitan llevarla a cabo. Durante el presente curso he realizado un viaje completo a lo largo de los cursos que he ido pasando a través de toda la carrera, analizando aspectos de interés dentro de cada uno, y planteando el diseño de diversas herramientas que pudieran recoger una muestra significativa de funcionalidades del grado. Esta memoria contiene los aspectos funcionales y las cuestiones que llevan a crearla así como las herramientas necesarias, una breve descripción del contenido de la aplicación, la programación de distinguidos objetos de las que está compuesta la aplicación, unas conclusiones personales, reflexiones y un trabajo futuro.
  • Acceso AbiertoTrabajo Fin de Grado
    Introducción a los Modelos de Ecuaciones Estructurales
    (2023-06) Pérez Jiménez, Enrique; Pino Mejías, José Luis; García de las Heras, Joaquín Antonio; Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
    Los modelos de ecuaciones estructurales (en adelante SEM1) son una técnica estadística cuantitativa multivariante que tiene como objetivo principal describir la relación existente entre una serie de variables observables y otras no observables denominadas variables latentes. Esta técnica es muy utilizada en diversos campos, principalmente en ciencias sociales como la psicología. En este trabajo, se tratarán de exponer los fundamentos que caracterizan a los SEM y se mostrarán algunas aplicaciones mediante el uso del software estadístico R. Para ello, el trabajo se ha dividido en cuatro bloques o capítulos. En el primer capítulo se describirá de manera breve en qué consisten este tipo de modelos, además de explicar el contexto en el que surgen e introducir algunos conceptos importantes para su formulación. También se describen de forma breve los tipos de SEM que existen. En el segundo capítulo, se detallarán los pasos necesarios para la construcción de un modelo SEM, partiendo de la comprobación de las hipótesis previas que deben darse para ello, y finalizando con la evaluación del modelo y la obtención de conclusiones. El tercer capítulo está dedicado a la aplicación práctica de los SEM mediante el uso del software R sobre dos conjuntos de datos. El primero de ellos trata sobre la expansión de la democracia y la industrialización en países en vías de desarrollo. En el segundo caso práctico se muestra la aplicación de los modelos SEM sobre un conjunto de datos cuyas observaciones están divididas en grupos o clusters. Finalmente, el cuarto capítulo contiene las conclusiones, donde se hace balance de los principales resultados, tanto teóricos como prácticos, que se han obtenido a raíz de la realización de este trabajo.
  • Acceso AbiertoTrabajo Fin de Grado
    Modelos estadísticos en análisis de cambio climático
    (2023-06) Pérez García, Alberto; Pino Mejías, José Luis; Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
    Nos hallamos en un momento crucial para afrontar con éxito el mayor desafío que nos toca vivir: el cambio climático. Actualmente, es indispensable hacer para cualquier estudio sobre el cambio climático un análisis de datos para conocer y anticiparse a todos los cambios que se producen en el medio ambiente, y que tanto perjuicio ocasionan. Este trabajo consiste en la recopilación de datos atmosféricos y climáticos, y la apliación de ciertas técnicas estadísticas para dichos datos. Con tal objetivo, se pretende analizar la influencia de estos elementos en el calentamiento global y por ello en el cambio climático a partir de varios conjuntos de datos obtenidos de distintas fuentes de información.
  • Acceso AbiertoTrabajo Fin de Grado
    El salario mínimo y los efectos sobre los precios
    (2023-06) Muñoz Márquez, Sofía; González Limón, Myriam Luisa; Universidad de Sevilla. Departamento de Análisis Económico y Economía Política
    Este estudio presenta un análisis bibliométrico que examina la relación entre el salario mínimo y su impacto en los precios en la literatura científica del siglo XXI utilizando métodos relacionales. Se analizaron 292 documentos de la base de datos Web of Science Core Collection, que incluyen artículos y artículos de revisión. Para llevar a cabo el análisis, se emplearon herramientas como VOSviewer, R y Biblioshiny, que permitieron examinar las tendencias de publicación, los documentos más citados, los principales autores contribuyentes, los países e instituciones más productivos, y las revistas más influyentes en el campo de investigación. Se realizó un análisis de coautoría, co-citación y coocurrencia de palabras clave para identificar las relaciones más destacadas entre autores, documentos, referencias citadas, fuentes y países en el campo de investigación. Este estudio contribuye a ampliar el conocimiento sobre el tema del salario mínimo y su impacto en los precios, brindando un sólido respaldo a la investigación en esta área y facilitando una mejor comprensión de su evolución a lo largo del tiempo.
  • Acceso AbiertoTrabajo Fin de Grado
    Deep Learning
    (2023-06) García Barragán, Claudia; Cubiles de la Vega, María Dolores; Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
  • Acceso AbiertoTrabajo Fin de Grado
    Aproximación de las soluciones de ecuaciones
    (2023-10-01) Martín Periáñez, Lucía; Anguiano Moreno, María; Universidad de Sevilla. Departamento de Análisis Matemático; Universidad de Sevilla. FQM104: Analisis Matematico
    El an´alisis matem´atico, tambi´en conocido como c´alculo, es una rama fundamental de las matem´aticas que se centra en el estudio de algoritmos para poder resolver problemas matem´aticos como es encontrar soluciones a las ecuaciones de la forma F(x) = 0. En una gran variedad de situaciones nos encontramos con la dificultad de hallar las ra´ıces de una ecuaci´on. Los m´etodos iterativos nos ayudaran a resolver este problema. Los m´etodos matem´aticos son t´ecnicas que permiten resolver de forma aproximada problemas matem´aticos estimando el error cometido. Algunos de los m´etodos m´as utilizados son el m´etodo de la Bisecci´on, el m´etodo del Punto Fijo, el m´etodo de Newton, etc. En este sentido, en este trabajo haremos un estudio detallado de estos m´etodos num´ericos y sus variantes.
  • Acceso AbiertoTrabajo Fin de Grado
    Indicadores estadísticos asociados a la encuesta de condiciones de vida
    (2022-06-09) Toscano Durán, Víctor; Beato Moreno, Antonio; Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
    La encuesta de condiciones de vida proporciona información sobre la calidad de vida en nuestro país y permite abordar el análisis de la pobreza y de la desigualdad de una manera homologable y anual. Actualmente, es un tema de relevancia debido a la reciente crisis económica que ha vivido el país en 2008 y que se ve perjudicada hoy en día por otros sucesos de gran escala como puede ser la pandemia Covid-19. Estas características sobre nuestra sociedad son medibles gracias a los indicadores proporcionados por dicha encuesta. El objetivo es conocer la situación del País en la última década mediante la información que nos proporciona esta encuesta y se realiza el análisis de la desigualdad y de la pobreza por comunidades autónomas, así como un análisis de su evolución en el intervalo de tiempo del 2009 al 2020
  • Acceso AbiertoTrabajo Fin de Grado
    Selección de subconjuntos de variables en modelos estadísticos
    (2022-06-08) Jareño Martínez, Carmen María; Muños Picardo, Juan Manuel; Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
    Este trabajo aborda el problema de la selección de variables en los modelos estadísticos, para lo cual se centra en el funcionamiento de la librería BeSS (Wen et al. [2021]). Se destaca la formulación primal-dual del problema de selección del mejor subconjunto de variables, así como los distintos algoritmos de conjunto activo que desarrolla el paquete. En la práctica, se desconoce el tamaño del subconjunto de variables que deben ser seleccionadas (k) por lo que se verá la determinación de la k óptima. En base a esto, se han diseñado distintas ilustraciones a partir de varias generaciones de datos, realizadas con funciones que contiene este paquete, para estudiar el funcionamiento de la librería según los distintos tipos de modelos estadísticos (regresión lineal, regresión logística y riesgos proporcionales de Cox). Además se aplican las mismas técnicas a conjuntos de datos reales. Para finalizar, se comparan los resultados obtenidos con los modelos seleccionados usando distintos paquetes como leaps (Lumley [2020]), bestglm (McLeod et al. [2020]) y glmnet (Friedman et al. [2021]).
  • Acceso AbiertoTrabajo Fin de Grado
    Introducción al Deep Learning. Aplicación en R
    (2022-06-07) Cano Ávalos, Javier; Cubiles de la Vega, María Dolores; Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
    Estamos empezando a ver como algo normal utilizar el asistente de nuestro teléfono móvil, usar el traductor, buscar en google simplemente echando una foto, coches que frenan al encontrar un obstáculo delante, etc. Todas estas actividades no eran posibles hace relativamente pocos años, y es que la Inteligencia Artificial, la encargada de estas tareas, nació en el siglo pasado. Este trabajo consiste en introducir unas de las ramas de aprendizaje dentro de esta ciencia, que pese a nacer en los años 50 del siglo pasado, ya está más que presente en nuestro día a día. Se trata del Deep Learning, o Aprendizaje Profundo. El Deep Learning, englobado dentro del Maching Learning, es una rama de la Inteligencia Artificial. Es un método de aprendizaje automático, formado por diferentes capas de aprendizaje. Su estructura se basa en las Redes Neuronales, que son métodos de aprendizaje por capas. Cada modelo de Redes Neuronales tiene una composición diferente y puede usarse para realizar unas tareas en especial. El trabajo se inicia con una introducción al Deep Learning, y da una visión de su historia y sus precedentes. Seguidamente se introduce cómo funciona, que es a través de las Redes Neuronales. En este aspecto, se centra en las Redes Neuronales Convolucionales. Por último, se lleva a cabo dos aplicaciones en el lenguaje R donde se intentará clasificar unas imágenes; primero en blanco y negro, y luego a color, utilizando la librería Keras.
  • Acceso AbiertoTrabajo Fin de Grado
    Modelización estadística de ventas en el sector retail
    (2022-06-18) Venegas Pardo, Marta; Pino Mejías, José Luis; Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
    En el presente trabajo fin de grado, titulado Modelización de ventas en el sector retail se hace una revisión de diferentes modelos estadísticos y algoritmos de aprendizaje automático con el principal objetivo de aplicarlos a un conjunto de datos real para predecir el volumen de ventas de una pareja de productos. Para llegar a la fase del modelado, es necesario de realizar un proceso de ciencia de datos completo, que comprende desde el pre-procesado y depuración de los datos, hasta un análisis exploratorio para entender como varían las ventas en función del tiempo. También se ha incluído una revisión teórica con la correspondiente aplicación práctica de la técnica del análisis de cesta de la compra, aplicado como sistema de recomendación por numerosas empresas a través de internet. En definitiva, lo que se busca es comprender y modelar el comportamiento de compra del consumidor, para poder así tomar decisiones de negocio que puedan contribuir, por ejemplo, al aumento de la facturación anual y del margen de beneficios.
  • Acceso AbiertoTrabajo Fin de Grado
    RPA Cognitiva: estudio y aplicación
    (2022-06-01) Velasco Dorado, Jerohan; Valencia Cabrera, Luis; Universidad de Sevilla. Departamento de Ciencias de la Computación e Inteligencia Artificial
    En los últimos 5 años muchas empresas han decidido dar el salto a la digitalización de la mano de RPA o Automatización Robótica de Procesos. Esto ha permitido que grandes empresas mejoren el servicio a sus clientes, reduzcan costes o puedan ampliar el volumen de trabajo. La razón de la adopción de esta tecnología en lugar de otra es la increíble versatilidad y capacidad de adaptación que tiene, puesto que permite que un software desarrolle el trabajo que un humano haría en un entorno digital as is, o sea, tal y como lo desempeñaría el humano. La ventaja de este hecho es que permite su implementación sin tener que modificar el entorno de trabajo, ahorrando el coste que tendría la adquisición de nuevas infraestructuras, software, cursos de formación para empleados, etc. Por otro lado, también se ha vivido en estos últimos años un auge en el desarrollo de soluciones basadas en inteligencia artificial. Las grandes empresas tecnológicas han invertido muchos recursos en avanzar en determinadas tecnologías empleando técnicas basadas en Machine Learning o Deep Learning. Y no solo se trata del desarrollo real que ha tenido la inteligencia artificial, sino de la popularidad que ha alcanzado a nivel social. Ahora todas las empresas quieren “sumarse al carro” de la IA como símbolo de calidad y vanguardia en sus productos. Bajo estas premisas se pretende estudiar la sinergia que se produce cuando combinamos RPA con inteligencia artificial en la aplicación de un caso ficticio pero lo más realista posible. Para ello, se desarrollará un caso práctico de automatización de un proceso al que se le aplicará RPA y RPA + IA para comparar sus resultados y analizar de forma aplicada la ventaja que estas soluciones pueden proporcionar.
  • Acceso AbiertoTrabajo Fin de Grado
    Clasificación y uso de las librerías R que ofrecen datos demográficos
    (2022-06-15) Romero Roldán, Laura; Luque Calvo, Pedro Luis; Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
    La demografía se conoce como la ciencia que tiene como objetivo principal el estudio estadístico de la población humana, ocupándose así de su dimensión, estructura, evolución y características generales. En el análisis de datos de tipo demográfico es imprescindible disponer de datos fiables, por lo que la mayoría de los países, cuentan con un sistema de estadísticas demográficas y realizan, además, un censo de población cada cierto tiempo. Los institutos estadísticos de gran parte de los países tienen la obligación de publicar la información que recogen; este proceso se hace a través de diferentes medios, aunque cada vez son más habituales los medios electrónicos por su facilidad de acceso. El método más conocido, pero no el más adecuado, para la descarga de información, es a través de su página web, por lo que en el trabajo se ve cómo desde el lenguaje R se puede automatizar la descarga de información para su posterior tratamiento. Con el fin de abordar el tema “Clasificación y uso de las librerías R que ofrecen datos demográficos”, se dispone de una extensa variedad de paquetes R, todos ellos de acceso gratuito, que facilitan la descarga de información demográfica a través del acceso a APIs ya existentes, entre las que destacan: Eurostat, Tidycensus, Cancensus, entre otras. Para cada uno de los paquetes mencionados, se muestran las funciones principales para la obtención de datos a través de las APIs asociadas. Con estos datos se realizan, a través de ejemplos, algunos análisis de interés demográfico con herramientas del lenguaje de R. El propósito de este trabajo es fundamentalmente la recopilación de dichos paquetes. Y además, con objeto de ilustrar la utilidad de una API web, se usa la librería “plumber” que facilita la creación de API web, para la cual se han creado funciones con lenguaje R con algunas características particulares. También se muestra cómo es posible capturar desde R información de cualquier API. En definitiva, se persigue mostrar la potencialidad de las APIs para extraer información de forma rápida, precisa y actualizada.
  • Acceso AbiertoTrabajo Fin de Máster
    Programación no lineal
    (2022-06-15) Gutiérrez Sánchez, Paula; Rufián Lizana, Antonio; Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
    El presente trabajo de Fin de Grado tiene como objetivo abordar el tema sobre “Programación no lineal”, en el cuál, se muestra un análisis detallado sobre programación no lineal, conjuntos convexos, funciones y aplicaciones de determinados algoritmos. El propósito de este proyecto es que cualquier persona con algunos conceptos de programación lineal pueda entender las técnicas desarrolladas de programación no lineal, enfocándose más en la aplicación de determinadas técnicas. Se definirá el modelo matemático de programación no lineal discutiendo las diferentes características de este tipo de problema e incluyendo comparaciones de modelos lineales. Adentrándonos en la programación no lineal se analizará los conjuntos convexos y la funciones convexas junto con determinados teoremas y ejemplos de gran importancia. Dedicaremos una sección a resolver problema de programación no lineal utilizando métodos univariables y multivaribles, además, presentaremos distintas conclusiones y reflexiones de los resultados obtenidos con ayuda del programa informático R y la aplicación Excel. Por último, veremos los fundamentos de optimización restringida desarrollando los teoremas de condiciones necesarias y suficientes de Karush-Kuhn y Tucker incorporando ejemplos prácticos.
  • Acceso AbiertoTrabajo Fin de Grado
    Técnicas estadísticas en predicción de la demanda en el sector comercio
    (2021-06-15) Mesta Carmona, Andrea; Pino Mejías, José Luis; Universidad de Sevilla. Departamento de Estadística e Investigación operativa
    En la actualidad, es imprescindible para cualquier organización contar con un sistema efectivo de análisis de datos, ya que el conocer y anticiparse a la demanda de productos le supone incrementar la probabilidad de alcanzar sus objetivos. El presente trabajo se centra en el estudio y aplicación de técnicas estadísticas para datos de conteo y de Machine Learning, con el fin de conseguir una predicción de la demanda de productos. Para ello, se pretende dar una visión global de algunas de las distintas técnicas y algoritmos existentes para el modelado de datos de recuento. Además, al tratar este tipo de datos, se presenta el problema del exceso de ceros, estudiándose modelos que, siguiendo distintas estrategias, abordan dicho problema.
  • Acceso AbiertoTrabajo Fin de Grado
    Influencia de las delimitaciones de las circunscripciones en los resultados electorales (Un estudio de los métodos de reparto de escaños)
    (2021-06-01) González Rizo, Ángel; Universidad de Sevilla. Departamento de
    En este trabajo de fin de grado se han tratado de analizar los distintos métodos de reparto de escaños, enfocándolo desde una perspectiva en donde cada método se analiza variando experimentalmente los escaños a repartir, el número de partidos que se presentan a la elección o la concentración del voto. En un segundo bloque se analiza el grado de desproporción y los distintos escaños obtenidos que resultan de haber realizado las elecciones en España según los distintos métodos de reparto de escaños. En el último bloque se analiza la influencia de la delimitación por provincias en las elecciones respecto a que las elecciones se realicen por circunscripción única.
  • Acceso AbiertoTrabajo Fin de Grado
    Investigación Epidemiológica: Estudios de caso-control y estudios de cohortes
    (2021-09-15) González Alba, María; Universidad de Sevilla. Departamento de
    El objetivo principal de este trabajo es ilustrar cómo tratar los estudios de cohortes y de caso-control en el software estadístico R. En el primer capítulo se hace una introducción a la epidemiología, a la clasificación de los tipos de estudios y a las principales medidas que se aplican en ellos. En el segundo capítulo se profundiza teóricamente en los estudios de cohortes, en las etapas que lo componen y, por último, se reproduce el código de R y se extraen las conclusiones de un estudio de cohortes retrospectivo sobre los factores de riesgo asociados a la gravedad y mortalidad de la enfermedad de COVID-19 en Kazajistán. En el tercer capítulo, se profundiza en los estudios de caso-control y se tratan temas como la selección de los miembros del estudio, además de conocer cómo se lleva a cabo la aplicación de técnicas estadísticas para el tratamiento de estudios de este tipo reproduciendo el código R y extrayendo conclusiones de un estudio de caso-control sobre la búsqueda de factores de riesgo asociados a la infección por Escherichia Coli en un pueblo de Tasmania. En el último capítulo se comparan ambos tipos de estudios y además se dan a conocer algunos estudios híbridos. En el apéndice se incluye código e interpretaciones para estudios complementarios al estudio de cohortes retrospectivo hecho en R en el Capítulo 2.
  • Acceso AbiertoTrabajo Fin de Grado
    Desarrollo de una herramienta para la detección de plagio en código R
    (2021-06-01) Gandulo Lara, Manuel Isaac; Pérez Hurtado de Mendoza, Ignacio; Universidad de Sevilla. Departamento de Ciencias de la computación e Inteligencia artificial
    Este trabajo se basa en el desarrollo de una herramienta de detección de plagio en código R y RMarkdownn. Con el fin de ofrecer al personal docente un software de código abierto y On Premise capaz de detectar plagio en entregas con esta extensión. Con la finalidad de ofrecer un software de código abierto capaz de detectar plagio entre documentos con esta codificación, brindando la posibilidad al personal docente de detectar plagio en entregas con extensión .R y .Rmd. El contenido de este trabajo se ha dividido en 7 capítulos de la siguiente forma: En el capítulo 1 se realiza una introducción sobre el plagio, el plagio en código fuente y como se combate el plagio dentro de las universidades. A lo largo del capítulo 2 se describen los aspectos generales del estado del arte, se analizan diferentes programas de detección de plagio en código fuente, destacando sus principales cualidades y analizando sus carencias. Finalmente, se realiza un análisis de dicho estado del arte, sirviendo como argumentación fundamental para el desarrollo de la herramienta de software que se presenta en este TFG. El capítulo 3 se centra en el paquete SimilaR, ya presentado en el capítulo anterior. Este paquete es quizás el más utilizado actualmente para la detección de plagio en código R. En este capítulo se estudian minuciosamente sus prestaciones y limitaciones, con la finalidad de proponer mejoras. El capítulo 4 está dedicado a explicar los detalles de la nueva implementación. Se consigue que la nueva herramienta, que bautizamos como SimilaR2, sea capaz de detectar plagio en secciones de comentarios gracias a la implementación de algoritmos fingerprints, así como ampliar las zonas de código R en dónde se puede detectar plagio (SimilaR tan solo puede detectar plagio en el cuerpo de funciones, pero no en el código escrito fuera de ellas). Adicionalmente, se explica la salida de SimilaR2, la cual aporta información detallada del análisis de detección de plagio, análisis de clústering y nubes de palabras, entre otras posibilidades. Durante el capítulo 5, se detalla el proceso de construcción del paquete R SimilaR2, así como de una aplicación web interactiva desarrollada con Shiny, esta última es capaz de ejecutar SimilaR2 y mostrar los resultados en un interfaz web. En el capítulo 6 se realiza un análisis estadístico de los resultados obtenidos por la herramienta SimilaR2. Para ello, se construye un dataset de archivos R categorizados en originales / plagios para así obtener una variable respuesta, sobre el dataset se aplica la herramienta SimilaR2 y se realiza una serie de transformaciones para obtener las variables predictoras. El marco de datos (variable respuesta y predictora) es modelizado mediante Naive Bayes aplicando validación cruzada. Asimismo, se obtienen varios conjuntos de resultados, ejecutando SimilaR2 sobre el dataset con diferentes parámetros. Finalmente, se efectúa un análisis de clústering para determinar los grupos de plagio / no plagio en el dataset. Por último, en el capítulo 7 se enumeran las conclusiones sobre el trabajo realizado y se plantean algunas líneas de trabajo futuro.
  • Acceso AbiertoTrabajo Fin de Grado
    Problemas de redes y flujos
    (2021-06-18) Flores Ramos, Silvia; Rufián Lizana, Antonio; Universidad de Sevilla. Departamento de Estadística e Investigación operativa
    Las redes de flujos son un modelo que permite representar sistemas tales como mapas de carretera, redes de tuberías, conexiones de red, etc., desde un punto de vista abstracto. En este modelo también quedan representados los elementos que transitan en sus correspondientes sistemas: coches, líquidos, datos. . . Gracias a su estudio, se resuelven problemas tan comunes como calcular cuántos litros de agua deben recorrer una determinada tubería en función de las necesidades de una población, o determinar el número máximo de vehículos que pueden circular por una carretera. Esta investigación se centra, por tanto, en resolver estos problemas de forma eficiente. Para ello, el trabajo ha sido dividido en tres capítulos. En el Capítulo 1, se realiza una introducción a la Teoría de Grafos, explicando su origen y planteando uno de los problemas más importantes en esta rama: El problema del camino más corto. Nos centramos en algoritmos como Dijkstra o A* para resolverlo. En el Capítulo 2, se tratan Árboles, una importante parte de la Teoría de Grafos, que además es de gran utilidad para desarrollar futuros algoritmos. Estudiaremos algunas de sus propiedades, plantearemos el conocido problema del árbol de expansión de mínimo costo y resolveremos una ejemplificación del mismo. Por último, en el Capítulo 3, se realiza un estudio de los flujos y redes, basándonos en los conceptos explicados en los dos capítulos anteriores. Indagamos en el problema más importante de una red de flujo: Problema de flujo máximo. Comezamos con su planteamiento, y aplicamos tres de los algoritmos más reconocidos para resolver este tipo de problema: Ford-Fulkerson, Edmonds-Karp y Dinic.
  • Acceso AbiertoTrabajo Fin de Grado
    Estadísticas de hogares y edificios en Andalucía
    (2021-06-01) Chacón Gil, Marta; Luque Calvo, Pedro Luis; Universidad de Sevilla. Departamento de Estadística e Investigación operativa
    Con el presente trabajo de Fin de Grado se pretende abordar el tema “Estadísticas de hogares y edificios en Andalucía”, en el cuál, se tratarán sus diferentes conceptos y tipologías, indicadores más habituales, proyecciones de hogares, las fuentes demográficas que se utilizan para obtener los resultados, y por último, se realizará con la ayuda del software R, un informe sobre los hogares andaluces a partir de los datos que nos proporciona el Instituto de Nacional de Estadística (INE) con la Encuesta Continua de Hogares de 2020 y su proyección de hogares. Para cumplir dichos objetivos, este trabajo se estructura en tres capítulos. En el primer capítulo, se abordará el tema de una forma teórica con el fin de conocer qué son las estadísticas de hogares y edificios, qué información se obtienen gracias a ellas, indicadores, qué son las proyecciones de hogares y como las realiza el INE y por último, el planteamiento de algunos resultados de: La Encuesta Continua de hogares de 2020, Proyecciones de Hogares para los años 2020-2035 y la última proyección de hogares realizada por el Instituto de Estadística y Cartografía de Andalucia (2018-2040). En el segundo capítulo, se hace un recorrido por los diferentes organísmos que nos proporcionan información estadística, como son el INE, IECA y Eurostat, para así ubicar las estadísticas relacionadas con los hogares y edificios, y la información que nos proporcionan cada uno de ellos. En el tercer capítulo, con ayuda del software R se presentará un informe de nuestra comunidad autónoma Andalucía, para el año 2020 a partir de los datos obtenidos del INE, con el propósito de que se conozca la composición de los hogares y las viviendas, tanto para Andalucía como para sus provincias. Además se proporcionará información sobre la proyección del tamaño medio de los hogares y la proyección de los hogares por tamaño de Andalucía para los años 2020-2035.