Doble Grado en Matemáticas y Estadística
URI permanente para esta colecciónhttps://hdl.handle.net/11441/77614
Examinar
Examinando Doble Grado en Matemáticas y Estadística por Fecha de publicación
Mostrando 1 - 20 de 53
- Resultados por página
- Opciones de ordenación
Trabajo Fin de Grado Leyes de reciprocidad (cuatro demostraciones de la Ley de Reciprocidad Cuadrática)(2018) Sevillano Castellano, Eric; Tornero Sánchez, José María; Universidad de Sevilla. Departamento de álgebraA lo largo del siguiente trabajo vamos a profundizar en los contenidos impartidos en la asignatura Estructuras Algebraicas para explicar la Ley de Reciprocidad Cuadrática así como sus aplicaciones para la Teoría Algebraica de Números. Además existen otras Leyes de Reciprocidad como la Leyes de Reciprocidad Cúica, Bicuadrática, de Einsentein,... entre otras, las cuales no estudiaremos en nuestro trabajo por falta de espacio. Durante el primer capítulo se explicarán conceptos acerca de la estructura de grupo de U(Z/Zn) así como el concepto de residuos de la n-ésima potencia para averiguar para qué primos p se puede resolver la congruencia x n ≡ a (p) dado un a fijo. En el resto de nuestro trabajo se dividirá en cuatro capítulos. En cada uno de ellos se dará una demostración la Ley de Reciprocidad Cuadrática (de las muchas que existen) usando en cada uno herramientas distintas: El segundo capítulo, además de enunciarla, hará uso de los residuos cuadráticos definiendo el concepto del símbolo de Legendre y posteriormente su generalización, el símbolo de Jacobi. En el tercer capítulo haremos uso del concepto de las sumas cuadráticas de Gauss, definiendo para ello los números algebraicos y los enteros algebraicos y estudiando las propiedades que cumplen, necesarias para llevar a cabo la demostración. El cuarto capítulo pasa a un enfoque completamente diferente usando para ello los cuerpos finitos así como sus propiedades y la existencia de un cuerpo con p n elementos para todo p primo y para todo n natural. En el quinto y último capítulo de este trabajo volvemos a lo usado en el tercer capítulo y extendemos las sumas de Gauss a las conocidas como sumas de Jacobi para las cuales es necesario definir el concepto de carácter multiplicativo. Estas sumas, además de ser más potentes y complejas, tienen la ventaja de que se pueden usar para demostrar reciprocidades de orden superior. El origen de este trabajo viene del proyecto como alumno interno del Departamento de Álgebra de la Universidad de Sevilla realizado en el curso académico anterior cuyo tema principal fue el Algoritmo de Shanks, el cual, aunque es probabilístico, es muy eficiente. Consiste en, dados un primo impar p y entero a, encontrar un ńumero x (si existe) tal que x 2 ≡ a (p). Para ello, primero calculamos el número impar q que cumple que p − 1 = 2e · q y, por otro lado, elegimos aleatoriamente un número n tal que n p = −1 (lo cual tiene una probabilidad cercana a 1 2 , por lo que se obtendrá algún n satisfactorio tras pocos intentos). Con esos datos, se inicia un proceso iterativo, el cual es finito, pudiendo acabar o bien dando un valor para x o bien diciendo que a no es un residuo cuadrático módulo p. En este trabajo se usaron las referencias bibliográficas [1], [2], [5] y [7]. Este proyecto, sin embargo, se basa en gran medida en la referencia [4] aunque se apoya también en las referencias [3] y [6]. Por otro lado, esta memoria forma parte de uno más grande que tratará sobre las Leyes de Reciprocidad de órdenes superiores y que se realizó como proyecto de becario de colaboración y alumno interno para el Departamento de Álgebra de la Universidad de Sevilla para el curso académico actual. Ambos formarán un trabajo completo y extenso sobre las Leyes de Reciprocidad. Dicho proyecto complementario se dividirá en dos capítulos explicando en cada uno las Leyes de Reciprocidad Cúbica y Bicuadrática, respectivamente: En el primer capítulo definiremos al anillo Z[ω] haciendo uso de las raíces cúbicas de la unidad y del símbolo residual cúbico (análogo a los símbolo de Legendre y Jacobi visto en capítulos anteriores). Realizaremos dos demostraciones: una análoga a la del tercer capítulo y la otra a la del quinto capítulo, haciendo uso de las sumas de Gauss y de Jacobi cúbicas para demostrar la Ley de Reciprocidad Cúbica. El segundo capítulo se centrará en la Ley de Reciprocidad Bicuadrática debiendo definir, análogamente al apartado anterior, el anillo Z[i], también conocidos como enteros gaussianos además del correspondiente símbolo residual cuártico para poder llegar a la demostración satisfactoriamente.Trabajo Fin de Grado Técnicas de minería de datos aplicadas en baloncesto(2018-06) Velázquez Carricondo, Juan Antonio; Fernández Ponce, José María; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaEn este trabajo, se pretende dar una visión general de las distintas aplicaciones del Machine Learning al deporte y en particular al baloncesto. Se presentan tres bloques muy distintos entre sí para concienciar sobre todas las posibilidades que ofrece la estadística y el análisis de datos al ámbito deportivo. En el primero se introduce el concepto de Redes Neuronales, el Perceptrón Simple, el Perceptrón Multicapa y se explica brevemente el funcionamiento del Deep Learning, aplicándose a un modelo que predice la posición en la que juegan los distintos jugadores en función de distintas variables. El segundo bloque se centra en el estudio espacial de los hábitos de tiro de los distintos jugadores y de la e ciencia que tienen los mismos en las distintas zonas de la pista, en ambos casos se aplicará conceptos de Inferencia Bayesiana. Por último, se compararán distintas métricas ofensivas y se introducirán nuevas métricas del rendimiento ofensivo bajo un enfoque bayesiano, para así por último comparar dichas métricas y observar de qué manera re ejan el comportamiento del jugador en la pista.Trabajo Fin de Grado Análisis estadístico de redes sociales(2018-06) Campos de los Reyes, Juan Pedro; Pino Mejías, José Luis; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaHoy en día las redes sociales poseen un gran impacto en la sociedad, llegando a un punto en el que un gran porcentaje de la población utiliza al menos una red social, a través de la cual interactúa de alguna manera con las demás personas, no solo las personas sino que muchas empresas toman partido en ello creando perfiles con los que relacionarse y promocionar sus productos o tratar con clientes. Es por ello que ha surgido un interes en intentar analizar las redes sociales apareciendo aplicaciones estadísticas que se encargan de ello facilitando una gran cantidad de información respecto a todo lo que ocurre dentro de estas. En este trabajo vamos a tratar algunas técnicas estadísticas con las que podemos analizar varios temas de la red social “Twitter”. En el primer capítulo realizaremos un breve resumen sobre la historia de las redes sociales y su evolución en el tiempo así como una descripción de la red social Twitter y el software que vamos a usar para el análisis. En el segundo capítulo explicaremos como podemos obtener datos de la red social directamente usando el software R y la modelización de estos datos obtenidos asi como un ejemplo gráfico de su interpretación. El tercer capítulo consta del tratamiento de datos, aquí veremos como podemos tratar los datos obtenidos en el capitulo anterior con el fin de realizar un posterior análisis. Además realizaremos un gráfico de frecuencias sobre unos datos ya tratados. El cuarto capítulo, que es el mas denso, trata sobre las diferentes aplicaciones que podemos hacer con los datos tratados anteriormente, podemos ver desde gráficos de nubes de palabras y agrupamientos en clústeres hasta gráficos de geolocalización y estudios sobre hashtags. En el quinto capítulo realizamos una de las aplicaciones más usadas en el campo del análisis de redes sociales como es el análisis de sentimientos de los tweets. Aquí podremos ver una clasificación tanto en sentimientos como en polaridad de los datos que obtendremos sobre una conocida empresa de ropa. Por último veremos una introducción al mundo de las redes multicapas donde desarrollaremos una base teórica sobre ello para terminar viendo algunos ejemplos de lo que podemos hacer usando el software R.Trabajo Fin de Grado Diseño de experimentos con software estadístico(2018-06) Salas Aranda, Víctor; García de las Heras, Joaquín Antonio; Pino Mejías, José Luis; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaHoy en día, y sobre todo debido al auge de las tecnologías, el hecho de que la estadística se encuentre detrás de casi cualquier proceso es indudable. Detrás de cada invento revolucionario hay un proceso previo de experimentación, que es tan antigua como el ser humano. Es por ello que a través de este proyecto trataremos de dar nociones básicas del maravilloso y amplio mundo de los diseños de experimentos, que incluye desde el diseño del estudio de la mejora en la producción de patatas realizado por Fisher en 1935, hasta el diseño del estudio del aumento en la potencia de un acelerador de partículas. Gracias a los diseños de experimentos podremos no solo conocer qué factores influyen más o menos en la respuesta de un determinado invento, sino que podremos disminuir la variabilidad que se produce en dicha respuesta debida al azar, y poder así optimizar tiempo y recursos para ensayos posteriores. Durante esta memoria nos encargaremos de indagar más a fondo, en los principales diseños de experimentos. A modo de ejemplo realizaremos un estudio sociodemográfico, a través del sotware informático R, con datos reales de cómo influyen ciertos factores en el rendimiento escolar de los alumnos del territorio andaluz. Así pues, desarrollaremos diferentes enfoques del estudio para poder conocer las diferencias entre cada uno de los diseños empleados y obtener, además, un posible guion para que el lector pueda realizar, si así lo desea, su propio diseño de experimentos. No obstante, el objetivo de este proyecto no es realizar las demostraciones necesarias para el análisis de cada uno de los modelos estudiados, por lo que no se verán explicados cada uno de los desarrollos teóricos. Como base a este trabajo, nos basaremos principalmente en asignaturas estudiadas previamente en el grado, en el Tutorial Agricolae [10], así como en el libro: Statistical Analysis of Designed Experiments: Theory and Applications [15].Trabajo Fin de Grado Modelos PLS-PM(2018-06) González Huelva, Irene; Pino Mejías, Rafael; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaLa modelización PLS-PM (Partial Least Squares Path Modeling), incluida dentro de los Modelos de Ecuaciones Estructurales, se basa en la idea de la reducción de la dimensionalidad de los datos con el objetivo de estimar una red de causalidad, definida de acuerdo a un modelo teórico donde se consideran conceptos o variables latentes (no observables) que se pueden medir por medio de indicadores observables que llamaremos variables manifiestas. La red de causalidad queda definida por el modelo estructural (que tiene en cuenta las relaciones entre las variables latentes) y el modelo de medida (que recoge las relaciones entre cada variable latente y sus variables manifiestas). Dicha red se estima por medio de un procedimiento iterativo y gracias a diversos indicadores y contrastes de hipótesis es posible evaluar la calidad de dicha estimación. Todas estas nociones son presentadas en los tres primeros capítulos de este escrito en los que además se tratan temas muy frecuentes en la práctica como son: la comparación de diferentes modelos (en caso de que exista más de uno) y el cómo lidiar con la heterogeneidad de los datos que se usan para crear el modelo. En el capítulo final de este proyecto, con el fin de ilustrar los contenidos previos, se presentan diversas aplicaciones de la modelización PLS-PM con R.Trabajo Fin de Grado Técnicas boosting(2018-12) Pérez García, Manuel; Pino Mejías, Rafael; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaEn este documento se tratará en un principio, de manera general, las principales características de los métodos basados en la combinación de modelos (Bagging, Random Forest y Boosting). Básicamente, los tres métodos se sustentan en la combinación de árboles de decisión. Los árboles de decisión son una manera muy simple y práctica de realizar predicciones, aunque cierto es que los resultados son muy mejorables. Es por ello por lo que surgen este tipo de métodos (combinación de modelos), para intentar mejorar los resultados de las predicciones. Los árboles de decisión, en función de la variable a predecir (variable objetivo), se pueden dividir en árboles de regresión y árboles de clasificación. En este documento se expondrán los procesos de creación de cada uno de ellos, como también se detallará la forma de predecir las distintas observaciones de las que dispongamos. Tras explicar los modelos (árboles) con los que suelen trabajar los métodos de combinación de modelos, se expondrán, de manera muy generalizada, los modelos de Bagging y Random Forest. Veremos sus principales similitudes y diferencias tanto entre ellos como con el Boosting, el cual es el principal componente de este documento. En cuanto al Boosting, se explicarán de manera muy detallada todas sus características, su procedencia y sus distintos tipos de técnicas y algoritmos, los cuales se expondrán uno a uno haciendo hincapié en sus diferencias y similitudes. Por último, se hará uso del software R para realizar dos ejemplos prácticos. Uno de ellos estará basado en la clasificación de incidencias de una de las mayores empresas de telecomunicaciones de España. Además, en él se llevará a cabo un atractivo proceso de preprocesamiento y limpieza de los datos. El otro ejemplo estará basado en el conjunto de datos “Carseats” contenido en la librería ISLR de R, el cual se basará en la clasificación de una variable binaria.Trabajo Fin de Grado Regresión sobre componentes principales(2019-06) Deduy Guerra, Irene; Muñoz Pichardo, Juan ManuelLa presencia de multicolinealidad en los Modelos de Regresión Múltiple conduce a problemas en las estimaciones y resultados poco fiables. La aplicación de la Regresión sobre Componentes Principales puede evitar estos problemas, a la vez que lleva implícito un procedimiento de selección de variables, reduciendo la dimensión del espacio predictor. El objetivo de este trabajo es la descripción teórica y metodológica de la técnica estadística y su implementación en R, con una ilustración sobre datos reales. Además, con objeto de ilustrar la aplicabilidad del método, se incluye referencias sobre trabajos científicos recientes en los que se ha hecho uso de la misma.Trabajo Fin de Grado Deep learning(2019-07) Centeno Franco, Alba; Blanquero Bravo, RafaelDesde hace unos años es incuestionable que la Inteligencia Artificial avanza a pasos agigantados. Es especialmente destacable el rápido desarrollo que ha experimentado la rama de la Inteligencia Artificial denominada Aprendizaje Profundo (Deep Learning), que hace uso de una metodología de aprendizaje similar a la que emplean los seres humanos, permitiendo la existencia de estructuras especializadas en la detección de determinadas características ocultas en los datos. El análisis de este campo será objeto de este Trabajo Fin de Grado, partiendo de sus fundamentos hasta abarcar sus arquitecturas más complejas. El trabajo se inicia con una introducción a las redes de neuronas artificiales, por ser la base sobre la que se asienta el concepto de Aprendizaje Profundo. Seguidamente se presentan los fundamentos de esta metodología, para pasar a continuación a analizar las principales arquitecturas de redes en este contexto. La parte final de este trabajo se centra en un caso particular de estas arquitecturas, como son las Redes Recurrentes y, más concretamente, LSTM, donde se presenta una aplicación en lenguaje Python sobre análisis de sentimientos, que permite asignar un Emoji a una frase.Trabajo Fin de Grado Redes recurrentes(2020-06-01) Pérez Guerrero, Jesús; Pino Mejías, Rafael; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaEn los últimos años, el ser humano se ha ido fascinando con la idea de un “futuro” robotizado, donde las máquinas fuesen capaces de pensar como un cerebro humano. Pues bien, ese futuro se ha convertido en presente, y ya, a día de hoy, hay numerosos estudios que se dedican a intentar imitar el comportamiento del cerebro con patrones matemáticos. Se ha replicado el comportamiento de nuestro sistema de neuronas en distintos modelos matemáticos, conocidos todos, en su conjunto, como Red de Neuronas Artificiales. Dentro de los muchos tipos de esquemas que se han desarrollado en este ámbito, con esterabajo se pondrá de manifiesto la evolución y el funcionamiento del modelo de Redes Neuronales Recurrentes (Neural Network Recurrent, RNN). que es muy utilizado en tareas como el “reconocimiento de voz”, siendo esto muy utilizado en multitud de dispositivos de uso común en la actualidad. Este trabajo consta de 4 capítulos. En el primero de ellos nos adentramos en los términos de Inteligencia Artificial (Artificial Intelligence, IA), Aprendizaje Automático (Machine Leargnin, ML) y Aprendizaje Profundo (Deep Learning, DL). Posteriormente se comenta el comportamiento del modelo de Red de Neuronas Artificial (RNA), imitando en su mayor medida, a la actividad neurológica de nuestro cerebro. En el siguiente capítulo se habla del tema principal de nuestro trabajo, el modelo de RNN, explicando así, su evolución y funcionamiento. Finalmente ejemplificaremos cómo usar un modelo de RNN en un caso de la vida cotidiana y se hará una breve mención de cómo pueden ayudarnos los modelos de redes neuronales a combatir contra el virus COVID-19.Trabajo Fin de Grado Aprendizaje semisupervisado(2020-06-01) Roldán Bocanegra, Ignacio; Blanquero Bravo, Rafael; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaLa presente memoria tiene como objetivo estudiar los conceptos fundamentales del aprendizaje semisupervisado, además de exponer algunas hipótesis necesarias para el correcto funcionamiento de algunos de sus métodos, que también explicaremos. Para ello, en el primer capítulo partiremos de las nociones básicas del aprendizaje automático, hasta llegar a las principales del aprendizaje semisupervisado, junto con las suposiciones anteriormente mencionadas. Más adelante, en el segundo capítulo expondremos algunas técnicas de validación que usaremos en los algoritmos propios de dicho aprendizaje, que explicaremos en el tercero, y con su implementación en R en el cuarto; para finalizar, en el quinto capítulo se presentará alguna aplicación con datos reales.Trabajo Fin de Grado Análisis topológico de datos(2020-06-01) Perera Lago, Javier; Universidad de Sevilla. Departamento de ÁlgebraTopological data analysis is a branch of computational topology which uses algebra to obtain topological features from a data set. It has many applications in computer vision, shape description, time series analysis, biomedicine, drug design... The first step to learn topological information from data is to build a filtration of nested simplicial complexes estimating the global structure of the data set at different scales of precision. The second step is to study the evolution of the simplicial homology along this filtration, using a tool from algebraic topology called persistent homology. When the filtration is indexed by a single parameter, we can describe discrete and complete invariants for persistent homology with coefficients over a field, such as barcodes, persistent diagrams or persistent landscapes. Unfortunately, we don’t have a simple classification for persistent homology when the filtration is indexed by two or more parameters. The problem of classifying multiparameter persistent homology is being widely studied nowadays, and we present some proposals for it. One of the big problems of large sets is the presence of noisy, wrong or incomplete data. Although persistent homology is stable under small perturbation, we still need to give a statistical frame in order to separate insignificant features from topological signal and build some hypothesis tests applied to topological features. Another usual problem of large sets is the high dimensionality. Even if we have captured the main topological caracteristics of the data, we aren’t usually able to fully understand its structure. In order to reduce dimensionality and obtain a better visualization we present the Mapper algorithm, which groups the data using a filter function and summarizes the set as a graph or a low dimensional simplicial complex.Trabajo Fin de Grado Introducción a la Mecánica analítica(2020-06-01) Gutiérrez Camacho, Adrián; Maynar Blanco, Pablo; Universidad de Sevilla. Departamento de Física Atómica, Molecular y NuclearFor long time physics problems were resolved using the classical newtonian Mechanics, i.e., using the theory and equations which Newton had developed. In this formulation, we get a system of differential equations from knowledge about forces behaviour in our system of particles. Given the initial position and speed of our system’s particles, the solution to the previous system gives the temporal evolution of the system of particles. The main goal in this paper is to study another formulations of mechanics that, of course, are equivalent to Newton’s one. Specifically, we will study the basic concepts of lagrangian Mechanics and the use of variational principles like the Hamilton’s Principle (from this point of view, the trajectory followed by the system is such that it minimizes a given functional).Trabajo Fin de Grado Teoría de Juegos(2020-06-01) Torrejón Valenzuela, Alberto; Rufián Lizana, Antonio; Pino Mejías, José Luis; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaEl siguiente trabajo tiene como objetivo el estudio de los diversos modelos de la Teoría de Juegos. Comienza con la definición (capítulo 1 ) de los términos más relevantes en el trascurso del texto seguido de la clasificación (capítulo 2 ) donde se muestran los criterios esenciales para la distinción de las diferentes clases de juegos. Tras los apartados introductorios, el texto entra en materia examinando los principales resultados sobre juegos no cooperativos: juegos estratégicos (capítulo 3 ), juegos dinámicos (capítulo 4 ) y juegos repetidos (capítulo 6 ), para terminar describiendo los juegos cooperativos (capítulo 7 ). Además se presenta un ejemplo, VNM-Póker (capítulo 5 ), que ayuda a la comprensión de los capítulos de juegos estratégicos y dinámicos.Trabajo Fin de Grado Problemas de localización de concentradores y diseño de redes(2020-06-01) Temprano García, Francisco; Puerto Albandoz, Justo; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaIn this project, we’re going to present the Hub Location Problems which are a class of optimization problems that focus on the location of hub facilities and on the design of hub networks. First, we’ll explain the principal features, assumptions and properties of these problems. Then, we’ll present and analyze the classi cation of some of the most important problems. In addition, we’ll show di erent results for some types of problems with a simple example. After that we’ll explain the types of methods of solving, their applications on real cases and their future trends. Finally, as a conclusion we will apply one of the models that we have presented on a underground network design for the city of Seville and comment the results obtained.Trabajo Fin de Grado Redes Convolucionales(2020-06-01) Bonilla Carrión, Carmelo; Pino Mejías, Rafael; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaEl Aprendizaje Profundo (Deep Learning) está teniendo un gran desarrollo en la actualidad gracias a la evolución de los ordenadores y al uso de GPUs. Debido a este desarrollo, las redes de neuronas están apareciendo con más fuerza que nunca desde que surgieron por primera vez en los años 50. Dentro de estas redes de neuronas se encuentran las redes convolucionales, que serán el tema central de este Trabajo de Fin de Grado, las cuales se encargan de resolver problemas de clasificación, localización e identificación de objetos dentro de imágenes. Este trabajo comienza con un estudio general de las redes de neuronas artificiales así como de sus distintas arquitecturas. Seguidamente se estudiará con un mayor detalle las redes de neuronas convolucionales. En este aspecto, el trabajo se centra en conocer las características de este tipo de redes, su funcionamiento, sus distintas arquitecturas y cómo realizan la operación de convolución, que es lo que realmente caracteriza a estas redes. En la parte final del trabajo, se llevarán a cabo aplicaciones en lenguaje R para la clasificación de imágenes a partir de las redes de neuronas convolucionales, utilizando la librería Keras.Trabajo Fin de Grado El Problema Dinámico de Rutas de Vehículos(2021-06-15) Martín Carretié, Carlos; Beato Moreno, Antonio; Universidad de Sevilla. Departamento de Estadística e Investigación operativaEn este trabajo se estudiará el Problema de Rutas de Vehículos asociado a un problema de optimización. Comenzaremos dando una definición general y presentando los primeros y más sencillos problemas planteados, así como algunas variantes que se les pueden aplicar. En el segundo capítulo se presenta el Problema Dinámico de Rutas de Vehículos, en el que algunos datos del problema sólo están disponibles una vez los vehículos han comenzado la ruta. Se definen parámetros, propuestos en la literatura, que miden el nivel de dinamismo de un problema y se hace una clasificación del Problema de Rutas de Vehículos en función de la evolución y calidad de la información disponible. Además, se exponen ejemplos de problemas dinámicos de rutas de vehículos presentes en la vida cotidiana. En el tercer capítulo se plantean distintos métodos de resolución del Problema Dinámico de Rutas de Vehículos ofrecidos en la literatura, distinguiendo entre los métodos exactos, en los que se obtiene la solución óptima con mayor coste computacional, y los heurísticos y metaheurísticos, con menor tiempo computacional pero que no necesariamente alcanzan la mejor solución. Finalmente, en el último capítulo se plantea el El Problema de Reequilibrio del Sistema de Bicicleta Pública, en el que se busca que las estaciones de bicicletas públicas de transporte urbano estén debidamente surtidas para ofrecer un buen servicio a los usuarios. Se desarrollará un algoritmo de programación lineal para resolver este problema. Nos centraremos en el Sistema de Bicicleta Pública de la ciudad de Madrid, BiciMAD, que analizaremos y al que aplicaremos el método propuesto.Trabajo Fin de Grado Conociendo el streaming de video bajo demanda: Matemáticas, Estadística e IA para el análisis macro y la construcción de modelos micro(2021-06-18) Lobato Ripoll, María; Valencia Cabrera, Luis; Universidad de Sevilla. Departamento de Ciencias de la computación e Inteligencia artificialEl éxito de las plataformas de streaming de vídeo queda patente en el hecho de que hoy día se haya convertido en uno de los principales medios de entretenimiento. Las compañías propietarias de estas plataformas han manifestado en varias ocasiones el uso de técnicas de machine learning, estadística e inteligencia artificial tanto para la construcción de sus algoritmos como para predecir su éxito a largo plazo. El principal objetivo de este estudio es realizar una descripción, desde el punto de vista analítico, del panorama actual de las plataformas de streaming. Para ello, se analizan exhaustivamente los datos accesibles de las mismas y, haciendo uso intensivo de técnicas estadísticas e informáticas que van desde la importación y tratamiento, hasta el análisis exploratorio y el análisis de la evolución de sus variables, se da a conocer su estado tanto a nivel nacional como global, indicando cómo cambian los rasgos de las plataformas dependiendo del país en el que nos encontremos. De manera análoga, se estudia la popularidad de estas plataformas, a través de las características del contenido que producen, realizando previamente un análisis descriptivo de las producciones, sirviéndonos tanto de técnicas de machine learning como de estadística, acompañando los distintos modelos de clasificación y regresión con el estudio cuidadoso de la bondad de los mismos.Trabajo Fin de Grado Text mining: Principios básicos, aplicaciones, técnicas y casos prácticos(2021-06-29) Carrillo García, Rosa María; Blanquero Bravo, Rafael; Universidad de Sevilla. Departamento de Estadística e Investigación operativaEs evidente que actualmente el Text Mining es considerado como un ámbito de gran importancia y progresión. En este trabajo, comenzando con la descripción de su composición y relación con otros campos, se analizan sus principios básicos, de preprocesamiento, representación y aplicación, así como las técnicas características para su implementación. De igual forma, con el objetivo de ilustrar algunos de los desarrollos teóricos expuestos, se plantea, como caso práctico, un problema de clasificación múltiple sobre temáticas de libros a través de su sinopsis. No obstante, para poder alcanzar dicho propósito, previamente, resultan esenciales las etapas de tratamiento y resumen de información. Finalmente, para su confirmación, tras la construcción y evaluación de los modelos correspondientes, también resultó de interés llevar a cabo una identificación de temáticas, comprobando de esta forma si realmente es posible captar los conceptos y relaciones existentes entre los géneros preestablecidos.Trabajo Fin de Grado Comparación de curvas de supervivencia con datos censurados(2021-07-01) Heras Jiménez, Elena de las; Muñoz Pichardo, Juan Manuel; Universidad de Sevilla. Departamento de Estadística e Investigación operativaEl análisis de supervivencia es una rama de la Estadística que tiene como objetivo analizar o modelizar el tiempo que tarda en ocurrir uno o más eventos de interés como la muerte de un paciente con cáncer o los fallos en los motores de unas máquinas de una industria textil. Para conseguir dicho objetivo, existe una extensa gama de herramientas entre las que se encuentra la comparación de curvas de supervivencia. El propósito de este trabajo es describir la teoría y la metodología de diversas técnicas de comparación de curvas de supervivencia con datos censurados. Además, con objeto de ilustrar la utilidad de estas técnicas se usarán librerías de R que contienen funciones que llevan a cabo dichas técnicas y se aplicarán sobre datos reales. Palabras clave: análisis de supervivencia, datos censurados por intervalos, datos censurados a la derecha, función de supervivencia, prueba de tendencia, test log-rank ponderado, test de permutación, procesos de conteo.Trabajo Fin de Grado Análisis del mercado de los juegos de mesa en perspectiva matemático-computacional(2021-07-02) Rodríguez Gallego, José Antonio; Valencia Cabrera, Luis; Universidad de Sevilla. Departamento de Ciencias de la computación e Inteligencia artificialEl mercado de los juegos de mesa ha presentado, a lo largo de los últimos años, un desarrollo sin precedentes, convirtiéndose en un engranaje de los mercados internacionales. Teniendo esto en cuenta, resulta informativo a la par que interesante realizar un análisis en profundidad del mismo, buscando patrones y basándonos en ellos para construir modelos de predicción y obtener información inferencial, como saber cuáles son las tendencias del mercado en lo referido a temáticas, público objetivo o valoraciones de los usuarios. Con esas ideas en mente, el siguiente proyecto intenta dar respuestas a algunas de dichas preguntas, partiendo de una potente base teórica estadística y computacional, que más adelante se aplicará en diferentes conjuntos de datos, proporcionándonos información de variada índole relativa al comportamiento de este sector que hemos decidido estudiar. Aplicaremos multitud de herramientas estudiadas a lo largo del currículo académico para poder construir modelos de predicción, y comprobaremos recurriendo a multitud de métricas la bondad y validez de los resultados obtenidos. Además, desarrollaremos en detalle un ejemplo de acceso a API, comentando sus fortalezas y debilidades, seguido de la extracción de los datos, acompañada del tratamiento y preparación asociados para poder trabajar con ellos. Cada paso que demos estos ámbitos se verá acompañado de tablas, gráficas y fragmentos de código que facilitarán la comprensión del trabajo aquí expuesto. Adicionalmente, aprovecharemos el gran número de comentarios obtenidos en el punto previo para aplicar diversas técnicas de Procesamiento del Lenguaje Natural, incluyendo entre otros, el modelo de espacio vectorial o diferentes formas de abordar el análisis del sentimiento Por último, en el capítulo 6 expondremos las principales conclusiones extraídas sobre el trabajo, agrupando los resultados más remarcables del proyecto en un único lugar, sirviendo de esta forma como referencia para aquella persona que esté interesada principalmente en los resultados.
- «
- 1 (current)
- 2
- 3
- »