Tesis (Estadística e Investigación Operativa)
URI permanente para esta colecciónhttps://hdl.handle.net/11441/10847
Examinar
Examinando Tesis (Estadística e Investigación Operativa) por Título
Mostrando 1 - 20 de 72
- Resultados por página
- Opciones de ordenación
Tesis Doctoral A new approach to multivariate lifetime distributions base don the excess-wealth concept an application in tumor Growth(2010) Rodríguez Griñolo, María del Rosario; Fernández Ponce, José María; Pellerey, Franco; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaLas distribuciones de visa son de gran importancia en la teoría de modelización estocástica, teoría de la renovación, fiabilidad y análisis de supervivencia. El envejecimiento de un sistema físico o biológico se conoce como el fenóm ... eno por el cual un sistema más antiguo tiene un menor tiempo de vida, en algún sentido estocástico, que un sistema más nuevo. Muchos de los criterios de envejecimiento (por ejemplo, las nociones IFR, DMRL y NBUE) se han desarrollado en la literatura durante muchos años y han sido también propuestas y estudiadas. Cabe mencionar que muchos de estos métodos se incluyen en el marco del ordenamiento estocástico.Esta Tesis Doctoral está centrada fundamentalmente en dos objetivos: Estudiar nuevas nociones de envejecimiento multivariante y caracterizar dichas nociones por medio de una función de dispersión multivariante, generalizando así los resultados ya estudiados en el caso univariante por Fernández-once et al. (1996) and Fernández-Ponce et al. (1998). Para el estudio de estos objetivos, dos conceptos fundamentales son tomados como punto de partida, también conocido como construcción estándar, fue definido por primera vez por O´brien (1975), y ha sido ampliamente utilizado en teoría de simulación así como en la teoría de ordenaciones estocásticas. El segundo concepto fue dado por Fernández-Ponce y el Suárez-Lloréns (2003). Estos autores proporcionaron el concepto de cuadrante superior corregido asociado con la construcción estándar y obtuvieron el importante resultado de que la probabilidad acumulada en esta región no depende de la distribución considerada. Estos conceptos, junto con el trabajo de Fernández-Ponce et al. (1998), donde las nociones de envejecimiento univariante son caracterizan por la función de exceso de riqueza (excess-wealth), es la base para el desarrollo de esta investigación. Obviamente, numerosos resultados significativos en fiabilidad y en el área de ordenaciones estocásticas son considerados con el fin de alcanzar nuestro propósito.Este trabajo está estructurado en cuatro capítulos. El Capítulo 1 es introductorio y presenta el estado del arte en las nociones de envejecimiento univariante y multivariado. En particular, se resumen diferentes trabajos donde propiedades de envejecimiento son caracterizadas usando ordenaciones estocásticas. La función cuantil y sus generalizaciones multivariante, así como la función "excess-wealth" univariante son también estudiadas en este capítulo.El Capítulo 2 tiene por objeto dar un concepto multivariante de la función "excess-wealth" basada conjuntamente en el trabajo por Fernández-Ponce et al. (1998) y Fernández-Ponce y el Suárez-Lloréns (20039. Se inicia mediante la introducción de nociones preliminares que serán utilizados a lo largo de la memoria. A continuación, y dada la importancia en este trabajo del cuadrante corregido superior, centramos nuestra atención en proporcionar nuevos resultados sobre este concepto. Las relaciones entre el cuadrante superior corregido con el soporte de un vector aleatorio y el cuadrante superior derecho en un punto, son establecidas. Por último, en las dos últimas secciones del capítulo, la función "excess-wealth" multivariante y el orden "excess-wealth" multivariante son estudiados. Esta función es definida en términos del cuadrante superior corregido y se demuestra que conserva las mismas propiedades que verifica la versión univariante.En el Capítulo 3, son definidas nuevas propiedades de envejecimiento multivariante. A partir de nuevas generalizaciones de la función vida residual media y la función intensidad de fallo, se presentan versiones multivariante de las nociones IFR, DMRL y NBUE, junto con la cadena de implicaciones entre ellas. Siguiendo el desarrollo en Fernández-Ponce et al. (1998), estas nuevas propiedades son caracterizadas en términos de la función "excess-wealth" multivariante. Por último, y basados en estas nociones multivariado de envejecimiento, se definen nuevas ordenaciones estocásticas que permiten comparar el envejecimiento de dos vectores aleatorios. Finalmente, en el Capítulo 4, una aplicación de una propiedad del envejecimiento bivariante es estudiada en el campo de la oncología. La edad de los pacientes y el tamaño del tumor en la detección espontánea del tumor, desempeñan un papel importante en la prevención de la cáncer. Como bien es conocido, existe un creciente interés en la detección temprana de enfermedades crónicas, con la esperanza de que el diagnóstico precoz, combinado con la terapia adecuad, da lugar a un mayor número de curas caso como mayor supervivencia de los pacientes. El proceso de desarrollo del tumor puede ser explicado en términos de edad de los pacientes al inicio del tumor (tiempo desde el nacimiento del paciente hasta que la célula primera célula cancerígena aparece) y el tiempo de estancia en la etapa preclínica, (tiempo desde que la primera célula cancerígena aparece hasta que el tumor es detectado). Un modelo exponencial no determinista que relaciona el tiempo de estancia en la etapa preclínica con el tamaño del tumor en el momento de la detección es planteado y estudiado en este capítulo. En el proceso de estimar los parámetros de este modelo, es considerada una restricción que representa una propiedad inherente de envejecimiento multivariante de las distribuciones de vida consideradas. El modelo propuesto es ilustrado en dos bases de datos reales.Tesis Doctoral Algunas aportaciones a los métodos de optimización del análisis clúster mediante la Descomposición en Valores Singulares (D.V.S.)(1996) González Caballero, Juan Luis; Ramírez Labrador, José; Valderrama Bonnet, Mariano J.; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaEn este trabajo se propone un procedimiento de clasificación general que permite obtener grupos naturales en conjuntos donde se sospecha que existen mas de uno. El procedimiento se basa en obtener el modelo q-factorial derivado de la descomposición en vaTesis Doctoral Algunas cuestiones sobre detección y estimación de señales en teoría de la información(1976-09-23) Parras Guijosa, Luis; Infante Macías, Rafael; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaTesis Doctoral Algunas cuestiones sobre modelos epidemiológicos(1980) Requena Guerrero, Francisco; Infante Macías, Rafael; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaConstituye un sistema iterativo de solución para una amplia clase de modelos epidemiológicos estocásticos de tipo Markoviano. Nos permite obtener un sistema triangular que describe al modelo y fácilmente resoluble. ... 50%; font-family: 'Times New Roman','serif'; font-size: 12pt">Llegamos así a la distribución de probabilidad del proceso para cualquier instante T así como otras distribuciones derivadas. Estos modelos pueden ser resueltos bajo supuestos generalizados y partiendo de condiciones iniciales arbitrarias. A través de nuestro procedimiento iterativo podemos llegar además al conocimiento de la función de verosimilitud y a estimaciones maximoverosimiles de los parámetros. El procedimiento esta aplicado a un modelo epidemiológico que supone una campaña de inmunización el cual es resuelto completamente. Finalmente se aplica a otros dos modelos uno de infección cruzada entre varios grupos y otro de epidemia general con varias clases de susceptibles.La exposición que hemos divido en tres capítulos. El primero nos ofrece un estudio de algunos de los modelos existentes en la literatura especializada y las técnicas de solución utilizadas. La mayoría de ellos resolubles, de manera exacta, mediante nuestro procedimiento. En el segundo, desarrollamos el método de solución para el caso de un proceso de tipo Markoviano tridimensional y lo aplicamos a un modelo epidemiológico que supone una campaña de inmunización. Al final resolvemos este modelo, mediante ordenador, para tamaños de población reducidos. Algunos de los resultados obtenidos se presentan resumidos en tablas y figuras. Por último, en el tercer capítulo desarrollamos propiamente la teoría que fundamenta nuestro procedimiento general. Además lo aplicamos a dos modelos epidemiológicos de cierta complejidad y que en su versión más general no han sido re|Tesis Doctoral Algunas cuestiones sobre teoría de la información(1976) Pascual Acosta, Antonio; Infante Macías, Rafael; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaEl objeto de esta Memoria se centra en el estudio de las clásicas medidas de información matemática en relación con diversos problemas de la estadística. A lo largo de ella emplearemos simultáneamente los términos incertidumbre e informació ... En el primer capítulo se estudia la información de Shannon y su aplicación a problemas de estadística como son la regresión y el muestreo. Se deducen nuevas relaciones entre esta cantidad y las informaciones de Fisher y Kullback.El segundo capítulo está dedicado a la incertidumbre de Renyi. Se consigue generalizar la entropía de orden de Renyi, obteniéndose una función que tiene propiedades bastante interesantes.Partiendo del concepto de incertidumbre de Shannon en el tercer capítulo llegamos a encontrar una medida de la información proporcionada por un experimento estadístico, estudiándose la relación entre la medida encontrada y las cantidades de información de Kullback, Shannon y Renyi. Se emplea esta medida como método para comparar experimentos y se estudia la analogía entre el concepto utilitarista de valor de la información asociado con un experimento y la medida encontrada por nosotros. Al final de la Memoria añadimos un apéndice donde se incluye un programa realizado mediante ordenador para el cálculo de la entropía generalizada de la de Renyi de orden , aplicándose dicho programa para la obtención de resultados en diferentes casos particulares|Tesis Doctoral Algunas técnicas sobre selección de outliers(1980) Muñoz García, Joaquín; Pascual Acosta, Antonio; Infante Macías, Rafael; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaEn el presente trabajo se dan tres técnicas diferentes para la detección de outliers en poblaciones distribuidas según una ley normal multivariante. Así, la primera es una regla a utilizar para cuando vayamos a aplicar la técnica de análisis discriminante y está basada en la función influencia. La segunda es utilizada para detectar outliers e n poblaciones normales p-dimensionales y está basada en el cociente de verosimilitudes y la última está basada en la distancia entre matrices simétricas y definidas positivas y se da para la detección en poblaciones normales bivariantes. Se dan, al mismo tiempo, casos prácticos donde se aplican estas técnicas.Tesis Doctoral Algunos problemas en Teoría de Localización(1999) Hinojosa Bergillos, Yolanda; Puerto Albandoz, Justo; Universidad de Sevilla. Departamento de Economía Aplicada I; Universidad de Sevilla. Departamento de Estadística e Investigación Operativa"En esta tesis se abordan diversos problemas dentro de diferentes campos de la teoría de localización. En un primer capítulo se da una introducción histórica a la teoría de la localización así como una clasificación de los diferentes problemas tratados enTesis Doctoral Análisis cooperativo de cadenas de distribución(2007-05-29) Perea Rojas-Marcos, Federico; Fernández García, Francisco Ramón; Puerto Albandoz, Justo; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaEn esta tesis se estudia la posible cooperación en procesos de decisión en los que intervienen varios agentes. Las principales contribuciones de este trabajo son:- Exten sión del concepto de solución de Owen para juegos de producción lineal, superando ciertos problemas de justicia que dicho concepto de solución presenta.- Introducción y estudio de una nueva clase de juegos cooperativos que surge de un problema particular de distribución, juegos de cadenas de abastecimiento.- Introducción y estudio de una nueva clase de juegos cooperativos, juegos de diámetro, sobre grafos tipo árbol. Se estudian sus propiedades y el cálculo de reglas de reparto de forma eficiente.- Introducción de los juegos de asignación multidimensional, una extensión de los clásicos juegos de asignación. Se estudian sus propiedades y se combina el uso de algoritmos de aproximación con la búsqueda de buenas reglas de reparto.Tesis Doctoral Análisis cualitativo de datos estadísticos(1987) Moreno Rebollo, Juan Luis; Muñoz García, Joaquín; Pascual Acosta, Antonio; Universidad de Sevilla. Departamento de Estadística e Investigación Operativa"En el Capítulo I, se introduce un esquema que permite analizar de un modo genérico los distintos errores que pueden afectar a las observaciones experimentales. Asimismo, se destacan los rasgos e inconvenientes principales que presentan las distintas definiciones que sobre el término Outlier han dado diversos autores, y se propone una nueva definición para el mismo. Por último, se tipifica la problemática que presentn las Técnicas de Identificación de Outliers.Con el objeto de realizar un análisis cualitativo de los datos experimentales, en el Capítulo II, se propone un marco general -basado en la idea de que "el comportamiento anómalo de una observación depende en gran medida de su relación con las restantes observaciones obtenidas bajo condiciones similares y del objetivo que se persigue en la experimentación" -, que permite obtener una función que cuantifica las desviaciones de las observaciones entre sí, respecto de un criterio dependiente del análisis que se desea realizar con los datos.El esquema propuesto en el Capítulo II, aplicado al caso particular del Análisis de Outliers, presenta, como se recoge en las conclusiones del Capítulo III, ciertas ventajas respecto del enfoque clásico, entre las que cabe destacar, que algunos estadísticos en los que se fundamentan las Técnicas e Identificación de Outliers, se obtienen a partir de una base formal común."Tesis Doctoral Análisis de influencia en componentes principales(2001) Enguix González, Alicia; Muñoz Pichardo, Juan Manuel; Pino Mejías, Rafael; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaTesis Doctoral Análisis de influencia en el modelo lineal general sesgo condicionado(1992) Muñoz Pichardo, Juan Manuel; Muñoz García, Joaquín; Infante Macías, Rafael; Universidad de Sevilla. Departamento de Estadística e Investigación Operativa"Se propone una base teórica para abordar el problema del análisis de influencia a través del concepto de sesgo condicionado, aplicándose al modelo lineal general. Así, los resultados que se obtienen pueden ser trasladados a los distintos modelos linealeTesis Doctoral Análisis estadístico de las distribuciones de vida basado en la función de esparcimiento(1993) Fernández Ponce, José María; Infante Macías, Rafael; Muñoz Pérez, José; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaTesis Doctoral Aproximación a la distribución de ciertos estadísticos en contrastes sobre modelos de regresión no paramétrica(2017-06-08) Rivas Martínez, Gustavo Ignacio; Jiménez Gamero, María Dolores; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaEste trabajo se desarrolla en el contexto de modelos de regresión no paramétrica con diseño aleatorio para variable respuesta y covariable ambas unidimensionales. El conocimiento de la función de distribución del error puede mejorar varios procedimientos estadísticos realizados sobre el modelo considerado. Por otro lado, la hipótesis de igualdad de distribución de los errores es asumida en algunos procedimientos. Sobre el contraste de estas dos hipótesis se desarrolla este trabajo. Para el test de bondad de ajuste de la distribución del error, nos centramos en un estadístico propuesto en la literatura. La distribución nula asintótica es desconocida. Por ese motivo, se ha propuesto un bootstrap paramétrico para aproximarla. Esta aproximación posee buenas propiedades, entre otras cosas, proporciona un estimador consistente de la distribución nula asintótica y además es fácil de implementarlo. Sin embargo, a medida que el número de parámetros aumenta y/o el tamaño muestral crece, el coste computacional que requiere su aplicación práctica, aumenta considerablemente. Para el contraste de igualdad de las distribuciones del error, nos hemos centrado en dos estadísticos propuestos en la literatura. La distribución nula asintótica es desconocida. Se recurre a una aproximación mediante un bootstrap suavizado para aproximarlas. Este estimador proporciona estimaciones consistentes de la distribución nula, pero desde el punto de vista computacional, es poco eficiente. Además, su aplicación requiere ciertas condiciones sobre la distribución de los errores: han de poseer distribución continua satisfaciendo fuertes condiciones de suavidad. En este trabajo se ha demostrado teóricamente la consistencia y eficiencia computacional de una aproximación bootstrap ponderada a los estadísticos estudiados tanto para la bondad de ajuste de error como para la igualdad en las distribuciones del error. Además, para contrastar la hipótesis de igualdad en las distribuciones del error, se ha propuesto un nuevo test. Se construye bajo condiciones menos restrictivas que las asumidas para los dos estadísticos ya existentes considerados. Se estudia teóricamente la aproximación mediante un bootstrap ponderado. Al igual que en los casos anteriores, esta aproximación es consistente y computacionalmente eficiente.Tesis Doctoral Avances metodológicos en demografía(2014-07-18) Bermúdez Parrado, Silvia; Arroyo Pérez, Andrés; Blanquero Bravo, Rafael; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaEl estudio del volumen, estructura, características y evolución de las poblaciones humanas es el objetivo de la Demografía, indispensable para el conocimiento de la realidad social en la que vivimos. El conocimiento de esta realidad social es una herramienta básica para la planificación en el ámbito gubernamental y empresarial, cuya importancia queda patente en temas de actualidad como el tratamiento del fenómeno migratorio o los cambios en la edad legal de jubilación. A pesar de la importancia de esta disciplina, la mayoría de las técnicas de análisis empleadas en Demografía han evolucionado a un ritmo menor que en ciertas disciplinas científicas afines, y no se han integrado los avances que han tenido lugar en ellas. En concreto, la observación de ciertos procedimientos utilizados en Demografía desvela que éstos podrán experimentar importantes mejoras mediante la aplicación de técnicas de Programación Matemática, dado que se han venido realizando sin atender a criterios de optimalidad. Tal es el caso de los problemas de desagregación de la población en edad simple, a los que se enfrentan habitualmente los Institutos de Estadística oficiales, y que son abordados con técnicas intuitivas pero no siempre plenamente satisfactorias; las características de estos problemas invitan al desarrollo de modelos de optimización específicos que permitan realizar estas tareas de forma _optima, manteniendo la consistencia transversal y longitudinal de la desagregación. Vinuesa expone en que uno de los fundamentos de la Demografía y, más generalmente, de las ciencias, es intentar desagregar el objeto de estudio en partes lo más homogéneas posible, con el fin de analizarlas en el estado más puro, sin interferencias de otros elementos que pudieran sesgar la observación. Esto es, es necesario conocer las variables protagonistas de la dinámica del proceso en estudio para poder integrarlas en los modelos formulados. Así, se puede definir el modelo de proyección como el conjunto de expresiones matemáticas que describen la dinámica del sistema poblacional. En consecuencia, la teoría de los sistemas matemáticos debe ser utilizada para describir modelos de proyección y estudiar sus características. En Demografía, como en otras disciplinas en las que se trabaja con gran cantidad de datos, es necesario disponer de la información lo más desagregada posible. El estudio de los distintos eventos o acontecimientos que tienen lugar en la dinámica de poblaciones requiere disponer de datos de población desagregados por sexo y edad simple. Sin embargo, el nivel de desagregación de la información suele ser menor cuanto mayor es el cruce de variables que proporciona dicha información, o cuanto menor es el tamaño del ámbito territorial al que hacen referencia los datos. Por tanto, partiendo de un conjunto de histogramas de intervalos de mayor o menor amplitud, uno de los objetivos será el desagregar la información disponible en intervalos de amplitud menor a través de una función suave. La suavización se realiza utilizando funciones spline. En este contexto también podemos situar la modelización de las curvas de fecundidad, de gran importancia en la realización de las proyecciones de población. Si bien en la literatura se recogen diversos modelos matemáticos para realizar el ajuste de estas curvas, estos ajustes parecen ser mejorables en gran medida, especialmente en aquellos países en los que las curvas de fecundidad presentan un patrón distorsionado; esta desviación del patrón usual está originada por el solapamiento de dos patrones bien diferenciados: el de la fecundidad propia del país y el que acompaña a la inmigración. La propia producción estadística dentro del ámbito de la Demografía puede ser también objeto de mejora, dando cabida a fenómenos de reciente aparición e interés creciente, y adaptándose así a una realidad social cambiante. Continuando con la misma línea que acaba de ser descrita, el inventario de operaciones estadísticas puede verse enriquecido mediante el análisis de los hogares en España y Andalucía. Los hogares son unidades básicas de gasto y, al mismo tiempo, de consumo. El conocimiento futuro de la distribución del tamaño de los hogares es necesario para la gestión de recursos públicos (los planes generales de ordenación urbana, PGOU, la gestión de Servicios Sociales, etc.) y privados (el tamaño de los envases de los bienes producidos para el consumo final de los hogares, por ejemplo). La proyección de hogares pertenece al grupo de las proyecciones derivadas, por lo que precisa apoyarse en unas proyecciones de base. Para que este tipo de ejercicios no presente esta limitación, es necesario disponer de una metodología que, en su implementación, no precise de la realización de ningún ejercicio de proyección previo. El insumo del nuevo modelo podría ser solamente la serie histórica de la variable en estudio, y la proyección de ésta se realizaría mediante la formulación de un problema de ajuste y su resolución mediante técnicas de Programación Matemática, dando lugar a un conjunto de parámetros que son extrapolados con posterioridad. El objetivo de la presente tesis doctoral es doble. Por una parte, se pretende realizar mejoras metodológicas en ciertos procedimientos empleados en Demografía a partir de técnicas provenientes del campo de la Optimización y de la Estadística, y, por otra, proporcionar análisis demográficos más acordes con la realidad social actual, que, al mismo tiempo, serán beneficiarios de los avances surgidos de la consecución del primer objetivo. Entrando a analizar de forma más precisa el contenido de esta memoria, en el Capítulo 2 se presentan nuevos modelos de Optimización en números enteros para la desagregación de la población en edad simple. Estos modelos, cuya característica principal es la presencia de ciertas restricciones de consistencia longitudinal y transversal, se desarrollan en el Apartado 2.1. A partir de un modelo primario, formulamos y resolvemos distintos problemas, atendiendo a la forma en la que se dispongan los datos iniciales y a las necesidades del investigador. El modelo inicial de referencia, al que denominamos Modelo Básico, Apartado 2.1.1, se completa con el Modelo con información auxiliar sobre el intervalo superior abierto en el Apartado 2.1.2, que da respuesta a la desagregación del grupo abierto, que usualmente abarca de los 85 años en adelante, y que requiere un tratamiento especial en la formulación. En otras ocasiones, se dispone de datos de población por edad simple en años próximos a los que intervienen en el proceso de desagregación. En tales circunstancias, es posible incorporar esta información de proximidad al modelo y mejorar los resultados. El problema así definido recibe el nombre de Modelo con información de contorno, y su formulación y resolución se aborda en el Apartado 2.1.3. Por último, en el Apartado 2.1.4 abordamos el problema en el que, partiendo de datos desagregados por edad simple de un ámbito superior, es preciso desagregar la población de los subámbitos en los que se divide el territorio superior, Modelo con información del ámbito superior. Éste podría corresponder al caso de una comunidad autónoma de la que se conocen los datos de población desagregados por edad simple y se desconocen los de las provincias que la integran. Para todos los modelos descritos con anterioridad, se presentan distintos criterios de optimización al considerar, para cada una de las formulaciones, las normas l1, l2 y l∞ del vector de residuos en la función objetivo. La resolución de estos problemas se describe en el Apartado 2.2, presentándose en el Apartado 2.3 diferentes resultados obtenidos a partir de la aplicación a datos reales, que permiten realizar un análisis comparativo de los distintos modelos propuestos en términos de bondad del ajuste de las soluciones obtenidas. El Capítulo 3 está centrado en la aplicación a la Demografía de las funciones polinómicas definidas a trozos o splines, mostrando el potencial que tienen en esta disciplina tales funciones. Se presentan, en primer lugar, los fundamentos teóricos de las funciones spline, Apartado 3.2, que, posteriormente, son aplicados a diversos problemas de índole demográfica relacionados con la desagregación de efectivos, Apartado 3.3. Entre las aplicaciones consideradas podemos citar el desglose en edades simples de una distribución bidimensional del número de nacidos según intervalos de edad de los padres o la modelización y extrapolación de las tasas específicas de fecundidad. Los desgloses resultantes de la aplicación de las técnicas consideradas en este capítulo pueden contener valores negativos, carentes de sentido en este contexto. Con el propósito de dar respuesta a esta problemática, se presentan en el Apartado 3.4 dos técnicas dirigidas a corregir la negatividad de los resultados del proceso de desagregación. La primera de ellas, que tiene un carácter local, permite dar solución a este problema en cada intervalo en que se presente por medio de un spline cúbico que preserva la derivabilidad de la función de reparto original. La segunda técnica, de carácter global, proporciona el spline suficientemente regular que mejor aproxima el área del histograma que se desea desagregar. El Capítulo 4 está dedicado al análisis de los modelos paramétricos de ajuste de curvas de fecundidad. En él se realiza una revisión de los modelos publicados hasta la fecha, y se presenta un modelo novedoso de ajuste basado en una mixtura de funciones Weibull. El nuevo modelo presentado da cobertura al amplio espectro de patrones de fecundidad existentes según el ámbito territorial y temporal al que corresponden los datos representados. Tanto los modelos clásicos como los patrones distorsionados que han surgido a raíz de la incorporación de la nacionalidad extranjera a la fecundidad de un territorio (que se han traducido en la aparición de una pequeña joroba en la forma de la curva de fecundidad clásica), son ajustados satisfactoriamente con el nuevo modelo desarrollado en este capítulo. Tras el análisis de la situación actual en el apartado 4.1, presentamos en 4.2 un nuevo modelo de ajuste a la curva de la fecundidad. Los resultados de estos ajustes los comparamos con los modelos presentados en 4.1, aplicando las técnicas de fácil implementación que se exponen en el Apartado 4.3. Los resultados que se presentan en el Apartado 4.4 muestran que el modelo aquí introducido mejora los ajustes existentes hasta el momento sin hacer uso de un mayor número de parámetros que el resto. En el Capítulo 5 se considera al análisis y proyección del tamaño de los hogares. Comenzamos con el análisis de la evolución de la variable distribución del tamaño de los hogares en España y Andalucía, Apartado 5.1, apoyándonos en la explotación de distintas Fuentes Estadísticas. El estudio retrospectivo de la serie de la variable tamaño de los hogares es un punto fundamental, como paso previo a la resolución del modelo de proyección. No es posible justificar un buen ejercicio de proyección sin tener un conocimiento de la evolución pasada de la variable, puesto que, en gran medida, esta información ayudaría a componer las hipótesis del comportamiento futuro. En el Apartado 5.2 presentamos una metodología con la que, para su resolución, no es necesario hacer ningún ejercicio de proyección previo como ocurre con las metodologías aplicadas hasta la fecha por la mayoría de las Oficinas Estadísticas. El insumo del nuevo modelo es la serie histórica de la variable, con la cual se resuelve el modelo planteado mediante técnicas de Programación Matemática. En la modelización del problema de proyección planteado no solo se han tenido en cuenta los conocimientos matemáticos para la traducción de la dinámica de los hogares en las ecuaciones del sistema de proyección, sino que se ha integrado en el modelo, en forma de restricciones, información auxiliar demográfica, consiguiendo así enriquecer el problema al integrar distintas disciplinas. Partiendo de un modelo básico, Apartado 5.2.1, presentamos un modelo mejorado, 5.2.3, que nace del anterior, y abordamos la necesidad de incorporar las hipótesis de convergencia en el modelo de proyección, 5.2.3. Para concluir el Apartado 5.2, en el Apartado 5.2.3 se presenta una solución al problema que surge al trabajar con distintos ámbitos territoriales cuando éstos presentan distinta longitud en las series de datos que han de ser incorporadas en el modelo de proyección.Tesis Doctoral Avances sobre el problema de localización continua de un único centro(1998) Rodríguez Chía, Antonio Manuel; Puerto Albandoz, Justo; Universidad de Sevilla. Departamento de Estadística e Investigación Operativa"El objetivo de la Teoría de la Localización consiste en determinar una o varias localizaciones para uno o más servicios con respecto a un conjunto de ubicaciones conocidas a priori, que usualmente denominamos puntos de demanda, optimizando alguna medidaTesis Doctoral Computational Methods for the Analysis of Complex Data(2021-07-07) Sillero Denamiel, María Remedios; Blanquero Bravo, Rafael; Carrizosa Priego, Emilio José; Ramírez Cobo, Josefa; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaThis PhD dissertation bridges the disciplines of Operations Research and Statistics to develop novel computational methods for the extraction of knowledge from complex data. In this research, complex data stands for datasets with many instances and/or variables, with different types of variables, with dependence structures among the variables, collected from different sources (heterogeneous), possibly with non-identical population class sizes, with different misclassification costs, or characterized by extreme instances (heavy-tailed data), among others. Recently, the complexity of the raw data in addition to new requests posed by practitioners (interpretable models, cost-sensitive models or models which are efficient in terms of running times) entail a challenge from a scientific perspective. The main contributions of this PhD dissertation are encompassed in three different research frameworks: Regression, Classification and Bayesian inference. Concerning the first, we consider linear regression models, where a continuous outcome variable is to be predicted by a set of features. On the one hand, seeking for interpretable solutions in heterogeneous datasets, we propose a novel version of the Lasso in which the performance of the method on groups of interest is controlled. On the other hand, we use mathematical optimization tools to propose a sparse linear regression model (that is, a model whose solution only depends on a subset of predictors) specifically designed for datasets with categorical and hierarchical features. Regarding the task of Classification, in this PhD dissertation we have explored in depth the Naïve Bayes classifier. This method has been adapted to obtain a sparse solution and also, it has been modified to deal with cost-sensitive datasets. For both problems, novel strategies for reducing high running times are presented. Finally, the last contribution of this dissertation concerns Bayesian inference methods. In particular, in the setting of heavy-tailed data, we consider a semi-parametric Bayesian approach to estimate the Elliptical distribution. The structure of this dissertation is as follows. Chapter 1 contains the theoretical background needed to develop the following chapters. In particular, two main research areas are reviewed: sparse and cost-sensitive statistical learning and Bayesian Statistics. Chapter 2 proposes a Lasso-based method in which quadratic performance constraints to bound the prediction errors in the individuals of interest are added to Lasso-based objective functions. This constrained sparse regression model is defined by a nonlinear optimization problem. Specifically, it has a direct application in heterogeneous samples where data are collected from distinct sources, as it is standard in many biomedical contexts. Chapter 3 studies linear regression models built on categorical predictor variables that have a hierarchical structure. The model is flexible in the sense that the user decides the level of detail in the information used to build it, having into account data privacy considerations. To trade off the accuracy of the linear regression model and its complexity, a Mixed Integer Convex Quadratic Problem with Linear Constraints is solved. In Chapter 4, a sparse version of the Naïve Bayes classifier, which is characterized by the following three properties, is proposed. On the one hand, the selection of the subset of variables is done in terms of the correlation structure of the predictor variables. On the other hand, such selection can be based on different performance measures. Additionally, performance constraints on groups of higher interest can be included. This smart search integrates the flexibility in terms of performance for classification, yielding competitive running times. The approach introduced in Chapter 2 is also explored in Chapter 5 for improving the performance of the Naïve Bayes classifier in the classes of most interest to the user. Unlike the traditional version of the classifier, which is a two-step classifier (estimation first and classification next), the novel approach integrates both stages. The method is formulated via an optimization problem where the likelihood function is maximized with constraints on the classification rates for the groups of interest. When dealing with datasets of especial characteristics (for example, heavy tails in contexts as Economics and Finance), Bayesian statistical techniques have shown their potential in the literature. In Chapter 6, Elliptical distributions, which are generalizations of the multivariate normal distribution to both longer tails and elliptical contours, are examined, and Bayesian methods to perform semi-parametric inference for them are used. Finally, Chapter 7 closes the thesis with general conclusions and future lines of research.Tesis Doctoral Condiciones probabilísticas para la convergencia de sumas aleatoriamente ponderadas de elementos aleatorios en espacios lineales normados(1981) Ordóñez Cabrera, Manuel Hilario; Infante Macías, Rafael; Universidad de Sevilla. Departamento de Estadística e Investigación Operativa"Se estudia la convergencia a cero de sumas aleatoriamente ponderadas de elementos aleatorios definidos sobre un espacio lineal normado separable sin condiciones geométricas especiales. Se investigan con especial interés las condiciones de convergencia cuando los elementos aleatorios son idénticamente distribuidos o cuando verifican una condición de acotación uniforme de momentos. Para elementos aleatorios en un espacio de Banach separable con matriz de pesos no necesariamente triangular se obtienen condiciones que establecen la equivalencia entre la convergencia en probabilidad a cero en la topología fuerte y en la topología débil. Por último se aplican en teoría de procesos estocásticos y en regresión algunos de los resultados obtenidos."|Tesis Doctoral Conic programming for routing and location problems(2024-01-19) Valverde Martín, Carlos; Puerto Albandoz, Justo; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaEsta tesis doctoral desarrolla nuevos problemas en el campo de los modelos de transporte, con una perspectiva orientada al uso de drones. En este trabajo se definen nuevos modelos de transporte, tomando ciertos elementos de los problemas de localización, los cuales se resuelven con herramientas de la investigación operativa, como la optimización. La tesis se divide en dos partes. La Parte I se compone de cinco capítulos que abordan diferentes aspectos. El Capítulo 1 introduce el marco teórico que permite comprender los problemas que se desarrollan y cuáles son los últimos avances alcanzados en la literatura. En el Capítulo 2 se establecen qué objetivos se persiguen en este trabajo. El Capítulo 3 presenta los resultados obtenidos hasta la fecha. A continuación, en el Capítulo 4, se lleva a cabo una discusión detallada de dichos resultados. Finalmente, en el Capítulo 5 se presentan las conclusiones generales extraídas de la tesis. La Parte II también está compuesta por seis capítulos, del 6 al 11. Cada uno de los capítulos en la Parte II puede ser abordado de manera independiente y representa una contribución original de investigación en sí mismo. En el Capítulo 6, se aborda una extensión del problema del cartero rural que se centra en diseñar rutas que deben visitar diferentes elementos dimensionales en lugar de simplemente aristas. Este problema modela la planificación de rutas para drones u otros vehículos, donde es necesario visitar múltiples ubicaciones geográficas para entregar bienes o servicios, y luego pasar directamente a la siguiente ubicación utilizando desplazamientos en línea recta. En este capítulo, se presentan dos familias de formulaciones de programación matemática. La primera familia se basa en un modelo por etapas y captura diversas características con aplicaciones prácticas, pero tiene la desventaja de utilizar índices de tres variables. La segunda familia de formulaciones prescinde de estas etapas y utiliza propiedades de conectividad para garantizar la correcta definición de las rutas. Estas formulaciones se comparan utilizando instancias con diferentes formas, como conjuntos representables con conos de segundo orden (SOC), entornos poliédricos y poligonales. Los resultados computacionales presentados en este trabajo demuestran que los modelos son efectivos y que las formulaciones pueden resolver de manera óptima instancias de tamaño mediano, similares a otros problemas combinatorios con entornos que han sido estudiados en la literatura. Para resolver instancias más grandes, también se presenta un algoritmo heurístico que consta de dos fases: agrupación y un metaheurístico de búsqueda local. Este algoritmo ofrece buenos resultados al generar soluciones factibles cercanas al óptimo que, además, puede utilizarse para inicializar los solvers con dichas soluciones. El Capítulo 7 se enfoca en dos problemas distintos de diseño de rutas en el espacio continuo que involucran entornos y barreras: el problema del camino más corto y el problema del viajante de comercio con entornos y barreras. La presencia de estos dos elementos, entornos y barreras, hace que los problemas sean más desafiantes en comparación con sus contrapartes estándar. Al combinar ambos aspectos, surge un nuevo problema que hasta la fecha no ha sido abordado. No obstante, este problema tiene aplicaciones relevantes en actividades de inspección y vigilancia, así como en la industria de reparto, especialmente cuando existe una demanda uniformemente distribuida en ciertas regiones. En el capítulo se presentan formulaciones de programación matemática para ambos problemas, asumiendo barreras lineales y entornos representables con conos de segundo orden. Estos supuestos conducen a formulaciones enteras mixtas con conos de segundo orden , las cuales son sometidas a preprocesamiento y se refuerzan mediante desigualdades válidas. Además, se llevan a cabo experimentos computacionales que demuestran que el método exacto puede resolver instancias con 75 entornos y un rango de 125 a 145 barreras. El Capítulo 8 aborda problemas de localización de instalaciones en un espacio continuo con vecinos y barreras. Específicamente, se analiza el problema de la p-mediana con vecinos y barreras lineales en dos situaciones diferentes. Como primer bloque de construcci ón, se aborda el problema asumiendo que los entornos no son visibles entre sí y, por lo tanto, no existen rutas rectilíneas que unan dos entornos sin cruzar barreras. Bajo esta hipótesis, se obtiene una formulación válida de programación lineal entera mixta. Al eliminar esa hipótesis, se obtiene el problema más general y realista, pero con el inconveniente de ser más desafiante. Adaptando los elementos de la primera formulación, también se desarrolla otra formulación válida de programación bilineal entera mixta. Ambas formulaciones manejan barreras lineales y entornos que son representables con conos de segundo orden, los cuales se preprocesan y fortalecen con desigualdades válidas. Estas formulaciones de programación matemática también son fundamentales para generar un algoritmo matheurístico adaptado que proporciona soluciones de buena calidad para ambos problemas en un tiempo de cómputo corto. El capítulo también detalla una amplia experiencia computacional que demuestra que los enfoques exactos y heurísticos son útiles: el enfoque exacto puede resolver instancias con hasta 50 entornos y diferentes números de barreras en una hora de tiempo de CPU, mientras que el matheurístico siempre devuelve excelentes soluciones factibles en menos de 100 segundos. El Capítulo 9 se centra en mejorar la planificación de rutas utilizando drones. Se examina la coordinación entre un nave principal y un dron para encontrar las rutas más eficientes que deben seguir para visitar diferentes objetivos representados como grafos. El objetivo es minimizar la distancia total recorrida por ambos vehículos, al mismo tiempo que se cumplen los requisitos de visitas a los objetivos en términos de porcentajes. Se analizan distintos enfoques según las suposiciones realizadas sobre la ruta de la nave principal: i) la nave se puede mover en un plano continuo (plano euclídeo), ii) en una poligonal, o iii) en un grafo general. En todos los casos, se desarrollan formulaciones exactas mediante modelos de programación cónica entera mixta de segundo orden que se comparan en un conjunto de pruebas para evaluar su rendimiento. La complejidad de estos métodos exactos dificulta la búsqueda de soluciones óptimas en un tiempo de cálculo reducido. Por lo tanto, además de las formulaciones exactas, también presentamos un procedimiento matheurístico que permite obtener soluciones de alta calidad en un tiempo razonable. Los experimentos computacionales demuestran la utilidad de nuestros métodos en diferentes escenarios. En el Capítulo 10 se examina un modelo que combina el movimiento de un dron con cierta autonomía que puede visitar múltiples puntos, junto con un vehículo base que puede moverse libremente en el espacio continuo. Este vehículo desempeña el papel de cargar la batería del dron, mientras que el dron se encarga de visitar diferentes objetivos, representados por puntos o poligonales. En el caso de las poligonales, se establece el requisito de que el dron atraviese una fracción específica de sus longitudes, que representan actividades de vigilancia o inspección. El objetivo principal del problema consiste en minimizar la distancia total ponderada recorrida por ambos vehículos. Para abordar este problema, se desarrolla y mejora una formulación de programación cónica entera mixta de segundo orden, utilizando desigualdades válidas y proporcionando límites adecuados para las M grandes que aparecen en el modelo. Además, se propone una estrategia matemática re- finada que permite obtener soluciones de calidad en un tiempo de cálculo reducido. La calidad de las soluciones generadas por ambos enfoques se compara y analiza exhaustivamente utilizando un conjunto aleatoria de instancias con diferentes números y formas de objetivos, lo que demuestra la utilidad de nuestro enfoque y su aplicabilidad en diversas situaciones. En el Capítulo 11 se analizan los desafíos de optimización asociados a la coordinación de un sistema compuesto por un vehículo principal y una ota de drones. Cada dron es lanzado desde el vehículo principal para llevar a cabo una tarea especí ca. Una vez completada la tarea, los drones regresan al vehículo principal para recargar sus baterías y prepararse para una nueva tarea. Estas tareas implican visitar parcialmente grafos con una longitud determinada, con el propósito de brindar servicios o realizar actividades de vigilancia e inspección. El objetivo principal consiste en minimizar el tiempo total de los desplazamientos realizados por el vehículo principal, al mismo tiempo que se cumplen ciertos requisitos en términos de porcentajes de visitas a los grafos objetivo. Para abordar este problema, se desarrollan formulaciones exactas utilizando programas de conos de segundo orden con variables enteras, los cuales son comparados en un conjunto de pruebas para evaluar su rendimiento. Además, se presenta un algoritmo matheurístico que genera soluciones razonables. Los experimentos computacionales demuestran la utilidad de esta metodología en diversos escenarios.Tesis Doctoral Construcción de un modelo para determinar el rendimiento académico de los estudiantes basado en learning analytics (análisis del aprendizaje), mediante el uso de técnicas multivariantes(2016-02-05) García Tinisaray, Daysi Karina; Pino Mejías, José Luis; Muñoz Pichardo, Juan Manuel; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaLas plataformas de enseñanza virtual tales como WEbCT, Moodle, Blackboard, Claroline, Dokeos y recientemente las plataformas MOOC (Massive Open Online Courses) permiten a las universidades monitorizar en tiempo real la actividad de los estudiantes. La integración de esta información con otras variables está en el origen de las técnicas de extracción de conocimiento útil para la mejora del proceso de enseñanza – aprendizaje, conocidas como análisis del aprendizaje (learning analytics). El objetivo central de la tesis es emplear el análisis del aprendizaje para identificar los factores y covariables que influyen en el rendimiento académico de los estudiantes universitarios, y construir un modelo multivariante de cómo influyen. Las preguntas que ha pretendido responder la investigación son: ¿Qué proporción de la variación en el rendimiento académico puede atribuirse a las variables que engloba el learning analytics?; ¿Cuál es la influencia que existe entre variables sociodemográficas y académicas sobre el rendimiento académico del colectivo de estudiantes universitarios ecuatorianos de modalidad a distancia?; ¿Existe una relación entre el rendimiento académico y el contexto de los estudiantes y aulas así como entre éstas dos a través del contexto de las escuelas?. Para ello en el capítulo 1 se revisan los tipos de análisis de datos que se están aplicando actualmente en el ámbito educativo, como son: Data Mining , Academic Analytics y el propio análisis del aprendizaje, ampliando la revisión de este último. En el capítulo 2 se hace una revisión teórica sobre el rendimiento académico y de los modelos estadísticos que se han venido aplicando a la hora de medirlo. El capítulo 3 recoge una revisión de las técnicas estadísticas aplicadas en la investigación educativa. En el capítulo 4 se introduce la metodología de estudio, selección de casos y variables que permiten justificar la elección de los modelos multivariantes. En el capítulo 5 se obtienen los resultados del modelo empírico multinivel estimando el modelo jerárquico con 2 y 3 niveles: estudiante (nivel inferior), aula (nivel intermedio) y escuela (nivel superior), utilizando el software Stata/SE 12.0. En el capítulo 6 se desarrolla un modelo logístico bivariante binario y un modelo logístico bivariante ordinal, los parámetros de los modelos se estiman usando el software R con la plataforma RStudio. En el capítulo 7 se presentan los resultados, así respecto al modelo multinivel, el de mejor ajuste para el rendimiento académico incluye: Tres covariables del Nivel 2: tasa de repetidores, ciclo y tipo de docente; Ocho variables del Nivel 1: edad, rinde supletorio, repite materia, participa en chat, participa en foro, participa en videocolaboración, N° comentarios, N° accesos al LMS; Cuatro interacciones multinivel; La varianza de cinco pendientes del Nivel 1. Los modelos logísticos bivariantes permiten confirmar que las covariables más relevantes son la edad de ingreso a la universidad y la participación activa en línea. Esta investigación, al identificar la influencia que ejercen sobre el rendimiento académico las variables consideradas, permite a las instituciones educativas mejorar la focalización de las intervenciones y los servicios de apoyo a estudiantes con mayor riesgo de fracaso académico.Tesis Doctoral Contributions to robust and bilevel optimization models for decision-making(2019-03-15) Leal Palazón, Marina; Conde Sánchez, Eduardo; Puerto Albandoz, Justo; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaLos problemas de optimización combinatorios han sido ampliamente estudiados en la literatura especializada desde mediados del siglo pasado. No obstante, en las últimas décadas ha habido un cambio de paradigma en el tratamiento de problemas cada vez más realistas, en los que se incluyen fuentes de aleatoriedad e incertidumbre en los datos, múltiples criterios de optimización y múltiples niveles de decisión. Esta tesis se desarrolla en este contexto. El objetivo principal de la misma es el de construir modelos de optimización que incorporen aspectos inciertos en los parámetros que de nen el problema así como el desarrollo de modelos que incluyan múltiples niveles de decisión. Para dar respuesta a problemas con incertidumbre usaremos los modelos Minmax Regret de Optimización Robusta, mientras que las situaciones con múltiples decisiones secuenciales serán analizadas usando Optimización Binivel. En los Capítulos 2, 3 y 4 se estudian diferentes problemas de decisión bajo incertidumbre a los que se dará una solución robusta que proteja al decisor minimizando el máximo regret en el que puede incurrir. El criterio minmax regret analiza el comportamiento del modelo bajo distintos escenarios posibles, comparando su e ciencia con la e ciencia óptima bajo cada escenario factible. El resultado es una solución con una eviciencia lo más próxima posible a la óptima en el conjunto de las posibles realizaciones de los parámetros desconocidos. En el Capítulo 2 se estudia un problema de diseño de redes en el que los costes, los pares proveedor-cliente y las demandas pueden ser inciertos, y además se utilizan poliedros para modelar la incertidumbre, permitiendo de este modo relaciones de dependencia entre los parámetros. En el Capítulo 3 se proponen, en el contexto de la secuenciación de tareas o la computación grid, versiones del problema del camino más corto y del problema del viajante de comercio en el que el coste de recorrer un arco depende de la posición que este ocupa en el camino, y además algunos de los parámetros que de nen esta función de costes son inciertos. La combinación de la dependencia en los costes y la incertidumbre en los parámetros da lugar a dependencias entre los parámetros desconocidos, que obliga a modelar los posibles escenarios usando conjuntos más generales que los hipercubos, habitualmente utilizados en este contexto. En este capítulo, usaremos poliedros generales para este cometido. Para analizar este primer bloque de aplicaciones, en el Capítulo 4, se analiza un modelo de optimización en el que el conjunto de posibles escenarios puede ser alterado mediante la realización de inversiones en el sistema. En los problemas estudiados en este primer bloque, cada decisión factible es evaluada en base a la reacción más desfavorable que pueda darse en el sistema. En los Capítulos 5 y 6 seguiremos usando esta idea pero ahora se supondrá que esa reacción a la decisión factible inicial está en manos de un adversario o follower. Estos dos capítulos se centran en el estudio de diferentes modelos binivel. La Optimización Binivel aborda problemas en los que existen dos niveles de decisión, con diferentes decisores en cada uno ellos y la decisión se toma de manera jerárquica. En concreto, en el Capítulo 5 se estudian distintos modelos de jación de precios en el contexto de selección de carteras de valores, en los que el intermediario nanciero, que se convierte en decisor, debe jar los costes de invertir en determinados activos y el inversor debe seleccionar su cartera de acuerdo a distintos criterios. Finalmente, en el Capítulo 6 se estudia un problema de localización en el que hay distintos decisores, con intereses contrapuestos, que deben determinar secuencialmente la ubicación de distintas localizaciones. Este modelo de localización binivel se puede aplicar en contextos como la localización de servicios no deseados o peligrosos (plantas de reciclaje, centrales térmicas, etcétera) o en problemas de ataque-defensa. Todos estos modelos se abordan mediante el uso de técnicas de Programación Matemática. De cada uno de ellos se analizan algunas de sus propiedades y se desarrollan formulaciones y algoritmos, que son examinados también desde el punto de vista computacional. Además, se justica la validez de los modelos desde un enfoque de las aplicaciones prácticas. Los modelos presentados en esta tesis comparten la peculiaridad de requerir resolver distintos problemas de optimización encajados.