Tesis (Estadística e Investigación Operativa)
URI permanente para esta colecciónhttps://hdl.handle.net/11441/10847
Examinar
Envíos recientes
Tesis Doctoral Novel mathematical optimization Models for Group counterfactual Analysis(2024-09-20) Ramírez Ayerbe, Miren Jasone; Carrizosa Priego, Emilio José; Romero Morales, María Dolores; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaIn Explainable Artificial Intelligence, Supervised Classification models are sought to have a good trade-off between prediction accuracy and interpretability. Once the classifier has been trained, it would be convenient to have procedures to identify how records should be changed in their features to be classified in the "good" class, e.g., to be classified as a good payer for a loan or a healthy person for a medical condition. Such modified solutions, the so-called counterfactual explanations, are addressed in this thesis. This dissertation is devoted to extending the study of counterfactual analysis across different dimensions. Specially, we delve into group analysis, where, instead of considering a single instance to whom a single explanation is assigned, we consider a group of instances to be perturbed and calculate a tuple of explanations for all of them. We also take into account complex data and expand the study beyond Supervised Classification. In the Introduction, we introduce the Group Counterfactual Analysis problem, providing a critical discussion on the ingredients defining this problem. In Chapter 2, we present several novel optimization models for Group Counterfactual Analysis, covering all possible allocation rules between counterfactuals and instances. First, a one-for-one allocation model is presented, where different linking constraints are included, such as imposing global sparsity. Second, optimization models for multiple allocation rules, namely, many-for-one, one-for-all, and one-for-many are formulated and illustrated. For the latter one, another sparse version is also studied. We solve the problem of minimizing the number of counterfactual explanations needed to cover a group of instances, imposing a maximum number of features that can be changed for all the instances that are linked to the same counterfactual. A novel column generation framework is introduced to solve this problem. All the models are valid for score-based classifiers, and detailed for linear classifiers and additive tree models. In Chapter 3, we focus on the nature of the data, specifically we develop a novel mathematical optimization model for functional data, when the one-for-one allocation rule is used. The goal is to identify the samples of the dataset from which the counterfactual explanation is made of, as well as how they are combined so that the individual instance and its counterfactual are as close as possible. We develop a model that is flexible enough to: incorporate several distance measures, including the popular Dynamic Time Warping distance; be used for score-based classifiers, specifically detailing it for additive tree models; and achieve two types of sparsity, namely in terms of the number of features perturbed and the number of samples used to create the counterfactual. In Chapter 4 we apply the concept of Counterfactual Analysis beyond classification. Particularly, we extend it to Data Envelopment Analysis (DEA). DEA is used as a benchmarking tool to compare the performance of an entity or firm to that of a group of other firms, and by comparison associate its efficiency. Specifically, to establish the best practice performance and assess how efficiently a firm operates compared to this standard, DEA employs linear or mixed integer programming to model the correlation between various inputs and outputs of the firm. We define DEA counterfactuals or targets as alternative combinations of inputs and outputs that are close to the original inputs and outputs of the firm and lead to desired improvements in its efficiency. This problem is formulated as a bilevel optimization model, that we transform it to a single level one, by utilizing the optimality conditions of the DEA problem. Finally, conclusions and future work are briefly discussed in Chapter 5.Tesis Doctoral New Advances In Data Science Problems Through Hyperplanes Location(2022-06-02) Japón Sáez, Alberto; Blanco Izquierdo, Víctor; Puerto Albandoz, Justo; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaThis thesis dissertation focus on developing new approaches for different Data Science problems from a Location Theory perspective. In particular, we concentrate on locating hyperplanes by means of solving Mixed Integer Linear and Non Linear Problems. Chapter 1 introduces the baseline techniques involved in this work, which encompass Support Vector Machines, Decision Trees and Fitting Hyperplanes Theory. In Chapter 2 we study the problem of locating a set of hyperplanes for multiclass classification problems, extending the binary Support Vector Machines paradigm. We present four Mathematical Programming formulations which allow us to vary the error measures involved in the problems as well as the norms used to measure distances. We report an extensive battery of computational experiment over real and synthetic datasets which reveal the powerfulness of our approach. Moreover, we prove that the kernel trick can be applicable in our method. Chapter 3 also focus on locating a set of hyperplanes, in this case, aiming to minimize an objective function of the closest distances from a set of points. The problem is treated in a general framework in which norm-based distances between points and hyperplanes are aggregated by means of ordered median functions. We present a compact formulation and also a set partitioning one. A column generation procedure is developed in order to solve the set partitioning problem. We report the results of an extensive computational experience, as well as theoretical results over the scalability issues and geometrical analysis of the optimal solutions. Chapter 4 addresses the problem of finding a separating hyperplane for binary classification problems in which label noise is considered to occur over the training sample. We derive three methodologies, two of them based on clustering techniques, which incorporate the ability of relabeling observations, i.e., treating them as if they belong to their contrary class, during the training process. We report computational experiments that show how our methodologies obtain higher accuracies when training samples contain label noise. Chapters 5 and 6 consider the problem of locating a set of hyperplanes, following the Support Vector Machines classification principles, in the context of Classification Trees. The methodologies developed in both chapters inherit properties from Chapter 4, which play an important role in the problems formulations. On the one hand, Chapter 5 focuses on binary classification problems where label noise can occur in training samples. On the other hand, Chapter 6 focus on solving the multiclass classification problem. Both chapters present the results of our computational experiments which show how the methodologies derived outperform other Classification Trees methodologies. Finally, Chapter 7 presents the conclusions of this thesis.Tesis Doctoral Computational Methods for the Analysis of Complex Data(2021-07-07) Sillero Denamiel, María Remedios; Blanquero Bravo, Rafael; Carrizosa Priego, Emilio José; Ramírez Cobo, Josefa; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaThis PhD dissertation bridges the disciplines of Operations Research and Statistics to develop novel computational methods for the extraction of knowledge from complex data. In this research, complex data stands for datasets with many instances and/or variables, with different types of variables, with dependence structures among the variables, collected from different sources (heterogeneous), possibly with non-identical population class sizes, with different misclassification costs, or characterized by extreme instances (heavy-tailed data), among others. Recently, the complexity of the raw data in addition to new requests posed by practitioners (interpretable models, cost-sensitive models or models which are efficient in terms of running times) entail a challenge from a scientific perspective. The main contributions of this PhD dissertation are encompassed in three different research frameworks: Regression, Classification and Bayesian inference. Concerning the first, we consider linear regression models, where a continuous outcome variable is to be predicted by a set of features. On the one hand, seeking for interpretable solutions in heterogeneous datasets, we propose a novel version of the Lasso in which the performance of the method on groups of interest is controlled. On the other hand, we use mathematical optimization tools to propose a sparse linear regression model (that is, a model whose solution only depends on a subset of predictors) specifically designed for datasets with categorical and hierarchical features. Regarding the task of Classification, in this PhD dissertation we have explored in depth the Naïve Bayes classifier. This method has been adapted to obtain a sparse solution and also, it has been modified to deal with cost-sensitive datasets. For both problems, novel strategies for reducing high running times are presented. Finally, the last contribution of this dissertation concerns Bayesian inference methods. In particular, in the setting of heavy-tailed data, we consider a semi-parametric Bayesian approach to estimate the Elliptical distribution. The structure of this dissertation is as follows. Chapter 1 contains the theoretical background needed to develop the following chapters. In particular, two main research areas are reviewed: sparse and cost-sensitive statistical learning and Bayesian Statistics. Chapter 2 proposes a Lasso-based method in which quadratic performance constraints to bound the prediction errors in the individuals of interest are added to Lasso-based objective functions. This constrained sparse regression model is defined by a nonlinear optimization problem. Specifically, it has a direct application in heterogeneous samples where data are collected from distinct sources, as it is standard in many biomedical contexts. Chapter 3 studies linear regression models built on categorical predictor variables that have a hierarchical structure. The model is flexible in the sense that the user decides the level of detail in the information used to build it, having into account data privacy considerations. To trade off the accuracy of the linear regression model and its complexity, a Mixed Integer Convex Quadratic Problem with Linear Constraints is solved. In Chapter 4, a sparse version of the Naïve Bayes classifier, which is characterized by the following three properties, is proposed. On the one hand, the selection of the subset of variables is done in terms of the correlation structure of the predictor variables. On the other hand, such selection can be based on different performance measures. Additionally, performance constraints on groups of higher interest can be included. This smart search integrates the flexibility in terms of performance for classification, yielding competitive running times. The approach introduced in Chapter 2 is also explored in Chapter 5 for improving the performance of the Naïve Bayes classifier in the classes of most interest to the user. Unlike the traditional version of the classifier, which is a two-step classifier (estimation first and classification next), the novel approach integrates both stages. The method is formulated via an optimization problem where the likelihood function is maximized with constraints on the classification rates for the groups of interest. When dealing with datasets of especial characteristics (for example, heavy tails in contexts as Economics and Finance), Bayesian statistical techniques have shown their potential in the literature. In Chapter 6, Elliptical distributions, which are generalizations of the multivariate normal distribution to both longer tails and elliptical contours, are examined, and Bayesian methods to perform semi-parametric inference for them are used. Finally, Chapter 7 closes the thesis with general conclusions and future lines of research.Tesis Doctoral Mixed Integer Nonlinear Optimization. Applications to Competitive Location and Supervised Classification(2015-02-25) Nogales Gómez, Amaya; Blanquero Bravo, Rafael; Carrizosa Priego, Emilio José; Romero Morales, María Dolores; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaThis PhD dissertation focuses on the study of Mixed Integer Nonlinear Programming (MINLP) problems [34] for two important and current applications: competitive location on networks [59, 64] and Support Vector Machines (SVM) [56, 152, 153]. Location problems on a network in a competitive environment were first introduced in [82]. They have been deeply studied in operations research and applied in problems such as market area analysis [122], demand estimation [123], or location of retail centres [78]. The SVM has proved to be one of the state-of-the-art methods for Supervised Classification [2, 6, 85, 160]. Successful applications of the SVM are found, for instance, in health care [22, 46, 81], fraud detection [43], credit scoring [113] and cancellations forecasting [138]. In its general form, an MINLP problem can be represented as: min f(x1, x2) s.t. gi(x1, x2) ≤ 0 ∀i = 1, . . . , I x1 ∈ Z n1 x2 ∈ R n2 , where n1 is the number of integer variables, n2 is the number of continuous variables, I is the number of constraints and f, gi are arbitrary functions such that f, gi : Z n1 ×R n2 → R. The general class of MINLP problems is composed by particular cases such as Mixed Integer Linear Programming (MILP) problems, when f, gi ∀i = 1, . . . , I are linear functions, Mixed Integer Quadratic Programming (MIQP) problems, when f is quadratic or Quadratically Constrained Quadratic Programming (QCQP) problems, when f, gi are quadratic functions. There are two main lines of research to solve this kind of problems: to develop packages for general MINLP problems [32, 55] or to exploit the specific structure of the problem. In this PhD dissertation we focus on the latter. Concerning the first application, we study the problem of locating one or several facilities on a competitive environment in order to maximize the market share. We study the single and p-facility Huff location model on a network and the single Huff origin-destination trip model [95]. Both models are formulated as MINLP problems and solved by a specialized branch and bound, where bounding rules are designed using DC (difference of convex) and Interval Analysis tools. In relation to the second application, we present three different SVM-type classifiers, focused either on robustness or interpretability. In order to build the classifier, different approaches are proposed based on the solution of MINLP problems, or particular cases of it such as MILP, MIQP or QCQP problems, and globally optimized using a commercial branch and bound solver [55, 100, 101].Tesis Doctoral Programación con restricciones aleatorias y algunas aplicaciones económicas(1979-07-02) Muñoz Vázquez, Agustín; Infante Macías, Rafael; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaTesis Doctoral Optimización de un problema de transporte(1979-03-26) Gutiérrez Fernández, Miguel; Infante Macías, Rafael; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaTesis Doctoral Contributions to robust and bilevel optimization models for decision-making(2019-03-15) Leal Palazón, Marina; Conde Sánchez, Eduardo; Puerto Albandoz, Justo; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaLos problemas de optimización combinatorios han sido ampliamente estudiados en la literatura especializada desde mediados del siglo pasado. No obstante, en las últimas décadas ha habido un cambio de paradigma en el tratamiento de problemas cada vez más realistas, en los que se incluyen fuentes de aleatoriedad e incertidumbre en los datos, múltiples criterios de optimización y múltiples niveles de decisión. Esta tesis se desarrolla en este contexto. El objetivo principal de la misma es el de construir modelos de optimización que incorporen aspectos inciertos en los parámetros que de nen el problema así como el desarrollo de modelos que incluyan múltiples niveles de decisión. Para dar respuesta a problemas con incertidumbre usaremos los modelos Minmax Regret de Optimización Robusta, mientras que las situaciones con múltiples decisiones secuenciales serán analizadas usando Optimización Binivel. En los Capítulos 2, 3 y 4 se estudian diferentes problemas de decisión bajo incertidumbre a los que se dará una solución robusta que proteja al decisor minimizando el máximo regret en el que puede incurrir. El criterio minmax regret analiza el comportamiento del modelo bajo distintos escenarios posibles, comparando su e ciencia con la e ciencia óptima bajo cada escenario factible. El resultado es una solución con una eviciencia lo más próxima posible a la óptima en el conjunto de las posibles realizaciones de los parámetros desconocidos. En el Capítulo 2 se estudia un problema de diseño de redes en el que los costes, los pares proveedor-cliente y las demandas pueden ser inciertos, y además se utilizan poliedros para modelar la incertidumbre, permitiendo de este modo relaciones de dependencia entre los parámetros. En el Capítulo 3 se proponen, en el contexto de la secuenciación de tareas o la computación grid, versiones del problema del camino más corto y del problema del viajante de comercio en el que el coste de recorrer un arco depende de la posición que este ocupa en el camino, y además algunos de los parámetros que de nen esta función de costes son inciertos. La combinación de la dependencia en los costes y la incertidumbre en los parámetros da lugar a dependencias entre los parámetros desconocidos, que obliga a modelar los posibles escenarios usando conjuntos más generales que los hipercubos, habitualmente utilizados en este contexto. En este capítulo, usaremos poliedros generales para este cometido. Para analizar este primer bloque de aplicaciones, en el Capítulo 4, se analiza un modelo de optimización en el que el conjunto de posibles escenarios puede ser alterado mediante la realización de inversiones en el sistema. En los problemas estudiados en este primer bloque, cada decisión factible es evaluada en base a la reacción más desfavorable que pueda darse en el sistema. En los Capítulos 5 y 6 seguiremos usando esta idea pero ahora se supondrá que esa reacción a la decisión factible inicial está en manos de un adversario o follower. Estos dos capítulos se centran en el estudio de diferentes modelos binivel. La Optimización Binivel aborda problemas en los que existen dos niveles de decisión, con diferentes decisores en cada uno ellos y la decisión se toma de manera jerárquica. En concreto, en el Capítulo 5 se estudian distintos modelos de jación de precios en el contexto de selección de carteras de valores, en los que el intermediario nanciero, que se convierte en decisor, debe jar los costes de invertir en determinados activos y el inversor debe seleccionar su cartera de acuerdo a distintos criterios. Finalmente, en el Capítulo 6 se estudia un problema de localización en el que hay distintos decisores, con intereses contrapuestos, que deben determinar secuencialmente la ubicación de distintas localizaciones. Este modelo de localización binivel se puede aplicar en contextos como la localización de servicios no deseados o peligrosos (plantas de reciclaje, centrales térmicas, etcétera) o en problemas de ataque-defensa. Todos estos modelos se abordan mediante el uso de técnicas de Programación Matemática. De cada uno de ellos se analizan algunas de sus propiedades y se desarrollan formulaciones y algoritmos, que son examinados también desde el punto de vista computacional. Además, se justica la validez de los modelos desde un enfoque de las aplicaciones prácticas. Los modelos presentados en esta tesis comparten la peculiaridad de requerir resolver distintos problemas de optimización encajados.Tesis Doctoral Algunas aportaciones a los métodos de optimización del análisis clúster mediante la Descomposición en Valores Singulares (D.V.S.)(1996) González Caballero, Juan Luis; Ramírez Labrador, José; Valderrama Bonnet, Mariano J.; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaEn este trabajo se propone un procedimiento de clasificación general que permite obtener grupos naturales en conjuntos donde se sospecha que existen mas de uno. El procedimiento se basa en obtener el modelo q-factorial derivado de la descomposición en vaTesis Doctoral Localización multicriterio de centros peligrosos(1992) Saameño Rodríguez, Juan José; Infante Macías, Rafael; Muñoz Pérez, José; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaTesis Doctoral Influencia en el modelo de curvas de crecimiento a través de distancias entre distribuciones(2012-03-28) Ferreira do Carmo de Sousa, Carlos; García de las Heras, Joaquín Antonio; Muñoz Pichardo, Juan Manuel; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaEl interÈs del investigador, en algunas experimentaciones, se centra en analizar datos a travÈs del tiempo para conocer la tendencia de un individuo o grupos de individuos. En este contexto se enmarca el an•lisis de curvas de crecimiento. El Modelo de Curvas de Crecimiento (MCC), introducido formalmente por Pottho§ y Roy (1964), es un modelo multivariante generalizado, extensiÛn del an•lisis de varianza multivariante, aplicable a un gran conjunto de problemas reales en muy diversas •reas cientÌÖcas, especialmente ˙til para los estudios de experimentos con datos longitudinales y medidas repetidas. Desde la formulaciÛn del MCC, diferentes aspectos del modelo han sido sucesivamente considerados por muchos autores en diferentes trabajos (vÈase, por ejemplo, Kollo y von Rosen, 2005). Por otra parte, cualquier an•lisis estadÌstico tiene como objetivo b•sico la obtenciÛn de conclusiones Öables a partir de los datos de las variables analizadas. AsÌ, el papel que desempeÒan las observaciones es de gran importancia para el desarrollo del estudio. No obstante, la importancia de cada observaciÛn en la construcciÛn de un modelo es generalmente muy distinta. Un gran n˙mero de autores han presentado situaciones pr•cticas en las que existen observaciones experimentales que inciden considerablemente en los resultados del an•lisis, motivando la necesidad de identiÖcar tales observaciones, denominadas en la literatura como observaciones ináuyentes u observaciones ináuencia, y evaluar sus efectos en el an•lisis estadÌstico que se pretende realizar. De acuerdo con la deÖniciÛn de Cook (Cook, 1977), una observaciÛn es considerada como ináuyente si su omisiÛn de los datos da lugar a cambios sustanciales en rasgos importantes del an•lisis. Por otro lado, siguiendo a Cook y Weisberg (1982), puede decirse que el an•lisis de los datos experimentales, con objeto de encontrar estos casos relevantes, es de gran interÈs para las conclusiones que se obtengan de la experiencia por dos motivosTesis Doctoral Aproximación a la distribución de ciertos estadísticos en contrastes sobre modelos de regresión no paramétrica(2017-06-08) Rivas Martínez, Gustavo Ignacio; Jiménez Gamero, María Dolores; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaEste trabajo se desarrolla en el contexto de modelos de regresión no paramétrica con diseño aleatorio para variable respuesta y covariable ambas unidimensionales. El conocimiento de la función de distribución del error puede mejorar varios procedimientos estadísticos realizados sobre el modelo considerado. Por otro lado, la hipótesis de igualdad de distribución de los errores es asumida en algunos procedimientos. Sobre el contraste de estas dos hipótesis se desarrolla este trabajo. Para el test de bondad de ajuste de la distribución del error, nos centramos en un estadístico propuesto en la literatura. La distribución nula asintótica es desconocida. Por ese motivo, se ha propuesto un bootstrap paramétrico para aproximarla. Esta aproximación posee buenas propiedades, entre otras cosas, proporciona un estimador consistente de la distribución nula asintótica y además es fácil de implementarlo. Sin embargo, a medida que el número de parámetros aumenta y/o el tamaño muestral crece, el coste computacional que requiere su aplicación práctica, aumenta considerablemente. Para el contraste de igualdad de las distribuciones del error, nos hemos centrado en dos estadísticos propuestos en la literatura. La distribución nula asintótica es desconocida. Se recurre a una aproximación mediante un bootstrap suavizado para aproximarlas. Este estimador proporciona estimaciones consistentes de la distribución nula, pero desde el punto de vista computacional, es poco eficiente. Además, su aplicación requiere ciertas condiciones sobre la distribución de los errores: han de poseer distribución continua satisfaciendo fuertes condiciones de suavidad. En este trabajo se ha demostrado teóricamente la consistencia y eficiencia computacional de una aproximación bootstrap ponderada a los estadísticos estudiados tanto para la bondad de ajuste de error como para la igualdad en las distribuciones del error. Además, para contrastar la hipótesis de igualdad en las distribuciones del error, se ha propuesto un nuevo test. Se construye bajo condiciones menos restrictivas que las asumidas para los dos estadísticos ya existentes considerados. Se estudia teóricamente la aproximación mediante un bootstrap ponderado. Al igual que en los casos anteriores, esta aproximación es consistente y computacionalmente eficiente.Tesis Doctoral Teoría de perturbación en cadenas de markov de parámetro continuo(1979-09-18) Vázquez Cueto, María José; Infante Macías, Rafael; Pascual Acosta, Antonio; Universidad de Sevilla. Departamento de Estadística e Investigación Operativa; Universidad de Sevilla. SEJ183: Economia Aplicada (Matematicas)El objeto de la memoria es estudiar un modelo de perturbación en el que matriz de intensidad de la cadena de Markov original se transforma con la ayuda de la matriz de reemplazamiento, resultando la cadena de Markov modificada. Para hacer énfasis sobre el mecanismo de perturbaci&o acute;n y el método de compensación se considera la cadena de Markov en su forma más simple. La característica principal de este método es que se trata con dos cadenas simultáneamente, y por tanto, la compensación debe tener en cuenta las propiedades teóricas de los potenciales de ambas cadenas. Además, un estudio más profundo del método de compensación revela su conexión con la teoría de perturbación de semigrupos, probada mediana la “2ª ecuación resolvente”.En el primer capítulo incluimos los resultados fundamentales sobre cadenas de Markov de parámetro continuo que serán utilizados posteriormente a lo largo de la Memoria. Se hace especial hincapié en el estudio de resolventes, operadores y teoremas límites. En el último apartado del capítulo se describe la teoría de potencial para cadenas ergódicas siguiendo los trabajos de SYSKI (1973, 1978).A lo largo del segundo capítulo se estudia un modelo de perturbación con reemplazamientos gobernados por una matriz de reemplazamiento sobre los estados permisibles, siguiendo la técnica introducía por ARJAS y SPEED (1975) para cadenas de Markov de parámetro discreto. Se examinan con detalle las consecucencias del método de compensación en los modelos de perturbación siendo los principales resultados los relativos a la distribución límite de la cadena modificada restringida alos estados permisibles. Dedicamos el tercer capítulo al estudio de diferentes aplicaciones del modelo de perturbación desarrollado en el anterior.El cuarto capítulo está dedicado al estudio de un modelo especial sugerido por DYNKIN (1965) sobre la transformación del espacio de estados. La transformación en cuestión corresponde a una matriz de reemplazamiento determinista, y esto nos lleva a simplificaciones bastante sorprendentes en la obtención de la solución general.Se aplica el mecanismo de perturbación a la transformación del espacio de estados considerada por Dynkin en un proceso de Markov general demostrándose que dicha transformación equivale a un modelo de reemplazamiento con una determinada matriz de reemplazamiento sugerida por ella. Se termina el capítulo calculando algunas medidas de efectividad para un sistema M/M/1 perturbando una cadena de Markov que verifica la condición de Dynkin.Hemos intentado abordar las cuestiones fundamentales que se encuentran planteadas hoy día en esta línea de investigación, limitándonos solo al caso de cadenas de Markov de parámetro continuo con las consiguientes lagunas que ello haya podido originar en la temática general del trabajo. En todo caso cuanto aquí hemos apuntado puede servirnos para un posterior estudio de esta materia en el caso de espacios de estados continuo.Tesis Doctoral Problemas de extremos regulares y no regulares, vía formalismo de Dubovitskii-milyutin. Aplicación a problemas de control óptimo.(2013-05-07) Vivanco Orellana, Violeta Nydia; Osuna Gómez, Rafaela; Rojas Medar, Marko Antonio; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaLa Teoría de Optimización diferenciable clásica se basa principalmente en la búsqueda de condiciones necesarias y suficientes que permitan caracterizar las soluciones óptimas. Las condiciones necesarias se fundamentan en la hipótesis de que el conjunto de soluciones posibles para el problema a resolver, verifica ciertas condiciones, que aseguran la caracterización del cono tangente o del cono factible a través de las derivadas de primer orden de las funciones que definen las restricciones, son los denominados problemas regulares. Sin embargo, en determinados problemas, esta hipótesis no es posible asegurarla, dando lugar a los problemas de optimización no regulares o degenerados. Consecuentemente las condiciones de optimalidad de primer orden del tipo Karush-Kuhn-Tucker, no son aplicables. Sería necesario, por tanto, establecer condiciones de optimalidad basadas en aproximaciones al conjunto factible que no sean de primer orden, es decir, utilizando derivadas de orden superior y que, naturalmente, coincidan con las condiciones clásicas de primer orden, cuando el problema sea regular. Por otro lado las condiciones necesarias no garantizan que las soluciones encontradas sean soluciones _optimas, es decir, en general, no son condiciones suficientes para garantizar la optimalidad, sin hipótesis adicionales. Este trabajo consiste esencialmente en establecer condiciones de optimalidad, optimalidad de Pareto en el caso vectorial, de segundo orden y no degeneradas, para problemas generales de optimización matemática diferenciables, escalares y vectoriales, con restricciones múltiples de igualdad y desigualdad, definidos en espacios de Banach, cuando el problema es no regular. A partir de ellas y haciendo uso de teoremas de representación, conseguimos establecer condiciones de optimalidad de segundo orden no degeneradas, para problemas de control _optimo escalar, con restricciones mixtas. Generalizando los resultados existentes en la literatura y quedando éstos como casos particulares.Tesis Doctoral Medición de la eficiencia estática y dinámica de las universidades mediante métodos no paramétricos. Aplicación a las universidades públicas ecuatorianas(2016-02-05) Alvarado Astudillo, Diego Vinicio; Pino Mejías, José Luis; Luque Calvo, Pedro Luis; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaEl objetivo principal del trabajo ha sido introducir la dimensión de la eficiencia en la evaluación comparativa de las universidades y su aplicación a las universidades públicas ecuatorianas, de forma que se puedan superar las principales limitaciones de los sistemas de evaluación y de las ordenaciones que se derivan de los mismos, que según la revisión bibliográfica realizada son: La no inclusión de todas las dimensiones del quehacer universitario, centrándose generalmente en la actividad investigadora. La no consideración del factor escala, en especial en las variables que miden los recursos económicos con que cuenta cada institución. La no incorporación de una perspectiva input – output, focalizando la evaluación en los outputs. La falta de robustez estadística del indicador compuesto resultante. Limitaciones a las que debe unirse, en algunos casos, la falta de una perspectiva temporal ocasionada por los cambios metodológicos que impiden el análisis de la evolución cuando provocan rupturas de las series de datos. Partiendo de un marco conceptual común al de agencias de evaluación de las universidades de todo el mundo, se ha desarrollado una metodología que permite: Seleccionar un conjunto reducido de variables, inputs y outputs capaz de aportar información relevante sobre las dimensiones de docencia e investigación, empleando técnicas de reducción de la dimensionalidad. Validar la selección realizada mediante la comparación de los resultados obtenidos con el conjunto completo de variables, empleando técnicas de clasificación. Aplicar el Análisis Envolvente de Datos para medir la eficiencia de cada universidad desde la perspectiva del “beneficio de la duda” y analizar la influencia del factor de escala, comparando los modelos CRS y VRS. Analizar la evolución de la eficiencia y la productividad total de los factores mediante el cálculo del índice de Malmquist. Calcular el indicador compuesto que hemos denominado indicador distancia, a partir de una agregación de los vectores de pesos que incrementan la ponderación de los vectores con menor distancia media al resto. Realizar un análisis de sensibilidad de los factores de incertidumbre del modelo, basado en la descomposición exhaustiva de la varianza y el cálculo de los índices de sensibilidad global de Sobol. Las aportaciones computacionales constituyen una herramienta de interés para las universidades y las instituciones encargadas de la evaluación y acreditación de las mismas, ya que al haberse utilizado exclusivamente software de código abierto puede ser utilizado para aplicar directamente la metodología desarrollada, o de forma adaptada a sus criterios específicos. La forma de construir pesos comunes ponderados por las distancias, a partir de un conjunto de pesos generados por la aplicación del Análisis Envolvente de Datos, constituye una aportación en el campo de la agregación de preferencias en general y en particular a la construcción de un indicador compuesto de eficiencia universitaria. Dado el carácter no polinomial de varios problemas subyacentes, se han explorado las posibilidades que brindan la paralelización de los algoritmos y el uso de las herramientas de supercomputación para hacer aplicable la metodología a situaciones con más unidades y variables.Tesis Doctoral Técnicas estadísticas espaciales y temporales para el análisis de la convergencia(2016-02-08) Pino Mejías, Miguel Ángel; Cubiles de la Vega, María Dolores; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaLa presente tesis estudia los procesos de convergencia entre las economías, considerando las dos líneas principales de análisis que se han centrado históricamente en este fenómeno. En un primer gran bloque se procede a la revisión de los modelos econométricos clásicos, a la identificación de sus predicciones respecto a dichos procesos de crecimiento y al reconocimiento de los principales estudios empíricos realizados en este ámbito. En una segunda agrupación de contenidos, en consonancia con el desarrollo histórico de las investigaciones sobre la materia, se revisa el marco teórico que establece la econometría espacial y, de manera específica, se consideran distintas aproximaciones, de reciente aparición, orientadas a la identificación de agrupamientos derivados de los procesos de convergencia. Se incorporan diferentes análisis propios, basados en datos reales y focalizados en los estados y regiones europeas, que han supuesto: (i) la aplicación y, en su caso, desarrollo de las correspondientes herramientas estadísticas planteadas en los modelos teóricos que sustentaban cada estudio; y (ii) obtener inferencias respecto a la evolución de las economías consideradas. Se identifica como resultado colateral de este proceso la elaboración de rutinas informáticas en lenguaje R, que constituyen una aportación al enriquecimiento de este entorno de programación.Tesis Doctoral Medición de la actividad docente del profesor universitario mediante técnicas de análisis de eficiencia(2016-02-05) Correa Granda, Carlos Aníbal; Pino Mejías, José Luis; Luque Calvo, Pedro Luis; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaEl objetivo principal de la tesis es introducir la dimensión de la eficiencia en la medición de la actividad docente del profesor universitario, campo mucho menos tratado en la literatura que el de la actividad investigadora a causa de menor consenso sobre lo que se entiende por docencia “de calidad”, la escasez de datos y la dificultad de comparar la información disponible en los diversos sistemas universitarios. En los tres primeros capítulos se sistematizan los factores en los que hay un acuerdo mayoritario respecto a su positiva incidencia sobre la actividad docente, se presentan los diferentes tipos de eficiencia, identificando la eficiencia técnica como la que mejor se ajusta al concepto de eficiencia docente, y se introducen las técnicas cuantitativas que pueden emplearse para su medición. El capítulo cuarto aporta una recopilación de experiencias internacionales de evaluación de las actividades del profesorado universitario, centrándose el quinto, para el caso ecuatoriano, en las fuentes de información disponibles en general y en la UTPL en particular. El apoyo dado por las autoridades académicas a la presente tesis ha permitido trabajar con una información muy superior, en diversidad y volumen al de la mayoría de los estudios consultados. El capítulo seis muestra la metodología seguida para la selección de inputs, outputs y orientación de los modelos DEA, y la influencia de los distintos escenarios en las mediciones de la eficiencia resultantes. En el capítulo siete se presentan tres indicadores compuestos de eficiencia docente. Para la construcción de los indicadores se ha aplicado el DEA para obtener para cada profesor los pesos que optimizan su indicador de eficiencia, dado que ello suministra tantos conjuntos de pesos como profesores, el primer indicador compuesto tiene en cuenta la distribución espacial de los vectores de pesos, de forma que tengan más participación los vectores con una menor distancia media al resto. El segundo indicador se basa en una novedosa construcción de una medida de capacidad, que puede obtenerse a partir de la descomposición exhaustiva de la varianza, o a partir de los índices de influencia de Sobol. El número de términos de la descomposición de la varianza obliga a recurrir a una aproximación de Monte Carlo para su cálculo. La validez de la técnica de muestreo se ha comprobado mediante el cálculo de los valores exactos de los índices y su comparación con las estimaciones obtenidas por muestreo. El disponer de una medida de capacidad permite proponer como segundo indicador compuesto la Integral de Choquet discreta. El tercer indicador compuesto utiliza los índices de Shapley para la agregación de las variables normalizadas en función de su carácter input u output. La elección de uno de los indicadores desarrollados, puede ser realizada en función del grado de compensabilidad deseado entre los valores de las variables consideradas. Las aportaciones computacionales se muestran en los Anexos, y constituyen una herramienta de interés para los profesores e instituciones de educación superior, ya que todo el desarrollo realizado en R puede ser reproducido y adaptado a las necesidades de otras instituciones.Tesis Doctoral Problema variacional múltiple(2003) Arana Jiménez, Manuel; Rufián Lizana, Antonio; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaLa tesis, se estructura en 4 capítulos: en el capítulo 1, vamos a abordar el estudio de las soluciones eficientes y débilmente eficientes para un problema de programación multiobjetivo (PM); en el Capítulo 2 abordamos el problema variacional escalar con restricciones (PV) ; en el capítulo 3 nos centramos en el estudio de la eficiencia débil ; en el capítulo 4 estudiamos el problema variacional múltiple (PVM) con restricciones en la búsqueda de soluciones eficientes.|Tesis Doctoral Métodos de muestreo para la optimización global entera(1988) Ojo Mesa, Juan del; Fernández García, Francisco Ramón; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaTesis Doctoral Fórmulas de cuadratura con operadores diferenciales(1976) Arroyo Pérez, Andrés; Castro Brzezicki, Antonio de; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaEn el Capítulo 1 demostramos que, para el operador diferencial L, fijados m nodos de forma arbitraria (distintas), pueden conseguirse siempre fórmulas elementales de cuadratura con grado de precisión 2n-1. En el capítulo segundo se estudia el problema de Gauss, esto es como eliminar de la fórmula determinados órdenes de derivación de la función integrando, del que en el libro de A. Ghizzetti A. Ossiciri solo se estudia la compatibilidad del mismo. En el capítulo tercero se estudia la obtención de fórmulas de cuadratura en que las derivadas del mismo orden vayan afectadas del mismo peso, común para todos los nodos. En el capítulo cuarto, original no solo en resultados sino también en métodos, se estudia como se pueden conseguir fórmulas elementales de cuadratura donde solo aparecen valores de la función integrando y de sus derivadas sucesivas en los extremos el intervalo de integración.|Tesis Doctoral Test de bondad de ajuste para la distribución Poissón Bivariante(2013) Novoa Muñoz, Francisco; Jiménez Gamero, María Dolores; Universidad de Sevilla. Departamento de Estadística e Investigación OperativaLos datos de conteo pueden aparecer bajo diferentes circunstancias. En un marco univariante, la distribución Poisson es la distribución que con mayor frecuencia ha sido empleada para modelar tales datos (ver por ejemplo, Haight (1967, pp. 100107) [12], Johnson y Kotz (1969, pp. 8890) [18], Sahai y Khurshid (1993) [41]). En la práctica, los datos de conteo bivariantes surgen en varias disciplinas diferentes y la distribución Poisson bivariante (DPB), siendo una generalización de la distribución Poisson, juega un rol importante al momento de modelarlos, siempre que dichos datos presenten una correlación no negativa.|