2024-03-29T01:10:51Zhttps://idus.us.es/oai/requestoai:idus.us.es:11441/1279502024-02-13T09:38:37Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
New models and methods for classification and feature selection. a mathematical optimization perspective
Blanquero Bravo, Rafael
Carrizosa Priego, Emilio José
Ramírez Cobo, Josefa
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
The objective of this PhD dissertation is the development of new models for Supervised
Classification and Benchmarking, making use of Mathematical Optimization and Statistical
tools. Particularly, we address the fusion of instruments from both disciplines,
with the aim of extracting knowledge from data. In such a way, we obtain innovative
methodologies that overcome to those existing ones, bridging theoretical Mathematics
with real-life problems.
The developed works along this thesis have focused on two fundamental methodologies
in Data Science: support vector machines (SVM) and Benchmarking. Regarding
the first one, the SVM classifier is based on the search for the separating hyperplane of
maximum margin and it is written as a quadratic convex problem. In the Benchmarking
context, the goal is to calculate the different efficiencies through a non-parametric
deterministic approach. In this thesis we will focus on Data Envelopment Analysis
(DEA), which consists on a Linear Programming formulation.
This dissertation is structured as follows. In Chapter 1 we briefly present the
different challenges this thesis faces on, as well as their state-of-the-art. In the same
vein, the different formulations used as base models are exposed, together with the
notation used along the chapters in this thesis.
In Chapter 2, we tackle the problem of the construction of a version of the SVM
that considers misclassification errors. To do this, we incorporate new performance
constraints in the SVM formulation, imposing upper bounds on the misclassification
errors. The resulting formulation is a quadratic convex problem with linear constraints.
Chapter 3 continues with the SVM as the basis, and sets out the problem of providing
not only a hard-labeling for each of the individuals belonging to the dataset, but a
class probability estimation. Furthermore, confidence intervals for both the score values
and the posterior class probabilities will be provided. In addition, as in the previous
chapter, we will carry the obtained results to the field in which misclassified errors are
considered. With such a purpose, we have to solve either a quadratic convex problem
or a quadratic convex problem with linear constraints and integer variables, and always
taking advantage of the parameter tuning of the SVM, that is usually wasted.
Based on the results in Chapter 2, in Chapter 4 we handle the problem of feature selection, taking again into account the misclassification errors. In order to build this
technique, the feature selection is embedded in the classifier model. Such a process is
divided in two different steps. In the first step, feature selection is performed while at
the same time data is separated via an hyperplane or linear classifier, considering the
performance constraints. In the second step, we build the maximum margin classifier
(SVM) using the selected features from the first step, and again taking into account
the same performance constraints.
In Chapter 5, we move to the problem of Benchmarking, where the practices of
different entities are compared through the products or services they provide. This is
done with the aim of make some changes or improvements in each of them. Concretely,
in this chapter we propose a Mixed Integer Linear Programming formulation based in
Data Envelopment Analysis (DEA), with the aim of perform feature selection, improving
the interpretability and comprehension of the obtained model and efficiencies.
Finally, in Chapter 6 we collect the conclusions of this thesis as well as future lines
of research.
2021-12-02
2021-12-02
2021-07-27
info:eu-repo/semantics/doctoralThesis
Benítez Peña, S. (2021). New models and methods for classification and feature selection. a mathematical optimization perspective. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
https://hdl.handle.net/11441/127950
eng
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:idus.us.es:11441/150882024-02-13T09:46:17Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Tratamiento de la imprecisión en la Teoría de la Utilidad del Consumidor
Pino Mejías, José Luis
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Decisión
Toma de
Decisión con criterios múltiples
Utilidad (Economía política)
Consumidores
La presente tesis tiene como propósito presentar un nuevo enfoque en el tratamiento de la incertidumbre interna en la toma de decisiones de los individuos. Más concretamente, se centra en uno de los campos de aplicación de la teoría de la decisión multicriterio más importantes, tanto por la cantidad de trabajo desarrollado en él como en sus repercusiones sociales y económicas, que han dado lugar al despliegue de un amplio espectro de teorías en torno suya: la teoría del consumidor.
2014-11-27
2014-11-27
2009
info:eu-repo/semantics/doctoralThesis
Gálvez Ruiz, D. (2009). Tratamiento de la imprecisión en la Teoría de la Utilidad del Consumidor. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/15088
https://idus.us.es/xmlui/handle/11441/15088
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/724872024-02-13T09:59:08Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Un problema de localización max-min con restricciones
Muñoz Pérez, José
García Rendón, Antonino
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Máximos y mínimos
En nuestro trabajo, tratamos el problema de localización de un centro peligroso en un polígono convexo, S -aunuqe en la Segunda parte del Capítulo II consideramos un caso en el que sólo exigimos a S que sea múltiplemente conexo- dentro de una región donde
2018-04-12
2018-04-12
1993
info:eu-repo/semantics/doctoralThesis
Fernández Palacín, Fernando (1993). Un problema de localización max-min con restricciones (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
9788469425459
https://hdl.handle.net/11441/72487
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:idus.us.es:11441/991752024-02-17T16:22:50Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Integración Montecarlo en la determinación de orbitales atómicos y moleculares
Fernández Núñez, Manuel
Infante Macías, Rafael
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
2020-07-09
2020-07-09
1995-10-03
info:eu-repo/semantics/doctoralThesis
https://hdl.handle.net/11441/99175
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:idus.us.es:11441/150852024-02-17T17:57:25Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Problemas de localización multiobjetivo
Fernández García, Francisco Ramón
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Programación (Matemáticas)
El objetivo del presente trabajo es el estudio de ciertos aspectos del problema multiobjetivo P (A, S) cuando el conjunto factible S es un subconjunto Rn.Los modelos de loc alización de un servicio llevan asociados de manera natural un problema de optimización vectorial: el problema punto objetivo. Dicho problema ha sido profundamente estudiado bajo la hipótesis de que el espacio factible es todo IRN. El objetivo de este trabajo es estudiar extensiones y consecuencias de estos resultados en problemas restringidos: caracterizamos geométricamente los conjuntos solución asociados para regiones cerradas (no necesariamente convexas) a través del concepto de CCD. Asimismo, los resultados obtenidos permiten resolver un problema clásico de localización en ambiente competitivo (el cálculo de centroides), para el que se propone un algoritmo polinomial.
2014-11-27
2014-11-27
1992
info:eu-repo/semantics/doctoralThesis
Carrizosa Priego, E.J. (1992). Problemas de localización multiobjetivo. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/15085
https://idus.us.es/xmlui/handle/11441/15085
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/157202024-02-13T08:55:15Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Análisis estadístico de las distribuciones de vida basado en la función de esparcimiento
Infante Macías, Rafael
Muñoz Pérez, José
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Distribución (Teoría de probabilidades)
2014-11-27
2014-11-27
1993
info:eu-repo/semantics/doctoralThesis
Fernández Ponce, J.M. (1993). Análisis estadístico de las distribuciones de vida basado en la función de esparcimiento. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/15720
https://idus.us.es/xmlui/handle/11441/15720
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/157242024-02-13T10:02:35Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Localización de servicios en el plano mediante técnicas de Optimización d.c.
Carrizosa Priego, Emilio José
Infante Macías, Rafael
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Optimización matemática
Localización, Teoría de la
2014-11-27
2014-11-27
1999
info:eu-repo/semantics/doctoralThesis
Blanquero Bravo, R. (1999). Localización de servicios en el plano mediante técnicas de Optimización d.c.. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/15724
https://idus.us.es/xmlui/handle/11441/15724
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/241022024-02-13T22:23:54Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Soluciones algebraicas a la resolución de problemas multiobjetivo discretos Algebraic solutions for solving discrete multiobjective problems
Puerto Albandoz, Justo
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Optimización matemática
Esta tesis doctoral estudia algunos de los aspectos algebraicos de la optimización multiobjetivo lineal y polinomial. Primeramente, en el Capítulo 1 se introducen los conceptos básicos necesarios para el desarrollo de los métodos presentados: la presentación del problema multiobjetivo, y el concepto de solución no dominada (o Pareto óptima); algunas definiciones básicas sobre conjuntos parcialmente ordenados (posets); las nociones necesarias sobre la teoría de Bases de Gröbner para ideales polinómicos; y finalmente los resultados más importantes sobre funciones racionales, en especial, para su aplicación a la Programación Lineal y Entera. Los capítulos 2 y 3 están dedicados a la resolución de problemas multiobjetivo lineales y enteros usando bases de Gröbner parciales. En el Capítulo 2 se trata el problema desde una visión totalmente polinómica, presentando los algoritmos sobre anillos de polinomios. Sin embargo, en el Capítulo 3, se presenta una traducción geométrica de los resultados del capítulo anterior. En el Capítulo 4 el mismo problema es abordado usando funciones racionales. En _este se estudia el problema multiobjetivo lineal y entero, y se prueban algunos resultados sobre la complejidad de los métodos que se presentan. Al final del capítulo se describe un método para calcular el número de semigrupos numéricos con genero dado, como aplicación de las funciones generatrices. En el Capítulo 5 se describen distintas metodologías para resolver problemas multiobjetivo polinómicos discretos usando Bases de Gröbner, aprovechando las propiedades de estas para resolver sistemas de ecuaciones polinómicas.|
2015-04-16
2015-04-16
2009
info:eu-repo/semantics/doctoralThesis
Blanco Izquierdo, V. (2009). Soluciones algebraicas a la resolución de problemas multiobjetivo discretos Algebraic solutions for solving discrete multiobjective problems. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/24102
https://idus.us.es/xmlui/handle/11441/24102
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/914112024-02-13T08:50:19Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
New methods and results in the optimisation of solar power tower plants
Carrizosa Priego, Emilio José
Fernández Cara, Enrique
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Renewable energy technology has seen great advances in recent decades,
combined with an ever increasing interest in the literature. Solar Power Tower
(SPT) plants are a form of Concentrating Solar Power (CSP) technology which
continue to be developed around the world, and are formed of subsystems that
are open to optimisation.
This thesis is concerned with the development of new methods and results
in the optimisation of SPT plants, with particular focus on operational optimi-
sation.
Chapter 1 provides background information on the energy sector, before
describing the design and modelling of an SPT plant. Here, the optical theory
behind the transfer of incident radiation in the system is developed and the
relevant equations presented.
In Chapter 2, the cleaning operations of the heliostat eld are optimised
for a xed schedule length using Binary Integer Linear Programming (BILP).
Problem dimensionality is addressed by a clustering algorithm, before an ini-
tial solution is found for the allocation problem. Finally, a novel local search
heuristic is presented that treats the so-called route \attractiveness" through the
use of a sequential pair-wise optimisation procedure that minimises a weighted
attractiveness measure whilst penalising for overall energy loss.
Chapters 3-6 investigate the aiming strategy utilised by the heliostat eld
when considering a desired
ux distribution pro le and operational constraints.
In Chapter 3, a BILP model was developed, where a pre-de ned set of aim-
ing points on the receiver surface was chosen. The linear objective function was
constrained with linear equalities that related to distribution smoothing (to pro-
tect receiver components from abnormal
ux loads) via the use of penalisation.
Chapter 4 extended this model by instead considering continuous variables with
no xed grid of aiming points. This led to an optimisation problem with a non-
linear, non-convex objective function, with non-linear constraints. In this case,
a gradient ascent algorithm was developed, utilising a non-standard step-size
selection technique. Chapter 5 further extended the aiming point optimisation
topic to consider the dynamic case. In this sense, the aiming strategy across a
period of time could be optimised, taking into account SPT plant technologi-
cal limitations. Two algorithms were considered, Penalisation and Augmented
Lagrangian, where theoretical properties for optimality and solution existence
were presented. Finally Chapter 6 considered the efects of inclement weather on the optimisation model presented in Chapter 3. Stochastic processes were in-
vestigated to determine optimal aiming strategies at a xed point in time when
weather data could not be known for certain.
All research presented in this thesis is illustrated using real-world data for an
SPT plant, and conclusions and recommendations for future work are presented.
2020-01-09
2020-01-09
2019-12-03
info:eu-repo/semantics/doctoralThesis
Ashley, T.I. (2019). New methods and results in the optimisation of solar power tower plants. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
https://hdl.handle.net/11441/91411
eng
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:idus.us.es:11441/304002024-02-14T09:16:55Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Modelización multinivel del rendimiento académico universitario
Pino Mejías, José Luis
Muñoz Pichardo, Juan Manuel
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
modelización
rendimiento académico
Los modelos multinivel permiten abordar las situaciones en las que los datos obtenidos de la investigación tienen una estructura jerárquica, de forma que los individuos se agrupan en niveles cuyas características pueden influir en las variables que son objeto de estudio. La cuestión clave que define una variable como un nivel es que sus unidades pueden considerarse como una muestra aleatoria de una población más amplia de unidades.
El rendimiento académico estudiantil constituye un elemento fundamental para determinar el resultado el proceso de enseñanza-aprendizaje de las universidades. En el rendimiento académico inciden múltiples factores inherentes al estudiante, a la organización académica universitaria y al profesorado que se ubican en diversos niveles de influencia y que interaccionan entre sí.
En la presente tesis se ha realizado una sistematización de la conceptualización del rendimiento académico, de los indicadores propuestos en la literatura para su medición y, a partir del análisis de la información que suministran los sistemas de gestión académica, se han seleccionado como factores del nivel de los estudiantes la edad, el género, las becas y el hábitat; para la universidad el área académica y el tipo de estudios de los estudiantes; y para el profesorado la experiencia docente, la retribución, la edad y el género.
Para investigar la influencia de los anteriores factores en los indicadores de rendimiento académico se han analizado diversos modelos multinivel con términos de intersección y coeficientes aleatorios. Para estos modelos el procedimiento de máxima verosimilitud produce estimadores sesgados de los parámetros aleatorios, este sesgo puede llegar a ser importante por lo que las estimaciones se han realizado mediante máxima verosimilitud restringida.
Los modelos se han aplicado a una muestra de 55.359 estudiantes de la UTPL de Ecuador. Entre los resultados obtenidos caben destacar la estimación de la influencia de la interacción entre género de los estudiantes y la modalidad de enseñanza, entre la edad de los estudiantes y el área académica o entre la edad del profesorado y la modalidad de enseñanza.
La aplicación de los modelos ha exigido desarrollar una metodología de data cleaning que permite el aprovechamiento estadístico de fuentes administrativas heterogéneas.
2015-11-05
2015-11-05
2015-10-29
info:eu-repo/semantics/doctoralThesis
Morocho Quezada, M.E. (2015). Modelización multinivel del rendimiento académico universitario. (Tesis doctoral inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/30400
https://idus.us.es/xmlui/handle/11441/30400
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/240922024-02-14T08:48:48Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Algunas cuestiones sobre modelos epidemiológicos
Infante Macías, Rafael
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Epidemiología
Constituye un sistema iterativo de solución para una amplia clase de modelos epidemiológicos estocásticos de tipo Markoviano. Nos permite obtener un sistema triangular que describe al modelo y fácilmente resoluble. ... 50%; font-family: 'Times New Roman','serif'; font-size: 12pt">Llegamos así a la distribución de probabilidad del proceso para cualquier instante T así como otras distribuciones derivadas. Estos modelos pueden ser resueltos bajo supuestos generalizados y partiendo de condiciones iniciales arbitrarias. A través de nuestro procedimiento iterativo podemos llegar además al conocimiento de la función de verosimilitud y a estimaciones maximoverosimiles de los parámetros. El procedimiento esta aplicado a un modelo epidemiológico que supone una campaña de inmunización el cual es resuelto completamente. Finalmente se aplica a otros dos modelos uno de infección cruzada entre varios grupos y otro de epidemia general con varias clases de susceptibles.La exposición que hemos divido en tres capítulos. El primero nos ofrece un estudio de algunos de los modelos existentes en la literatura especializada y las técnicas de solución utilizadas. La mayoría de ellos resolubles, de manera exacta, mediante nuestro procedimiento. En el segundo, desarrollamos el método de solución para el caso de un proceso de tipo Markoviano tridimensional y lo aplicamos a un modelo epidemiológico que supone una campaña de inmunización. Al final resolvemos este modelo, mediante ordenador, para tamaños de población reducidos. Algunos de los resultados obtenidos se presentan resumidos en tablas y figuras. Por último, en el tercer capítulo desarrollamos propiamente la teoría que fundamenta nuestro procedimiento general. Además lo aplicamos a dos modelos epidemiológicos de cierta complejidad y que en su versión más general no han sido re|
2015-04-16
2015-04-16
1980
info:eu-repo/semantics/doctoralThesis
Requena Guerrero, F. (1980). Algunas cuestiones sobre modelos epidemiológicos. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/24092
https://idus.us.es/xmlui/handle/11441/24092
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/150802024-02-13T09:49:25Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Análisis de influencia en el modelo lineal general sesgo condicionado
Muñoz García, Joaquín
Infante Macías, Rafael
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Análisis de regresión
"Se propone una base teórica para abordar el problema del análisis de influencia a través del concepto de sesgo condicionado, aplicándose al modelo lineal general. Así, los resultados que se obtienen pueden ser trasladados a los distintos modelos lineale
2014-11-27
2014-11-27
1992
info:eu-repo/semantics/doctoralThesis
Muñoz Pichardo, J.M. (1992). Análisis de influencia en el modelo lineal general sesgo condicionado. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/15080
https://idus.us.es/xmlui/handle/11441/15080
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/404362024-02-13T22:28:30Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Construcción de un modelo para determinar el rendimiento académico de los estudiantes basado en learning analytics (análisis del aprendizaje), mediante el uso de técnicas multivariantes
Pino Mejías, José Luis
Muñoz Pichardo, Juan Manuel
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Falta palabras clave
Las plataformas de enseñanza virtual tales como WEbCT, Moodle, Blackboard, Claroline, Dokeos y recientemente las plataformas MOOC (Massive Open Online Courses) permiten a las universidades monitorizar en tiempo real la actividad de los estudiantes. La integración de esta información con otras variables está en el origen de las técnicas de extracción de conocimiento útil para la mejora del proceso de enseñanza – aprendizaje, conocidas como análisis del aprendizaje (learning analytics).
El objetivo central de la tesis es emplear el análisis del aprendizaje para identificar los factores y covariables que influyen en el rendimiento académico de los estudiantes universitarios, y construir un modelo multivariante de cómo influyen. Las preguntas que ha pretendido responder la investigación son: ¿Qué proporción de la variación en el rendimiento académico puede atribuirse a las variables que engloba el learning analytics?; ¿Cuál es la influencia que existe entre variables sociodemográficas y académicas sobre el rendimiento académico del colectivo de estudiantes universitarios ecuatorianos de modalidad a distancia?; ¿Existe una relación entre el rendimiento académico y el contexto de los estudiantes y aulas así como entre éstas dos a través del contexto de las escuelas?.
Para ello en el capítulo 1 se revisan los tipos de análisis de datos que se están aplicando actualmente en el ámbito educativo, como son: Data Mining , Academic Analytics y el propio análisis del aprendizaje, ampliando la revisión de este último. En el capítulo 2 se hace una revisión teórica sobre el rendimiento académico y de los modelos estadísticos que se han venido aplicando a la hora de medirlo. El capítulo 3 recoge una revisión de las técnicas estadísticas aplicadas en la investigación educativa. En el capítulo 4 se introduce la metodología de estudio, selección de casos y variables que permiten justificar la elección de los modelos multivariantes. En el capítulo 5 se obtienen los resultados del modelo empírico multinivel estimando el modelo jerárquico con 2 y 3 niveles: estudiante (nivel inferior), aula (nivel intermedio) y escuela (nivel superior), utilizando el software Stata/SE 12.0. En el capítulo 6 se desarrolla un modelo logístico bivariante binario y un modelo logístico bivariante ordinal, los parámetros de los modelos se estiman usando el software R con la plataforma RStudio.
En el capítulo 7 se presentan los resultados, así respecto al modelo multinivel, el de mejor ajuste para el rendimiento académico incluye: Tres covariables del Nivel 2: tasa de repetidores, ciclo y tipo de docente; Ocho variables del Nivel 1: edad, rinde supletorio, repite materia, participa en chat, participa en foro, participa en videocolaboración, N° comentarios, N° accesos al LMS; Cuatro interacciones multinivel; La varianza de cinco pendientes del Nivel 1.
Los modelos logísticos bivariantes permiten confirmar que las covariables más relevantes son la edad de ingreso a la universidad y la participación activa en línea.
Esta investigación, al identificar la influencia que ejercen sobre el rendimiento académico las variables consideradas, permite a las instituciones educativas mejorar la focalización de las intervenciones y los servicios de apoyo a estudiantes con mayor riesgo de fracaso académico.
2016-04-25
2016-04-25
2016-02-05
info:eu-repo/semantics/doctoralThesis
García Tinisaray, D.K. (2016). Construcción de un modelo para determinar el rendimiento académico de los estudiantes basado en learning analytics (análisis del aprendizaje), mediante el uso de técnicas multivariantes. (Tesis doctoral inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/40436
https://idus.us.es/xmlui/handle/11441/40436
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/254262024-02-12T21:52:09Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Técnicas estadísticas para la medición de la eficiencia y la productividad total de los factores. Aplicación al sistema hospitalario español
Pino Mejías, José Luis
Santín González, Daniel
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Faltan por incorporar el resumen y las palabras clave
2015-06-09
2015-06-09
2015-04-20
info:eu-repo/semantics/doctoralThesis
Fernández Gómez, A. (2015). Técnicas estadísticas para la medición de la eficiencia y la productividad total de los factores. Aplicación al sistema hospitalario español. (Tesis doctoral inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/25426
https://idus.us.es/xmlui/handle/11441/25426
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/489832024-02-15T07:40:51Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Técnicas de identificación de outliers para el modelo multinomial
Muñoz García, Joaquín
Pascual Acosta, Antonio
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Universidad de Sevilla. FQM153: Estadística e Investigación Operativa
Matemáticas
Análisis de datos
Estadística
Una de las etapas fundamentales, de cualquier análisis estadístico, es el estudio de la calidad de los datos experimentales, con el fin de garantizar la máxima fiabilidad en las conclusiones que se obtengan del mismo.
Se puede considerar que una primera aproximación al análisis de la calidad de las observaciones experimentales data de la segunda mitad del siglo XVIII, con la depuración de datos resultantes de investigaciones astronómicas. Ciertos astrónomos aconsejan la eliminación de las observaciones extremas resultantes de sus cuantificaciones experimentales, argumentando para ello que dichas observaciones pueden perturbar las inferencias a realizar.
Debido a que en los inicios del siglo XIX, Laplace y Gauss estudian la distribución normal en relación con sus trabajos sobre la teoría de errores, esta teoría empieza a surgir con un mayor auge hacia finales de dicho siglo. No obstante, no es hasta la primera mitad del siglo XX cuando aparecen métodos con cierto fundamento teórico.
Desde el trabajo de Glaisher (1872) hasta nuestros días se han desarrollado una gran cantidad de técnicas que dan lugar a lo que hoy se conoce como “Análisis Estadístico de Outliers”.
Las técnicas que se han propuesto a lo largo de estos años están, generalmente, centradas en el análisis de outliers en muestras extraídas de una población. Así son los casos de detección de outliers en poblaciones normales uni – o – multivariantes, poblaciones exponenciales, etc. Sin embargo, este estudio ha sido muy reducido para analizar outliers respecto a técnicas estadísticas tales como regresión, modelo lineal, diseños de experimentos, tablas de contingencia, etc., que es lo que Barnett y Lewis (1984) han identificado como Análisis de Outliers en Datos Estructurados.
Es precisamente en este último campo donde se centra el estudio que re recoge en esta memoria, la cual se ha estructurado en dos capítulos, donde en el primero se recogen las definiciones que han sido dadas, por diversos autores, sobre el término outlier, analizando los rasgos fundamentales que caracterizan a dichas observaciones, así como las técnicas propuestas para su estudio. Se finaliza con una recopilación de las técnicas de identificación de datos estructurados en el caso particular de que los resultados experimentales estén recogidos en una tabla de contingencia.
En el segundo capítulo, tras estudiar el Modelo Multinomial, se dan procedimientos para la detección de outliers en dichos modelos, bajo determinadas hipótesis. Los resultados obtenidos se particularizan a tablas de doble entrada, realizando un estudio comparativo de la potencia de un test propuesto y del test F. dado por Fuchs y Kenett (19809.
Se completa esta memoria con la presentación de dos programas elaborados para calcular algunos estadísticos propuestos en el capítulo segundo.
2016-11-22
2016-11-22
1989-02-13
info:eu-repo/semantics/doctoralThesis
García de las Heras, J. (1989). Técnicas de identificación de outliers para el modelo multinomial. (Tesis doctoral inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/48983
https://idus.us.es/xmlui/handle/11441/48983
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:idus.us.es:11441/157282024-02-12T21:28:46Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Redes de neuronas artificiales en oceanografía
Pino Mejías, Rafael
Muñoz García, Joaquín
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Redes neuronales (Informática)
Oceanografía
2014-11-27
2014-11-27
2004
info:eu-repo/semantics/doctoralThesis
Hernández Barrera, N.E. (2004). Redes de neuronas artificiales en oceanografía. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/15728
https://idus.us.es/xmlui/handle/11441/15728
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/153492024-02-13T09:44:41Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Tratamiento estadístico de la no respuesta en poblaciones finitas
Caridad Ocerín, José María
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
El muestreo de una población está dirigido a obtener información acerca de una o varias características de las unidades que la componen. Esta información se obtiene a través de una encuesta y, en la mayoría de los casos, de una parte de la población, a la que llamamos muestra, a partir de la cual proponemos estimadores sobre dichas características, de forma que proporcionan la información más efic iente. Hablaremos de no respuesta cuando no se obtienen observaciones, total o parcialmente, de las unidades seleccionadas y designadas para la muestra. La presencia de ésta, en la encuesta, crea problemas y entre otros, en la estimación de los parámetros poblacionales, con la presencia del sesgo, el cual, surge al no ser la información faltante una muestra aleatoria de los datos que se buscan y cuya magnitud es desconocida. Se estudiaran los errores en las encuestas, las causas y efectos que produce la no respuesta sobre la estimación de un parámetro poblacional, tanto a nivel puntual como por intervalo. Y los principales procedimientos en las distintas fases del muestreo, para tratar la no respuesta. También se estudiaran tres tipos de muestreo: Muestreo sin reposición aleatorio simple, muestreo estratificado y muestreo de conglomerados bietápicos.
2014-11-27
2014-11-27
1995-01-01
info:eu-repo/semantics/doctoralThesis
Martos Peinado, J. (1995). Tratamiento estadístico de la no respuesta en poblaciones finitas. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/15349
https://idus.us.es/xmlui/handle/11441/15349
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/1429992024-02-12T21:55:52Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Enhancing Classification and Regression Tree-Based Models by means of Mathematical Optimization
Blanquero Bravo, Rafael
Carrizosa Priego, Emilio José
Romero Morales, María Dolores
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
This PhD dissertation bridges the disciplines of Operations Research and Machine Learning by
developing novel Mathematical Optimization formulations and numerical solution approaches
to build classification and regression tree-based models.
Contrary to classic classification and regression trees, built in a greedy heuristic manner,
formulating the design of the tree model as an optimization problem allows us to easily include,
either as hard or soft constraints, desirable global structural properties. In this PhD dissertation,
we illustrate this flexibility to model: sparsity, as a proxy for interpretability, by controlling the
number of non-zero coefficients, the number of predictor variables and, in the case of functional
ones, the proportion of the domain used for prediction; an important social criterion, the
fairness of the model, which aims to avoid predictions that discriminate against race, or other
sensitive features; and the cost-sensitivity for groups at risk, by ensuring an acceptable accuracy
performance for them. Moreover, we provide in a natural way the impact that continuous
predictor variables have on each individual prediction, thus enhancing the local explainability
of tree models.
All the approaches proposed in this thesis are formulated through Continuous Optimization
problems that are scalable with respect to the size of the training sample, are studied theoretically,
are tested in real data sets and are competitive in terms of prediction accuracy against
benchmarks. This, together with the good properties summarized above, is illustrated through
the different chapters of this thesis.
This PhD dissertation is organized as follows. The state of the art in the field of (optimal)
decision trees is fully discussed in Chapter 1, while the next four chapters state our methodology.
Chapter 2 introduces in detail the general framework that threads the chapters in this thesis:
a randomized tree with oblique cuts. Particularly, we present our proposal to deal with classification
problems, which naturally provides probabilistic output on class membership tailored
to each individual, in contrast to the most popular existing approaches, where all individuals
in the same leaf node are assigned the same probability. Preferences on classification rates in
critical classes are successfully handled through cost-sensitive constraints.
Chapter 3 extends the methodology for classification in Chapter 2 to additionally handle
sparsity. This is modeled by means of regularizations with polyhedral norms added to the objective function. The sparsest tree case is theoretically studied. Our ability to easily trade in
some of our classification accuracy for a gain in sparsity is shown.
In Chapter 4, the findings obtained in Chapters 2 and 3 are adapted to construct sparse
trees for regression. Theoretical properties of the solutions are explored. The scalability of our
approach with respect to the size of the training sample, as well as local explanations on the
continuous predictor variables, are illustrated. Moreover, we show how this methodology can
avoid the discrimination of sensitive groups through fairness constraints.
Chapter 5 extends the methodology for regression in Chapter 4 to consider functional predictor
variables instead. Simultaneously, the detection of a reduced number of intervals that
are critical for prediction is performed. The sparsity in the proportion of the domain of the
functional predictor variables to be used is also modeled through a regularization term added
to the objective function. The obtained trade off between accuracy and sparsity is illustrated.
Finally, Chapter 6 closes the thesis with general conclusions and future lines of research.
Esta tesis combina las disciplinas de Investigación Operativa y Aprendizaje Automático a
través del desarrollo de formulaciones de Optimización Matemática y algoritmos de resolución
numérica para construir modelos basados en árboles de clasificación y regresión.
A diferencia de los árboles de clasificación y regresión clásicos, generados de manera
heurística y voraz, construir un árbol a través de un problema de optimización nos permite
incluir fácilmente propiedades estructurales globales deseables. En esta tesis, ilustramos esta
flexibilidad para modelar los siguientes aspectos: sparsity, como sinónimo de interpretabilidad,
controlando el número de coeficientes no nulos, el número de variables predictoras y, si son
funcionales, la proporción de dominio usado en la predicción; un criterio social importante,
la equidad del modelo, evitando predicciones que discriminen a algunos individuos por su etnia
u otras características sensibles; y la sensibilidad al coste de grupos de riesgo, asegurando
un rendimiento aceptable para ellos. Además, con este enfoque se obtiene de manera natural
el impacto que las variables predictoras continuas tienen en la predicción de cada individuo,
mejorando así la explicabilidad local de los modelos de clasificación y regresión basados en
árboles.
Todos los enfoques propuestos en esta tesis se formulan a través de problemas de Optimización
Continua que son escalables con respecto al tamaño de la muestra de entrenamiento,
se estudian desde el punto de vista teórico, se evalúan en conjuntos de datos reales y son competitivos
frente a los procedimientos habituales. Esto, junto a las buenas propiedades resumidas
en el párrafo anterior, se ilustra a lo largo de los diferentes capítulos de esta tesis.
La tesis se estructura de la siguiente manera. El estado del arte sobre árboles de decisión
(óptimos) se discute ampliamente en el Capítulo 1, mientras que los cuatro capítulos siguientes
exponen nuestra metodología.
El Capítulo 2 introduce de forma detallada el marco general que hila los capítulos de esta
tesis: un árbol aleatorizado con cortes oblicuos. En particular, presentamos nuestra propuesta
para tratar problemas de clasificación, la cual construye la probabilidad de pertenencia a cada
clase ajustada a cada individuo, a diferencia de las técnicas más populares existentes, en las que
a todos los individuos en el mismo nodo hoja se les asigna la misma probabilidad. Se tratan
con éxito preferencias en las tasas de clasificación en clases críticas mediante restricciones de
sensibilidad al coste. El Capítulo 3 extiende la metodología de clasificación del Capítulo 2 para tratar adicionalmente
sparsity. Esto se modela mediante regularizaciones con normas poliédricas que se
añaden a la función objetivo. Se estudian propiedades teóricas del árbol más sparse, y se
demuestra nuestra habilidad para sacrificar un poco de precisión en la clasificación por una
ganancia en sparsity.
En el Capítulo 4, los resultados obtenidos en los Capítulos 2 y 3 se adaptan para construir
árboles sparse para regresión. Se exploran propiedades teóricas de las soluciones. Los experimentos
numéricos demuestran la escalabilidad de nuestro enfoque con respecto al tamaño
de la muestra de entrenamiento, y se ilustra cómo se generan las explicaciones locales en las
variables predictoras continuas. Además, mostramos cómo esta metodología puede reducir la
discriminación de grupos sensibles a través de las denominadas restricciones de justicia.
El Capítulo 5 extiende la metodología de regresión del Capítulo 4 para considerar variables
predictoras funcionales. De manera simultánea, la detección de un número reducido de intervalos
que son críticos para la predicción es abordada. La sparsity en la proporción de dominio
de las variables predictoras funcionales a usar se modela también a través de un término de
regularización añadido a la función objetivo. De esta forma, se ilustra el equilibrio obtenido
entre la precisión de predicción y la sparsity en este marco.
Por último, el Capítulo 6 cierra la tesis con conclusiones generales y líneas futuras de
investigación.
2023-02-27
2023-02-27
2022-12-19
info:eu-repo/semantics/doctoralThesis
Molero del Río, M.C. (2022). Enhancing Classification and Regression Tree-Based Models by means of Mathematical Optimization. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
https://hdl.handle.net/11441/142999
eng
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:idus.us.es:11441/726762024-02-13T09:32:12Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Programación matemática para las máquinas de vector de apoyo: mathematical programming for support vector machines
Romero Morales, María Dolores
Carrizosa Priego, Emilio José
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Minería de datos
En esta Tesis Doctoral, presentamos algunas propuestas en las que las herramientas de la Programación Matemática se usan para obtener clasificadores que tengan algunas propiedades interesantes. En aplicaciones prácticas, el principal objetivo es obtener c
2018-04-13
2018-04-13
2006
info:eu-repo/semantics/doctoralThesis
Martín Barragán, Belén (2006). Programación matemática para las máquinas de vector de apoyo: mathematical programming for support vector machines (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
9788469455463
https://hdl.handle.net/11441/72676
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:idus.us.es:11441/240952024-02-14T09:02:33Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Desarrollos para funciones de densidad y de distribución vía estimación insesgada
López Blázquez, José Fernando
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Estimación, Teoría de la
La aplicación de desarrollos ortogonales en Estadística ha sido limitado en gran parte a las series de Gram-Charlier tipo A y desarrollos de Edgeworth en el caso continuo y a las series de Gram-Charlier tipo B para variables discretas, los dos primeros como es conocido en términos de los polinomios de Hermite y el último en términos de los polinomios de Charlier. Cramér (1928) estudió el problema de la convergencia, así como dio condiciones bajo las cuales los desarrollos de tipo A y de Edgeworth son válidos asintóticamente. Por tanto cuando se conocen los primeros cumulantes de la distribución, un procedimiento común es el desarrollo de Edgeworth. Si bien es cierto que este método tiene sus inconvenientes en el sentido de que la aproximación puede tomar valores negativos o valores más grande que la unidad en la región de la cola. Por otro lado cuando la función característica de los estadísticos es conocida, pero la inversión integral de Fourier no puede ser explícitamente calculada, un buen método de aproximación es la técnica de punto de silla dada por Daniels (1954) y Esscher (1963). No obstante estos desarrollos dan buenos resultados únicamente cuando la distribución a aproximar está muy cercana a la curva normal.|
2015-04-16
2015-04-16
2000
info:eu-repo/semantics/doctoralThesis
Castaño Martínez, A. (2000). Desarrollos para funciones de densidad y de distribución vía estimación insesgada. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/24095
https://idus.us.es/xmlui/handle/11441/24095
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/157162018-11-26T11:45:22Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Algunas técnicas sobre selección de outliers
Pascual Acosta, Antonio
Infante Macías, Rafael
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Observaciones aberrantes (Estadística)
En el presente trabajo se dan tres técnicas diferentes para la detección de outliers en poblaciones distribuidas según una ley normal multivariante. Así, la primera es una regla a utilizar para cuando vayamos a aplicar la técnica de análisis discriminante y está basada en la función influencia. La segunda es utilizada para detectar outliers e n poblaciones normales p-dimensionales y está basada en el cociente de verosimilitudes y la última está basada en la distancia entre matrices simétricas y definidas positivas y se da para la detección en poblaciones normales bivariantes. Se dan, al mismo tiempo, casos prácticos donde se aplican estas técnicas.
2014-11-27
2014-11-27
1980
info:eu-repo/semantics/doctoralThesis
http://hdl.handle.net/11441/15716
https://idus.us.es/xmlui/handle/11441/15716
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/240942024-02-13T20:04:27Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Condiciones probabilísticas para la convergencia de sumas aleatoriamente ponderadas de elementos aleatorios en espacios lineales normados
Infante Macías, Rafael
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Convergencia (Matemáticas)
Espacios lineales normados
"Se estudia la convergencia a cero de sumas aleatoriamente ponderadas de elementos aleatorios definidos sobre un espacio lineal normado separable sin condiciones geométricas especiales. Se investigan con especial interés las condiciones de convergencia cuando los elementos aleatorios son idénticamente distribuidos o cuando verifican una condición de acotación uniforme de momentos. Para elementos aleatorios en un espacio de Banach separable con matriz de pesos no necesariamente triangular se obtienen condiciones que establecen la equivalencia entre la convergencia en probabilidad a cero en la topología fuerte y en la topología débil. Por último se aplican en teoría de procesos estocásticos y en regresión algunos de los resultados obtenidos."|
2015-04-16
2015-04-16
1981
info:eu-repo/semantics/doctoralThesis
Ordóñez Cabrera, M.H. (1981). Condiciones probabilísticas para la convergencia de sumas aleatoriamente ponderadas de elementos aleatorios en espacios lineales normados. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/24094
https://idus.us.es/xmlui/handle/11441/24094
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/157222024-02-17T17:26:48Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Estimación insesgada aplicada a la aproximación y caracterización de distribuciones
Gómez Gómez, María Teresa
López Blázquez, José Fernando
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Estimación, Teoría de la
La memoria está estructurada en siete capítulos con tres partes bien diferenciadas. En la primera parte que consta de los dos primeros capítulos se estudian desarrollos ortogonales asociados a estimadores insesgados en familias exponenciales naturales. Se muestra como dichos estimadoresson útiles para establecer diversas propiedades de los mismos tales como cotas inferiores para la varianza, propiedades asintóticas. Una de las particularidades de dichos desarrollos es que pueden ser obtenidos de forma algorítmica. En particular, en el segundo capítulo se expone como puede implementarse un algortimo para la obtención de estimadores insesgados en familias de series de potencias. El resto de la memoria estudia aplicaciones de los desarrollos obtenidos en la primera parte a problemas que no son propiamente de inferencia. Concretamente, en la segunda parte se muestra com los desarrollos pueden ser utilizados para la obtención de aproximaciones a ciertas distribuciones. El procedimiento presentado presenta la ventaja de ser un método unificado para la obtención de diversas aproximaciones que se encuentran en la literatura pero obtenidas por métodos diversos. Además, se proponen nuevas aproximaciones y se estudian las propiedades de las mismas. La última parte de la tesis utiliza la teoría expuesta en el primer capítulo para la caracterización de distribuciones. Se da una caracterización de la familia NEF-QVF mediante una propiedad martingala inversa que satisfacen ciertos polinomios asociados a las familias exponenciales y en el último capítulo se caracterizan distribuciones mediante regresión lineal de estadísticos ordenados y records.
2014-11-27
2014-11-27
2001
info:eu-repo/semantics/doctoralThesis
Salamanca Miño, B. (2001). Estimación insesgada aplicada a la aproximación y caracterización de distribuciones. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/15722
https://idus.us.es/xmlui/handle/11441/15722
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/331852018-11-08T11:10:40Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Modelos alternativos de simulación Bootstrap
Muñoz García, Joaquín
Pascual Acosta, Antonio
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Bootstrap (Estadística)
Muestreo (Estadística)
Se describen las características fundamentales de los métodos Bootstrap. Se analizan diversas problemáticas que presentan tales métodos, por lo que se presentan dos métodos alternativos dentro del método Bootstrap basado en la simulación de muestras (método II de Efron). En el primero se presenta un método, que a partir de un estudio de las propiedades algebraicas y estadísticas del conjunto de posibles muestras, utiliza un criterio probabilístico para detectar muestras "outliers". En el segundo se propone un método Bootstrap suavizado. En ambos casos se realizan diversas comparaciones con el método II de Efron.
2016-01-25
2016-01-25
1992-07-14
info:eu-repo/semantics/doctoralThesis
Pino Mejías, R. (1992). Modelos alternativos de simulación Bootstrap. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/33185
https://idus.us.es/xmlui/handle/11441/33185
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/724592024-02-14T20:05:34Zcom_11441_11443com_11441_11441com_11441_11100com_11441_11099com_11441_10690com_11441_11195com_11441_10843com_11441_10802col_11441_11525col_11441_11544col_11441_11474col_11441_11104col_11441_11199col_11441_10847
El impacto económico de la innovación en las empresas andaluzas
Solís Cabrera, Francisco Manuel
Galán González, José Luis
Pino Mejías, José Luis
Universidad de Sevilla. Departamento de Economía Aplicada I
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Universidad de Sevilla. Departamento de Administración de Empresas y Comercialización e Investigación de Mercados (Marketing)
Empresas
El objeto de este estudio es medir el impacto de la innovación en las empresas andaluzas con el fin de verificar si la innovación genera, o no, ventajas competitivas a las empresas innovadoras.
2018-04-11
2018-04-11
2012
info:eu-repo/semantics/doctoralThesis
Romero García de Paredes, María José (2012). El impacto económico de la innovación en las empresas andaluzas (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
https://hdl.handle.net/11441/72459
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:idus.us.es:11441/513882024-02-14T20:06:50Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Avances metodológicos en demografía
Arroyo Pérez, Andrés
Blanquero Bravo, Rafael
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Demografía
Investigación operativa
Modelos de población
Análisis demográfico
El estudio del volumen, estructura, características y evolución de las poblaciones humanas es el objetivo de la Demografía, indispensable para el conocimiento de la realidad social en la que vivimos. El conocimiento de esta realidad social es una herramienta básica para la planificación en el ámbito gubernamental y empresarial, cuya importancia queda patente en temas de actualidad como el tratamiento del fenómeno migratorio o los cambios en la edad legal de jubilación.
A pesar de la importancia de esta disciplina, la mayoría de las técnicas de análisis empleadas en Demografía han evolucionado a un ritmo menor que en ciertas disciplinas científicas afines, y no se han integrado los avances que han tenido lugar en ellas. En concreto, la observación de ciertos procedimientos utilizados en Demografía desvela que éstos podrán experimentar importantes mejoras mediante la aplicación de técnicas de Programación Matemática, dado que se han venido realizando sin atender a criterios de optimalidad. Tal es el caso de los problemas de desagregación de la población en edad simple, a los que se enfrentan habitualmente los Institutos de Estadística oficiales, y que son abordados con técnicas intuitivas pero no siempre plenamente satisfactorias; las características de estos problemas invitan al desarrollo de modelos de optimización específicos que permitan realizar estas tareas de forma _optima, manteniendo la consistencia transversal y longitudinal de la desagregación.
Vinuesa expone en que uno de los fundamentos de la Demografía y, más generalmente, de las ciencias, es intentar desagregar el objeto de estudio en partes lo más homogéneas posible, con el fin de analizarlas en el estado más puro, sin interferencias de otros elementos que pudieran sesgar la observación. Esto es, es necesario conocer las variables protagonistas de la dinámica del proceso en estudio para poder integrarlas en los modelos formulados. Así, se puede definir el modelo de proyección como el conjunto de expresiones matemáticas que describen la dinámica del sistema poblacional. En consecuencia, la teoría de los sistemas matemáticos debe ser utilizada para describir modelos de proyección y estudiar sus características.
En Demografía, como en otras disciplinas en las que se trabaja con gran cantidad de datos, es necesario disponer de la información lo más desagregada posible. El estudio de los distintos eventos o acontecimientos que tienen lugar en la dinámica de poblaciones requiere disponer de datos de población desagregados por sexo y edad simple. Sin embargo, el nivel de desagregación de la información suele ser menor cuanto mayor es el cruce de variables que proporciona dicha información, o cuanto menor es el tamaño del ámbito territorial al que hacen referencia los datos. Por tanto, partiendo de un conjunto de histogramas de intervalos de mayor o menor amplitud, uno de los objetivos será el desagregar la información disponible en intervalos de amplitud menor a través de una función suave. La suavización se realiza utilizando funciones spline.
En este contexto también podemos situar la modelización de las curvas de fecundidad, de gran importancia en la realización de las proyecciones de población. Si bien en la literatura se recogen diversos modelos matemáticos para realizar el ajuste de estas curvas, estos ajustes parecen ser mejorables en gran medida, especialmente en aquellos países en los que las curvas de fecundidad presentan un patrón distorsionado; esta desviación del patrón usual está originada por el solapamiento de dos patrones bien diferenciados: el de la fecundidad propia del país y el que acompaña a la inmigración. La propia producción estadística dentro del ámbito de la Demografía puede ser también objeto de mejora, dando cabida a fenómenos de reciente aparición e interés creciente, y adaptándose así a una realidad social cambiante.
Continuando con la misma línea que acaba de ser descrita, el inventario de operaciones estadísticas puede verse enriquecido mediante el análisis de los hogares en España y Andalucía. Los hogares son unidades básicas de gasto y, al mismo tiempo, de consumo. El conocimiento futuro de la distribución del tamaño de los hogares es necesario para la gestión de recursos públicos (los planes generales de ordenación urbana, PGOU, la gestión de Servicios Sociales, etc.) y privados (el tamaño de los envases de los bienes producidos para el consumo final de los hogares, por ejemplo). La proyección de hogares pertenece al grupo de las proyecciones derivadas, por lo que precisa apoyarse en unas proyecciones de base. Para que este tipo de ejercicios no presente esta limitación, es necesario disponer de una metodología que, en su implementación, no precise de la realización de ningún ejercicio de proyección previo. El insumo del nuevo modelo podría ser solamente la serie histórica de la variable en estudio, y la proyección de ésta se realizaría mediante la formulación de un problema de ajuste y su resolución mediante técnicas de Programación Matemática, dando lugar a un conjunto de parámetros que son extrapolados con posterioridad.
El objetivo de la presente tesis doctoral es doble. Por una parte, se pretende realizar mejoras metodológicas en ciertos procedimientos empleados en Demografía a partir de técnicas provenientes del campo de la Optimización y de la Estadística, y, por otra, proporcionar análisis demográficos más acordes con la realidad social actual, que, al mismo tiempo, serán beneficiarios de los avances surgidos de la consecución del primer objetivo.
Entrando a analizar de forma más precisa el contenido de esta memoria, en el Capítulo 2 se presentan nuevos modelos de Optimización en números enteros para la desagregación de la población en edad simple. Estos modelos, cuya característica principal es la presencia de ciertas restricciones de consistencia longitudinal y transversal, se desarrollan en el Apartado 2.1. A partir de un modelo primario, formulamos y resolvemos distintos problemas, atendiendo a la forma en la que se dispongan los datos iniciales y a las necesidades del investigador. El modelo inicial de referencia, al que denominamos Modelo Básico, Apartado 2.1.1, se completa con el Modelo con información auxiliar sobre el intervalo superior abierto en el Apartado 2.1.2, que da respuesta a la desagregación del grupo abierto, que usualmente abarca de los 85 años en adelante, y que requiere un tratamiento especial en la formulación. En otras ocasiones, se dispone de datos de población por edad simple en años próximos a los que intervienen en el proceso de desagregación. En tales circunstancias, es posible incorporar esta información de proximidad al modelo y mejorar los resultados. El problema así definido recibe el nombre de Modelo con información de contorno, y su formulación y resolución se aborda en el Apartado 2.1.3. Por último, en el Apartado 2.1.4 abordamos el problema en el que, partiendo de datos desagregados por edad simple de un ámbito superior, es preciso desagregar la población de los subámbitos en los que se divide el territorio superior, Modelo con información del ámbito superior. Éste podría corresponder al caso de una comunidad autónoma de la que se conocen los datos de población desagregados por edad simple y se desconocen los de las provincias que la integran.
Para todos los modelos descritos con anterioridad, se presentan distintos criterios de optimización al considerar, para cada una de las formulaciones, las normas l1, l2 y l∞ del vector de residuos en la función objetivo. La resolución de estos problemas se describe en el Apartado 2.2, presentándose en el Apartado 2.3 diferentes resultados obtenidos a partir de la aplicación a datos reales, que permiten realizar un análisis comparativo de los distintos modelos propuestos en términos de bondad del ajuste de las soluciones obtenidas.
El Capítulo 3 está centrado en la aplicación a la Demografía de las funciones polinómicas definidas a trozos o splines, mostrando el potencial que tienen en esta disciplina tales funciones. Se presentan, en primer lugar, los fundamentos teóricos de las funciones spline, Apartado 3.2, que, posteriormente, son aplicados a diversos problemas de índole demográfica relacionados con la desagregación de efectivos, Apartado 3.3. Entre las aplicaciones consideradas podemos citar el desglose en edades simples de una distribución bidimensional del número de nacidos según intervalos de edad de los padres o la modelización y extrapolación de las tasas específicas de fecundidad. Los desgloses resultantes de la aplicación de las técnicas consideradas en este capítulo pueden contener valores negativos, carentes de sentido en este contexto. Con el propósito de dar respuesta a esta problemática, se presentan en el Apartado 3.4 dos técnicas dirigidas a corregir la negatividad de los resultados del proceso de desagregación. La primera de ellas, que tiene un carácter local, permite dar solución a este problema en cada intervalo en que se presente por medio de un spline cúbico que preserva la derivabilidad de la función de reparto original. La segunda técnica, de carácter global, proporciona el spline suficientemente regular que mejor aproxima el área del histograma que se desea desagregar.
El Capítulo 4 está dedicado al análisis de los modelos paramétricos de ajuste de curvas de fecundidad. En él se realiza una revisión de los modelos publicados hasta la fecha, y se presenta un modelo novedoso de ajuste basado en una mixtura de funciones Weibull. El nuevo modelo presentado da cobertura al amplio espectro de patrones de fecundidad existentes según el ámbito territorial y temporal al que corresponden los datos representados. Tanto los modelos clásicos como los patrones distorsionados que han surgido a raíz de la incorporación de la nacionalidad extranjera a la fecundidad de un territorio (que se han traducido en la aparición de una pequeña joroba en la forma de la curva de fecundidad clásica), son ajustados satisfactoriamente con el nuevo modelo desarrollado en este capítulo. Tras el análisis de la situación actual en el apartado 4.1, presentamos en 4.2 un nuevo modelo de ajuste a la curva de la fecundidad. Los resultados de estos ajustes los comparamos con los modelos presentados en 4.1, aplicando las técnicas de fácil implementación que se exponen en el Apartado 4.3. Los resultados que se presentan en el Apartado 4.4 muestran que el modelo aquí introducido mejora los ajustes existentes hasta el momento sin hacer uso de un mayor número de parámetros que el resto.
En el Capítulo 5 se considera al análisis y proyección del tamaño de los hogares. Comenzamos con el análisis de la evolución de la variable distribución del tamaño de los hogares en España y Andalucía, Apartado 5.1, apoyándonos en la explotación de distintas Fuentes Estadísticas.
El estudio retrospectivo de la serie de la variable tamaño de los hogares es un punto fundamental, como paso previo a la resolución del modelo de proyección. No es posible justificar un buen ejercicio de proyección sin tener un conocimiento de la evolución pasada de la variable, puesto que, en gran medida, esta información ayudaría a componer las hipótesis del comportamiento futuro. En el Apartado 5.2 presentamos una metodología con la que, para su resolución, no es necesario hacer ningún ejercicio de proyección previo como ocurre con las metodologías aplicadas hasta la fecha por la mayoría de las Oficinas Estadísticas. El insumo del nuevo modelo es la serie histórica de la variable, con la cual se resuelve el modelo planteado mediante técnicas de Programación Matemática. En la modelización del problema de proyección planteado no solo se han tenido en cuenta los conocimientos matemáticos para la traducción de la dinámica de los hogares en las ecuaciones del sistema de proyección, sino que se ha integrado en el modelo, en forma de restricciones, información auxiliar demográfica, consiguiendo así enriquecer el problema al integrar distintas disciplinas. Partiendo de un modelo básico, Apartado 5.2.1, presentamos un modelo mejorado, 5.2.3, que nace del anterior, y abordamos la necesidad de incorporar las hipótesis de convergencia en el modelo de proyección, 5.2.3. Para concluir el Apartado 5.2, en el Apartado 5.2.3 se presenta una solución al problema que surge al trabajar con distintos ámbitos territoriales cuando éstos presentan distinta longitud en las series de datos que han de ser incorporadas en el modelo de proyección.
2016-12-30
2016-12-30
2014-07-18
info:eu-repo/semantics/doctoralThesis
Bermúdez Parrado, S. (2014). Avances metodológicos en demografía. (Tesis doctoral inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/51388
20708708
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:idus.us.es:11441/990902024-02-17T16:47:30Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Algunas cuestiones sobre detección y estimación de señales en teoría de la información
Infante Macías, Rafael
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
2020-07-08
2020-07-08
1976-09-23
info:eu-repo/semantics/doctoralThesis
https://hdl.handle.net/11441/99090
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:idus.us.es:11441/989662024-02-13T09:11:43Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Procedimientos ortogonales aplicados al Bootstrap
López Blázquez, José Fernando
Castaño Martínez, Antonia
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
La memoria se divide en ocho capítulos. En los primeros cuatro se hace una revisión del tema a tratar y se introducen las herramientas que serán utilizadas en los siguientes capítulos tales como desarrollos ortogonales para estimadores y procedimientos bootstrap de estimación.
En el capítulo 5 se introducen los estimadores bootstrap ortogonales del sesgo y de la varianza. Estos estimadores se obtienen truncando los desarrollos ortogonales de los estimadores con varianza finita y estimando los coeficientes de Fourier mediante un procedimiento bootstrap combinado con técnicas de regresión múltiple. El resultado fundamental es que estos estimadores poseen un error cuadrático medio inferior al obtenido por el procedimiento clásido de Monte Carlo. En el capítulo 6 se extiende el procedimiento anterior al caso no paramétrico y se presenta además un procedimiento específico para aquellos estimadores cuya versión bootstrap pueda escribirse en términos de los conteos multinomiales que indican el número de veces que cada observación aparece en la muestra bootstrap. En el capítulo 7 se presenta un método basado en métodos de inversión de Fourier para la aproximación de la distribución bootstrap de sumas de variables aleatorias. El último capítulo describe como han sido implementadas en el ordenador las rutinas descritas en los capítulos precedentes así como los códigos fuente en lenguaje MAPLE.
2020-07-07
2020-07-07
2004-02-17
info:eu-repo/semantics/doctoralThesis
https://hdl.handle.net/11441/98966
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:idus.us.es:11441/150822018-11-26T11:45:24Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Juegos con pagos difusos
Puerto Albandoz, Justo
Fernández García, Francisco Ramón
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
2014-11-27
2014-11-27
2009
info:eu-repo/semantics/doctoralThesis
Clemente Alpresa, M. (2009). Juegos con pagos difusos. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
9788469261125
http://hdl.handle.net/11441/15082
https://idus.us.es/xmlui/handle/11441/15082
eng
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/240962024-02-13T20:09:29Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Eficiencia y estructuras dinámicas, puntos pareto enteros
Fernández García, Francisco Ramón
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Programación en números enteros
" El problema que planteamos en nuestro trabajo es la búsqueda de los puntos eficientes enteros de un poliedro, aplicando una generalización de los métodos de enumeración implícita y usando estructuras dinámicas. Dichos métodos enumerativos son desarrollados para ser aplicados a problemas lineales aunque no sean del tipo cero-uno, y la enumeración implícita se hace sobre un entorno de la superficie eficiente del poliedro.Las obtención de los puntos eficientes, exige disponer de estructuras dinámicas de datos adecuadas, que filtren dichos puntos de entre los enumerados, para que en cada momento, el espacio requerido sea mínimo. Las dificultades que aparecen en el proceso, aparte del manejo de las estructuras de datos, es que no sabemos si el conjunto de puntos de coordenadas enteras, pertenecientes al poliedro, es no vacío, y si así fuese, tampoco sabemos la frecuencia con que aparecen dichos puntos. En algunos casos, que llamaremos poliedros denso enteros, se demuestra que puede pasarse de un punto a otro por un camino interior al poliedro, pero en los casos que pueda plantearse la duda de que los puntos enteros estén aislados o no existan, habrá que estudiar nuevos procedimientos y demostrar que con ellos, la accesibilidad a cualquier punto eficiente de coordenadas enteras está garantizada. En el Capítulo 1, hacemos una revisión de las estructuras dinámicas de datos que han sido utilizados en otros problemas de búsqueda multidimensional, fundamentalmente, listas lineales, árboles ordenados, q-árboles y kd-árboles. En el Capítulo 2, aplicamos la estructuras anteriores a la localización de puntos eficientes, y se ha ce un estudio del rendimiento de cada una de ellas obteniéndose el kd-árbol como la estructuras más eficiente en nuestro problemas. En el Capítulo3, demostramos que para los poliedros densos enteros, podemos partir de cualqu|
2015-04-16
2015-04-16
1985
info:eu-repo/semantics/doctoralThesis
Pozo Chía, A. (1985). Eficiencia y estructuras dinámicas, puntos pareto enteros. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/24096
https://idus.us.es/xmlui/handle/11441/24096
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/752612024-02-13T09:27:38Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Mixturas de distribuciones: Modelización de experiencias con asimetría en los datos
García de las Heras, Joaquín Antonio
Muñoz Pichardo, Juan Manuel
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Una de las estrategias de la Estadística para describir y explicar una realidad compleja es la representación de la misma mediante modelos probabilísticos. En esta línea se enmarca la presente memoria, teniendo como principal objetivo la modelización de fenómenos aleatorios a través de mixturas finitas de distribuciones. En concreto, aquellas experiencias aleatorias con asimetría en los datos.
Inicialmente, esta memoria surge tratando de abordar un problema real al que se tiene que enfrentar la gestión de hospitales y servicios de salud para programar y financiar adecuadamente los mismos. El estudio del tiempo de hospitalización de los pacientes, variable conocida como “estancia hospitalaria”.
La estancia hospitalaria es un índice del consumo de recursos ampliamente utilizado en la gestión hospitalaria. En particular, se utiliza en la dirección, planificación y control de calidad del servicio.
Usualmente los datos observados de esta variable presentan asimetría positiva, por ello, tradicionalmente se han utilizado modelos Lognormal, Gamma y Weibull. En esta perspectiva, Marazzi y otros, presentan criterios para decidir sobre cual de los tres modelos anteriores representar mejor la variable citada.
En esta memoria, se pretende ampliar el estudio a través de un modelo más general basado en mixturas finitas de distribuciones, en particular, de las distribuciones antes citadas. El modelo consiste en una mixtura de tres componentes pertenecientes a cada una de las tres familias. Este modelo de “mixturas mixtas” proporciona una flexibilidad extra necesaria cuando una sola de las familias no conduce a una explicación satisfactoria de la realidad.
Conviene resaltar que, además de la gestión hospitalaria, existen otras muchas situaciones reales descritas por variables que se debaten entre la modelización por alguna de las tres distribuciones: lognormal, Gamma o Weibull.
Para ilustras esta aplicación, a continuación se recogen algunas de ellas:
Microbiología: Estudio de las posibles consecuencias de la preparación de comidas en ciertos patógenos alimenticios.
Neurología: Estudio de la actividad de las neuronas.
Veterinaria: Estudio de la duración de viremias en ganado vacuno.
Mecánica: Estudios de resistencia de materiales.
Meteorología: Concentración de vapor de agua en las nubes y en el estudio de pluviometría.
Geología: Estudio de los tamaños de las partículas de sedimentos fluviales.
Geofísica: Estudio de las frecuencias de terremotos de cierta magnitud.
Epidemiología: Estimación del periodo de incubación del SIDA.
La memoria se ha estructurado de la siguiente forma: En el primer capítulo se recogen definiciones, propiedades y conceptos necesarios para el desarrollo de la misma. Se presentan las distribuciones objeto de estudio con algunas de sus características. También, se introduce la modelización mediante mixturas de distribuciones. Se revisa el método de estimación de máxima verosimilitud, poniendo de manifiesto sus propiedades y recogiendo condiciones suficientes para que las mismas se verifiquen. Se finaliza este capítulo con el estudio de un procedimiento iterativo, ampliamente utilizado en el área de las mixturas, para el cálculo de los estimadores de máxima verosimilitud de los diferentes parámetros: el algoritmo EM.
En el segundo capítulo se estudian condiciones suficientes que permitan comprobar la identificabilidad de experimentos modelizados a través de mixturas finitas de distribuciones. Dado que los resultados existentes sobre identificabilidad de mixturas no son aplicables al modelo bajo estudio en esta memoria, se propone un nuevo resultado que relaja las condiciones de resultados propuestos en la literatura sobre el tema. El capítulo finaliza con la comprobación de la identificabilidad de distintas familias de mixturas, mediante este nuevo resultado.
Para comprobar que en el conjunto de mixturas mixtas de las familias Lognormal, Gamma y Weibull, las soluciones de las ecuaciones de verosimilitud cumplen las condiciones de consistencia (recogidas en el Capítulo 1), en el tercer capítulo se proponen algunos resultados que facilitan la verificación de dichas condiciones para las mixturas de uniones de ciertas familias paramétricas de funciones de densidad como son las familias exponenciales y otro tipo de familias más generales que incluyen a las distribuciones Weibull.
Por último, el Capítulo 4 aborda el problema de la estimación de máxima verosimilitud de los parámetros del modelo presentado, a través de la aplicación del algoritmo EM. Asimismo, se estudian los elementos necesarios para la aplicación de dicho algoritmo y un método de aceleración del mismo. A continuación, se presenta un conjunto de simulaciones del modelo con el objetivo de ilustrar la validez de las técnicas propuestas en esta memoria. Este capítulo se concluye con la aplicación a conjuntos de datos reales de la variable estancia hospitalaria.
2018-05-28
2018-05-28
2003-04-24
info:eu-repo/semantics/doctoralThesis
Atienza Martínez, M.N. (2003). Mixturas de distribuciones: Modelización de experiencias con asimetría en los datos. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
https://hdl.handle.net/11441/75261
6019609
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 3.0 Estados Unidos de América
oai:idus.us.es:11441/150832024-02-13T20:27:08Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Juegos simples vectoriales
Fernández García, Francisco Ramón
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Esta tesis está dedicada a un caso particular de los procesos de decisión en los que hay varios decidores en competencia y en el que los pagos de los resultados están valorados vectorialmente, situaciones conocidas como juegos vectoriales. Se considera el estudio de estos juegos en el caso en que los pagos se hagan de una forma cualitativa que serán denominados juegos simples vectoriales. Se dan las definiciones básicas y distintos ejemplos de juegos simples vectoriales. Se estudian juegos simples asociados a un juego simple vectorial que resultan de haber operaciones de agregación de clases por unión o intersección y/o marginalidad y establecemos la relación entre la composición clásica de juegos simples escalares. Se aborda el problema del reparto de los beneficios entre los jugadores de los juegos cooperativos, reparto que este caso des del tipo conjunto, junto con todo lo restante relacionado con estos tipos de juegos.
2014-11-27
2014-11-27
2004-02-17
info:eu-repo/semantics/doctoralThesis
Rodríguez Oña, J. (2004). Juegos simples vectoriales. (Tesis doctoral inédita). Universidad de Sevilla, Sevilla.
8468977535
http://hdl.handle.net/11441/15083
https://idus.us.es/xmlui/handle/11441/15083
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/724882024-02-14T20:17:57Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Localización multicriterio de centros peligrosos
Infante Macías, Rafael
Muñoz Pérez, José
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Industria
2018-04-12
2018-04-12
1992
info:eu-repo/semantics/doctoralThesis
Saameño Rodríguez, Juan José (1992). Localización multicriterio de centros peligrosos (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
https://hdl.handle.net/11441/72488
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:idus.us.es:11441/157192024-02-15T07:52:19Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Análisis de influencia en componentes principales
Muñoz Pichardo, Juan Manuel
Pino Mejías, Rafael
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Análisis multivariante
2014-11-27
2014-11-27
2001
info:eu-repo/semantics/doctoralThesis
Enguix González, A. (2001). Análisis de influencia en componentes principales. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/15719
https://idus.us.es/xmlui/handle/11441/15719
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/697762024-02-14T19:14:07Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Influencia en el modelo de curvas de crecimiento a través de distancias entre distribuciones
García de las Heras, Joaquín Antonio
Muñoz Pichardo, Juan Manuel
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Estadística
El interÈs del investigador, en algunas experimentaciones, se centra en analizar datos a travÈs del tiempo para conocer la tendencia de un individuo o grupos de individuos. En este contexto se enmarca el an•lisis de curvas de crecimiento. El Modelo de Curvas de Crecimiento (MCC), introducido formalmente por Pottho§ y Roy (1964), es un modelo multivariante generalizado, extensiÛn del an•lisis de varianza multivariante, aplicable a un gran conjunto de problemas reales en muy diversas •reas cientÌÖcas, especialmente ˙til para los estudios de experimentos con datos longitudinales y medidas repetidas. Desde la formulaciÛn del MCC, diferentes aspectos del modelo han sido sucesivamente considerados por muchos autores en diferentes trabajos (vÈase, por ejemplo, Kollo y von Rosen, 2005). Por otra parte, cualquier an•lisis estadÌstico tiene como objetivo b•sico la obtenciÛn de conclusiones Öables a partir de los datos de las variables analizadas. AsÌ, el papel que desempeÒan las observaciones es de gran importancia para el desarrollo del estudio. No obstante, la importancia de cada observaciÛn en la construcciÛn de un modelo es generalmente muy distinta. Un gran n˙mero de autores han presentado situaciones pr•cticas en las que existen observaciones experimentales que inciden considerablemente en los resultados del an•lisis, motivando la necesidad de identiÖcar tales observaciones, denominadas en la literatura como observaciones ináuyentes u observaciones ináuencia, y evaluar sus efectos en el an•lisis estadÌstico que se pretende realizar. De acuerdo con la deÖniciÛn de Cook (Cook, 1977), una observaciÛn es considerada como ináuyente si su omisiÛn de los datos da lugar a cambios sustanciales en rasgos importantes del an•lisis. Por otro lado, siguiendo a Cook y Weisberg (1982), puede decirse que el an•lisis de los datos experimentales, con objeto de encontrar estos casos relevantes, es de gran interÈs para las conclusiones que se obtengan de la experiencia por dos motivos
2018-01-30
2018-01-30
2012-03-28
info:eu-repo/semantics/doctoralThesis
Ferreira do Carmo de Sousa, C. (2012). Influencia en el modelo de curvas de crecimiento a través de distancias entre distribuciones. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
https://hdl.handle.net/11441/69776
20733742
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:idus.us.es:11441/157152024-02-12T21:34:34Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
A new approach to multivariate lifetime distributions base don the excess-wealth concept an application in tumor Growth
Fernández Ponce, José María
Pellerey, Franco
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Tumores
Crecimiento
Métodos estadísticos
Análisis estocástico
Distribución (Teoría de probabilidades)
Análisis de supervivencia (Biometría)
Biometría
Las distribuciones de visa son de gran importancia en la teoría de modelización estocástica, teoría de la renovación, fiabilidad y análisis de supervivencia. El envejecimiento de un sistema físico o biológico se conoce como el fenóm ... eno por el cual un sistema más antiguo tiene un menor tiempo de vida, en algún sentido estocástico, que un sistema más nuevo. Muchos de los criterios de envejecimiento (por ejemplo, las nociones IFR, DMRL y NBUE) se han desarrollado en la literatura durante muchos años y han sido también propuestas y estudiadas. Cabe mencionar que muchos de estos métodos se incluyen en el marco del ordenamiento estocástico.Esta Tesis Doctoral está centrada fundamentalmente en dos objetivos: Estudiar nuevas nociones de envejecimiento multivariante y caracterizar dichas nociones por medio de una función de dispersión multivariante, generalizando así los resultados ya estudiados en el caso univariante por Fernández-once et al. (1996) and Fernández-Ponce et al. (1998). Para el estudio de estos objetivos, dos conceptos fundamentales son tomados como punto de partida, también conocido como construcción estándar, fue definido por primera vez por O´brien (1975), y ha sido ampliamente utilizado en teoría de simulación así como en la teoría de ordenaciones estocásticas. El segundo concepto fue dado por Fernández-Ponce y el Suárez-Lloréns (2003). Estos autores proporcionaron el concepto de cuadrante superior corregido asociado con la construcción estándar y obtuvieron el importante resultado de que la probabilidad acumulada en esta región no depende de la distribución considerada. Estos conceptos, junto con el trabajo de Fernández-Ponce et al. (1998), donde las nociones de envejecimiento univariante son caracterizan por la función de exceso de riqueza (excess-wealth), es la base para el desarrollo de esta investigación. Obviamente, numerosos resultados significativos en fiabilidad y en el área de ordenaciones estocásticas son considerados con el fin de alcanzar nuestro propósito.Este trabajo está estructurado en cuatro capítulos. El Capítulo 1 es introductorio y presenta el estado del arte en las nociones de envejecimiento univariante y multivariado. En particular, se resumen diferentes trabajos donde propiedades de envejecimiento son caracterizadas usando ordenaciones estocásticas. La función cuantil y sus generalizaciones multivariante, así como la función "excess-wealth" univariante son también estudiadas en este capítulo.El Capítulo 2 tiene por objeto dar un concepto multivariante de la función "excess-wealth" basada conjuntamente en el trabajo por Fernández-Ponce et al. (1998) y Fernández-Ponce y el Suárez-Lloréns (20039. Se inicia mediante la introducción de nociones preliminares que serán utilizados a lo largo de la memoria. A continuación, y dada la importancia en este trabajo del cuadrante corregido superior, centramos nuestra atención en proporcionar nuevos resultados sobre este concepto. Las relaciones entre el cuadrante superior corregido con el soporte de un vector aleatorio y el cuadrante superior derecho en un punto, son establecidas. Por último, en las dos últimas secciones del capítulo, la función "excess-wealth" multivariante y el orden "excess-wealth" multivariante son estudiados. Esta función es definida en términos del cuadrante superior corregido y se demuestra que conserva las mismas propiedades que verifica la versión univariante.En el Capítulo 3, son definidas nuevas propiedades de envejecimiento multivariante. A partir de nuevas generalizaciones de la función vida residual media y la función intensidad de fallo, se presentan versiones multivariante de las nociones IFR, DMRL y NBUE, junto con la cadena de implicaciones entre ellas. Siguiendo el desarrollo en Fernández-Ponce et al. (1998), estas nuevas propiedades son caracterizadas en términos de la función "excess-wealth" multivariante. Por último, y basados en estas nociones multivariado de envejecimiento, se definen nuevas ordenaciones estocásticas que permiten comparar el envejecimiento de dos vectores aleatorios. Finalmente, en el Capítulo 4, una aplicación de una propiedad del envejecimiento bivariante es estudiada en el campo de la oncología. La edad de los pacientes y el tamaño del tumor en la detección espontánea del tumor, desempeñan un papel importante en la prevención de la cáncer. Como bien es conocido, existe un creciente interés en la detección temprana de enfermedades crónicas, con la esperanza de que el diagnóstico precoz, combinado con la terapia adecuad, da lugar a un mayor número de curas caso como mayor supervivencia de los pacientes. El proceso de desarrollo del tumor puede ser explicado en términos de edad de los pacientes al inicio del tumor (tiempo desde el nacimiento del paciente hasta que la célula primera célula cancerígena aparece) y el tiempo de estancia en la etapa preclínica, (tiempo desde que la primera célula cancerígena aparece hasta que el tumor es detectado). Un modelo exponencial no determinista que relaciona el tiempo de estancia en la etapa preclínica con el tamaño del tumor en el momento de la detección es planteado y estudiado en este capítulo. En el proceso de estimar los parámetros de este modelo, es considerada una restricción que representa una propiedad inherente de envejecimiento multivariante de las distribuciones de vida consideradas. El modelo propuesto es ilustrado en dos bases de datos reales.
2014-11-27
2014-11-27
2010
info:eu-repo/semantics/doctoralThesis
http://hdl.handle.net/11441/15715
https://idus.us.es/xmlui/handle/11441/15715
eng
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/394512024-02-14T19:11:09Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Medición de la actividad docente del profesor universitario mediante técnicas de análisis de eficiencia
Pino Mejías, José Luis
Luque Calvo, Pedro Luis
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Falta palabras clave
El objetivo principal de la tesis es introducir la dimensión de la eficiencia en la medición de la actividad docente del profesor universitario, campo mucho menos tratado en la literatura que
el de la actividad investigadora a causa de menor consenso sobre lo que se entiende por docencia “de calidad”, la escasez de datos y la dificultad de comparar la información disponible
en los diversos sistemas universitarios.
En los tres primeros capítulos se sistematizan los factores en los que hay un acuerdo mayoritario respecto a su positiva incidencia sobre la actividad docente, se presentan los diferentes tipos de eficiencia, identificando la eficiencia técnica como la que mejor se ajusta al
concepto de eficiencia docente, y se introducen las técnicas cuantitativas que pueden emplearse para su medición. El capítulo cuarto aporta una recopilación de experiencias internacionales de evaluación de las actividades del profesorado universitario, centrándose el quinto, para el caso ecuatoriano, en las fuentes de información disponibles en general y en la UTPL en particular. El apoyo dado por las autoridades académicas a la presente tesis ha permitido trabajar con una información muy superior, en diversidad y volumen al de la mayoría de los estudios consultados. El capítulo seis muestra la metodología seguida para la selección de inputs, outputs y orientación de los modelos DEA, y la influencia de los distintos escenarios en las mediciones de la eficiencia resultantes. En el capítulo siete se presentan tres indicadores compuestos de eficiencia docente. Para la construcción de los indicadores se ha aplicado el DEA para obtener para cada profesor los pesos que optimizan su indicador de eficiencia, dado que ello suministra tantos conjuntos de pesos como profesores, el primer indicador compuesto tiene en cuenta la distribución espacial de los vectores de pesos, de forma que tengan más participación los vectores con una menor distancia media al resto. El segundo indicador se basa en una novedosa construcción de una medida de capacidad, que puede obtenerse a partir de la descomposición exhaustiva de la varianza, o a partir de los índices de influencia de Sobol. El número de términos de la descomposición de la varianza obliga a recurrir a una aproximación de Monte Carlo para su cálculo. La validez de la técnica de muestreo se ha comprobado mediante el cálculo de los valores exactos de los índices y su comparación con las estimaciones obtenidas por muestreo.
El disponer de una medida de capacidad permite proponer como segundo indicador compuesto la Integral de Choquet discreta. El tercer indicador compuesto utiliza los índices de Shapley para la agregación de las variables normalizadas en función de su carácter input u output.
La elección de uno de los indicadores desarrollados, puede ser realizada en función del grado de compensabilidad deseado entre los valores de las variables consideradas. Las aportaciones computacionales se muestran en los Anexos, y constituyen una herramienta de interés para los profesores e instituciones de educación superior, ya que todo el desarrollo realizado en R puede ser reproducido y adaptado a las necesidades de otras instituciones.
2016-04-04
2016-04-04
2016-02-05
info:eu-repo/semantics/doctoralThesis
http://hdl.handle.net/11441/39451
https://idus.us.es/xmlui/handle/11441/39451
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/240992024-02-14T11:08:04Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Métodos de muestreo para la optimización global entera
Fernández García, Francisco Ramón
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Optimización matemática
2015-04-16
2015-04-16
1988
info:eu-repo/semantics/doctoralThesis
Ojo Mesa, J.d. (1988). Métodos de muestreo para la optimización global entera. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/24099
https://idus.us.es/xmlui/handle/11441/24099
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/1282732021-12-16T08:25:56Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Computational Methods for the Analysis of Complex Data
Blanquero Bravo, Rafael
Carrizosa Priego, Emilio José
Ramírez Cobo, Josefa
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
This PhD dissertation bridges the disciplines of Operations Research and Statistics to develop
novel computational methods for the extraction of knowledge from complex data. In this research,
complex data stands for datasets with many instances and/or variables, with different
types of variables, with dependence structures among the variables, collected from different
sources (heterogeneous), possibly with non-identical population class sizes, with different misclassification
costs, or characterized by extreme instances (heavy-tailed data), among others.
Recently, the complexity of the raw data in addition to new requests posed by practitioners
(interpretable models, cost-sensitive models or models which are efficient in terms of running
times) entail a challenge from a scientific perspective. The main contributions of this PhD dissertation
are encompassed in three different research frameworks: Regression, Classification
and Bayesian inference. Concerning the first, we consider linear regression models, where a
continuous outcome variable is to be predicted by a set of features. On the one hand, seeking
for interpretable solutions in heterogeneous datasets, we propose a novel version of the Lasso
in which the performance of the method on groups of interest is controlled. On the other hand,
we use mathematical optimization tools to propose a sparse linear regression model (that is, a
model whose solution only depends on a subset of predictors) specifically designed for datasets
with categorical and hierarchical features. Regarding the task of Classification, in this PhD dissertation
we have explored in depth the Naïve Bayes classifier. This method has been adapted
to obtain a sparse solution and also, it has been modified to deal with cost-sensitive datasets.
For both problems, novel strategies for reducing high running times are presented. Finally, the
last contribution of this dissertation concerns Bayesian inference methods. In particular, in the
setting of heavy-tailed data, we consider a semi-parametric Bayesian approach to estimate the
Elliptical distribution.
The structure of this dissertation is as follows. Chapter 1 contains the theoretical background
needed to develop the following chapters. In particular, two main research areas are
reviewed: sparse and cost-sensitive statistical learning and Bayesian Statistics.
Chapter 2 proposes a Lasso-based method in which quadratic performance constraints to
bound the prediction errors in the individuals of interest are added to Lasso-based objective
functions. This constrained sparse regression model is defined by a nonlinear optimization
problem. Specifically, it has a direct application in heterogeneous samples where data are collected from distinct sources, as it is standard in many biomedical contexts.
Chapter 3 studies linear regression models built on categorical predictor variables that have
a hierarchical structure. The model is flexible in the sense that the user decides the level of
detail in the information used to build it, having into account data privacy considerations. To
trade off the accuracy of the linear regression model and its complexity, a Mixed Integer Convex
Quadratic Problem with Linear Constraints is solved.
In Chapter 4, a sparse version of the Naïve Bayes classifier, which is characterized by the
following three properties, is proposed. On the one hand, the selection of the subset of variables
is done in terms of the correlation structure of the predictor variables. On the other hand, such
selection can be based on different performance measures. Additionally, performance constraints
on groups of higher interest can be included. This smart search integrates the flexibility
in terms of performance for classification, yielding competitive running times.
The approach introduced in Chapter 2 is also explored in Chapter 5 for improving the performance
of the Naïve Bayes classifier in the classes of most interest to the user. Unlike the traditional
version of the classifier, which is a two-step classifier (estimation first and classification
next), the novel approach integrates both stages. The method is formulated via an optimization
problem where the likelihood function is maximized with constraints on the classification rates
for the groups of interest.
When dealing with datasets of especial characteristics (for example, heavy tails in contexts
as Economics and Finance), Bayesian statistical techniques have shown their potential in the
literature. In Chapter 6, Elliptical distributions, which are generalizations of the multivariate
normal distribution to both longer tails and elliptical contours, are examined, and Bayesian
methods to perform semi-parametric inference for them are used.
Finally, Chapter 7 closes the thesis with general conclusions and future lines of research.
2021-12-16
2021-12-16
2021-07-07
info:eu-repo/semantics/doctoralThesis
Sillero Denamiel, M.R. (2021). Computational Methods for the Analysis of Complex Data. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
https://hdl.handle.net/11441/128273
eng
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:idus.us.es:11441/643612024-02-12T21:57:16Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Aproximación a la distribución de ciertos estadísticos en contrastes sobre modelos de regresión no paramétrica
Jiménez Gamero, María Dolores
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Este trabajo se desarrolla en el contexto de modelos de regresión no paramétrica con diseño aleatorio para variable respuesta y covariable ambas unidimensionales. El conocimiento de la función de distribución del error puede mejorar varios procedimientos estadísticos realizados sobre el modelo considerado. Por otro lado, la hipótesis de igualdad de distribución de los errores es asumida en algunos procedimientos. Sobre el contraste de estas dos hipótesis se desarrolla este trabajo. Para el test de bondad de ajuste de la distribución del error, nos centramos en un estadístico propuesto en la literatura. La distribución nula asintótica es desconocida. Por ese motivo, se ha propuesto un bootstrap paramétrico para aproximarla. Esta aproximación posee buenas propiedades, entre otras cosas, proporciona un estimador consistente de la distribución nula asintótica y además es fácil de implementarlo. Sin embargo, a medida que el número de parámetros aumenta y/o el tamaño muestral crece, el coste computacional que requiere su aplicación práctica, aumenta considerablemente. Para el contraste de igualdad de las distribuciones del error, nos hemos centrado en dos estadísticos propuestos en la literatura. La distribución nula asintótica es desconocida. Se recurre a una aproximación mediante un bootstrap suavizado para aproximarlas. Este estimador proporciona estimaciones consistentes de la distribución nula, pero desde el punto de vista computacional, es poco eficiente. Además, su aplicación requiere ciertas condiciones sobre la distribución de los errores: han de poseer distribución continua satisfaciendo fuertes condiciones de suavidad. En este trabajo se ha demostrado teóricamente la consistencia y eficiencia computacional de una aproximación bootstrap ponderada a los estadísticos estudiados tanto para la bondad de ajuste de error como para la igualdad en las distribuciones del error. Además, para contrastar la hipótesis de igualdad en las distribuciones del error, se ha propuesto un nuevo test. Se construye bajo condiciones menos restrictivas que las asumidas para los dos estadísticos ya existentes considerados. Se estudia teóricamente la aproximación mediante un bootstrap ponderado. Al igual que en los casos anteriores, esta aproximación es consistente y computacionalmente eficiente.
2017-09-13
2017-09-13
2017-06-08
info:eu-repo/semantics/doctoralThesis
Rivas Martínez, G.I. (2017). Aproximación a la distribución de ciertos estadísticos en contrastes sobre modelos de regresión no paramétrica. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/64361
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:idus.us.es:11441/150392024-02-14T13:51:50Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Representación de funciones y medidas excesivas y procesos de Markov
Infante Macías, Rafael
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Markov, Procesos de
A partir de la hipótesis de dualidad de Kunita-Watanabe sobre las funciones de transición sobre un espacio medible estándar se demuestra que los espacios de las funciones excesivas normalizadas SN el de las medidas coexcesivas normalizadas RN y el de los procesos Markov determinados por ciertas condiciones de comportamiento inicial y con la misma función de cotransición PN K cuando están do tados de las estructuras medibles y convexas naturales son isomorfos. Además aplicando un resultado de E.B.Dynkin se establece que todos estos espacios son Simplexs. Con ello es posible entonces obtener representaciones integrales de los elementos de estos espacios como baricentros de medidas soportadas por los respectivos conjuntos de puntos extremales o vértices. Establecemos entonces la existencia de dos caras complementarias en estos espacios y con su ayuda se establece un análogo de la descomposición de Riesz para las funciones excesivas en términos de las funciones invariantes y las funciones Excesiva-Nulas. Por último definimos el espacio de salidas general y la medida espectral de un proceso de Markov y damos caracterizaciones alternativas sobre los puntos extremales de estos Simplexs.
2014-11-27
2014-11-27
1979-10-11
info:eu-repo/semantics/doctoralThesis
Alba Riesco, J.M. (1979). Representación de funciones y medidas excesivas y procesos de Markov. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/15039
https://idus.us.es/xmlui/handle/11441/15039
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/404402016-11-29T12:26:56Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Técnicas estadísticas espaciales y temporales para el análisis de la convergencia
Cubiles de la Vega, María Dolores
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Falta palabras clave
La presente tesis estudia los procesos de convergencia entre las economías, considerando las dos líneas principales de análisis que se han centrado históricamente en este fenómeno. En un primer gran bloque se procede a la revisión de los modelos econométricos clásicos, a la identificación de sus predicciones respecto a dichos procesos de crecimiento y al reconocimiento de los principales estudios empíricos realizados en este ámbito. En una segunda agrupación de contenidos, en consonancia con el desarrollo histórico de las investigaciones sobre la materia, se revisa el marco teórico que establece la econometría espacial y, de manera específica, se consideran distintas aproximaciones, de reciente aparición, orientadas a la identificación de agrupamientos derivados de los procesos de convergencia. Se incorporan diferentes análisis propios, basados en datos reales y focalizados en los estados y regiones europeas, que han supuesto: (i) la aplicación y, en su caso, desarrollo de las correspondientes herramientas estadísticas planteadas en los modelos teóricos que sustentaban cada estudio; y (ii) obtener inferencias respecto a la evolución de las economías consideradas. Se identifica como resultado colateral de este proceso la elaboración de rutinas informáticas en lenguaje R, que constituyen una aportación al enriquecimiento de este entorno de programación.
2016-04-25
2016-04-25
2016-02-08
info:eu-repo/semantics/doctoralThesis
Pino Mejías, M.Á. (2016). Técnicas estadísticas espaciales y temporales para el análisis de la convergencia. (Tesis doctoral inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/40440
https://idus.us.es/xmlui/handle/11441/40440
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/156832024-02-15T07:21:36Zcom_11441_11443com_11441_11441com_11441_11195com_11441_11099com_11441_10690com_11441_10843com_11441_10802col_11441_11544col_11441_11474col_11441_11199col_11441_10847
Identificación de outliers en muestras multivariantes
Muñoz García, Joaquín
Pascual Acosta, Antonio
Universidad de Sevilla. Departamento de Economía Aplicada I
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Observaciones aberrantes (Estadística)
Análisis multivariante
En esta memoria se analiza la problemática de las observaciones Outliers en nuestras Multivariantes describiéndose las distintas técnicas que existen en la actualidad para la identificación de Outliers en nuestras multidimensionales y poniéndose de manifiesto que la mayoría de ellas son generalizaciones de ideas desarrolladas para el caso univariante o técnicas basadas en representaciones graficas. Se aborda a continuación el denominado efecto de enmascaramiento que se puede presentar cuando existe mas de una observación Outlier y se propone un método para la identificación de Oultiers en nuestras Multivariantes basado en una R-ordenación de las observaciones muestrales. Se incluye asimismo una aplicación práctica del método. Por último se propone un método para la identificación de Outliers basado en una distancia entre matrices de sumas de cuadrados y sumas de productos de observaciones muestrales determinándose la distribución del estadístico resultante.
2014-11-27
2014-11-27
1987-07-14
info:eu-repo/semantics/doctoralThesis
Pérez Díez de los Ríos, J.L. (1987). Identificación de outliers en muestras multivariantes. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/15683
https://idus.us.es/xmlui/handle/11441/15683
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/157272024-02-14T13:31:54Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Redes de neuronas artificiales en el análisis de series temporales
Moreno Rebollo, Juan Luis
Muñoz García, Joaquín
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Redes neuronales (Informática)
Series (Matemáticas)
2014-11-27
2014-11-27
1999
info:eu-repo/semantics/doctoralThesis
Cubiles de la Vega, M.D. (1999). Redes de neuronas artificiales en el análisis de series temporales. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/15727
https://idus.us.es/xmlui/handle/11441/15727
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/724892024-02-14T13:34:28Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Algunas aportaciones a los métodos de optimización del análisis clúster mediante la Descomposición en Valores Singulares (D.V.S.)
Ramírez Labrador, José
Valderrama Bonnet, Mariano J.
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Análisis de conglomerados
En este trabajo se propone un procedimiento de clasificación general que permite obtener grupos naturales en conjuntos donde se sospecha que existen mas de uno. El procedimiento se basa en obtener el modelo q-factorial derivado de la descomposición en va
2018-04-12
2018-04-12
1996
info:eu-repo/semantics/doctoralThesis
González Caballero, Juan Luis (1996). Algunas aportaciones a los métodos de optimización del análisis clúster mediante la Descomposición en Valores Singulares (D.V.S.) (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
9788469437483
https://hdl.handle.net/11441/72489
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:idus.us.es:11441/240982024-02-14T20:18:44Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Fórmulas de cuadratura con operadores diferenciales
Castro Brzezicki, Antonio de
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Integración numérica
En el Capítulo 1 demostramos que, para el operador diferencial L, fijados m nodos de forma arbitraria (distintas), pueden conseguirse siempre fórmulas elementales de cuadratura con grado de precisión 2n-1. En el capítulo segundo se estudia el problema de Gauss, esto es como eliminar de la fórmula determinados órdenes de derivación de la función integrando, del que en el libro de A. Ghizzetti A. Ossiciri solo se estudia la compatibilidad del mismo. En el capítulo tercero se estudia la obtención de fórmulas de cuadratura en que las derivadas del mismo orden vayan afectadas del mismo peso, común para todos los nodos. En el capítulo cuarto, original no solo en resultados sino también en métodos, se estudia como se pueden conseguir fórmulas elementales de cuadratura donde solo aparecen valores de la función integrando y de sus derivadas sucesivas en los extremos el intervalo de integración.|
2015-04-16
2015-04-16
1976
info:eu-repo/semantics/doctoralThesis
Arroyo Pérez, A. (1976). Fórmulas de cuadratura con operadores diferenciales. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/24098
https://idus.us.es/xmlui/handle/11441/24098
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/150862024-02-14T11:31:52Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Problemas de secuenciación con fechas de entrega
Infante Macías, Rafael
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Programación (Matemáticas)
"El objeto de la presente memoria es el estudio de algunos problemas de secuenciación-asignación cuando existen fechas de entrega. La hemos estructurado en tres capítulos. En el primero de ellos se introducen los elementos fundamentales y se exponen las h
El objeto de la presente memoria es el estudio de algunos problemas de secuenciación-asignación cuando existen fechas de entrega.La hemos estructurado en tres capí ... El segundo capítulo presenta un compendio de los conceptos y resultados pertenecientes al campo de la Teoría de la Complejidad, que se precisan como bagaje para poder abordar el estudio de la “dificultad” de los problemas de secuenciación-asignación.En el último capítulo primeramente se estudia la inviabilidad del método de enumeración completa, y se desarrolla una formulación por Programación Lineal Entera, analizándose su aplicabilidad. A continuación, dividimos el capítulo en dos apartados atendiendo, en principio, al tipo de criterio (minimización del máximo costo o del costo total). Aunque podemos considerar que la característica fundamental que nos permite hacer la separación es la de la existencia o no de “buenos” algoritmos para la resolución de los problemas. En el primer apartado, una vez expuestos los más potentes resultados conocidos, los puntos de más interés son los relativos al caso de existir tiempos de procesamiento o disponibilidad de recursos variables. En el segundo se establece el carácter fuertemente NP-difícil del problema lo que puede tomarse como una justificación del empleo de técnicas enumerativas. Como principal resultado tenemos un procedimiento de resolución para el caso de recursos variables, que se basa en una formulación por Programación Dinámica que explota la existencia de relaciones de precedencia entre los trabajos, ya sean éstas debidas a las características tecnologías del problema o generadas por condiciones de dominancia. Con nuestro método logramos una disminución de las necesidades de almacenamiento respecto de los procedimientos existentes.De entre las etapas a dar para la resolución de un problema en el campo de la Investigación Operativa, solía relegarse a un segundo plano la de la implementación de los algoritmos, no teniéndose en cuenta la influencia que sobre la efectividad de los mismos tiene la implementación adoptada. En nuestro trabajo hemos intentado expresar los algoritmos de la forma más próxima posible a la utilizada en su implementación en el ordenador, limitándose solo en algunos casos esta cercanía por motivos de inteligibilidad. En el apéndice se introduce y justifica el lenguaje empleado.
2014-11-27
2014-11-27
1982
info:eu-repo/semantics/doctoralThesis
Pino Mejías, J.L. (1982). Problemas de secuenciación con fechas de entrega. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/15086
https://idus.us.es/xmlui/handle/11441/15086
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/872382024-02-12T22:07:54Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Contributions to robust and bilevel optimization models for decision-making
Conde Sánchez, Eduardo
Puerto Albandoz, Justo
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Los problemas de optimización combinatorios han sido ampliamente estudiados en la
literatura especializada desde mediados del siglo pasado. No obstante, en las últimas
décadas ha habido un cambio de paradigma en el tratamiento de problemas cada vez
más realistas, en los que se incluyen fuentes de aleatoriedad e incertidumbre en los
datos, múltiples criterios de optimización y múltiples niveles de decisión. Esta tesis
se desarrolla en este contexto. El objetivo principal de la misma es el de construir
modelos de optimización que incorporen aspectos inciertos en los parámetros que
de nen el problema así como el desarrollo de modelos que incluyan múltiples niveles
de decisión. Para dar respuesta a problemas con incertidumbre usaremos los modelos
Minmax Regret de Optimización Robusta, mientras que las situaciones con múltiples
decisiones secuenciales serán analizadas usando Optimización Binivel.
En los Capítulos 2, 3 y 4 se estudian diferentes problemas de decisión bajo incertidumbre
a los que se dará una solución robusta que proteja al decisor minimizando
el máximo regret en el que puede incurrir. El criterio minmax regret analiza el comportamiento
del modelo bajo distintos escenarios posibles, comparando su e ciencia
con la e ciencia óptima bajo cada escenario factible. El resultado es una solución con
una eviciencia lo más próxima posible a la óptima en el conjunto de las posibles realizaciones
de los parámetros desconocidos. En el Capítulo 2 se estudia un problema de
diseño de redes en el que los costes, los pares proveedor-cliente y las demandas pueden
ser inciertos, y además se utilizan poliedros para modelar la incertidumbre, permitiendo
de este modo relaciones de dependencia entre los parámetros. En el Capítulo
3 se proponen, en el contexto de la secuenciación de tareas o la computación grid,
versiones del problema del camino más corto y del problema del viajante de comercio
en el que el coste de recorrer un arco depende de la posición que este ocupa en el
camino, y además algunos de los parámetros que de nen esta función de costes son
inciertos. La combinación de la dependencia en los costes y la incertidumbre en los
parámetros da lugar a dependencias entre los parámetros desconocidos, que obliga a
modelar los posibles escenarios usando conjuntos más generales que los hipercubos,
habitualmente utilizados en este contexto. En este capítulo, usaremos poliedros generales
para este cometido. Para analizar este primer bloque de aplicaciones, en el Capítulo 4, se analiza un modelo de optimización en el que el conjunto de posibles
escenarios puede ser alterado mediante la realización de inversiones en el sistema.
En los problemas estudiados en este primer bloque, cada decisión factible es evaluada
en base a la reacción más desfavorable que pueda darse en el sistema. En los
Capítulos 5 y 6 seguiremos usando esta idea pero ahora se supondrá que esa reacción
a la decisión factible inicial está en manos de un adversario o follower. Estos dos
capítulos se centran en el estudio de diferentes modelos binivel. La Optimización
Binivel aborda problemas en los que existen dos niveles de decisión, con diferentes
decisores en cada uno ellos y la decisión se toma de manera jerárquica. En concreto,
en el Capítulo 5 se estudian distintos modelos de jación de precios en el contexto
de selección de carteras de valores, en los que el intermediario nanciero, que se
convierte en decisor, debe jar los costes de invertir en determinados activos y el
inversor debe seleccionar su cartera de acuerdo a distintos criterios. Finalmente, en
el Capítulo 6 se estudia un problema de localización en el que hay distintos decisores,
con intereses contrapuestos, que deben determinar secuencialmente la ubicación de
distintas localizaciones. Este modelo de localización binivel se puede aplicar en contextos
como la localización de servicios no deseados o peligrosos (plantas de reciclaje,
centrales térmicas, etcétera) o en problemas de ataque-defensa.
Todos estos modelos se abordan mediante el uso de técnicas de Programación
Matemática. De cada uno de ellos se analizan algunas de sus propiedades y se desarrollan
formulaciones y algoritmos, que son examinados también desde el punto de
vista computacional. Además, se justica la validez de los modelos desde un enfoque
de las aplicaciones prácticas. Los modelos presentados en esta tesis comparten la
peculiaridad de requerir resolver distintos problemas de optimización encajados.
Combinatorial optimization problems have been extensively studied in the specialized
literature since the mid-twentieth century. However, in recent decades, there
has been a paradigm shift to the treatment of ever more realistic problems, which
include sources of randomness and uncertainty in the data, multiple optimization
criteria and multiple levels of decision. This thesis concerns the development of such
concepts. Our objective is to study optimization models that incorporate uncertainty
elements in the parameters de ning the model, as well as the development of
optimization models integrating multiple decision levels. In order to consider problems
under uncertainty, we use Minmax Regret models from Robust Optimization;
whereas the multiplicity and hierarchy in the decision levels is addressed using Bilevel
Optimization.
In Chapters 2, 3 and 4, we study di erent decision problems under uncertainty
to which we give a robust solution that protects the decision-maker minimizing the
maximum regret that may occur. This robust criterion analyzes the performance
of the system under multiple possible scenarios, comparing its e ciency with the
optimum one under each feasible scenario. We obtain, as a result, a solution whose
e ciency is as close as possible to the optimal one in the set of feasible realizations
of the uncertain parameters. In Chapter 2, we study a network design problem in
which the costs, the pairs supplier-customer, and the demands can take uncertain
values. Furthermore, the uncertainty in the parameters is modeled via polyhedral
sets, thereby allowing relationships among the uncertain parameters. In Chapter
3, we propose time-dependent versions of the shortest path and traveling salesman
problems in which the costs of traversing an arc depends on the relative position
that the arc occupies in the path. Moreover, we assume that some of the parameters
de ning these costs can be uncertain. These models can be applied in the context of
task sequencing or grid computing. The incorporation of time-dependencies together
with uncertainties in the parameters gives rise to dependencies among the uncertain
parameters, which require modeling the possible scenarios using more general sets
than hypercubes, normally used in this context. In this chapter, we use general
polyhedral sets with this purpose. To nalize this rst block of applications, in Chapter 4, we analyze an optimization model in which the set of possible scenarios
can be modi ed by making some investments in the system.
In the problems studied in this rst block, each feasible decision is evaluated
based on the most unfavorable possible reaction of the system. In Chapters 5 and
6, we will still follow this idea, but assuming that the reaction to the initial feasible
decision will be held by a follower or an adversary, instead of assuming the most
unfavorable one. These two chapters are focused on the study of some bilevel models.
Bilevel Optimization addresses optimization problems with multiple decision
levels, di erent decision-makers in each level and a hierarchical decision order. In
particular, in Chapter 5, we study some price setting problems in the context of
portfolio selection. In these problems, the nancial intermediary becomes a decisionmaker
and sets the transaction costs for investing in some securities, and the investor
chooses her portfolio according to di erent criteria. Finally, in Chapter 6, we study
a location problem with several decision-makers and opposite interests, that must
set, sequentially, some location points. This bilevel location model can be applied
in practical applications such as the location of semi-obnoxious facilities (power or
electricity plants, waste dumps, etc.) or interdiction problems.
All these models are stated from a Mathematical Programming perspective, analyzing
their properties and developing formulations and algorithms, that are tested
from a computational point of view. Furthermore, we pay special attention to justifying
the validity of the models from the practical applications point of view. The
models presented in this thesis share the characteristic of involving the resolution of
nested optimization problems.
2019-06-06
2019-06-06
2019-03-15
info:eu-repo/semantics/doctoralThesis
Leal Palazón, M. (2019). Contributions to robust and bilevel optimization models for decision-making. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
https://hdl.handle.net/11441/87238
eng
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:idus.us.es:11441/240972024-02-14T08:46:19Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Esquemas de enumeración implícita ordenada programación entera
Puerto Albandoz, Justo
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Algoritmos
Optimización matemática
Informática teórica
El concepto de problema de optimización es intuitivamente fácil de entender, consiste en determinar una alternativa óptima frente al criterio seguido de entre un conjunto de posibilidades. Sin embargo la descripción formal de este problema es algo más compleja. Schrijver (1986) define un problema como subconjunto c * x *, donde es un conjunto finito llamado código y * es el conjunto de secuencias ordenadas de símbolos (elementos del código). El problema de optimización consiste en determinar un elemento x* * fijado z *, o bien decidir que no existe este elemento. A la cadena z se le denomina parámetros del problema o parámetros de entrada y a x* solución. Por Programación Entera se entiende el conjunto de técnicas destinadas a la resolución de problemas de optimización en los que la cadena solución x* representa un vector con componentes enteras. Los problemas de optimización más estudiados dentro de la Programación Entera son los lineales, en ellos los parámetros de entrada se determinan a partir de la cadena (A, b, c) siendo A una matriz de dimensiones mxn, b un vector columna m dimensional y c un vector fila de dimensión n. Para representarlos usaremos la siguiente formulación: minimizar cx sujeto a: Ax b x Existe una gran variedad de problemas reales que admiten la formulación anterior, por indicar algunos ejemplo, podemos citar los problemas de secuenciación de tareas, problemas de planificación como el de localización de tareas, problemas de diseño como el de determinación de recorridos en grafos, problemas estadísticos en el análisis de datos y fiabilidad, o incluso problemas en biolog{u00|
2015-04-16
2015-04-16
1992
info:eu-repo/semantics/doctoralThesis
Conde Sánchez, E. (1992). Esquemas de enumeración implícita ordenada programación entera. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/24097
https://idus.us.es/xmlui/handle/11441/24097
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/241012024-02-13T09:08:20Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Problema variacional múltiple
Rufián Lizana, Antonio
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Programación (Matemáticas)
Optimización matemática
Cálculo de variaciones
La tesis, se estructura en 4 capítulos: en el capítulo 1, vamos a abordar el estudio de las soluciones eficientes y débilmente eficientes para un problema de programación multiobjetivo (PM); en el Capítulo 2 abordamos el problema variacional escalar con restricciones (PV) ; en el capítulo 3 nos centramos en el estudio de la eficiencia débil ; en el capítulo 4 estudiamos el problema variacional múltiple (PVM) con restricciones en la búsqueda de soluciones eficientes.|
2015-04-16
2015-04-16
2003
info:eu-repo/semantics/doctoralThesis
Arana Jiménez, M. (2003). Problema variacional múltiple. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/24101
https://idus.us.es/xmlui/handle/11441/24101
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/989682024-02-14T13:58:43Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Optimización de un problema de transporte
Infante Macías, Rafael
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
2020-07-07
2020-07-07
1979-03-26
info:eu-repo/semantics/doctoralThesis
https://hdl.handle.net/11441/98968
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:idus.us.es:11441/150812018-11-26T10:03:50Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Avances sobre el problema de localización continua de un único centro
Puerto Albandoz, Justo
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Localización, Teoría de la
"El objetivo de la Teoría de la Localización consiste en determinar una o varias localizaciones para uno o más servicios con respecto a un conjunto de ubicaciones conocidas a priori, que usualmente denominamos puntos de demanda, optimizando alguna medida
2014-11-27
2014-11-27
1998
info:eu-repo/semantics/doctoralThesis
Rodríguez Chía, A.M. (1998). Avances sobre el problema de localización continua de un único centro. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/15081
https://idus.us.es/xmlui/handle/11441/15081
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/1069512024-02-14T19:30:18Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Mixed Integer Nonlinear Optimization. Applications to Competitive Location and Supervised Classification
Blanquero Bravo, Rafael
Carrizosa Priego, Emilio José
Romero Morales, María Dolores
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
This PhD dissertation focuses on the study of Mixed Integer Nonlinear Programming
(MINLP) problems [34] for two important and current applications: competitive location on networks [59, 64] and Support Vector Machines (SVM) [56, 152, 153].
Location problems on a network in a competitive environment were first introduced
in [82]. They have been deeply studied in operations research and applied in problems
such as market area analysis [122], demand estimation [123], or location of retail centres
[78].
The SVM has proved to be one of the state-of-the-art methods for Supervised
Classification [2, 6, 85, 160]. Successful applications of the SVM are found, for instance,
in health care [22, 46, 81], fraud detection [43], credit scoring [113] and cancellations
forecasting [138].
In its general form, an MINLP problem can be represented as:
min f(x1, x2)
s.t.
gi(x1, x2) ≤ 0 ∀i = 1, . . . , I
x1 ∈ Z
n1
x2 ∈ R
n2
,
where n1 is the number of integer variables, n2 is the number of continuous variables, I is
the number of constraints and f, gi are arbitrary functions such that f, gi
: Z
n1 ×R
n2 →
R. The general class of MINLP problems is composed by particular cases such as
Mixed Integer Linear Programming (MILP) problems, when f, gi ∀i = 1, . . . , I are
linear functions, Mixed Integer Quadratic Programming (MIQP) problems, when f is
quadratic or Quadratically Constrained Quadratic Programming (QCQP) problems,
when f, gi are quadratic functions.
There are two main lines of research to solve this kind of problems: to develop
packages for general MINLP problems [32, 55] or to exploit the specific structure of the
problem. In this PhD dissertation we focus on the latter.
Concerning the first application, we study the problem of locating one or several
facilities on a competitive environment in order to maximize the market share. We
study the single and p-facility Huff location model on a network and the single Huff
origin-destination trip model [95]. Both models are formulated as MINLP problems and
solved by a specialized branch and bound, where bounding rules are designed using DC
(difference of convex) and Interval Analysis tools.
In relation to the second application, we present three different SVM-type classifiers, focused either on robustness or interpretability. In order to build the classifier,
different approaches are proposed based on the solution of MINLP problems, or particular cases of it such as MILP, MIQP or QCQP problems, and globally optimized using
a commercial branch and bound solver [55, 100, 101].
2021-04-12
2021-04-12
2015-02-25
info:eu-repo/semantics/doctoralThesis
Nogales Gómez, A. (2015). Mixed Integer Nonlinear Optimization. Applications to Competitive Location and Supervised Classification. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
https://hdl.handle.net/11441/106951
eng
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:idus.us.es:11441/241032024-02-14T11:04:21Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Test de bondad de ajuste para la distribución Poissón Bivariante
Jiménez Gamero, María Dolores
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Poisson, Distribución de
Los datos de conteo pueden aparecer bajo diferentes circunstancias. En un marco univariante, la distribución Poisson es la distribución que con mayor frecuencia ha sido empleada para modelar tales datos (ver por ejemplo, Haight (1967, pp. 100107) [12], Johnson y Kotz (1969, pp. 8890) [18], Sahai y Khurshid (1993) [41]). En la práctica, los datos de conteo bivariantes surgen en varias disciplinas diferentes y la distribución Poisson bivariante (DPB), siendo una generalización de la distribución Poisson, juega un rol importante al momento de modelarlos, siempre que dichos datos presenten una correlación no negativa.|
2015-04-16
2015-04-16
2013
info:eu-repo/semantics/doctoralThesis
Novoa Muñoz, F. (2013). Test de bondad de ajuste para la distribución Poissón Bivariante. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/24103
https://idus.us.es/xmlui/handle/11441/24103
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/157212024-02-14T19:10:54Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Desarrollos ortogonales para estimadores en familias paramétricas
López Blázquez, José Fernando
Moreno Rebollo, Juan Luis
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Estimación, Teoría de la
"En el presente trabajo se muestra como la utilización de desarrollos ortogonales para el estudio de estimadores en familias paramétricas proporciona un marco adecuado para el estudio de las propiedades de los mismos. La Teoría desarrollada en el capítulo I se muestra muy útil tanto para el análisis de familias regulares como no regulares. Se identifica el conjunto de posibles estimadores en una familia paramétrica a un espacio funcional, de funciones de cuadrado integrable. Estos espacios presentan la ventaja de poseer propiedades de gran utilidad posterior.En los capítulos 2 y 3 están dedicados respectivamente al caso de familias exponenciales y a familias que dependen del parámetro. Se destacan las propiedades asintóticas de los estimadores que se derivan de los desarrollos, y se puede establecer de forma clara propiedades para las cotas inferiores para la varianza.En el capítulo 4 se aplica la Teoría General a diferentes situaciones. En el caso de observaciones censuradas se consideran diversos casos en que la distribución de los datos no sea continua. En particular, se hace un estudio de los estimadores basados en la media Weinsorizada de datos procedentes de la distribución geométrica."
2014-11-27
2014-11-27
2000
info:eu-repo/semantics/doctoralThesis
Gómez Gómez, M.T. (2000). Desarrollos ortogonales para estimadores en familias paramétricas. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/15721
https://idus.us.es/xmlui/handle/11441/15721
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/150382024-02-14T13:49:00Zcom_11441_11443com_11441_11441com_11441_11195com_11441_11099com_11441_10690com_11441_10843com_11441_10802col_11441_11544col_11441_11474col_11441_11199col_11441_10847
Algunos problemas en Teoría de Localización
Puerto Albandoz, Justo
Universidad de Sevilla. Departamento de Economía Aplicada I
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Localización, Teoría de la
"En esta tesis se abordan diversos problemas dentro de diferentes campos de la teoría de localización. En un primer capítulo se da una introducción histórica a la teoría de la localización así como una clasificación de los diferentes problemas tratados en
2014-11-27
2014-11-27
1999
info:eu-repo/semantics/doctoralThesis
Hinojosa Bergillos, Y. (1999). Algunos problemas en Teoría de Localización. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/15038
https://idus.us.es/xmlui/handle/11441/15038
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/423672024-02-13T22:21:06Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Problemas de extremos regulares y no regulares, vía formalismo de Dubovitskii-milyutin. Aplicación a problemas de control óptimo.
Osuna Gómez, Rafaela
Rojas Medar, Marko Antonio
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Falta palabras clave
La Teoría de Optimización diferenciable clásica se basa principalmente en la búsqueda de condiciones necesarias y suficientes que permitan caracterizar las soluciones óptimas. Las condiciones necesarias se fundamentan en la hipótesis de que el conjunto de soluciones posibles para el problema a resolver, verifica ciertas condiciones, que aseguran la caracterización del cono tangente o del cono factible a través de las derivadas de primer orden de las funciones que definen las restricciones, son los denominados problemas regulares. Sin embargo, en determinados problemas, esta hipótesis no es posible asegurarla, dando lugar a los problemas de optimización no regulares o degenerados. Consecuentemente las condiciones de optimalidad de primer orden del tipo Karush-Kuhn-Tucker, no son aplicables. Sería necesario, por tanto, establecer condiciones de optimalidad basadas en aproximaciones al conjunto factible que no sean de primer orden, es decir, utilizando derivadas de orden superior y que, naturalmente, coincidan con las condiciones clásicas de primer orden, cuando el problema sea regular. Por otro lado las condiciones necesarias no garantizan que las soluciones encontradas sean soluciones _optimas, es decir, en general, no son condiciones suficientes para garantizar la optimalidad, sin hipótesis adicionales. Este trabajo consiste esencialmente en establecer condiciones de optimalidad, optimalidad de Pareto en el caso vectorial, de segundo orden y no degeneradas, para problemas generales de optimización matemática diferenciables, escalares y vectoriales, con restricciones múltiples de igualdad y desigualdad, definidos en espacios de Banach, cuando el problema es no regular. A partir de ellas y haciendo uso de teoremas de representación, conseguimos establecer condiciones de optimalidad de segundo orden no degeneradas, para problemas de control _optimo escalar, con restricciones mixtas. Generalizando los resultados existentes en la literatura y quedando éstos como casos particulares.
2016-06-15
2016-06-15
2013-05-07
info:eu-repo/semantics/doctoralThesis
Vivanco Orellana, V.N. (2013). Problemas de extremos regulares y no regulares, vía formalismo de Dubovitskii-milyutin. Aplicación a problemas de control óptimo.. (Tesis doctoral inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/42367
https://idus.us.es/xmlui/handle/11441/42367
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:idus.us.es:11441/241002018-11-08T11:10:43Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Nuevos tests para contrastar la bondad de modelos arma y marma de series temporales
Caridad Ocerín, José María
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Serie cronológica
La presente memoria consta de 3 capítulos en donde se realizan estudios de los problemas de contraste de hipótesis acerca de la bondad de modelos ARMA y MARMA de series temporales. ... Nuestro trabajo se ha centrado en el problema del contraste del modelo, donde da la complejidad del mismo los métodos habituales no son siempre fáciles de aplicar, adaptándose métodos estadísticos generales y desarrollando otros originales.En el capítulo primero se estudian los estadísticos del tipo portmanteau, aplicables al chequeo del modelo, pero sin un modelo alternativo de contrastes, dándose sus distribuciones asintóticas así como una valoración de las mismas.Continuamos la memoria con un segundo capítulo en el que una vez abordad la teoría del contraste de hipótesis para estimadores restringidos, se ha estructurado para poderla aplicar a modelos AR y ARMA frente a diferentes familias de modelos alternativos, resolviéndose los problemas de singularidad en la matriz de covarianzas de los parámetros del modelo, usando nuevos estadísticos.Continúa el capítulo con el estudio asintótico de las distribuciones de los estadísticos usados en estos contrastes, para terminar con la equivalencia asintótica de ambos tests (portmanteau y score) en un caso concreto de familia de modelos alternativos.En el tercer capítulo se generaliza el test tratado en el capítulo anterior, para contrastar modelos múltiples de series temporales (MARMA) usando en el desarrollo de las demostraciones técnicas de algebra tensorial.Sigue el capítulo con un estudio del estadístico definido en este caso, en el que se hace hincapié no solo en su distribución asintótica sino en su cálculo práctico con vistas a su inclusión en el paquete de programas W.M.T.S. de la Universidad de Wisconsin.Acabamos con la equivalencia asintótica de los tests port|
2015-04-16
2015-04-16
1985
info:eu-repo/semantics/doctoralThesis
Hervás Martínez, C. (1985). Nuevos tests para contrastar la bondad de modelos arma y marma de series temporales. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/24100
https://idus.us.es/xmlui/handle/11441/24100
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/990882024-02-14T08:49:56Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Programación con restricciones aleatorias y algunas aplicaciones económicas
Infante Macías, Rafael
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
2020-07-08
2020-07-08
1979-07-02
info:eu-repo/semantics/doctoralThesis
https://hdl.handle.net/11441/99088
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:idus.us.es:11441/467672024-02-13T08:55:49Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Teoría de perturbación en cadenas de markov de parámetro continuo
Infante Macías, Rafael
Pascual Acosta, Antonio
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Universidad de Sevilla. SEJ183: Economia Aplicada (Matematicas)
El objeto de la memoria es estudiar un modelo de perturbación en el que matriz de intensidad de la cadena de Markov original se transforma con la ayuda de la matriz de reemplazamiento, resultando la cadena de Markov modificada. Para hacer énfasis sobre el mecanismo de perturbaci&o acute;n y el método de compensación se considera la cadena de Markov en su forma más simple. La característica principal de este método es que se trata con dos cadenas simultáneamente, y por tanto, la compensación debe tener en cuenta las propiedades teóricas de los potenciales de ambas cadenas. Además, un estudio más profundo del método de compensación revela su conexión con la teoría de perturbación de semigrupos, probada mediana la “2ª ecuación resolvente”.En el primer capítulo incluimos los resultados fundamentales sobre cadenas de Markov de parámetro continuo que serán utilizados posteriormente a lo largo de la Memoria. Se hace especial hincapié en el estudio de resolventes, operadores y teoremas límites. En el último apartado del capítulo se describe la teoría de potencial para cadenas ergódicas siguiendo los trabajos de SYSKI (1973, 1978).A lo largo del segundo capítulo se estudia un modelo de perturbación con reemplazamientos gobernados por una matriz de reemplazamiento sobre los estados permisibles, siguiendo la técnica introducía por ARJAS y SPEED (1975) para cadenas de Markov de parámetro discreto. Se examinan con detalle las consecucencias del método de compensación en los modelos de perturbación siendo los principales resultados los relativos a la distribución límite de la cadena modificada restringida alos estados permisibles. Dedicamos el tercer capítulo al estudio de diferentes aplicaciones del modelo de perturbación desarrollado en el anterior.El cuarto capítulo está dedicado al estudio de un modelo especial sugerido por DYNKIN (1965) sobre la transformación del espacio de estados. La transformación en cuestión corresponde a una matriz de reemplazamiento determinista, y esto nos lleva a simplificaciones bastante sorprendentes en la obtención de la solución general.Se aplica el mecanismo de perturbación a la transformación del espacio de estados considerada por Dynkin en un proceso de Markov general demostrándose que dicha transformación equivale a un modelo de reemplazamiento con una determinada matriz de reemplazamiento sugerida por ella. Se termina el capítulo calculando algunas medidas de efectividad para un sistema M/M/1 perturbando una cadena de Markov que verifica la condición de Dynkin.Hemos intentado abordar las cuestiones fundamentales que se encuentran planteadas hoy día en esta línea de investigación, limitándonos solo al caso de cadenas de Markov de parámetro continuo con las consiguientes lagunas que ello haya podido originar en la temática general del trabajo. En todo caso cuanto aquí hemos apuntado puede servirnos para un posterior estudio de esta materia en el caso de espacios de estados continuo.
2016-10-03
2016-10-03
1979-09-18
info:eu-repo/semantics/doctoralThesis
Vázquez Cueto, M.J. (1979). Teoría de perturbación en cadenas de markov de parámetro continuo. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/46767
https://idus.us.es/xmlui/handle/11441/46767
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:idus.us.es:11441/157252024-02-12T21:58:54Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Monotonicidad generalizada
Osuna Gómez, Rafaela
Rufián Lizana, Antonio
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Operadores monótonos
Funciones convexas
Cálculo de variaciones
El estudio de las funciones conexas y afines es de gran importancia en la resolución de problemas de axogramación matemática. Recientemente se ha empezado a considerar la monotonicidad de los gradientes de las fusiones, con el fin de asegurar características de conexidad generalizada en los objetivos. Para ello se introducen los conceptos de inuexo notonicida, que gen eraliza con respecto a las funciones innes, la relaciones de connexidad conocidas. Los nuevos conceptos introducidos se aplican al estudio de los problemas ucriacionales, de forma que se puedan garantizar la existencia de soluciones para dichos problemas. También se introducen nuevas defunciones de problemas varibalidades que generalizan el problema de programación matemática, encontrando soluciones.
2014-11-27
2014-11-27
1999
info:eu-repo/semantics/doctoralThesis
Ruiz Garzón, G. (1999). Monotonicidad generalizada. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/15725
https://idus.us.es/xmlui/handle/11441/15725
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/157262024-02-14T20:11:31Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Optimization-based methods for classification and regression problems with imprecise data
Carrizosa Priego, Emilio José
Plastria, Frank
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Aprendizaje automático
Análisis discriminante
En esta tesis, desarrollamos varias herramientas para resolver problemas de clasificación y regresión donde los elementos del conjunto de datos no son vectores de características puntuales, sino conjuntos en Rd con ciertas propiedades geométricas. El clasificador o regresor se define siguiendo la estrategia, utilizada con éxito en Máquinas de Vectores Sopo rte, de maximizar el margen. En cada caso, se formula un problema de optimización, que hay que resolver para encontrar el clasificador o regresor óptimo. Se obtienen varios tipos de problemas de optimización para estos problemas: programas convexos cuadráticos cuando buscamos hiperplanos para tareas de clasificación o regresión (cuya solución se obtendría directamente usando un solucionador, como CPLEX o LOQO [112]) o programas no lineales y no lineales enteros mixtos cuando buscamos hiperesferas separadoras (donde desarrollaremos algoritmos exactos o heurísticos para obtener una solución óptima). El problema se formula como un modelo de maximización de margen. Se estudian las condiciones necesarias de optimalidad y se obtiene un conjunto dominante finito de soluciones, que conduce a un algoritmo en tiempo polinomial. Se han realizado experimentos computacionales con conjuntos de datos de referencia y artificiales para cada modelo, obteniendo buenos resultados, lo que muestra que las herramientas desarrolladas son competitivas.
2014-11-27
2014-11-27
2008
info:eu-repo/semantics/doctoralThesis
Gordillo Santofimia, J.F. (2008). Optimization-based methods for classification and regression problems with imprecise data. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/15726
https://idus.us.es/xmlui/handle/11441/15726
eng
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/157232024-02-15T07:47:42Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Juegos cooperativos estocásticos
Infante Macías, Rafael
Fernández García, Francisco Ramón
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Teoría de juegos
Investigación operativa
Matemáticas
Distribución y transporte
La presente memoria es fruto de la convergencia de dos líneas de investigación desarrolladas por el Departamento de Estadísticas e Investigación Operativa de la Universidad de Sevilla, y que ha dado lugar al estudio y desarrollo de la teoría de los juegos cooperativos estocásticos. La primera línea de investigación fue la pionera en el comienzo de la investigación en el departamento en la déca da de los años setenta. La idea original propuesta por el profesor Infante era el desarrollo investigación en torno a los fundamentos axiomáticos de la teoría de la decisión. Esta línea de trabajo tenía por objetivo inmediato el profundizar en varias área relacionadas entre sí desde la teoría de la decisión a la programación matemática y a la teoría juegos, partiendo de los resultados que él había obtenido en sus estudios en la Universidad Complutense de Madrid. Uno de los aspectos más destacados se relacionaba con las posibilidades que presentaba el estudio de los problemas de programación estocástica, tanto como reto teórico como desde el punto de vista de sus aplicaciones. Así no de los primeros frutos en esta línea fue de la lectura de la primera tesina de licenciatura realizada en la sección de matemáticas de la Universidad de Granada, titulada “Programación estocástica: resultados y estado actual”. Posteriormente fueron apareciendo publicaciones relacionados con la teoría de juegos, la teoría de la información, etc., continuando así hasta nuestros días. La segunda línea de investigación, aunque fuertemente relacionada con la anterior, se ha desarrollado en los últimos años al conectar la teoría de juegos con las situaciones multiobjetivo. La metodología multiobjetivo ha sido ampliamente desarrollada a lo largo de los años en nuestro departamento, sin embargo no ha sido hasta los años noventa cuando esta ha irrumpido en la teoría de juegos. El considerar que las situaciones propias de la teoría de juegos se originan en varios escenarios nos lleva de forma natural a modelos de juegos con objetivos múltiples. En esta línea de trabajo se han desarrollado numerosos trabajos de investigación, y en especial dos Tesis Doctorales, continuando abiertas las posibilidades de estudio en esta área. No obstante, ninguna de las dos líneas marcadas anteriormente había considerado las situaciones de competencia bajo un ambiente de riesgo, y es por ello que esta memoria viene a poner de manifiesto como la aparente separación entre líneas de investigación es a veces superficial. La memoria que presentamos estudia las situaciones de confrontación que se producen en teoría de juegos, conocidas como juegos cooperativos, en los cuales, aunque haya diferentes sensibilidades por parte de los jugadores, estos acuerdan cooperar para obtener un mayor beneficio que su actuasen de modo individual. Pero la teoría clásica suponía que los pagos que se producían en el desarrollo de la cooperación eran pagos escalares determinados de antemano. En esta memoria, y esta es en parte su aportación, presentamos y estudiamos aquellas situaciones en que los pagos sean no determinísticos, matemáticamente hablando los pagos sean variables aleatorias. El capítulo primero de la memoria se dedica a explicar los orígenes e importancia de estos juegos cooperativos en ambiente de riesgo, así como de exponer las líneas fundamentales que desarrollamos a lo largo del trabajo. Nosotros deseamos aquí explicar sólo la línea de investigación de donde se ha partido, y aunque según hemos comentado anteriormente la memoria parece estar conectada sólo con la primera línea de trabajo, donde se ubican los estudios sobre los ambientes de riesgo, sin embargo, la metodología desarrollada pone de manifiesto la gran relación que esta memoria tiene con la segunda línea de trabajo, como podrá verse a lo largo de la misma, dado que sin los estudios efectuados con anterioridad en esta línea de los juegos con objetivos múltiples, la presente memoria no podría llevarse a cabo. De todo lo anterior se deduce, y así deseo expresarlo, que mi trabajo de investigación no se debe sólo a mi labor individual, sino que se debe en gran parte a todos los investigadores que me han precedido en el departamento, cuya labor a lo largo de los años ha fructificado en unos resultados, que junto con los desarrollados a lo largo de la presente memoria, nos han permitido llevar a buen puerto la presente investigación.
2014-11-27
2014-11-27
2000-12-05
info:eu-repo/semantics/doctoralThesis
Zafra Garrido, M.J. (2000). Juegos cooperativos estocásticos. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/15723
https://idus.us.es/xmlui/handle/11441/15723
6022437
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/154242024-02-13T21:55:34Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690com_11441_11401com_11441_11290col_11441_11474col_11441_11585col_11441_10847col_11441_11405
Sistemas evolutivos multiobjetivo en equipo para el diseño de transectos
Pino Mejías, José Luis
Universidad de Sevilla. Departamento de Organización Industrial y Gestión de Empresas I
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Muestreo (Estadística)
La presente memoria elaborada para optar al grado de Doctor, tiene la siguiente estructura:1. Estudio del estado del arte: ... b. Técnicas de equipos de algoritmos y paralelización.2. Aportaciones: a. Modelización del problema.
2014-11-27
2014-11-27
2008
info:eu-repo/semantics/doctoralThesis
Jurado Curado, L. (2008). Sistemas evolutivos multiobjetivo en equipo para el diseño de transectos. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/15424
https://idus.us.es/xmlui/handle/11441/15424
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/1355642024-02-14T08:43:33Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
New Advances In Data Science Problems Through Hyperplanes Location
Blanco Izquierdo, Víctor
Puerto Albandoz, Justo
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
This thesis dissertation focus on developing new approaches for different Data Science problems from a Location Theory perspective. In particular, we concentrate on locating hyperplanes by means of solving Mixed Integer Linear and Non Linear Problems.
Chapter 1 introduces the baseline techniques involved in this work, which encompass Support Vector Machines, Decision Trees and Fitting Hyperplanes Theory.
In Chapter 2 we study the problem of locating a set of hyperplanes for multiclass classification problems, extending the binary Support Vector Machines paradigm. We present four Mathematical Programming formulations which allow us to vary the error measures involved in the problems as well as the norms used to measure distances. We report an extensive battery of computational experiment over real and synthetic datasets which reveal the powerfulness of our approach. Moreover, we prove that the kernel trick can be applicable in our method.
Chapter 3 also focus on locating a set of hyperplanes, in this case, aiming to minimize an objective function of the closest distances from a set of points. The problem is treated in a general framework in which norm-based distances between points and hyperplanes are aggregated by means of ordered median functions. We present a compact formulation and also a set partitioning one. A column generation procedure is developed in order to solve the set partitioning problem. We report the results of an extensive computational experience, as well as theoretical results over the scalability issues and geometrical analysis of the optimal solutions.
Chapter 4 addresses the problem of finding a separating hyperplane for binary classification problems in which label noise is considered to occur over the training sample. We derive three methodologies, two of them based on clustering techniques, which incorporate the ability of relabeling observations, i.e., treating them as if they belong to their contrary class, during the training process. We report computational experiments that show how our methodologies obtain higher accuracies when training samples contain label noise.
Chapters 5 and 6 consider the problem of locating a set of hyperplanes, following the Support Vector Machines classification principles, in the context of Classification Trees. The methodologies developed in both chapters inherit properties from Chapter 4, which play an important role in the problems formulations. On the one hand, Chapter 5 focuses on binary classification problems where label noise can occur in training samples. On the other hand, Chapter 6 focus on solving the multiclass classification problem. Both chapters present the results of our computational experiments which show how the methodologies derived outperform other Classification Trees methodologies. Finally, Chapter 7 presents the conclusions of this thesis.
2022-07-19
2022-07-19
2022-06-02
info:eu-repo/semantics/doctoralThesis
Japón Sáez, A. (2022). New Advances In Data Science Problems Through Hyperplanes Location. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
https://hdl.handle.net/11441/135564
eng
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:idus.us.es:11441/150872024-02-13T09:56:04Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Técnicas de Estimación con mixturas de distribuciones exponenciales
Pascual Acosta, Antonio
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Estimación, Teoría de la
2014-11-27
2014-11-27
1983
info:eu-repo/semantics/doctoralThesis
Callealta Barroso, F.J. (1983). Técnicas de Estimación con mixturas de distribuciones exponenciales. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/15087
https://idus.us.es/xmlui/handle/11441/15087
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/411032024-02-13T09:01:39Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Medición de la eficiencia estática y dinámica de las universidades mediante métodos no paramétricos. Aplicación a las universidades públicas ecuatorianas
Pino Mejías, José Luis
Luque Calvo, Pedro Luis
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Falta palabras clave
El objetivo principal del trabajo ha sido introducir la dimensión de la eficiencia en la evaluación comparativa de las universidades y su aplicación a las universidades públicas ecuatorianas, de forma que se puedan superar las principales limitaciones de los sistemas de evaluación y de las ordenaciones que se derivan de los mismos, que según la revisión bibliográfica realizada son:
La no inclusión de todas las dimensiones del quehacer universitario, centrándose generalmente en la actividad investigadora.
La no consideración del factor escala, en especial en las variables que miden los recursos económicos con que cuenta cada institución.
La no incorporación de una perspectiva input – output, focalizando la evaluación en los outputs.
La falta de robustez estadística del indicador compuesto resultante.
Limitaciones a las que debe unirse, en algunos casos, la falta de una perspectiva temporal ocasionada por los cambios metodológicos que impiden el análisis de la evolución cuando provocan rupturas de las series de datos.
Partiendo de un marco conceptual común al de agencias de evaluación de las universidades de todo el mundo, se ha desarrollado una metodología que permite:
Seleccionar un conjunto reducido de variables, inputs y outputs capaz de aportar información relevante sobre las dimensiones de docencia e investigación, empleando técnicas de reducción de la dimensionalidad.
Validar la selección realizada mediante la comparación de los resultados obtenidos con el conjunto completo de variables, empleando técnicas de clasificación.
Aplicar el Análisis Envolvente de Datos para medir la eficiencia de cada universidad desde la perspectiva del “beneficio de la duda” y analizar la influencia del factor de escala, comparando los modelos CRS y VRS.
Analizar la evolución de la eficiencia y la productividad total de los factores mediante el cálculo del índice de Malmquist.
Calcular el indicador compuesto que hemos denominado indicador distancia, a partir de una agregación de los vectores de pesos que incrementan la ponderación de los vectores con menor distancia media al resto.
Realizar un análisis de sensibilidad de los factores de incertidumbre del modelo, basado en la descomposición exhaustiva de la varianza y el cálculo de los índices de sensibilidad global de Sobol.
Las aportaciones computacionales constituyen una herramienta de interés para las universidades y las instituciones encargadas de la evaluación y acreditación de las mismas, ya que al haberse utilizado exclusivamente software de código abierto puede ser utilizado para aplicar directamente la metodología desarrollada, o de forma adaptada a sus criterios específicos.
La forma de construir pesos comunes ponderados por las distancias, a partir de un conjunto de pesos generados por la aplicación del Análisis Envolvente de Datos, constituye una aportación en el campo de la agregación de preferencias en general y en particular a la construcción de un indicador compuesto de eficiencia universitaria. Dado el carácter no polinomial de varios problemas subyacentes, se han explorado las posibilidades que brindan la paralelización de los algoritmos y el uso de las herramientas de supercomputación para hacer aplicable la metodología a situaciones con más unidades y variables.
2016-05-11
2016-05-11
2016-02-05
info:eu-repo/semantics/doctoralThesis
Alvarado Astudillo, D.V. (2016). Medición de la eficiencia estática y dinámica de las universidades mediante métodos no paramétricos. Aplicación a las universidades públicas ecuatorianas. (Tesis doctoral inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/41103
https://idus.us.es/xmlui/handle/11441/41103
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:idus.us.es:11441/157172024-02-13T20:05:08Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Análisis cooperativo de cadenas de distribución
Fernández García, Francisco Ramón
Puerto Albandoz, Justo
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Logística (Organización)
En esta tesis se estudia la posible cooperación en procesos de decisión en los que intervienen varios agentes. Las principales contribuciones de este trabajo son:- Exten sión del concepto de solución de Owen para juegos de producción lineal, superando ciertos problemas de justicia que dicho concepto de solución presenta.- Introducción y estudio de una nueva clase de juegos cooperativos que surge de un problema particular de distribución, juegos de cadenas de abastecimiento.- Introducción y estudio de una nueva clase de juegos cooperativos, juegos de diámetro, sobre grafos tipo árbol. Se estudian sus propiedades y el cálculo de reglas de reparto de forma eficiente.- Introducción de los juegos de asignación multidimensional, una extensión de los clásicos juegos de asignación. Se estudian sus propiedades y se combina el uso de algoritmos de aproximación con la búsqueda de buenas reglas de reparto.
2014-11-27
2014-11-27
2007-05-29
info:eu-repo/semantics/doctoralThesis
Perea Rojas Marcos, F. (2007). Análisis cooperativo de cadenas de distribución. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/15717
https://idus.us.es/xmlui/handle/11441/15717
eng
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/157182024-02-13T20:25:59Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Análisis cualitativo de datos estadísticos
Muñoz García, Joaquín
Pascual Acosta, Antonio
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Análisis discriminante
"En el Capítulo I, se introduce un esquema que permite analizar de un modo genérico los distintos errores que pueden afectar a las observaciones experimentales. Asimismo, se destacan los rasgos e inconvenientes principales que presentan las distintas definiciones que sobre el término Outlier han dado diversos autores, y se propone una nueva definición para el mismo. Por último, se tipifica la problemática que presentn las Técnicas de Identificación de Outliers.Con el objeto de realizar un análisis cualitativo de los datos experimentales, en el Capítulo II, se propone un marco general -basado en la idea de que "el comportamiento anómalo de una observación depende en gran medida de su relación con las restantes observaciones obtenidas bajo condiciones similares y del objetivo que se persigue en la experimentación" -, que permite obtener una función que cuantifica las desviaciones de las observaciones entre sí, respecto de un criterio dependiente del análisis que se desea realizar con los datos.El esquema propuesto en el Capítulo II, aplicado al caso particular del Análisis de Outliers, presenta, como se recoge en las conclusiones del Capítulo III, ciertas ventajas respecto del enfoque clásico, entre las que cabe destacar, que algunos estadísticos en los que se fundamentan las Técnicas e Identificación de Outliers, se obtienen a partir de una base formal común."
2014-11-27
2014-11-27
1987
info:eu-repo/semantics/doctoralThesis
Moreno Rebollo, J.L. (1987). Análisis cualitativo de datos estadísticos. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/15718
https://idus.us.es/xmlui/handle/11441/15718
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España
oai:idus.us.es:11441/240932024-02-14T13:36:19Zcom_11441_11443com_11441_11441com_11441_10843com_11441_10802com_11441_10690col_11441_11474col_11441_10847
Algunas cuestiones sobre teoría de la información
Infante Macías, Rafael
Universidad de Sevilla. Departamento de Estadística e Investigación Operativa
Información, Teoría de la
El objeto de esta Memoria se centra en el estudio de las clásicas medidas de información matemática en relación con diversos problemas de la estadística. A lo largo de ella emplearemos simultáneamente los términos incertidumbre e informació ... En el primer capítulo se estudia la información de Shannon y su aplicación a problemas de estadística como son la regresión y el muestreo. Se deducen nuevas relaciones entre esta cantidad y las informaciones de Fisher y Kullback.El segundo capítulo está dedicado a la incertidumbre de Renyi. Se consigue generalizar la entropía de orden de Renyi, obteniéndose una función que tiene propiedades bastante interesantes.Partiendo del concepto de incertidumbre de Shannon en el tercer capítulo llegamos a encontrar una medida de la información proporcionada por un experimento estadístico, estudiándose la relación entre la medida encontrada y las cantidades de información de Kullback, Shannon y Renyi. Se emplea esta medida como método para comparar experimentos y se estudia la analogía entre el concepto utilitarista de valor de la información asociado con un experimento y la medida encontrada por nosotros. Al final de la Memoria añadimos un apéndice donde se incluye un programa realizado mediante ordenador para el cálculo de la entropía generalizada de la de Renyi de orden , aplicándose dicho programa para la obtención de resultados en diferentes casos particulares|
2015-04-16
2015-04-16
1976
info:eu-repo/semantics/doctoralThesis
Pascual Acosta, A. (1976). Algunas cuestiones sobre teoría de la información. (Tesis Doctoral Inédita). Universidad de Sevilla, Sevilla.
http://hdl.handle.net/11441/24093
https://idus.us.es/xmlui/handle/11441/24093
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
Atribución-NoComercial-SinDerivadas 4.0 España