Tesis (Ciencias de la Computación e Inteligencia Artificial)
URI permanente para esta colecciónhttps://hdl.handle.net/11441/11305
Examinar
Envíos recientes
Tesis Doctoral Artificial Intelligence in Architecture: A Journey from Engineering Applications to Generative Design and Conceptual Representations of Space(2025-03-11) Miguel Rodríguez, Jaime de; Sancho Caparrini, Fernando; Universidad de Sevilla. Departamento de Ciencias de la Computación e Inteligencia ArtificialThis thesis explores the role of Artificial Intelligence (AI) in the conceptual modelling of space, focusing on architectural aesthetics, or 'venustas', while also addressing 'utilitas' (functionality) and 'firmitas' (structure). The aesthetic aspect, which is the most challenging, is central to the research, which examines the interplay between AI, design aesthetics, and spatial representations. It examines the challenges and opportunities that AI presents for creativity, conceptual reasoning, and the representation of space - three pillars that are central to architectural discourse. Various AI techniques are analysed, including neural networks for structural applications in civil and seismic engineering, and generative models for urban analysis and form-finding. Formal Concept Analysis is introduced as a key tool for conceptual modelling in AI, applied to urban case studies. The thesis continues by critically analysing generative AI models, evaluating their creative potential, their capacity to handle complex and ambiguous representations, and their suitability to perform at a conceptual level. Although generative AI shows promise in generating creative design solutions, it is limited in performing concept-driven operations, particularly compared to symbolic models that excel in reasoning, composability, and explainability. The research finally delves into the problem of spatial representation in architectural design. A variety of symbolic and neural-symbolic approaches are reviewed, yet none fully address the complex, qualitative aspects of space central to human cognition and architectural practice. In response, this thesis proposes a novel proof-of-concept model that revisits purely symbolic approaches. This model provides a foundation for emerging conceptual structures from raw sensory data, addressing the long-standing symbol grounding problem in AI and offering a potential solution for representing spatial objects in architectural design. Ultimately, this thesis contributes to the growing dialogue between AI and architectural design by proposing a new framework for integrating AI into the creative and conceptual processes that define the discipline. It offers a critical assessment of current AI methods and suggests a novel approach that could pave the way for future advancements in AI and Design.Tesis Doctoral Virus machines: an unconventional computing paradigm(2024-05-28) Ramírez de Arellano Marrero, Antonio; Orellana Martín, David; Universidad de Sevilla. Departamento de Ciencias de la Computación e Inteligencia ArtificialSobrepasar la estructura convencional de los ordenadores actuales diseñada John von Neumann desde hace casi 100 años es uno de los grandes retos de las ciencias de la computación. Existen enfoques teóricos para abarcar este problema, uno de ellos consiste en desarrollar paradigmas de computación no convencionales inspirados en la naturaleza, a esta disciplina se le llama Computación Natural. En esta no sólo se desarrollan modelos prácticos para diversas aplicaciones, sino que también da otro enfoque al desarrollo de teorías de complejidad computacional a través de estos modelos. Es común que, al desarrollar un nuevo paradigma de computación, esta sufra de ciertas carencias matemáticas en pro de buscar aplicaciones directas del mismo. Lo que realmente da un salto cualitativo a estos nuevos modelos es una buena base construida desde la integridad matemática, no sólo para buscar aplicaciones, sino que también para atacar problemas abstractos. En esta tesis se desarrolla un joven paradigma de computación llamado Máquinas de Virus, el cual se inspira en la propagación y replicación de los virus biológicos. En la tesis se aplica una técnica de verificación formal para dar veracidad matemática a los distintos ejemplos prácticos que se plantean en la misma, entre ellos se encuentran diversos modos, computación de funciones, generador de conjuntos, y aceptación de problemas de decisión. Llegando a atacar criptosistemas con estas máquinas. Por último, se definen diversas extensiones del paradigma para mejorar la eficiencia y también buscar aplicaciones al mundo real con modelos basados en estos. Se concluye que este paradigma de computación ofrece un enfoque interesante y que, al compararlo con otros bien establecidos basados en las redes neuronales, se puede llegar a mejores resultados en términos de universalidad y diferenciados para aplicaciones prácticas.Tesis Doctoral Optimization of high-throughput real-time processes in physics reconstruction(2019-11-29) Cámpora Pérez, Daniel Hugo; Riscos Núñez, Agustín; Neufeld, Niko; Universidad de Sevilla. Departamento de Ciencias de la Computación e Inteligencia ArtificialLa presente tesis se ha desarrollado en colaboración entre la Universidad de Sevilla y la Organización Europea para la Investigación Nuclear, CERN. El detector LHCb es uno de los cuatro grandes detectores situados en el Gran Colisionador de Hadrones, LHC. En LHCb, se colisionan partículas a altas energías para comprender la diferencia existente entre la materia y la antimateria. Debido a la cantidad ingente de datos generada por el detector, es necesario realizar un filtrado de datos en tiempo real, fundamentado en los conocimientos actuales recogidos en el Modelo Estándar de física de partículas. El filtrado, también conocido como High Level Trigger, deberá procesar un throughput de 40 Tb/s de datos, y realizar un filtrado de aproximadamente 1 000:1, reduciendo el throughput a unos 40 Gb/s de salida, que se almacenan para posterior análisis. El proceso del High Level Trigger se subdivide a su vez en dos etapas: High Level Trigger 1 (HLT1) y High Level Trigger 2 (HLT2). El HLT1 transcurre en tiempo real, y realiza una reducción de datos de aproximadamente 30:1. El HLT1 consiste en una serie de procesos software que reconstruyen lo que ha sucedido en la colisión de partículas. En la reconstrucción del HLT1 únicamente se analizan las trayectorias de las partículas producidas fruto de la colisión, en un problema conocido como reconstrucción de trazas, para dictaminar el interés de las colisiones. Por contra, el proceso HLT2 es más fino, requiriendo más tiempo en realizarse y reconstruyendo todos los subdetectores que componen LHCb. Hacia 2020, el detector LHCb, así como todos los componentes del sistema de adquisici´on de datos, serán actualizados acorde a los últimos desarrollos técnicos. Como parte del sistema de adquisición de datos, los servidores que procesan HLT1 y HLT2 también sufrirán una actualización. Al mismo tiempo, el acelerador LHC será también actualizado, de manera que la cantidad de datos generada en cada cruce de grupo de partículas aumentare en aproxidamente 5 veces la actual. Debido a las actualizaciones tanto del acelerador como del detector, se prevé que la cantidad de datos que deberá procesar el HLT en su totalidad sea unas 40 veces mayor a la actual. La previsión de la escalabilidad del software actual a 2020 subestim´ó los recursos necesarios para hacer frente al incremento en throughput. Esto produjo que se pusiera en marcha un estudio de todos los algoritmos tanto del HLT1 como del HLT2, así como una actualización del código a nuevos estándares, para mejorar su rendimiento y ser capaz de procesar la cantidad de datos esperada. En esta tesis, se exploran varios algoritmos de la reconstrucción de LHCb. El problema de reconstrucción de trazas se analiza en profundidad y se proponen nuevos algoritmos para su resolución. Ya que los problemas analizados exhiben un paralelismo masivo, estos algoritmos se implementan en lenguajes especializados para tarjetas gráficas modernas (GPUs), dada su arquitectura inherentemente paralela. En este trabajo se dise ˜nan dos algoritmos de reconstrucción de trazas. Además, se diseñan adicionalmente cuatro algoritmos de decodificación y un algoritmo de clustering, problemas también encontrados en el HLT1. Por otra parte, se diseña un algoritmo para el filtrado de Kalman, que puede ser utilizado en ambas etapas. Los algoritmos desarrollados cumplen con los requisitos esperados por la colaboración LHCb para el año 2020. Para poder ejecutar los algoritmos eficientemente en tarjetas gráficas, se desarrolla un framework especializado para GPUs, que permite la ejecución paralela de secuencias de reconstrucción en GPUs. Combinando los algoritmos desarrollados con el framework, se completa una secuencia de ejecución que asienta las bases para un HLT1 ejecutable en GPU. Durante la investigación llevada a cabo en esta tesis, y gracias a los desarrollos arriba mencionados y a la colaboración de un pequeño equipo de personas coordinado por el autor, se completa un HLT1 ejecutable en GPUs. El rendimiento obtenido en GPUs, producto de esta tesis, permite hacer frente al reto de ejecutar una secuencia de reconstrucción en tiempo real, bajo las condiciones actualizadas de LHCb previstas para 2020. As´ı mismo, se completa por primera vez para cualquier experimento del LHC un High Level Trigger que se ejecuta únicamente en GPUs. Finalmente, se detallan varias posibles configuraciones para incluir tarjetas gr´aficas en el sistema de adquisición de datos de LHCb.Tesis Doctoral El problema P versus NP: desarrollo de nuevas técnicas a través de modelos de computación bio-inspirados.(2019-04-01) Orellana Martín, David; Pérez Jiménez, Mario de Jesús; Valencia Cabrera, Luis; Universidad de Sevilla. Departamento de Ciencias de la Computación e Inteligencia ArtificialTesis Doctoral Modelado de sistemas dinámicos con MachineLearning: aplicaciones al mantenimiento basado en la condición.(2018-02-05) Cabrera Mendieta, Diego Román; Sancho Caparrini, Fernando; Universidad de Sevilla. Departamento de Ciencias de la Computación e Inteligencia ArtificialEl estudio de los sistemas dinámicos es un tema de gran interés tanto en la ingeniería como en las ciencias por su gran aplicabilidad a la resolución de problemas que, con frecuencia, aparecen en un sin número de ´áreas. Sin embargo los métodos formales hasta ahora utilizados para su análisis, no han tenido la flexibilidad suficiente para adaptarse a sistemas de complejidad creciente, donde la interacción de sus elementos no permite una inferencia directa del comportamiento del sistema, en una, o varias de sus variables. Por otro lado, los nuevos avances en las técnicas de Machine Learning han demostrado tener una gran capacidad de adaptación en dominios tan diversos resultando en la necesidad de cambios minoritarios para su aplicación entre uno u otro. A pesar de esto, su estudio en el modelado de sistemas dinámicos, como tarea fundamental, ha sido pocas veces abordado. Por las razones anteriores, este trabajo se enfoca en el desarrollo de 3 metodologías para modelado de sistemas dinámicos desde la perspectiva del Machine Learning a partir de información incompleta de sus variables representadas como series temporales de alta complejidad. Las propuestas son presentadas en función de los diferentes escenarios de información disponible para el modelado, que pudieran llegar a aparecer en situaciones reales. Como primera metodología se propone el modelamiento del sistema dinámico con un enfoque manual de caracterización de estados usando el conocimiento a-priori del sistema mediante la descomposición por Wavelet Packet y la posterior identificación de patrones mediante una técnica clásica de clasificación ´on llamada Random Forest. Como segunda propuesta se presenta el aprendizaje no-supervisado del proceso de caracterización que se adapta de forma automática al sistema dinámico en estudio mediante el modelo Stacked Convolucional Autoencoder, el cual inicializa una Red Neuronal Convolucional Profunda que luego es optimizada de forma supervisada, donde además el proceso de identificación de patrones se encuentra embebido, y es optimizado junto con el modelo de extracción de características. La tercera propuesta en cambio cumple la tarea de caracterización de identificación de patrones de forma no-supervisada, lo primero mediante el aprendizaje de una representación óptima de las series temporales codificada en los parámetros de un Echo State Network, y lo segundo por medio de un Variational Autoencoder, un modelo capaz de aproximar la distribución de probabilidad (a menudo compleja) de los datos. En esta última aproximación se elimina la necesidad de conocer la etiqueta de las series de tiempo que provienen de los estados del sistema dinámico. Las metodologías propuestas son evaluadas en tareas de mantenimiento basado en la condición como son el diagnóstico de fallos, la estimación de la severidad de daño y la detección de fallos en elementos de maquinaria rotativa (concretamente distintos tipos de engranajes y rodamientos). Los altos índices de exactitud obtenidos en los resultados de la evaluación en cada tarea, muestran que las metodologías aportadas dan un nivel elevado de confiabilidad, robustez y flexibilidad. Además, frente a comparaciones realizadas con otras metodologías reportadas en el estado del arte, las propuestas presentan un desempeño superior en todos los casos.Tesis Doctoral Desarrollo y aplicaciones de un entorno de programación para computación celular: P-Lingua(2010-06-24) Pérez Hurtado de Mendoza, Ignacio; Pérez Jiménez, Mario de Jesús; Riscos Núñez, Agustín; Universidad de Sevilla. Departamento de Ciencias de la Computación e Inteligencia ArtificialLa presente memoria está estructurada en tres partes que constan de un total de siete capítulos cuyos contenidos se describen sucintamente a continuación. Parte I: Preliminares La memoria comienza con un breve recorrido histórico acerca del desarrollo y evolución de diversos conceptos relacionados con la Teoría de la Computación y la Teoría de la Complejidad Computacional. Se analizan las limitaciones que tienen los dispositivos reales construidos en el marco de dichas teorías, a la hora de resolver eficientemente problemas concretos que son relevantes en la vida real, lo cual hace necesario la búsqueda de nuevos paradigmas de computación que permitan superar algunas de esas limitaciones. Se presentan los conceptos básicos de la Computación Natural y, en particular, de la rama de la Computación celular con membranas, Membrane Computing, en la que se enmarcan los trabajos que se presentan en esta memoria. En el Capítulo 2 se analiza la problemática actual relativa a la modelización de procesos complejos de la realidad, justificando la necesidad de utilizar modelos formales a _n de conseguir ciertos avances de tipo cualitativo. Se describen brevemente algunas aproximaciones clásicas, así como otras más recientes de tipo computacional que tratan de capturar la aleatoriedad inherente a los procesos biológicos. Finalmente, se presenta un marco de especificación para el diseño de modelos basados en el paradigma de Membrane Computing. Parte II: Aplicaciones de software en Membrane Computing El Capítulo 3 está dedicado a justificar la necesidad de desarrollar herramientas informáticas para poder analizar la bondad de los modelos computacionales diseñados, a través de una validación experimental basada en simulaciones. Se presenta una breve panorámica de los simuladores de sistemas P desarrollados hasta la fecha y se describen los elementos comunes que tienen todos ellos y que han de ser implementados. En el Capítulo 4 se presenta un entorno de programación para el paradigma de Membrane Computing. Dicho entorno está compuesto de: (a) un lenguaje de programación para la especificación de sistemas P (P-Lingua); (b) una biblioteca que implementa el procesamiento de ficheros y diversos algoritmos de simulación (pLinguaCore); y (c) una serie de herramientas para la línea de comandos. La última parte está dedicada a la presentación de ejemplos de código de distintos sistemas P, incluyendo dos familias que proporcionan soluciones eficientes del problema SAT de la satisfactibilidad de la Lógica Proposicional. Parte III: Aplicación al estudio de ecosistemas reales En el Capítulo 5 se describe un marco específico para la modelización computacional de ecosistemas basado en Membrane Computing. En particular, se presentan las concreciones del marco general para los sistemas P probabilísticos y, además, se describe con detalle un algoritmo de simulación que trata de capturar la semántica probabilística. Además, se presenta el software EcoSim 2.0 que es una familia de herramientas para la simulación de modelos de ecosistemas y que se ha desarrollado utilizando P-Lingua y pLinguaCore. El capítulo finaliza con un ejemplo simple de ilustración acerca de las interacciones tritróficas. El Capítulo 6 está dedicado al diseño de modelos basados en sistemas P de dos ecosistemas reales. El primero de ellos se refiere a un ecosistema de la zona pirenaico-catalana en donde habita una ave carroñera en peligro de extinción, el quebrantahuesos; el segundo está dedicado a la modelización computacional de un ecosistema del pantano de Ribarroja, gestionado por Endesa S.A. en el que una especie exótica invasora (el mejillón cebra) está causando importantes problemas de sostenibilidad del medio ambiente con la destrucción de especies autóctonas, así como graves problemas de tipo económico al provocar importantes destrozos en instalaciones diversas de la compañía en torno a dicho pantano. En ambos casos, se han diseñado sendos modelos basados en sistemas P multientornos funcionales-probabilísticos para los cuales se han desarrollado aplicaciones informáticas ad hoc que permitan la validación experimental de los modelos y su uso para la realización de experimentos virtuales a partir de diferentes escenarios de interés para los expertos. La memoria finaliza con un breve capítulo dedicado a la presentación de conclusiones y líneas de trabajo futuro de investigación.Tesis Doctoral Modeling and simulation of real-life phenomena in membrane computing(2013-10-11) García-Quismondo Fernández, Manuel; Martínez del Amor, Miguel Ángel; Pérez Jiménez, Mario de Jesús; Universidad de Sevilla. Departamento de Ciencias de la Computación e Inteligencia ArtificialThis document is structured in three parts, whose content is briefly outlined below. Part I: Preliminaries Chapter I familiarizes the reader with the basics of Natural Computing, introducing some classical models in the discipline. Following, it delves into the state of the art of Membrane Computing. Some frameworks including the seminar transition model are discussed. Finally, it contra sts stochastic and probabilistic approaching when modelling real-life phenomena. Chapter II discusses simulators in Membrane Computing and describes the project P-Lingua and the software tool pLinguaCore, which enable experts to describe and simulate P systems automatically. Moreover, some Membrane Computing simulators implemented on parallel platforms are described, with an special emphasis on those developed for Graphic Processing Units (GPU). Part II: Contributions Chapter III discusses Enzymatic Numerical P Systems (ENPS), a deterministic model for robotics, introducing its antecedents and sequential simulators. In addition, a parallel, GPU-based simulator is presented, including a performance analysis with some case studies and a methodology for repeated simulation of ENPSs. Chapter IV discusses a model on Logic Networks (LNs), which are a specific type of Gene Regulatory Networks in which the combination of the states of a set of genes can influence another one. In addition, a model based on Population Dynamic P systems (PDP systems, for short) is finally presented, describing its semantics and its elements in detail. Chapter V formalizes Probabilistic Guarded P Systems (PGP Systems, for short), a new modelling framework for ecology. The characteristic features of this approach are described, i.e., its spatial distribution and elements and its syntax and semantics. A parallel, GPU-based simulator is described, as well as the integration of PGP systems into the P-Lingua framework. Part III: Results Chapter VI presents some case studies on the models and simulators described in part II, specifically, the modelling and simulation of a Logic Network involved in the flowering process of Arabidopsis thaliana by means of LNDP systems and the modelling and simulation of the ecosystem of White Cabbage Buttery (Pieris napi oleracea). Chapter VII focuses on the results compiled in this document, recapitulating the achievements and conclusions of this thesis and discussing some new lines of work resulting from it.Tesis Doctoral Hacia una concepción generalizada de la abducción, su modelización en lógicas no clásicas y su implementación en herramientas informáticas(2016-07-15) Sarrión Morillo, Enrique; Nepomuceno Fernández, Ángel; Soler Toscano, Fernando; Universidad de Sevilla. Departamento de Ciencias de la Computación e Inteligencia Artificial; Universidad de Sevilla. HUM609: Grupo de Logica, Lenguaje e InformacionComenzamos esbozando de modo informal una propuesta muy general del concepto de abducción, señalando cuáles son los caracteres esenciales de este tipo de inferencia y qué otros rasgos que tradicionalmente se le han impuesto deben ser eliminados. A continuación, ya desde una perspectiva puramente lógica, y partiendo de una modelización formal muy próxima a la que hemos considerado como versión canónica de la abducción ordinaria, hemos presentado en un nivel metalingüístico (no vinculado a ningún sistema lógico concreto) diversas propuestas que, además de liberar este concepto de sus dependencias de las lógicas clásicas, lo generalizan de distintas maneras –por ejemplo, contemplando la posibilidad de que el problema abductivo o/y la solución sean todo un conjunto de fórmulas, o también incorporando la posibilidad de que se establezcan condiciones adicionales a las que ya debe cumplir la versi ón inicial (a la que hemos etiquetado como plana)–. A partir de la citada posibilidad que admite nuevas condiciones, y que constituye lo que hemos denominado como abducción ordinaria cualificada, hemos elaborado los conceptos de abducción ordinaria cualificada preferencial y abducción ordinaria cualificada preferencial estratégica. Además, en todo este proceso de generalización y diversificación se han incorporado componentes que no se recogen en las formalizaciones que encontramos en la literatura lógica consultada e igualmente se han hecho distinciones novedosas respecto de algunos elementos que sí han sido considerados con anterioridad. Todo ello ha permitido que se pueda expandir considerablemente la tipología de inferencias que aparecen en los estudios sobre esta materia. En el caso de la abducción sistémica también hemos acometido esa doble tarea de sacar a la luz ciertas componentes que no habían sido previamente contempladas y de elaborar una versión que, partiendo de la que aquí es considerada como canónica, permita aplicarla en muchas otras situaciones que no reúnen los requisitos que tácitamente se recogen en las escasas publicaciones que hasta la fecha han abordado esta cuestión. Extendemos a ella algunas de las distinciones que ya fueron consideradas en relación con la abducción ordinaria y, de este modo, reforzamos los argumentos que defienden la naturaleza esencialmente abductiva de este tipo de inferencia. Similar proceso hemos seguido y similares logros hemos alcanzado en el caso de la novedosa abducción holística, la cual presentamos como una manera de unificar y superar a los dos grandes modos que ya hemos señalado: ordinario y sistémico. Creemos que un estudio profundo de una relación inferencial debe afrontar su nivel puramente estructural, aunque somos conscientes que en el mismo no queda todo determinado y en cualquier caso hay que completarlo con otros estudios en los que ya se ha agregado información acerca del lenguaje o de la semántica concreta del sistema lógico. Nuestro estudio estructural, que se aparta en algunas exigencias de los más comunes en la literatura, fijó inicialmente la mirada en las relaciones inferenciales binarias y dentro de ellas, de manera especial, en la deducción clásica y en una más novedosa que aquí denominamos deducción plural. Ambas, junto a la también novedosa relación de deducción cualificada, son estudiadas por nosotros con un fin puramente instrumental. Para cada uno de los tipos de relaciones inferenciales binarias que hemos distinguido se ha presentado un buen número de propiedades y hemos indagado cuáles se derivan de otras consideradas básicas. En el caso de las relaciones inferenciales ternarias, dado que son nuestro objetivo, el estudio tipológico es más detallado si cabe. En todos los casos hemos indicado qué restricciones se tienen que imponer y qué propiedades se satisfacen en cada uno de los tipos. El haberlo hecho paso a paso, ‘aislando’ cada uno de los requisitos elementales que se pueden agregar al caso base (que es una relación inferencial que coincide con la que Atocha Aliseda denomina inferencia abductiva), nos permite tener intuiciones sobre otros tipos aquí no abordamos explícitamente pero que se pueden construir mediante la adecuada combinación de los citados caracteres básicos. Del mismo modo, hemos probado de manera rigurosa importantes resultados (llamados teoremas de representación) sobre la caracterización estructural de ciertos tipos de relaciones inferenciales abductivas, dando con ello respuesta a problemas que han permanecido abiertos casi dos décadas. Finalmente hemos presentado varias aportaciones que o bien facilitan la modelización de ciertos tipos de inferencia abductiva en sistemas lógicos pertenecientes al ámbito de la Lógica Epistémica Dinámica (entendida en sentido amplio) o bien mejoran varias de sus propiedades con el objetivo de posibilitar su implementación en herramientas informáticas. En concreto nuestro tratamiento lógico de la acción de olvidar se muestra como un buen candidato para la modelización de la abducción ante anomalía en el ámbito citado.Tesis Doctoral Developing effcient simulators for cell machines(2016-02-02) Macías Ramos, Luis Felipe; Pérez Jiménez, Mario de Jesús; Valencia Cabrera, Luis; Universidad de Sevilla. Departamento de Ciencias de la Computación e Inteligencia ArtificialMembrane Computing, introduced by Gh. Paun at the end of 1998, is a relatively young branch of Natural Computing providing non-deterministic distributed parallel computing models whose computational devices are called membrane systems or P systems. These systems are inspired by some basic biological features, specifically by the structure and functioning of the living cells, as well as from the way the cells are organized in tissues, organs, and organisms. There are basically three ways to categorize membrane systems: cell-like P systems, tissue-like P systems, and neural-like P systems, also called Spiking Neural P systems (SN P systems, for short). Cell-like P systems arrange a series of membranes in a hierarchical way, inspired by the inner structure of the biological cells. Tissue-like P systems arrange elemental membranes in nodes of a directed graph, inspired from the cell inter-communication in tissues. Similarly, Spiking Neural P systems also arrange elemental membranes in nodes of a directed graph, while taking inspiration from the way in which neurons exchange information by the transmission of electrical impulses (spikes) along axons. In general, P systems operate by applying rewriting rules de_ned over multisets of objects associated to the di_erent membranes, in a synchronized non-deterministic maximally parallel way. P systems show a double level of parallelism: a first level comprises parallel application of rules within individual membranes, while a second level comprises all the membranes working simultaneously, that is, in parallel. These features make P systems powerful computing devices. In particular, the double level of parallelism allows a space-time tradeoff enabling the generation of an exponential workspace in polynomial time. As such P systems are suitable to tackle relevant real-life problems, usually involving NP-complete problems. Moreover, P systems are excellent tools to investigate on the computational complexity boundaries, in particular tackling the P versus NP problem. In this way, by studying how the ingredients relative to their syntax and semantics a_ect to their ability to e_ciently solve NP-complete problems, sharper frontiers between e_ciency and non-efficiency can be discovered. Despite of their attractive properties, working with P systems immediately drives to an important inconvenient: due to constraints of current technology, P systems are yet to be fully implemented in vivo, in vitro, or even in silico, because of their massively parallel, distributed, and non-deterministic nature. Thus, practical computations of P systems are driven by silicon- based simulators, and hence their potential results are compromised by the physical limitations of silicon architectures. They are often inefficient or not suitable when dealing with some P system features, such as the exponential workspace creation, non-determinism and massive parallelism. Consequently, developing e_cient simulation tools for P systems becomes an indispensable task in order to both assist in the computational complexity study involving such systems, as well as in the development and verification of solutions to relevant real-life problems. The main contributions derived from the work object of this dissertation are the following: -Finding sharper computational complexity boundaries by modelling solutions to NP-complete problems in terms of cell-like P systems in CDC and CSC. -Developing a simulation tools for membrane systems in CDC and CSC within the P-Lingua framework. These tools have played a major role as assistants in the speci_cation and formal verification of the aforementioned solutions. -Defining new SN P systems variants and the corresponding simulation tools, within the P-Lingua framework. Also, simulation support for a wide range of existing SN P systems variants has been included into that framework. -Defining efficient simulation tools for Fuzzy Reasoning SN P systems working on High Performance Computation platforms, namely CUDA- enabled devices.Tesis Doctoral Semilinear order property and infinite games(2016-01-22) Simões Loureiro, Manuel José; Cordón Franco, Andrés; Universidad de Sevilla. Departamento de Ciencias de la Computación e Inteligencia ArtificialEn este trabajo se analiza la determinación de juegos de Lipschitz y Wadge, junto con la propiedad de ordenación semilineal, estrechamente relacionada con estos juegos, en el contexto de la Aritmética de segundo orden y el programa de la Matemática inversa (Reverse Mathematics). En primer lugar, se obtienen pruebas directas, formalizables en la Aritmética de segundo orden, de la determinación de los juegos de Lipschitz y Wadge para los primeros niveles de la Jerarquía de diferencias de Hausdorff. A continuación, se determinan los axiomas de existencia suficientes para la formalización de dichas pruebas dentro de los subsistemas clásicos de la Aritmética de segundo orden (fórmula). Finalmente, en algunos casos se muestra que dichos axiomas de existencia son óptimos, probando que resultan ser equivalentes (sobre un subsistema débil adecuado, como RCA0 o ACA0) a las correspondientes formalizaciones de los principios de determinación o de ordenación semilineal. Los principales resultados obtenidos son los siguientes: Teorema A. Sobre RCA0 son equivalentes: (fórmula) (el principio de determinación para juegos de Lipschitz entre subconjuntos del espacio de Cantor que son diferencia de dos cerrados). (fórmula) (la propiedad de ordenación semilineal de la reducibilidadLipschitz entre subconjuntos del espacio de Cantor que son diferencia de dos cerrados). Teorema B. Sobre RCA0 son equivalentes: (fórmula) (el principio de determinación para juegos de Lipschitz entre subconjuntos abiertos o cerrados del espacio de Baire). Teorema C. Sobre ACA0 son equivalentes: (fórmula) (el principio de determinación para juegos de Lipschitz entre subconjuntos del espacio de Baire que son simultáneamente abiertos y cerrados). (fórmula) (la propiedad de ordenación semilineal de la reducibilidadLipschitzentre subconjuntos del espacio de Baire simultáneamente abiertos y cerrados).Tesis Doctoral Extensiones de fragmentos de la Aritmética(2003) Cordón Franco, Andrés; Fernández Margarit, Alejandro; Universidad de Sevilla. Departamento de Ciencias de la Computación e Inteligencia ArtificialEl presente trabajo se enmarca dentro del campo de estudio de los Modelos de la Aritmética de Peano: PA. En líneas generales, se desarrolla un estudio sistemático de Fragmentos de la Aritmética empleando como metodología el análisis de la complejidad de ... (--) La complejidad sintáctica de sus axiomas.(--) La complejidad descriptiva, desde el punto de vista computacional, del conjunto de sus axiomas.En la primera parte del trabajo, refinamos propiedades conocidas sobre estructuras de elementos definibles, prestando especial atención a aquellos resultados que establecen que en dichas estructuras no son válidos esquemas de inducción o colección. Estos refinamientos son esenciales para obtener propiedades óptimas sobre existencia de extensiones de fragmentos de una cierta complejidad.En la parte central del trabajo, se obtienen resultados (en muchos casos óptimos) sobre la complejidad sintáctica y descriptiva de extensiones de fragmentos. Clásicos de la Aritmética (esto es, los obtenidos al restringir los principios de inducción, colección o minimización a fórmulas $\Sigma-n$ o $\Pi-n$).En la tercera parte del trabajo, se emplean los resultados sobre extensiones anteriores para estudiar Fragmentos Relativizados, es decir, los fragmentos de la Aritmética obtenidos al restringir los principios de inducción, colección, o minimización a fórmulas $\Delta-n(T)$ (esto es, fórmulas $\Sigma-n$ equivalentes a una fórmula $\Pi-n$ y tales que la teoría T demuestra dicha equivalencia). Dichos esquemas habían sido considerados previamente por Fernández Margarit y Lara Martín en relación al estudio del problema de Jeff Paris sobre la equivalencia de los fragmentos de inducción y minimización para fórmulas $\Delta-n$. El objetivo general del estudio de la Aritmética de Peano es obtener una mayor compresión de l|Tesis Doctoral Aplicaciones de la racionalidad acotada al razonamiento cualitativo sobre sistemas complejos(2014) Galán Páez, Juan; Borrego Díaz, Joaquín; Universidad de Sevilla. Departamento de Ciencias de la Computación e Inteligencia ArtificialEn un trabajo clásico de 1973, los investigadores Horst W. J. Rittel y Melvin M. Webber introducen, dentro del campo de la planificación social, el concepto de problema retorcido. Un problema de este tipo es difícil o imposible de resolver porque presenta requisitos incompletos, contradictorios y cambiantes que generalmente son difíciles de reconocer. Según los autores, la dificultad o imposibilidad intrínseca de resolución de este tipo de problemas llega hasta el punto de que, si somos capaces de especificarlos, entonces estamos describiendo a la vez cómo sería la solución, es más, formularlos de manera completa y definitiva es imposible (de hecho eso es el problema en sí). En este estado de complejidad, las soluciones no son verdaderas o falsas, sino buenas o malas. Aunque la noción fue introducida anteriormente, es con el citado trabajo cuando toma relevancia y se reconoce como un tipo de problemas inherente al diseño en un entorno de complejidad. En Inteligencia Artificial (como disciplina que intenta resolver computacionalmente problemas, de los que algunos, los humanos, todavía resolvemos mejor) este tipo de problemas no son comúnmente estudiados por varias razones. Por un lado, la noción tiene su origen en las ciencias sociales y se referían a sistemas complejos sociales. Por otro lado, los problemas retorcidos no son especificables, y eso encaja mal con las Ciencias de la Computación, pues limita el uso de técnicas de representación y razonamiento. Sin embargo, sí es cierto que los humanos nos enfrentamos y vivimos en sistemas complejos que nos plantean problemas retorcidos (para nuestra economía, salud, etc.) que simplemente sobrellevamos o resolvemos utilizando conocimiento y razonamientos incompletos, no puramente lógicos. La Racionalidad Acotada comprende una serie de técnicas de razonamiento y comportamiento que no encajan con la idea de la racionalida|Tesis Doctoral Aceleración de Simuladores de Sistemas de Membranas Mediante Computación de Altas Prestaciones con GPU(2013) Martínez del Amor, Miguel Ángel; Pérez Jiménez, Mario de Jesús; Pérez Hurtado de Mendoza, Ignacio; Universidad de Sevilla. Departamento de Ciencias de la Computación e Inteligencia ArtificialTesis Doctoral Complejidad y universalidad en modelos de computación celular(2003) Romero Jiménez, Álvaro; Pérez Jiménez, Mario de Jesús; Universidad de Sevilla. Departamento de Ciencias de la Computación e Inteligencia Artificial"La Computación Celular es una disciplina que se enmarca dentro del campo de investigación conocido como Computación Natural. Tiene como objetivo fundamental el desarrollo de modelos de computación inspirados en los procesos que tienen lugar en el interio