Tesis (Ciencias de la Computación e Inteligencia Artificial)
URI permanente para esta colecciónhttps://hdl.handle.net/11441/11305
Examinar
Envíos recientes

Tesis Doctoral Principios de automatización en mantenimiento predictivo(2025-10-06) Solís Martín, David; Borrego Díaz, Joaquín; Galán Páez, Juan; Ciencias de la Computación e Inteligencia Artificial; Ministerio de Ciencia, Innovación y Universidades (MICIU). EspañaEsta tesis doctoral, desarrollada en el marco de un doctorado industrial, aborda el diseño e implementación de metodologías para la automatización del desarrollo de modelos predictivos. Las contribuciones se estructuran en torno a tres ejes fundamentales: la mejora del rendimiento y eficiencia de los modelos de aprendizaje profundo, la mitigación de las limitaciones impuestas por la escasez de datos en entornos reales, y el desarrollo de técnicas de explicabilidad adaptadas a series temporales. En primer lugar, se propone una arquitectura modular basada en redes convolucionales y una metodología de optimización bayesiana coordinada (\textit{CONELPABO}), que mejora la calidad predictiva y reduce significativamente los tiempos de entrenamiento. Para afrontar el elevado coste computacional asociado a estos procesos, se introduce una estrategia de parada temprana basada en la predicción del rendimiento final del modelo a partir de observaciones parciales, apoyada por una base de datos de curvas de aprendizaje construida ad hoc. Posteriormente, se exploran soluciones al problema de la escasez de datos, combinando la generación de muestras sintéticas mediante modelos de difusión con el uso de arquitecturas contrastivas extendidas para el aprendizaje con pocos ejemplos. Estas técnicas permiten mejorar la generalización en contextos industriales donde los datos etiquetados son limitados o costosos de obtener. Finalmente, se abordan aspectos de interpretabilidad mediante un análisis de técnicas de explicabilidad, así como mediante la propuesta de \textit{DiffLIME}, una extensión del método LIME que emplea modelos de difusión para enriquecer las explicaciones generadas. Además, se desarrolla la herramienta PHMD, que automatiza la gestión de conjuntos de datos públicos en PHM, promoviendo la estandarización y la reproducibilidad de experimentos. En conjunto, esta tesis propone un marco metodológico robusto, escalable y orientado al impacto industrial, que contribuye al avance del estado del arte en modelado predictivo aplicado al mantenimiento de sistemas complejos.
Tesis Doctoral Contrastive Modeling and Signal Representation for Anomaly Detection and Diagnosis(2025-09-10) Wu, Jiapeng; Cabrera Mendieta, Diego Román; Sancho Caparrini, Fernando; Ciencias de la Computación e Inteligencia ArtificialIn the field of industrial Prognostics and Health Management (PHM), the scarcity of labeled fault data and the diversity of operating conditions pose significant challenges for the reliable detection of machinery anomalies. Traditional signal processing and machine learning methods require substantial domain expertise and struggle to perform under dynamic and non-stationary environments. Although deep learning offers powerful end-to-end solutions, its reliance on large labeled datasets limits its applicability in real-world scenarios, where healthy-state data vastly outnumber fault samples. This thesis addresses these limitations by developing a series of contrastive-learning-based and one-class learning frameworks tailored to data-scarce, highly variable industrial environments. Beginning with fault diagnosis under nominal operating conditions, the proposed methods employ negative-sample-free contrastive learn-ing to extract informative representations using only limited faulty data, while generalization is achieved across varying working conditions with shared normal samples included during training. To further reduce dependence on faulty samples, the research transitions to one-class anomaly detection using only healthy-state data. A key innovation at this stage is the integration of contrastive learning into a one-class classification frame-work that resolves the feature collapse issue during training. This is complemented by a learnable feature augmentation strategy within the proposed One-Class Con-trastive Reconstruction Framework (OCCRF), which supports GPU-efficient de-ployment and surpasses both classical and reconstruction-based anomaly detec-tion methods. Additionally, a simpler cross-condition augmentation strategy is introduced, utilizing normal data from other operating conditions to replace the less interpretable augmentations commonly used in traditional PHM classification tasks. The thesis culminates in a domain generalization framework that combines con-trastive learning and adversarial training within a feature disentanglement struc-ture, enabling the extraction of domain-invariant representations even under non-stationary conditions. This approach achieves robust performance without requir-ing access to target domain data. In parallel, an attention-based model is devel-oped to process raw time-series signals directly, removing the need for frequency-domain preprocessing. This enhances computational efficiency and real-time ap-plicability. Extensive evaluations on several datasets—including non-stationary vibration sig-nals from a public bearing dataset and a self-collected reciprocating compressor testbed, as well as stationary signals from a self-collected multistage centrifu-gal pump testbed—demonstrate the effectiveness and robustness of the proposed methods. Collectively, these contributions pave the way toward autonomous, self-adaptive monitoring systems aligned with digital twin applications. Future re-search will extend these frameworks to multimodal sensor fusion, causal repre-sentation learning, and closed-loop diagnostic systems to further enhance inter-pretability and decision-making capabilities in complex industrial settings.
Tesis Doctoral A biologically enhanced interpretable Model and its Implementation for cell type Prediction and Annotation(2025-07-21) Gundogdu, Pelin; Loucera, Carlos; Dopazo Blázquez, Joaquín; Ciencias de la Computación e Inteligencia Artificial; European Commission (EC); Marie Skłodowska-CurieLa secuenciación de ARN célula única (scRNA-seq) revela la heterogeneidad celular esencial para comprender la biología y las enfermedades. Un desafío clave es la identificación y anotación precisa de tipos celulares. El aprendizaje profundo (DL) destaca en la extracción de patrones para tareas como la agrupación y el etiquetado de datos scRNA-seq, pero su naturaleza de "caja negra" dificulta la interpretación biológica. Esta tesis busca desarrollar modelos DL mejorados biológicamente para la predicción, anotación y caracterización funcional de tipos celulares a partir de datos scRNA-seq. La idea central es integrar conocimiento biológico previo, especialmente de rutas de señalización celular, para mejorar la interpretabilidad sin comprometer la capacidad de reconocimiento de patrones. El modelo inferirá la actividad de señalización a resolución unicelular. La investigación se centró en avanzar el análisis scRNA-seq mediante DL interpretable. Se buscó superar las limitaciones de los métodos existentes en el manejo de datos de alta dimensión y ruidosos mediante el desarrollo de modelos DL con arquitecturas dispersas informadas biológicamente. Estos modelos abordaron la identificación y clasificación de tipos celulares, incluyendo la detección de tipos no vistos previamente. Otro objetivo fue construir modelos capaces de inferir la actividad de señalización unicelular de forma no supervisada. Se enfatizó la interpretabilidad incorporando conocimiento biológico (estructura y relaciones de vías de señalización, circuitos de señalización) en las arquitecturas de las redes neuronales. Esto buscó asegurar que las características extraídas fueran biológicamente significativas, facilitando una comprensión más profunda de la heterogeneidad celular. Se desarrolló una herramienta para inferir la actividad de vías y circuitos a resolución celular. Se realizó una evaluación rigurosa con conjuntos de datos públicos scRNA-seq y simulaciones para demostrar la solidez y generalización de los modelos. Se evaluó el impacto de diversas fuentes de conocimiento biológico (KEGG, Reactome) y varios niveles de granularidad. La tesis, un compendio de artículos, detalla tres estudios. El primero demostró que incorporar conocimiento de vías KEGG en redes neuronales supervisadas crea modelos más dispersos e interpretables para la reducción de dimensionalidad en datos scRNA-seq, superando a modelos basados en interacciones proteína-proteína, con un rendimiento comparable en clasificación y agrupación. Las representaciones aprendidas pudieron visualizarse e interpretarse funcionalmente. El segundo estudio introdujo SigPrimedNet, una red neuronal informada por circuitos de señalización de KEGG. Combinó clasificación supervisada con detección de anomalías no supervisada en los embebimientos, permitiendo la identificación de tipos celulares desconocidos. SigPrimedNet igualó o mejoró la precisión en la anotación de células conocidas y controló los falsos positivos para células desconocidas. El tercer estudio exploró el uso de Autoencoders Variacionales (VAEs) informados biológicamente para la inferencia no supervisada de la actividad de señalización de célula única. Se compararon VAEs informados por circuitos KEGG y vías Reactome, encontrando que la granularidad del conocimiento previo influyó en la representación aprendida. Los VAEs informados lograron un rendimiento de reconstrucción comparable a sus contrapartes densas, siendo significativamente menos complejos. En resumen, esta tesis se encuentra en la convergencia del aprendizaje automático, el análisis de datos unicelulares y la biología de sistemas. Emplea aprendizaje profundo interpretable para analizar datos scRNA-seq, revelando patrones complejos y facilitando la clasificación celular y el descubrimiento de relaciones sutiles. Al integrar modelos interpretables con conocimiento biológico, enriquece la comprensión de la función celular y las interacciones en tejidos o enfermedades.
Tesis Doctoral Artificial Intelligence in Architecture: A Journey from Engineering Applications to Generative Design and Conceptual Representations of Space(2025-03-11) Miguel Rodríguez, Jaime de; Sancho Caparrini, Fernando; Ciencias de la Computación e Inteligencia ArtificialThis thesis explores the role of Artificial Intelligence (AI) in the conceptual modelling of space, focusing on architectural aesthetics, or 'venustas', while also addressing 'utilitas' (functionality) and 'firmitas' (structure). The aesthetic aspect, which is the most challenging, is central to the research, which examines the interplay between AI, design aesthetics, and spatial representations. It examines the challenges and opportunities that AI presents for creativity, conceptual reasoning, and the representation of space - three pillars that are central to architectural discourse. Various AI techniques are analysed, including neural networks for structural applications in civil and seismic engineering, and generative models for urban analysis and form-finding. Formal Concept Analysis is introduced as a key tool for conceptual modelling in AI, applied to urban case studies. The thesis continues by critically analysing generative AI models, evaluating their creative potential, their capacity to handle complex and ambiguous representations, and their suitability to perform at a conceptual level. Although generative AI shows promise in generating creative design solutions, it is limited in performing concept-driven operations, particularly compared to symbolic models that excel in reasoning, composability, and explainability. The research finally delves into the problem of spatial representation in architectural design. A variety of symbolic and neural-symbolic approaches are reviewed, yet none fully address the complex, qualitative aspects of space central to human cognition and architectural practice. In response, this thesis proposes a novel proof-of-concept model that revisits purely symbolic approaches. This model provides a foundation for emerging conceptual structures from raw sensory data, addressing the long-standing symbol grounding problem in AI and offering a potential solution for representing spatial objects in architectural design. Ultimately, this thesis contributes to the growing dialogue between AI and architectural design by proposing a new framework for integrating AI into the creative and conceptual processes that define the discipline. It offers a critical assessment of current AI methods and suggests a novel approach that could pave the way for future advancements in AI and Design.
Tesis Doctoral Virus machines: an unconventional computing paradigm(2024-05-28) Ramírez de Arellano Marrero, Antonio; Orellana Martín, David; Ciencias de la Computación e Inteligencia ArtificialSobrepasar la estructura convencional de los ordenadores actuales diseñada John von Neumann desde hace casi 100 años es uno de los grandes retos de las ciencias de la computación. Existen enfoques teóricos para abarcar este problema, uno de ellos consiste en desarrollar paradigmas de computación no convencionales inspirados en la naturaleza, a esta disciplina se le llama Computación Natural. En esta no sólo se desarrollan modelos prácticos para diversas aplicaciones, sino que también da otro enfoque al desarrollo de teorías de complejidad computacional a través de estos modelos. Es común que, al desarrollar un nuevo paradigma de computación, esta sufra de ciertas carencias matemáticas en pro de buscar aplicaciones directas del mismo. Lo que realmente da un salto cualitativo a estos nuevos modelos es una buena base construida desde la integridad matemática, no sólo para buscar aplicaciones, sino que también para atacar problemas abstractos. En esta tesis se desarrolla un joven paradigma de computación llamado Máquinas de Virus, el cual se inspira en la propagación y replicación de los virus biológicos. En la tesis se aplica una técnica de verificación formal para dar veracidad matemática a los distintos ejemplos prácticos que se plantean en la misma, entre ellos se encuentran diversos modos, computación de funciones, generador de conjuntos, y aceptación de problemas de decisión. Llegando a atacar criptosistemas con estas máquinas. Por último, se definen diversas extensiones del paradigma para mejorar la eficiencia y también buscar aplicaciones al mundo real con modelos basados en estos. Se concluye que este paradigma de computación ofrece un enfoque interesante y que, al compararlo con otros bien establecidos basados en las redes neuronales, se puede llegar a mejores resultados en términos de universalidad y diferenciados para aplicaciones prácticas.
Tesis Doctoral Multi-omics characterization of the responses to seasonal variations in diel cycles in the marine picoeukaryote ostreococcus tauri(2024-03-08) Romero Losada, Ana Belén; García González, Mercedes; Romero Campero, Francisco José; Bioquímica Vegetal y Biología Molecular; Ciencias de la Computación e Inteligencia ArtificialEarth tilted rotation and translation around the Sun produce one of the most pervasive periodic environmental signals on our planet giving rise to seasonal variations in diel cycles. Marine phytoplankton undergo significant alterations in response to these signals and, although it plays a key role on ecosystems, their response to these rhythms remains largely unexplored. In this work, the marine picoalga Ostreococcus tauri is chosen as model organism grown under summer long days, winter short days, constant light and constant dark conditions to characterize these responses. The 80 % of its transcriptome present diel rhythmicity and genes with robust self-sustained rhythmic expression profiles are identified. A drastic reduction in proteome rhythmicity with respect to transcriptome rhythmicity is observed with 25 % of the proteins oscillating. Seasonally specific rhythms are found in key physiological processes such as cell cycle, photosynthesis, carotenoid biosynthesis, starch accumulation and nitrate assimilation. A global orchestration between transcriptome, proteome and physiological dynamics is observed with specific seasonal temporal offsets between gene expression, protein abundance levels and physiological activity.

Tesis Doctoral Control del reloj circadiano por la señal fotoperiódica en plantas(2022-04-28) Reyes Rodríguez, Pedro de los; Romero Rodríguez, José María; Romero Campero, Francisco José; Valverde Albacete, Federico; Bioquímica Vegetal y Biología Molecular; Ciencias de la Computación e Inteligencia ArtificialLos organismos fotosintéticos son muy eficientes en la adaptación de su desarrollo a las condiciones ambientales. Para conseguir esta adaptación monitorizan continuamente los estímulos externos que les llegan del ambiente y promueven cambios fisiológicos, como ocurre con las modificaciones del transcriptoma. La luz solar es esencial para la supervivencia de los organismos fotosintéticos, ya que constituye su principal fuente de energía y controla múltiples aspectos de su fisiología. En la percepción de la luz en plantas y algas participan un conjunto de receptores y factores de transcripción que conectan las señales procedentes de la luz con cambios específicos en la expresión génica. La existencia de eventos externos cíclicos muy predecibles como la sucesión de días/noches o de las estaciones, permite coordinar y anticipar de manera muy robusta los procesos biológicos. Esta medida del tiempo es llevada a cabo por un oscilador interno denominado reloj circadiano. Por otra parte, la señalización de la vía fotoperiódica permite a los organismos vegetales medir la longitud del día y así obtener información estacional para controlar complejos procesos que son clave para su supervivencia como la floración. Uno de los genes centrales en esta vía es CONSTANS, que está regulado a nivel transcripcional y postraduccional por el reloj circadiano y por señales luminosas. En esta tesis doctoral se ha seguido un enfoque de Biología Molecular de Sistemas para entender cómo han evolucionado estos procesos a lo largo del linaje verde, se han generado herramientas para su estudio y finalmente se ha descrito una nueva conexión entre el reloj circadiano y la vía fotoperiódica en la planta modelo Arabidopsis thaliana. En una primera aproximación investigamos la evolución de la expresión génica diaria en el linaje vegetal, empleando las microalgas Ostreococcus tauri y Chlamydomonas reinhardtii y la planta superior Arabidopsis thaliana. Inicialmente, realizamos un estudio de ortología que ha revelado por una parte la aparición de genes específicos en Chamydomonas y Arabidopsis y por otra parte la amplificación y diversificación de familias génicas. Además, hemos investigado cómo ha cambiado la influencia de los ciclos día/noche sobre el transcriptoma a lo largo de la evolución vegetal mediante la construcción de redes de co-expresión en ciclos de luz/oscuridad. Nuestros resultados indican una mayor dependencia de los ciclos diurnos en microalgas que en plantas. En cuanto a la evolución de los patrones de expresión, hemos observado un alto nivel de conservación en genes que se expresan en las transiciones luz/oscuridad a pesar de la gran distancia evolutiva entre algas y plantas. Estos resultados pueden ser explorados en la herramienta CircadiaNet. En segundo lugar, construimos la red transcripcional ATTRACTOR que integra datos transcriptómicos y datos de ChIP-seq de factores de transcripción involucrados en el reloj circadiano y en la señalización por luz. De esta forma, el estudio de la red permite investigar la regulación coordinada del reloj circadiano y la señalización lumínica sobre la expresión génica en Arabidopsis. Mediante el análisis topológico de ATTRACTOR hemos descrito que estos programas transcripcionales poseen la característica conocida como “robusto pero frágil”, es decir, son robustos frente a ataques aleatorios y frágiles frente a ataques dirigidos a genes altamente conectados. Por otra parte, se ha demostrado que los genes cuya regulación es más dependiente del reloj circadiano se expresan durante las primeras horas de la mañana, modulando procesos concretos como respuesta inmune, respuesta a hormonas o crecimiento. Además, se ha descrito que algunos motivos de red compuestos por varios factores de transcripción pueden explicar la regulación de determinados aspectos del desarrollo, dando lugar a propiedades emergentes. Por ejemplo, el motivo formado por CCA1, PIF y PRR5 participa en la respuesta a sequía y frío. Para este fin, se ha desarrollado una aplicación web para su exploración por parte de la comunidad científica. Por último, utilizando estas herramientas, hemos demostrado un nuevo papel para CO en la regulación del reloj circadiano en Arabidopsis. CO formaría parte de una señalización retrógrada desde la vía fotoperiódica hacia el oscilador central, proporcionando información estacional al reloj. En condiciones de día largo, CO se une a genes centrales del reloj circadiano para alterar su perfil de expresión. Uno de estos genes es el PSEUDO RESPONSE REGULATOR 5 (PRR5), con el que además comparte sitios de unión en el genoma. Por ello, CO y PRR5 establecen un motivo de doble retroalimentación con salida múltiple regulando genes diana en común. Además, hemos encontrado que CO se une a motivos de DNA G-box en estos promotores, probablemente a través del factor de transcripción bZIP LONG HYPOCOTIL 5 (HY5).
Tesis Doctoral Promoting and inhibiting contexts in membrane computing(2005-11-29) Sburlan, Dragos; Paun, Gheorghe; Pérez Jiménez, Mario de Jesús; Ciencias de la Computación e Inteligencia Artificial

Tesis Doctoral Membrane computing, neural inspirations, gene assembly in ciliates(2007-03-28) Ishdorj, Tseren-Onolt; Paun, Gheorghe; Pérez Jiménez, Mario de Jesús; Ciencias de la Computación e Inteligencia ArtificialLa Tesis enmarca dentro de la disciplina de la computación celular con membranas, un modelo de computación orientado a máquinas, inspirado en la estructura y funcionamiento de las células de los organismos vivos, Que fue creada por G. Paun a finales de 1998 y que, en Octubre de 2003, el prestigioso institute for scientific information (I.S.I., USA) designó a dicha disciplina como fast emergin research front in computes science. La memoria aporta nuevas vías para atacar una serie de problemas clásicos relativos a la potencia y la eficiencia computacional de modelos de computación bio-inspirados y no convencionales, así como resultados relevantes en dichos modelos, conformando una memoria de gran valor científico que cumple, con creces, los requisitos para ser considerados como una tesis doctoral con acreditación de doctorado europeo.

Tesis Doctoral Optimization of high-throughput real-time processes in physics reconstruction(2019-11-29) Cámpora Pérez, Daniel Hugo; Riscos Núñez, Agustín; Neufeld, Niko; Ciencias de la Computación e Inteligencia ArtificialLa presente tesis se ha desarrollado en colaboración entre la Universidad de Sevilla y la Organización Europea para la Investigación Nuclear, CERN. El detector LHCb es uno de los cuatro grandes detectores situados en el Gran Colisionador de Hadrones, LHC. En LHCb, se colisionan partículas a altas energías para comprender la diferencia existente entre la materia y la antimateria. Debido a la cantidad ingente de datos generada por el detector, es necesario realizar un filtrado de datos en tiempo real, fundamentado en los conocimientos actuales recogidos en el Modelo Estándar de física de partículas. El filtrado, también conocido como High Level Trigger, deberá procesar un throughput de 40 Tb/s de datos, y realizar un filtrado de aproximadamente 1 000:1, reduciendo el throughput a unos 40 Gb/s de salida, que se almacenan para posterior análisis. El proceso del High Level Trigger se subdivide a su vez en dos etapas: High Level Trigger 1 (HLT1) y High Level Trigger 2 (HLT2). El HLT1 transcurre en tiempo real, y realiza una reducción de datos de aproximadamente 30:1. El HLT1 consiste en una serie de procesos software que reconstruyen lo que ha sucedido en la colisión de partículas. En la reconstrucción del HLT1 únicamente se analizan las trayectorias de las partículas producidas fruto de la colisión, en un problema conocido como reconstrucción de trazas, para dictaminar el interés de las colisiones. Por contra, el proceso HLT2 es más fino, requiriendo más tiempo en realizarse y reconstruyendo todos los subdetectores que componen LHCb. Hacia 2020, el detector LHCb, así como todos los componentes del sistema de adquisici´on de datos, serán actualizados acorde a los últimos desarrollos técnicos. Como parte del sistema de adquisición de datos, los servidores que procesan HLT1 y HLT2 también sufrirán una actualización. Al mismo tiempo, el acelerador LHC será también actualizado, de manera que la cantidad de datos generada en cada cruce de grupo de partículas aumentare en aproxidamente 5 veces la actual. Debido a las actualizaciones tanto del acelerador como del detector, se prevé que la cantidad de datos que deberá procesar el HLT en su totalidad sea unas 40 veces mayor a la actual. La previsión de la escalabilidad del software actual a 2020 subestim´ó los recursos necesarios para hacer frente al incremento en throughput. Esto produjo que se pusiera en marcha un estudio de todos los algoritmos tanto del HLT1 como del HLT2, así como una actualización del código a nuevos estándares, para mejorar su rendimiento y ser capaz de procesar la cantidad de datos esperada. En esta tesis, se exploran varios algoritmos de la reconstrucción de LHCb. El problema de reconstrucción de trazas se analiza en profundidad y se proponen nuevos algoritmos para su resolución. Ya que los problemas analizados exhiben un paralelismo masivo, estos algoritmos se implementan en lenguajes especializados para tarjetas gráficas modernas (GPUs), dada su arquitectura inherentemente paralela. En este trabajo se dise ˜nan dos algoritmos de reconstrucción de trazas. Además, se diseñan adicionalmente cuatro algoritmos de decodificación y un algoritmo de clustering, problemas también encontrados en el HLT1. Por otra parte, se diseña un algoritmo para el filtrado de Kalman, que puede ser utilizado en ambas etapas. Los algoritmos desarrollados cumplen con los requisitos esperados por la colaboración LHCb para el año 2020. Para poder ejecutar los algoritmos eficientemente en tarjetas gráficas, se desarrolla un framework especializado para GPUs, que permite la ejecución paralela de secuencias de reconstrucción en GPUs. Combinando los algoritmos desarrollados con el framework, se completa una secuencia de ejecución que asienta las bases para un HLT1 ejecutable en GPU. Durante la investigación llevada a cabo en esta tesis, y gracias a los desarrollos arriba mencionados y a la colaboración de un pequeño equipo de personas coordinado por el autor, se completa un HLT1 ejecutable en GPUs. El rendimiento obtenido en GPUs, producto de esta tesis, permite hacer frente al reto de ejecutar una secuencia de reconstrucción en tiempo real, bajo las condiciones actualizadas de LHCb previstas para 2020. As´ı mismo, se completa por primera vez para cualquier experimento del LHC un High Level Trigger que se ejecuta únicamente en GPUs. Finalmente, se detallan varias posibles configuraciones para incluir tarjetas gr´aficas en el sistema de adquisición de datos de LHCb.
Tesis Doctoral El problema P versus NP: desarrollo de nuevas técnicas a través de modelos de computación bio-inspirados.(2019-04-01) Orellana Martín, David; Pérez Jiménez, Mario de Jesús; Valencia Cabrera, Luis; Ciencias de la Computación e Inteligencia Artificial
Tesis Doctoral Descubrimiento de conocimiento en grafos multi-relacionales(2017-06-30) Almagro Blanco, Pedro; Sancho Caparrini, Fernando; Ciencias de la Computación e Inteligencia ArtificialAnte el reducido abanico de metodologías para llevar a cabo tareas de aprendizaje automático relacional, el objetivo principal de esta tesis es realizar un análisis de los métodos existentes, modificando u optimizando en la medida de lo posible algunos de ellos, y aportar nuevos métodos que proporcionen nuevas vías para abordar esta difícil tarea. Para ello, y sin nombrar objetivos relacionados con revisiones bibliográficas ni comparativas entre modelos e implementaciones, se plantean una serie de objetivos concretos a ser cubiertos: 1. Definir estructuras flexibles y potentes que permitan modelar fenómenos en base a los elementos que los componen y a las relaciones establecidas entre éstos. Dichas estructuras deben poder expresar de manera natural propiedades complejas (valores continuos o categóricos, vectores, matrices, diccionarios, grafos,...) de los elementos, así como relaciones heterogéneas entre éstos que a su vez puedan poseer el mismo nivel de propiedades complejas. Además, dichas estructuras deben permitir modelar fenómenos en los que las relaciones entre los elementos no siempre se dan de forma binaria (intervienen únicamente dos elementos), sino que puedan intervenir un número cualquiera de ellos. 2. Definir herramientas para construir, manipular y medir dichas estructuras. Por muy potente y flexible que sea una estructura, será de poca utilidad si no se poseen las herramientas adecuadas para manipularla y estudiarla. Estas herramientas deben ser eficientes en su implementación y cubrir labores de construcción y consulta. 3. Desarrollar nuevos algoritmos de aprendizaje automático relacional de caja negra. En aquellas tareas en las que nuestro objetivo no es obtener modelos explicativos, podremos permitirnos utilizar modelos de caja negra, sacrificando la interpretabilidad a favor de una mayor eficiencia computacional. 4. Desarrollar nuevos algoritmos de aprendizaje automático relacional de caja blanca. Cuando estamos interesados en una explicación acerca del funcionamiento de los sistemas que se analizan, buscaremos modelos de aprendizaje automático de caja blanca. 5. Mejorar las herramientas de consulta, análisis y reparación para bases de datos. Algunas de las consultas a larga distancia en bases de datos presentan un coste computacional demasiado alto, lo que impide realizar análisis adecuados en algunos sistemas de información. Además, las bases de datos en grafo carecen de métodos que permitan normalizar o reparar los datos de manera automática o bajo la supervisión de un humano. Es interesante aproximarse al desarrollo de herramientas que lleven a cabo este tipo de tareas aumentando la eficiencia y ofreciendo una nueva capa de consulta y normalización que permita curar los datos para un almacenamiento y una recuperación más óptimos. Todos los objetivos marcados son desarrollados sobre una base formal sólida, basada en Teoría de la Información, Teoría del Aprendizaje, Teoría de Redes Neuronales Artificiales y Teoría de Grafos. Esta base permite que los resultados obtenidos sean suficientemente formales como para que los aportes que se realicen puedan ser fácilmente evaluados. Además, los modelos abstractos desarrollados son fácilmente implementables sobre máquinas reales para poder verificar experimentalmente su funcionamiento y poder ofrecer a la comunidad científica soluciones útiles en un corto espacio de tiempo.

Tesis Doctoral Modelado de sistemas dinámicos con MachineLearning: aplicaciones al mantenimiento basado en la condición.(2018-02-05) Cabrera Mendieta, Diego Román; Sancho Caparrini, Fernando; Ciencias de la Computación e Inteligencia ArtificialEl estudio de los sistemas dinámicos es un tema de gran interés tanto en la ingeniería como en las ciencias por su gran aplicabilidad a la resolución de problemas que, con frecuencia, aparecen en un sin número de ´áreas. Sin embargo los métodos formales hasta ahora utilizados para su análisis, no han tenido la flexibilidad suficiente para adaptarse a sistemas de complejidad creciente, donde la interacción de sus elementos no permite una inferencia directa del comportamiento del sistema, en una, o varias de sus variables. Por otro lado, los nuevos avances en las técnicas de Machine Learning han demostrado tener una gran capacidad de adaptación en dominios tan diversos resultando en la necesidad de cambios minoritarios para su aplicación entre uno u otro. A pesar de esto, su estudio en el modelado de sistemas dinámicos, como tarea fundamental, ha sido pocas veces abordado. Por las razones anteriores, este trabajo se enfoca en el desarrollo de 3 metodologías para modelado de sistemas dinámicos desde la perspectiva del Machine Learning a partir de información incompleta de sus variables representadas como series temporales de alta complejidad. Las propuestas son presentadas en función de los diferentes escenarios de información disponible para el modelado, que pudieran llegar a aparecer en situaciones reales. Como primera metodología se propone el modelamiento del sistema dinámico con un enfoque manual de caracterización de estados usando el conocimiento a-priori del sistema mediante la descomposición por Wavelet Packet y la posterior identificación de patrones mediante una técnica clásica de clasificación ´on llamada Random Forest. Como segunda propuesta se presenta el aprendizaje no-supervisado del proceso de caracterización que se adapta de forma automática al sistema dinámico en estudio mediante el modelo Stacked Convolucional Autoencoder, el cual inicializa una Red Neuronal Convolucional Profunda que luego es optimizada de forma supervisada, donde además el proceso de identificación de patrones se encuentra embebido, y es optimizado junto con el modelo de extracción de características. La tercera propuesta en cambio cumple la tarea de caracterización de identificación de patrones de forma no-supervisada, lo primero mediante el aprendizaje de una representación óptima de las series temporales codificada en los parámetros de un Echo State Network, y lo segundo por medio de un Variational Autoencoder, un modelo capaz de aproximar la distribución de probabilidad (a menudo compleja) de los datos. En esta última aproximación se elimina la necesidad de conocer la etiqueta de las series de tiempo que provienen de los estados del sistema dinámico. Las metodologías propuestas son evaluadas en tareas de mantenimiento basado en la condición como son el diagnóstico de fallos, la estimación de la severidad de daño y la detección de fallos en elementos de maquinaria rotativa (concretamente distintos tipos de engranajes y rodamientos). Los altos índices de exactitud obtenidos en los resultados de la evaluación en cada tarea, muestran que las metodologías aportadas dan un nivel elevado de confiabilidad, robustez y flexibilidad. Además, frente a comparaciones realizadas con otras metodologías reportadas en el estado del arte, las propuestas presentan un desempeño superior en todos los casos.
Tesis Doctoral Desarrollo y aplicaciones de un entorno de programación para computación celular: P-Lingua(2010-06-24) Pérez Hurtado de Mendoza, Ignacio; Pérez Jiménez, Mario de Jesús; Riscos Núñez, Agustín; Ciencias de la Computación e Inteligencia ArtificialLa presente memoria está estructurada en tres partes que constan de un total de siete capítulos cuyos contenidos se describen sucintamente a continuación. Parte I: Preliminares La memoria comienza con un breve recorrido histórico acerca del desarrollo y evolución de diversos conceptos relacionados con la Teoría de la Computación y la Teoría de la Complejidad Computacional. Se analizan las limitaciones que tienen los dispositivos reales construidos en el marco de dichas teorías, a la hora de resolver eficientemente problemas concretos que son relevantes en la vida real, lo cual hace necesario la búsqueda de nuevos paradigmas de computación que permitan superar algunas de esas limitaciones. Se presentan los conceptos básicos de la Computación Natural y, en particular, de la rama de la Computación celular con membranas, Membrane Computing, en la que se enmarcan los trabajos que se presentan en esta memoria. En el Capítulo 2 se analiza la problemática actual relativa a la modelización de procesos complejos de la realidad, justificando la necesidad de utilizar modelos formales a _n de conseguir ciertos avances de tipo cualitativo. Se describen brevemente algunas aproximaciones clásicas, así como otras más recientes de tipo computacional que tratan de capturar la aleatoriedad inherente a los procesos biológicos. Finalmente, se presenta un marco de especificación para el diseño de modelos basados en el paradigma de Membrane Computing. Parte II: Aplicaciones de software en Membrane Computing El Capítulo 3 está dedicado a justificar la necesidad de desarrollar herramientas informáticas para poder analizar la bondad de los modelos computacionales diseñados, a través de una validación experimental basada en simulaciones. Se presenta una breve panorámica de los simuladores de sistemas P desarrollados hasta la fecha y se describen los elementos comunes que tienen todos ellos y que han de ser implementados. En el Capítulo 4 se presenta un entorno de programación para el paradigma de Membrane Computing. Dicho entorno está compuesto de: (a) un lenguaje de programación para la especificación de sistemas P (P-Lingua); (b) una biblioteca que implementa el procesamiento de ficheros y diversos algoritmos de simulación (pLinguaCore); y (c) una serie de herramientas para la línea de comandos. La última parte está dedicada a la presentación de ejemplos de código de distintos sistemas P, incluyendo dos familias que proporcionan soluciones eficientes del problema SAT de la satisfactibilidad de la Lógica Proposicional. Parte III: Aplicación al estudio de ecosistemas reales En el Capítulo 5 se describe un marco específico para la modelización computacional de ecosistemas basado en Membrane Computing. En particular, se presentan las concreciones del marco general para los sistemas P probabilísticos y, además, se describe con detalle un algoritmo de simulación que trata de capturar la semántica probabilística. Además, se presenta el software EcoSim 2.0 que es una familia de herramientas para la simulación de modelos de ecosistemas y que se ha desarrollado utilizando P-Lingua y pLinguaCore. El capítulo finaliza con un ejemplo simple de ilustración acerca de las interacciones tritróficas. El Capítulo 6 está dedicado al diseño de modelos basados en sistemas P de dos ecosistemas reales. El primero de ellos se refiere a un ecosistema de la zona pirenaico-catalana en donde habita una ave carroñera en peligro de extinción, el quebrantahuesos; el segundo está dedicado a la modelización computacional de un ecosistema del pantano de Ribarroja, gestionado por Endesa S.A. en el que una especie exótica invasora (el mejillón cebra) está causando importantes problemas de sostenibilidad del medio ambiente con la destrucción de especies autóctonas, así como graves problemas de tipo económico al provocar importantes destrozos en instalaciones diversas de la compañía en torno a dicho pantano. En ambos casos, se han diseñado sendos modelos basados en sistemas P multientornos funcionales-probabilísticos para los cuales se han desarrollado aplicaciones informáticas ad hoc que permitan la validación experimental de los modelos y su uso para la realización de experimentos virtuales a partir de diferentes escenarios de interés para los expertos. La memoria finaliza con un breve capítulo dedicado a la presentación de conclusiones y líneas de trabajo futuro de investigación.
Tesis Doctoral P systems, a computational modelling framework for systems biology(2008-02-06) Romero Campero, Francisco José; Gheorghe, Marian; Pérez Jiménez, Mario de Jesús; Ciencias de la Computación e Inteligencia ArtificialLOS PROGRAMAS INFORMÁTICOS QUE MODELIZAN CÉLULAS FACILITARÁN EL TRABAJO DE LOS BIÓLOGOS Se basa en hacer modelos de células, por lo que llevo tres años en los que estoy realizando modelos de sistemas biológicos en bacterias. Una parte de programación la realizan ingenieros de software, pero yo monto el algoritmo o el modelo que simula el comportamiento de las bacterias y hago el proceso de validac ión de comparación con los datos del biólogo. El lenguaje que utilizan estos modelos de células está muy cerca del que emplean los biólogos y realizar experimentos con modelos de sistemas celulares desde un ordenador es relativamente fácil, en comparación con el esfuerzo de tiempo y dinero que supone elaborar las pruebas necesarias en un laboratorio hasta alcanzar resultados. Los biólogos no están acostumbrados a modelizar y es muy difícil obtener conocimientos del montón de datos que nos proporcionan. Así pues, nosotros intentamos simplificarlos y abstraerlos hasta conseguir un nuevo conocimiento. El modelo que diseñemos se tiene que comportar tal y como los biólogos indican, así ellos podrán trabajar desde un primer momento con nuestros programas para ver cómo funcionan los experimentos desde el ordenador. Una vez que ya lo hayan comprobado podrán saber si es rentable llevarlo al laboratorio.
Tesis Doctoral Modeling and simulation of real-life phenomena in membrane computing(2013-10-11) García-Quismondo Fernández, Manuel; Martínez del Amor, Miguel Ángel; Pérez Jiménez, Mario de Jesús; Ciencias de la Computación e Inteligencia ArtificialThis document is structured in three parts, whose content is briefly outlined below. Part I: Preliminaries Chapter I familiarizes the reader with the basics of Natural Computing, introducing some classical models in the discipline. Following, it delves into the state of the art of Membrane Computing. Some frameworks including the seminar transition model are discussed. Finally, it contra sts stochastic and probabilistic approaching when modelling real-life phenomena. Chapter II discusses simulators in Membrane Computing and describes the project P-Lingua and the software tool pLinguaCore, which enable experts to describe and simulate P systems automatically. Moreover, some Membrane Computing simulators implemented on parallel platforms are described, with an special emphasis on those developed for Graphic Processing Units (GPU). Part II: Contributions Chapter III discusses Enzymatic Numerical P Systems (ENPS), a deterministic model for robotics, introducing its antecedents and sequential simulators. In addition, a parallel, GPU-based simulator is presented, including a performance analysis with some case studies and a methodology for repeated simulation of ENPSs. Chapter IV discusses a model on Logic Networks (LNs), which are a specific type of Gene Regulatory Networks in which the combination of the states of a set of genes can influence another one. In addition, a model based on Population Dynamic P systems (PDP systems, for short) is finally presented, describing its semantics and its elements in detail. Chapter V formalizes Probabilistic Guarded P Systems (PGP Systems, for short), a new modelling framework for ecology. The characteristic features of this approach are described, i.e., its spatial distribution and elements and its syntax and semantics. A parallel, GPU-based simulator is described, as well as the integration of PGP systems into the P-Lingua framework. Part III: Results Chapter VI presents some case studies on the models and simulators described in part II, specifically, the modelling and simulation of a Logic Network involved in the flowering process of Arabidopsis thaliana by means of LNDP systems and the modelling and simulation of the ecosystem of White Cabbage Buttery (Pieris napi oleracea). Chapter VII focuses on the results compiled in this document, recapitulating the achievements and conclusions of this thesis and discussing some new lines of work resulting from it.
Tesis Doctoral Especificación y verificación de programas moleculares en PVS(2003-09-29) Graciani Díaz, Carmen; Pérez Jiménez, Mario de Jesús; Sancho Caparrini, Fernando; Ciencias de la Computación e Inteligencia ArtificialLa Computación Molecular y, en concreto, la Computación con ADN, es una disciplina que se enmarca dentro del campo de investigación conocido como Computación Natural. Tiene como objetivo el desarrollo de modelos de computación inspirados en el comportamiento de las moléculas de ADN, y en las posibilidades que abren las técnicas de laboratorio para su manipulación. En la memoria se han estudiado distintas adaptaciones del marco formal en que se describen distintos modelos de computación con ADN al lenguaje de especificaciones de PVS, que es un sistema de verificación cuyo lenguaje está basado en la lógica clásica de segundo orden con un sistema de tipos acorde con la teoría de conjuntos de Zermelo-Fraenkel con el axioma de elección. El demostrador del sistema está basado en cálculos de secuentes combinando la interacción con el usuario y el automatismo. Como aportaciones originales señalar la descripción en PVS del modelo restringido de Adleman y el modelo sticker, y la representación y verificación en PVS de programas moleculares que resuelven problemas clásicos NP-completos. En una primera aproximación al modelo sticker se ha realizado una implementación de la metodología presentada por Fernando Sancho en su tesis doctoral para la verificación de programas en el citado modelo. Así mismo, la consideración de los programas en este modelo como meros programas imperativos ha llevado a la descripción de la lógica de primer orden para dos tipos (indpendiente de la del sistema) y del cálculo de Floyd-Hoare, desarrollando un conjunto de estrategias que permiten simi-automatizar el proceso de verificación de programas imperativos. La presente memoria tiene dos objetivos fundamentales: por un lado estudiar la adaptación de nuevos modelos de computación no convencionales al marco formal de un sistema de verificación automática y, por otro, verificar la corrección y completitud de programas en dichos modelos utilizando para ello el demostrados del sistema. En esta memoria se presentan distintas aproximaciones a dos modelos de computación molecular basada en ADN y a la verificación de programas moleculares en los mismos que resuelven algunos problemas clásicos. El desarrollo de la misma está estructurada en capítulos que pasamos a reseñar sucintamente. En el Capítulo 1 se describen algunos paradigmas y modelos de Computación Natural como son las redes neuronales artificiales, los algoritmos genéticos, la programación evolutiva, la computación molecular, y la computación celular, como marco dentro del cual se describen los modelos de computación basados en AD, una de las áreas en la que se desarrolla presente memoria. En el Capítulo 2 se presenta una descripción básica del sistema PVS, con el fin de facilitar la lectura y compresión de los capítulos posteriores sin requerir un conocimiento mayor del mismo. Cada una de las secciones del capítulo se corresponde con uno de los elementos del lenguaje de especificaciones del sistema. Por último se incluye un breve ejemplo que ilustra el manejo del demostrador. El Capítulo 3 está dedicado a la computación molecular basada en ADN. Se incluye una descripción de la estructura química del ADN y su comportamiento, así como de algunas de las técnicas de laboratorio que se utilizan para su manipulación y que justifican la elección de las operaciones elementales de los modelos de computación molecular considerados. Por su importancia histórica se presenta al experimento de Adleman, considerando propiamente el origen de la Computación basada en ADN. Por último, se describen los modelos restringido de Adleman y sticker, objeto de estudio de la presente memoria. El primero como representante de los modelos sin memoria, ya que las operaciones moleculares consideradas no alteran la estructura de las moléculas de ADN. El segundo, como ejemplo de un modelo molecular con memoria, por el uso que hace de las moléculas de ADN como unidades de memoria que pueden ser modificadas a lo largo de la ejecución de un programa. En el Capítulo 4 se presentan, en primer lugar, dos problemas clásicos en teoría de la complejidad computacional, el problema SAT de la satisfactibilidad de la Lógica Proposicional y el problema de la 3 coloración de un grafo no dirigido. El trabajo de F. Martín y otros inspiró la posibilidad de utilizar un demostrador para la implementación y verificación de programas en modelos moleculares. Basado en dicho trabajo se realizó una primera aproximación en PVS basada en listas. A continuación se desarrolló una segunda implementación que utiliza como tipos de datos básicos los multiconjuntos y las sucesiones finitas de elementos, que permiten manejar de manera más natural las estructuras de datos del modelo. Dado que los dos problemas anteriores tienen en común que en el tubo inicial deben estar representadas todas las posibles funciones con dominio un conjunto finito de elementos y rango en un conjunto de valores, se especifica la construcción de un tubo inicial genérico. Por último, se incluye la verificación de programas moleculares diseñados para resolver los problemas citados. En el Capítulo 5 se estudia la implementación de una metodología diseñada por F. Sancho para la verificación de programas en el modelo sticker. Al considerar los programas como una sucesión de instrucciones básicas, éstos se consideran como la composición de funciones elementales. La única peculiaridad la proporcionan los bucles que son tratados como funciones recursivas dependientes de un valor para el caso base y una función que representa la sucesión de instrucciones que se repite a lo largo del bucle. Como ilustración se presente la verificación de una serie de programas moleculares diseñados para resolver problemas relativos a conjuntos numéricos y que son utilizados como subrutinas de programas que resuelven problemas clásicos NP-completos: el problema Subset-Sum, el problema de la Mochila 0/1 acotado, el problema del empaquetamiento, Set Packing¸ el del recubrimiento exacto, Exact Cover, y el problema del recubrimiento minimal. A continuación se puede decir que empieza una segunda parte en la memoria, en la que se consideran los programas en el modelo sticker como meros programas imperativos y, como tales, susceptibles de ser verificados con los métodos habituales utilizados para este tipo de programas, basados en las especificaciones de corrección parcial de Floyd-Hoare. Se considera que la ejecución de un programa imperativo produce un cambio de estado; es decir, un cambio en el valor de las variables asociadas al programa. Para poder expresar los programas y determinados asertos que permitan formular las condiciones de corrección de los mismos, Gloees represente en PVS la lógica clásica de Primer Orden y una técnica de verificación de programas imperativos basada en el cálculo de Hoare. En el capítulo 6 se presenta la lógica clásica y la lógica tipada de Primer Orden. A continuación se describe una implementación de la primera y el desarrollo, en PVS, de una lógica de primer orden para dos tipos, que nos permitirá escribir los programas de modelos sticker y demostrar la corrección de los mismos. En el Capítulo 7 se describe la implementación de las distintos comandos o instrucciones con los que se construyen los programas imperativos considerados: asignaciones, secuenciación y bucles para. Con cada una de las instrucciones consideradas se incluye el esquema o axioma correspondiente de la lógica de Floyd-Hoare que permite establecer la corrección de las mismas. Las operaciones del modelo se consideran como términos en las variables del programa. Para ilustrar el comportamiento de la misma se incluye la especificación de las subrutinas y del programa, presentadas en el capítulo 5, para resolver el problema del recubrimiento exacto en el modelo sticker, estableciendo su corrección. En el último capítulo de esta memoria se resumen algunas de las ideas acerca del desarrollo del trabajo, se presentan algunos datos que permiten cuantificar el mismo y se destaca algunas conclusiones extraídas de los resultados obtenidos. Se concluye con las perspectivas de trabajo futuro que se vislumbran tras los objetivos conseguidos en esta memoria y que marcan una línea de investigación en modelos de computación no convencionales.
Tesis Doctoral Formalización en Isar de la metalógica de primer orden(2012-06-12) Serrano Suárez, Fabián Fernando; Martín Mateos, Francisco Jesús; Alonso Jiménez, José Antonio; Ciencias de la Computación e Inteligencia ArtificialEl objetivo del trabajo es formalizar razonamiento complejo de forma legible por los humanos y procesable por las máquinas. Más precisamente, formalizar en el sistema de razonamiento Isabelle/HOL/Isar la metateoría de la lógica de primer orden como se expone en capítulo 1 del libro "Introduction to mathematical logic" de Elliott Mendelson y en los primeros cinco capítulos del libro "First-Order Logic and Automated Theorem Proving" de M. Fitting. 1) Se presenta una formalización de un sistema axiomático de la lógica proposicional y la demostración de la completitud del sistema usando el método de Kalmar de eliminación de variables. 2) Se presenta una formalización de la terminación y corrección de un algoritmo para calcular una forma normal conjuntiva de una fórmula proposicional. El algoritmo está descrito en términos de la notación uniforme para las fórmulas de la lógica proposicional; para demostrar su terminación se define una función de medida en términos de los conceptos de "multiconjunto" y "rango" de una fórmula. 3) Se formaliza la corrección de un procedimiento de prueba de tautologías usando tableros semánticos. La terminación se demuestra de la misma forma que en el caso del algoritmo de la forma normal conjuntiva. Para la formalización de la completitud de este método de prueba se utiliza el lemma de Hintikka. 4) Se formaliza la demostración del teorema de existencia de modelos para un conjunto consistente S de fórmulas pertenecientes a un lenguaje proposicional L. Esta demostración está basada en extender S a un conjunto consistente maximal M el cual resulta ser satisfacible (por ser un conjunto de Hintikka) y por tanto S también. Como una aplicación del teorema de existencia de modelos en la lógica proposicional, se formalizan el teorema de compacidad y el teorema de interpolación de Craig. 6) Se presenta la formalización de la sintaxis y semántica de la lógica de primer orden. Para la representación de las fórmulas se emplea la notación de de Bruijn y se formaliza el teorema de existencia de modelos en la lógica de primer orden siguiendo el mismo orden de ideas que en el caso proposicional, y como una aplicación se formaliza la demostracion del teorema de Löwenheim-Skolem. 7) Por último, se define un sistema de deducción natural para lo lógica de primer orden. Se formaliza su corrección y como una consecuencia del teorema de existencia de modelos para la lógica de primer orden, se formaliza su completitud.
Tesis Doctoral Bordismo seccional de fibrados y submersiones(1988-12-16) Arrabal Parrilla, Juan José; Domínguez Murillo, Eladio; Quintero Toscano, Antonio Rafael; Ciencias de la Computación e Inteligencia ArtificialEl objeto de este trabajo es sistematizar una técnica que intenta atacar el problema de existencia de secciones de funciones continuas o funciones diferenciables, y el problema de triangulación de una variedad topológica. El antecedente directo de esta técnica está en la teoría de homología seccional introducida por Weshu Shih, para el estudio de los sistemas de ecuaciones diferenciales no lineales. Dada una aplicación contínua f : X →B entre espacios topológicos X y B. Shih consideró el conjunto simplicial K(f) construido como sigue: Los q-símplices son las parejas (σ,γ), donde σ:Δq→B es una aplicación inyectiva continua del q-símplice estándar Δq=((Xo,X1,…,Xq)ЄRq+1|X1≥0, ΣXi=1> en B. y γ es uan función continua γ:Δq→X tal que σ=f•γ. Los operadores cara se definen de una manera natural. Cuando X, B son variedades diferenciales, f es un morfismo diferenciable y KЄZ+U(∞), se define el subconjunto simplicial K(f)k de K(f) formado por las (σ,γ) diferenciables de clase Ck, con σ inmersión difeomorfa (fr. “plongement”). Entonces definió el grupo de homología seccional con soportes propios de f. designado por H*(f)s, como el grupo de homología de las cadenas localmente finitas del conjunto simplicial K(f) con coeficientes enteros. De la misma manera definió los grupos seccionales H*(f)s,k. Considerando sólo las cadenas finitas en K(f) y K(F)k se obtienen los respectivos grupos de homología seccional con soportes compactos de f. el homomorfismo natural de la homología seccional de f:X→B en la homología singular de B con cadenas localmente finitas Pn:Hn(f)s→HIIn(B) le permitió definir el grado seccional de la función f, denotado deg(f), cuando B es una variedad orientada de dimensión n por la f´romula deg(f) = card (HIIn(B)/Im Pn>-1. En el caso en que X, B y f sean de clase C∞, se puede utilizar el grupo de homología seccional k-veces derivable Hn(f)s,ken lugar de Hn(f)s, y obtener el grado de k-veces derivable de f: degk(f). Estas nociones le permitieron probar que la anulación de deg(f) es necesaria para que f admita una sección continua y, en el caso diferenciable, que degk(f)=O es necesario para que f tenga una sección de clase Ck. Redefiniendo los grupos de homología con soportes compactos de f. Shih obtiene nuevos grados (ver el capítulo VIII de esta Tesis), que coinciden con los anteriores cuando la variedad V es compacta, y demuestra un teorema de caracterización del nuevo grado seccional continuo de f:Y→X, con la condición de que f sea un espacio fibrado localmente trivial cuya base X sea una variedad topológica conexa orientada de dimensión n y cuya fibra sea un CW-complejo finito conexo. Shih no presenta demostraciones ni propiedades de las homologías, ni indica la categoría explícitamente. Lo hace François Lalonde, quien ha dedicado su Tesis a estudiar sistemáticamente la homología seccional con soportes compactos. Ha demostrado que cumple los axiomas de Eilenberg-Steenrod, excepto el de escisión, en una categoría adecuada y que los grupos correspondientes no son invariantes de homotopía continua. Esto último es un inconveniente para el cálculo, pero es fundamental para poder aplicar esta teoría a los problemas de ecuaciones en derivadas parciales o integrales pues estos problemas no son invariantes por homotopía. La These d’Etat de Lalonde está dedicada a calcular la homología seccional diferenciable de clase CKde las funciones diferenciables f:X2→X1que localmente son de la forma RnxRm→Rn. estas funciones, que se llaman k-submersiones, engloban a los fibrados localmente triviales y a las submersiones en el sentido ordinario. El resultado que obtiene, para lo cual introduce nuevas teorías de homología que llama homología de p-campos transversos y homología de “plongements”, es el siguiente: TEOREMA S. Sea f:X2→X1 una k0-submersión (2≤k0≤∞). Cualquiera que sea 1≤k≤k0, el morfismo inyectivo P2:C(f)k→c(Xz) del grupo de cadenas seccionales finitas de clase Ck de f en el grupo de cadenas singulares finitas del espacio Xz, dado por la proyección (Δq,σ,γ)→(Δq,γ), índice un isomorfismos P2*sobre los grupos de homología en las dimensiones inferiores a n = dim Xz y un epimorfismos en dimensión n (los grupos de homología seccional de f son nulos en las dimensiones >n). Aquí vamos a presentar una teoría de homología más simple que las anteriores, que es una teoría de Eilenberg-Steenrod (es decir, que cumple escisión) y que la definición de grado coincide con las anteriores. El método adoptado consiste en construir una apropiada teoría de bordismo tomando como modelos las seudovariedades. Los ciclos geométricos asociados a una función continua f:Y→X son cuaternas (P, σ, γ, P) donde P es una seudovariedad, σ y γ son funciones continuas tales que σ=f•γ y P es un recubrimiento por subpoliedros compactos de P, de forma que σ es “casi inyectiva” en cada subpoliedro PiЄP. Decimos que una función σ:Pi→X definida en un poliedro Pi es “casi inyectiva” si existe un poliedro Q, un p.l. –epimorfismo π:Pi→Q y una función continua inyectiva υ:Q→X tales que σ = υ•π. El usar funciones “casi inyectivas” es para que sea posible la construcción “cilindro de un ciclo” que permite hacer bordante un ciclo a sí mismo (como se sabe, esto es esencial en toda teoría de bordismo). En nuestro caso el cilindro del ciclo (P, σ, γ; P) es (PxI, σ•pr1, γ•pr1; PxI), donde I es el intervalo cerrado [0.1], pr1 es la proyección canónica sobre el primer factor yPxI = {PixI | PiЄP}; es evidente que σ•pr1 no puede ser inyectiva, ni siquiera “inyectiva a trozos”. Una posible desventaja de este procedimiento de representar los ciclos seccionales frente a otros procedimientos que se imaginen, es que estamos obligados a estudiar si las funciones σ son o no inyectivas en cada PiЄP. La solución que tenemos es que en cada clase de seudobordismo hay al menos un ciclo (P, σ, γ;P) en el cual σ es inyectiva en cada PiЄP. Una característica positiva del bordismo aquí presentado es que hay una equivalencia natural con la homología de un apropiado complejo de cadenas que llamamos homología seccional casi-inyectiva, lo cual nos permite compararlo directamente con la homología singular y demostrar que el grado definido con nuestra homología coincide con el Shih. También se da el seudobordismo seccional diferenciable de clase Ck. Su estudio se basa en un caso particular, el seudobordismo de casi-inmersiones difeomorfas de clase Ck, de forma análoga a lo que ocurre con la homología seccional diferenciables y la homología de “plongements”, pero sin necesitar nada parecido a la homología de p-campos transversos, lo cual, junto al uso de las técnicas de aproximación de inmersiones difeormorfas diferenciales, produce una teoría mucho más sencilla que la dada por Lalonde. Los ciclos seccionales diferenciables de clase Ck (P, σ, γ; P)kasociados a una función f:Y→X de clase Ck son ciclos seccionales con funciones σ y γ continuas que cumplen ciertas condiciones de diferenciabilidad respecto a las variedades cX = X U∂x∂X*[0,1) y cY = Y U∂Y∂Y*[0,1), que se obtienen pegando a X y a Y sendos collares diferenciables. La razón de esto es haber observado que los simplices (Δn, σ, γ)k de la homología seccional diferencial de Shih son, por definición, tales que σ se prolonga a una inmersión difeomorfa s:U→X siendo U un entorno abierto de Δn en el espacio euclideo generado por Δn. por lo tanto, si dim X = n resulta que σΔn∩∂x = 0 γ, en consecuencia ninguna de las cadenas de dimensión igual a la de X que se forme con éstos símplices puede tener como borde una cadena cuyo soporte en X esté enteramente sobre ∂x, con lo cual no tiene sentido tratar con dicha homología seccional el problema de extender una sección definida en ∂x a todo X, ni tampoco tiene sentido tratar con ellas el problema de Dirichlet para una ecuación diferencial. Con dicha teoría de homología, los resultados que presentamos y consideramos más sobresalientes son: (1) Se da un tratamiento unificado de una teoría del grado de Shih utilizando, tanto en el caso compacto como en el no compacto, una teoría de bordimos seccional que es una teoría de homología ordinaria, en el sentido de Eilenberg-Steenrod, que permite un tratamiento más simple que en el realizado por Lalonde. (2) Demostrar que dichos grados nos permite: 2a) Caracterizar la variedades triangulables; 2b) Caracterizar la existencia de secciones de funciones continuas y de funciones diferenciables. Por otro lado, sobresale el haber extendido el “Teorema S” de LALONDE al caso de homología con soportes propios. Hay que observar que los cálculos con éstas homologías son difíciles, los cuales corresponde a la dificultad de los problemas que pretende tratar. Este trabajo, por tanto, no pretende más que sentar las bases de un nuevo método para el futuro estudio de dichos problemas. La memoria se presenta organizada en dos partes, cada una de las cuales consta a su vez de varios capítulos. La primera parte está dedicada a la homología seccional de funciones continuas y al grado continuo. En la segunda parte se trata el caso diferenciable, con especial énfasis en los fibrados localmente triviales y las submersiones. La extensión de algunos capítulos es reducida porque, para facilitar la lectura, se han suprimido las demostraciones que se pudieran obtener con fáciles pero laboriosas adaptaciones de demostraciones anteriores, y porque se ha querido facilitar la localización de los resultados, renunciado por ello a refundirlos con otros. A lo largo de esta memoria, y también en esta introducción, las referencias bibliográficas aparecen entre corchetes, mientras que las referencias internas a las definiciones, notas y resultados de este trabajo se hace colocando entre paréntesis las dos cifras con las cuales están ordenados lexicográficamente, la primera de las cuales india el capítulo en que está situado y la segunda el lugar dentro de él. Así, la cita “(2.4)” se refiere al ítem cuarto del capítulo segundo.
Tesis Doctoral Hacia una concepción generalizada de la abducción, su modelización en lógicas no clásicas y su implementación en herramientas informáticas(2016-07-15) Sarrión Morillo, Enrique; Nepomuceno Fernández, Ángel; Soler Toscano, Fernando; Ciencias de la Computación e Inteligencia Artificial; HUM609: Grupo de Logica, Lenguaje e InformacionComenzamos esbozando de modo informal una propuesta muy general del concepto de abducción, señalando cuáles son los caracteres esenciales de este tipo de inferencia y qué otros rasgos que tradicionalmente se le han impuesto deben ser eliminados. A continuación, ya desde una perspectiva puramente lógica, y partiendo de una modelización formal muy próxima a la que hemos considerado como versión canónica de la abducción ordinaria, hemos presentado en un nivel metalingüístico (no vinculado a ningún sistema lógico concreto) diversas propuestas que, además de liberar este concepto de sus dependencias de las lógicas clásicas, lo generalizan de distintas maneras –por ejemplo, contemplando la posibilidad de que el problema abductivo o/y la solución sean todo un conjunto de fórmulas, o también incorporando la posibilidad de que se establezcan condiciones adicionales a las que ya debe cumplir la versi ón inicial (a la que hemos etiquetado como plana)–. A partir de la citada posibilidad que admite nuevas condiciones, y que constituye lo que hemos denominado como abducción ordinaria cualificada, hemos elaborado los conceptos de abducción ordinaria cualificada preferencial y abducción ordinaria cualificada preferencial estratégica. Además, en todo este proceso de generalización y diversificación se han incorporado componentes que no se recogen en las formalizaciones que encontramos en la literatura lógica consultada e igualmente se han hecho distinciones novedosas respecto de algunos elementos que sí han sido considerados con anterioridad. Todo ello ha permitido que se pueda expandir considerablemente la tipología de inferencias que aparecen en los estudios sobre esta materia. En el caso de la abducción sistémica también hemos acometido esa doble tarea de sacar a la luz ciertas componentes que no habían sido previamente contempladas y de elaborar una versión que, partiendo de la que aquí es considerada como canónica, permita aplicarla en muchas otras situaciones que no reúnen los requisitos que tácitamente se recogen en las escasas publicaciones que hasta la fecha han abordado esta cuestión. Extendemos a ella algunas de las distinciones que ya fueron consideradas en relación con la abducción ordinaria y, de este modo, reforzamos los argumentos que defienden la naturaleza esencialmente abductiva de este tipo de inferencia. Similar proceso hemos seguido y similares logros hemos alcanzado en el caso de la novedosa abducción holística, la cual presentamos como una manera de unificar y superar a los dos grandes modos que ya hemos señalado: ordinario y sistémico. Creemos que un estudio profundo de una relación inferencial debe afrontar su nivel puramente estructural, aunque somos conscientes que en el mismo no queda todo determinado y en cualquier caso hay que completarlo con otros estudios en los que ya se ha agregado información acerca del lenguaje o de la semántica concreta del sistema lógico. Nuestro estudio estructural, que se aparta en algunas exigencias de los más comunes en la literatura, fijó inicialmente la mirada en las relaciones inferenciales binarias y dentro de ellas, de manera especial, en la deducción clásica y en una más novedosa que aquí denominamos deducción plural. Ambas, junto a la también novedosa relación de deducción cualificada, son estudiadas por nosotros con un fin puramente instrumental. Para cada uno de los tipos de relaciones inferenciales binarias que hemos distinguido se ha presentado un buen número de propiedades y hemos indagado cuáles se derivan de otras consideradas básicas. En el caso de las relaciones inferenciales ternarias, dado que son nuestro objetivo, el estudio tipológico es más detallado si cabe. En todos los casos hemos indicado qué restricciones se tienen que imponer y qué propiedades se satisfacen en cada uno de los tipos. El haberlo hecho paso a paso, ‘aislando’ cada uno de los requisitos elementales que se pueden agregar al caso base (que es una relación inferencial que coincide con la que Atocha Aliseda denomina inferencia abductiva), nos permite tener intuiciones sobre otros tipos aquí no abordamos explícitamente pero que se pueden construir mediante la adecuada combinación de los citados caracteres básicos. Del mismo modo, hemos probado de manera rigurosa importantes resultados (llamados teoremas de representación) sobre la caracterización estructural de ciertos tipos de relaciones inferenciales abductivas, dando con ello respuesta a problemas que han permanecido abiertos casi dos décadas. Finalmente hemos presentado varias aportaciones que o bien facilitan la modelización de ciertos tipos de inferencia abductiva en sistemas lógicos pertenecientes al ámbito de la Lógica Epistémica Dinámica (entendida en sentido amplio) o bien mejoran varias de sus propiedades con el objetivo de posibilitar su implementación en herramientas informáticas. En concreto nuestro tratamiento lógico de la acción de olvidar se muestra como un buen candidato para la modelización de la abducción ante anomalía en el ámbito citado.
