Repositorio de producción científica de la Universidad de Sevilla

Normalización, almacenamiento y correlación de eventos

 

Advanced Search
 

Show simple item record

dc.contributor.advisor Nebrera Herrera, Pablo es
dc.creator Márquez Fernández, Jaime es
dc.date.accessioned 2016-12-13T14:14:00Z
dc.date.available 2016-12-13T14:14:00Z
dc.date.issued 2016
dc.identifier.citation Márquez Fernández, J. (2016). Normalización, almacenamiento y correlación de eventos. (Trabajo fin de grado inédito). Universidad de Sevilla, Sevilla.
dc.identifier.uri http://hdl.handle.net/11441/50332
dc.description.abstract En la actualidad, en el ámbito tecnológico mas concretamente, hay una clara apuesta por extraer la máxima información de los datos que se generan. En vista de lo anterior, nos decidimos a realizar una herramienta centrada en el tratamiento de registro de eventos, logs. Esta herramienta, por tanto, toma como datos de entrada logs y es capaz de generar información la cuál puede ser utilizada para, por ejemplo, generar informes de fallos, mejorar las prestaciones de una red, depurar arquitecturas complejas(Big data, desarrollo software…). En definitiva, el objetivo principal es ayudar a extraer la máxima información posible ante una serie de logs. Dicha herramienta está desarrollada con sistemas de código abierto ya existentes, pero personalizadas para alcanzar los objetivos propuestos. Sin entrar en mucho detalle, se muestran dichos sistemas y su funcionalidad principal:  Rsyslog: se encarga de la ingesta de logs y su normalización.  Apache Kafka: sistema de almacenamiento distribuido.  Siddhi CEP: genera información en base a la correlación de los datos, logs en nuestro caso. La herramienta intenta dar solución a una serie problemas como:  Abstracción del usuario de la complejidad del tratamiento de un log. Ya sea desarrollador, administrador de sistemas, auditor, usuario final, etc.  Obtención de un tiempo de respuesta menor que por los métodos habituales: visualización de ficheros con ingentes cantidades de datos, uso de la depuración en ejecución, etc.  Diagnosticar problemas y anomalías que afecten al buen funcionamiento de la máquina, red, sensor, etc.  Detectar patrones de fallos e intrusiones. es
dc.description.abstract In this project, I show a tool that has as input data, logs. When input data has been processed , the tool generates information that can be used to produce informs, debugging complex architectures(Big data, software development), to generate alarms, etc. I show as I developed the tool, from design to deployment. Inside of tool, some open source systems are integrated like Rsyslog, Apache Kafka and Siddhi CEP. In conclusion, this tool helps you to manage big amount of events and producing useful information. es
dc.format application/pdf es
dc.language.iso spa es
dc.rights Attribution-NonCommercial-NoDerivatives 4.0 Internacional *
dc.rights.uri http://creativecommons.org/licenses/by-nc-nd/4.0/ *
dc.subject Panificación es
dc.subject Bases de datos es
dc.title Normalización, almacenamiento y correlación de eventos es
dc.type info:eu-repo/semantics/bachelorThesis es
dc.type.version info:eu-repo/semantics/publishedVersion es
dc.rights.accessrights info:eu-repo/semantics/openAccess es
dc.contributor.affiliation Universidad de Sevilla. Departamento de Ingeniería Telemática es
dc.description.degree Universidad de Sevilla. Grado en Ingeniería de las Tecnologías de Telecomunicación es
idus.format.extent 116 p. es
Size: 3.516Mb
Format: PDF

This item appears in the following Collection(s)

Show simple item record