Mostrar el registro sencillo del ítem

Trabajo Fin de Grado

dc.contributor.advisorCaballero Benítez, Fernandoes
dc.creatorRivera Díez, Martinaes
dc.date.accessioned2016-04-27T18:10:27Z
dc.date.available2016-04-27T18:10:27Z
dc.date.issued2015
dc.identifier.urihttp://hdl.handle.net/11441/40541
dc.description.abstractEste proyecto consiste en el diseño de una aplicación de un sistema de visión artificial que seleccione los patrones de mayor correspondencia con una imagen y que sea capaz de estimar las distancias a las que se encuentran algunos de los objetos de interés y conocer su localización, traslación y rotación. Recientemente han aparecido dispositivos que permiten obtener información tridimensional de una escena. Uno de los más utilizados es el constituido por un par estereoscópico de cámaras. El objetivo de este proyecto es obtener coordenadas 3D de una escena real con el procesamiento de una sola cámara haciendo uso de la técnica de ‘matching’, que consiste en la búsqueda de correspondencias de color y forma entre objetos, extrayendo sus puntos característicos. En este caso será entre los patrones de la base de datos y la imagen capturada en cada instante. El software y algoritmos están diseñados en C++, utilizan las librerías de visión OpenCV® y están soportados por Windows®. La función principal del programa es el cálculo de la traslación, rotación, escalado y coordenadas de profundidad o coordenadas 3D, salvo un factor de escala, en tiempo real de un objeto. También se necesita minimizar los tiempos de ejecución, buscar los algoritmos óptimos y obtener flexibilidad en cuanto a patrones modificables o ampliaciones futuras sobre la base de datos con la que se quiera trabajar. Los pasos que hemos seguido para alcanzar cada objetivo y los recursos que se han implementado son: - Creación de una Base de Datos con los patrones que queremos identificar. - Obtención del vector descriptor para los puntos característicos de cada patrón mediante el descriptor y detector del algoritmo SURF. - Bucle de capturas continuas de la cámara o vídeo precargado, aplicando a cada una de ellas el paso anterior. - Comparación de descriptores generados en cada captura con el vector descriptor calculado en la segunda fase y selección de aquel patrón de mayor correspondencia con la imagen capturada en cada instante. - Cálculo del contorno y localización del patrón identificado en la captura. - Obtención de los datos de interés (localización, traslación, rotación y mapa de profundidad). Para evitar errores, en los cambios bruscos de iluminación o en situaciones con exceso de ruido, se ha elegido el algoritmo SURF, “Speeded-Up Robust Features”. SURF es menos sensible a cambios que su antecesor SIFT, “Scale-invariant feature transform”. También se ha reducido el número de puntos característicos que se obtenían en cada proceso, filtrando sólo aquellos que cumpliesen unas distancias mínimas determinadas. De esa manera conseguimos menos carga computacional y se trabajará solamente con los puntos más representativos de cada imagen, mejorando el rendimiento de la aplicación.es
dc.description.abstractThis work deals with the designing an implementing an artificial vision system that is capable of estimating the distances to which some objects of interest are located and to know their localization, translation and rotation. Recently, devices that allow obtaining three-dimensional information from the scenes have been developed. One of the most popular techniques is stereoscopic vision, composed by a couple of synchronized cameras. This work presents an artificial vision approach for computing 3D coordinates of a real scene with only one camera. The software is implemented in C++ and the algorithms are designed using OpenCV computer vision libraries and are supported by Windows®. The phases we have taken to achieve each objective and the resources that have been implemented are: - Creation of a database with models who we want to identify. - Obtaining the descriptor vector for the characteristic points of each model by the descriptor and the detector of the SURF algorithm. - Continuous loop from camera capture video or video preloaded, applying to each capture the previous step. - Comparison of descriptor generated in the capture with the descriptor vector from the second step and selection of the model with more similitude to the image captured at every moment. - Calculation of contour and localization of the model identified inside of the capture. - Obtaining the details (location, translation, rotation and depth map with the respective 3D coordinates).es
dc.formatapplication/pdfes
dc.language.isospaes
dc.rightsAtribución-NoComercial-SinDerivadas 4.0 España
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.subjectVisión artificiales
dc.subjectVisión por computadores
dc.subjectInteligencia robótica y artificiales
dc.titleBúsqueda de patrones para la mejora del proceso productivo y análisis de posicionamiento y profundidades
dc.typeinfo:eu-repo/semantics/bachelorThesises
dc.type.versioninfo:eu-repo/semantics/publishedVersiones
dc.rights.accessRightsinfo:eu-repo/semantics/openAccess
dc.contributor.affiliationUniversidad de Sevilla. Departamento de Ingeniería de Sistemas y Automáticaes
dc.description.degreeUniversidad de Sevilla. Grado en Ingeniería de las Tecnologías de Telecomunicaciónes
idus.format.extent74 p.es
dc.identifier.idushttps://idus.us.es/xmlui/handle/11441/40541

FicherosTamañoFormatoVerDescripción
MartinaRiveraDiez_TFG.pdf2.368MbIcon   [PDF] Ver/Abrir  

Este registro aparece en las siguientes colecciones

Mostrar el registro sencillo del ítem

Atribución-NoComercial-SinDerivadas 4.0 España
Excepto si se señala otra cosa, la licencia del ítem se describe como: Atribución-NoComercial-SinDerivadas 4.0 España