Mostrar el registro sencillo del ítem

Trabajo Fin de Grado

dc.contributor.advisorVivas Venegas, Carloses
dc.creatorGranero Ramos, Migueles
dc.date.accessioned2021-10-21T18:18:47Z
dc.date.available2021-10-21T18:18:47Z
dc.date.issued2021
dc.identifier.citationGranero Ramos, M. (2021). Guiado de robots móviles mediante sistema de localización multicámara. (Trabajo Fin de Grado Inédito). Universidad de Sevilla, Sevilla.
dc.identifier.urihttps://hdl.handle.net/11441/126755
dc.description.abstractEste proyecto trata el guiado de un robot móvil teledirigido cuya posición y orientación es estimada mediante un sistema multicámara externo a este. La plataforma de cámaras está disponible en los laboratorios del Departamento de Ingeniería de Sistemas y Automática de la Universidad de Sevilla. Se trata de un cubo con volumen de aproximadamente 3x3x3 metros y cuatro cámaras infrarrojas dispuestas en las esquinas superiores en configuración multiestéreo. Para la comunicación y control de las cámaras se emplea el SDK de programación desarrollado por el propio fabricante, Sapera, así como OpenCV para el posterior procesado de las imágenes tomadas. Este postprocesado se realiza en un equipo externo y se envía vía Bluetooth al robot móvil. La localización del robot móvil se obtiene a partir de la proyección 2D del robot capturada en cada una de las imágenes. Para ello, se hace uso de unos focos infrarrojos cercanos a las cámaras y de unos marcadores reflectantes dispuestos encima del robot móvil. Estos deben ser aislados e identificados en cada una de las cámaras. Es decir, cada marcador tiene asignado un identificador, y debemos ser capaces de reconocer cada marcador en cada una de las imágenes. Para esto es imprescindible emplear una geometría de marcadores suficientemente distintiva, como para que estos sean inequívocamente identificados en cada cámara. Adicionalmente se realizan una serie de filtrados de los datos de marcadores obtenidos con el fin de estabilizar las medidas y obtener un comportamiento lo menos sensible a perturbaciones posible. Posteriormente se mezcla la información obtenida de cada una de las cámaras para realizar una estimación de la pose del robot móvil en 3D. Se muestran diferentes resultados con diferentes técnicas de obtención de la pose del robot, el Perspective-n-Points (PnP) y la Triangulación. En el caso del PnP se hace uso del promediado de cuaternios para obtener la orientación media estimada entre las cámaras, ya que cada una realiza una estimación de manera aislada (monocular). La estimación media final calculada mediante el PnP o Triangulación es enviada al robot móvil y posteriormente filtrada allí con un Filtro de Kalman. Esto nos permite obtener unas estimaciones de posición mejores y con un comportamiento menos impreciso y errático. El robot móvil emplea estos datos filtrados para cerrar el bucle de control de posición y alcanzar el punto objetivo designado por el usuario. Finalmente, algunos datos recopilados en el robot son enviados de vuelta a la estación de tierra externa vía Bluetooth para ser guardados y posteriormente analizados con Matlab.es
dc.description.abstractThis project handles the guidance of a teleoperated robot, whose position and orientation are estimated through an external multicamera system. The camera platform is available at the laboratory of the Systems and Automation Engineering Department from the University of Seville. It is a 3x3x3 meters cube in which the cameras are disposed at the top corners with a multistereo configuration. For the communication and control of the cameras is used the programming SDK of the own manufacturer, Sapera, in addition to OpenCV for the post-processing. This is done in external equipment, and it is sent to the mobile robot via Bluetooth. The localization of the robot is obtained from the 2D projection of the robot captured by each camera. For that purpose, several infrared spotlights and reflective markers disposed on the robot are used. These are to be identified in each camera. That means that every marker has an identifier (id) and we should be able to assign these ids to the corresponding marker in every image. To do this, it is essential to use a distinctive geometry for the markers, so they are unequivocally identified in each camera. Additionally, some filters to the makers’ data are included, to stabilize the measurements and obtain a less noise-sensitive behavior. Later the information provided by each camera and it processing is mixed to estimate the 3D robot’s pose. Different results are shown using different estimation techniques, such as Perspective-n-Points (PnP) and Triangulation. In the case of PnP, the mathematical tool “quaternion meaning” is used to obtain the mean orientation given by the cameras, since each one of them makes a monocular estimation. The final mean estimation calculated by the PnP or Triangulation is transmitted to the robot via Bluetooth and later filtered there with a Kalman Filter. This allows the robot to get better pose estimations with a more accurate and less erratic behavior. The robot uses this data to close the position control loop and reach the objective point given by the user. Finally, some data is gathered in the robot and sent back to the central PC to be stored and later analyzed with the aid of Matlab.es
dc.formatapplication/pdfes
dc.format.extent97es
dc.language.isospaes
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 Internacional*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.titleGuiado de robots móviles mediante sistema de localización multicámaraes
dc.typeinfo:eu-repo/semantics/bachelorThesises
dc.type.versioninfo:eu-repo/semantics/publishedVersiones
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses
dc.contributor.affiliationUniversidad de Sevilla. Departamento de Ingeniería de Sistemas y Automáticaes
dc.description.degreeUniversidad de Sevilla. Grado en Ingeniería Electrónica, Robótica y Mecatrónicaes
dc.publication.endPage83 p.es

FicherosTamañoFormatoVerDescripción
TFG-3640-GRANERO RAMOS.pdf4.235MbIcon   [PDF] Ver/Abrir  

Este registro aparece en las siguientes colecciones

Mostrar el registro sencillo del ítem

Attribution-NonCommercial-NoDerivatives 4.0 Internacional
Excepto si se señala otra cosa, la licencia del ítem se describe como: Attribution-NonCommercial-NoDerivatives 4.0 Internacional