Skip navigation
Por favor, use este identificador para citar o enlazar este ítem: https://repositorio.ufpe.br/handle/123456789/51390

Comparte esta pagina

Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorBARROS, Edna Natividade da Silva-
dc.contributor.authorFERNANDES, Roberto Costa-
dc.date.accessioned2023-07-05T12:19:01Z-
dc.date.available2023-07-05T12:19:01Z-
dc.date.issued2023-03-15-
dc.identifier.citationFERNANDES, Roberto Costa. Embedded object detection and position estimation for RoboCup Small Size League. 2023. Dissertação (Mestrado em Ciência da Computação) – Universidade Federal de Pernambuco, Recife, 2023.pt_BR
dc.identifier.urihttps://repositorio.ufpe.br/handle/123456789/51390-
dc.description.abstractIn the RoboCup Small Size League (SSL), there is the challenge of giving more autonomy to the robots, so they can perform some tasks without receiving any external information. To achieve this autonomy, the robot has to detect and estimate the position of other objects on the field so it can score goals and move without colliding with other robots. Object detection models often use monocular images as the input, but calculating the relative position of an object given a monocular image is quite challenging as the image doesn’t have any information on the object’s distance. The main objective of this work is to propose a complete system to detect an object on the field and locate it using only a monocular image as the input. The first obstacle to producing a model to object detection in a specific context is to have a dataset labeling the desired classes. In RoboCup, some leagues already have more than one dataset to train and evaluate a model. Thus, this work presents an open-source dataset to be used as a benchmark for real-time object detection in SSL. Using this dataset, this work also presents a pipeline to train, deploy, and evaluate Convolutional Neural Networks (CNNs) models to detect objects in an embedded system. Combining this object detection model with the global position received from the SSL-Vision, this work proposes a Multilayer Perceptron (MLP) architecture to estimate the position of the objects giving just an image as the input. In the object detection dataset, the MobileNet v1 SSD achieves 44.88% AP for the three detected classes at 94 Frames Per Second (FPS) while running on a SSL robot. And the position estimator for a detected ball achieves a Root Mean Square Error (RMSE) of 34.88mm.pt_BR
dc.description.sponsorshipCNPqpt_BR
dc.language.isoengpt_BR
dc.publisherUniversidade Federal de Pernambucopt_BR
dc.rightsopenAccesspt_BR
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/br/*
dc.subjectEngenharia da computaçãopt_BR
dc.subjectRobóticapt_BR
dc.subjectRoboCuppt_BR
dc.titleEmbedded object detection and position estimation for RoboCup Small Size Leaguept_BR
dc.typemasterThesispt_BR
dc.contributor.authorLatteshttp://lattes.cnpq.br/6942505817036772pt_BR
dc.publisher.initialsUFPEpt_BR
dc.publisher.countryBrasilpt_BR
dc.degree.levelmestradopt_BR
dc.contributor.advisorLatteshttp://lattes.cnpq.br/6291354144339437pt_BR
dc.publisher.programPrograma de Pos Graduacao em Ciencia da Computacaopt_BR
dc.description.abstractxA categoria Small Size League (SSL) da RoboCup tem o desafio de aumentar o nível de autonomia dos robôs para que eles possam realizar algumas tarefas sem receber nenhuma informação externa. Para garantir essa autonomia o robô tem que ser capaz de detectar e estimar a posição dos objetos no campo, para que ele possa marcar gols e se movimentar sem colidir com outros robôs. Modelos para detecção de objetos geralmente utilizam imagens monoculares como entrada, no entanto é desafiante calcular a posição relativa desses objetos, já que a imagem monocular não tem nenhuma informação da distância. O principal objetivo dessa dissertação é propor um sistema completo para detectar um objeto e calcular sua posição relativa no campo, usando uma imagem monocular como entrada. O primeiro obstáculo para treinar um modelo para detectar objetos em um contexto específico é ter um dataset de treinamento com imagens anotadas. Outras categorias da RoboCup já possuem dataset com imagens anotadas para treinar e avaliar um modelo. Assim, esse trabalho também propõe um dataset para a categoria SSL para ser usado como referência de comparação para detecção de objetos nessa categoria. Utilizando esse dataset, esse trabalho apresenta um fluxo para treinar, avaliar e realizar a inferência de uma Convolutional Neural Networks (CNNs) para detecção de objetos em um sistema embarcado. Combinando a detecção de objetos com a posição global recebida do SSL-Vision, esse trabalho ainda propõe uma arquitetura baseada em Multilayer Perceptron (MLP) para estimar a posição dos objetos usando somente a imagem monocular como entrada. Na detecção de objetos, o modelo MobileNet v1 SSD alcançou 55.77% AP para as três classes de interesse rodando a 94 Frames Per Second (FPS) em um robô de SSL. O modelo para estimar a posição de um objeto da classe Bola atingiu um Root Mean Square Error (RMSE) de 34.88mm.pt_BR
Aparece en las colecciones: Dissertações de Mestrado - Ciência da Computação

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
DISSERTAÇÃO Roberto Costa Fernandes.pdf5,61 MBAdobe PDFVista previa
Visualizar/Abrir


Este ítem está protegido por copyright original



Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons