Skip navigation
Por favor, use este identificador para citar o enlazar este ítem: https://repositorio.ufpe.br/handle/123456789/27080

Comparte esta pagina

Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorTEICHRIEB, Verônica-
dc.contributor.authorCHAVES, Thiago de Menezes-
dc.date.accessioned2018-09-27T21:36:20Z-
dc.date.available2018-09-27T21:36:20Z-
dc.date.issued2016-03-11-
dc.identifier.urihttps://repositorio.ufpe.br/handle/123456789/27080-
dc.description.abstractThe computational implementation of human body gestures recognition has been a challenge for several years. Nowadays, thanks to the development of RGB-D cameras it is possible to acquire a set of data that represents a human position in space. Despite that, these cameras provide raw data, still being a problem to identify in real-time a specific pre-defined user movement continuously which can then be applied in applications as, for example, the tracking of physiotherapeutic movements or exercises. This work presents two new techniques to identify gestures, both having physiotherapeutic concerns about the performed exercise; one is based on physiotherapeutic standards, the biomechanical planes, while the other aims to recognize the functional exercises and is based on a concept called checkpoints. Both these techniques were tested and validated by physiotherapists from the Physiotherapy Department at the Federal University of Pernambuco. The techniques were also integrated in a library which was then used in two case studies and two general applications where their applicability was tested in physiotherapeutic and non-physiotherapeutic domains obtaining good results and showing that they can be used on general applications as well.pt_BR
dc.language.isoengpt_BR
dc.publisherUniversidade Federal de Pernambucopt_BR
dc.rightsopenAccesspt_BR
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 Brazil*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/br/*
dc.subjectVisão computacionalpt_BR
dc.subjectReconhecimento de gestospt_BR
dc.subjectFisioterapiapt_BR
dc.titleA gesture recognition library for the therapy domain and its applicationspt_BR
dc.typemasterThesispt_BR
dc.contributor.authorLatteshttp://lattes.cnpq.br/2821966126501304pt_BR
dc.publisher.initialsUFPEpt_BR
dc.publisher.countryBrasilpt_BR
dc.degree.levelmestradopt_BR
dc.contributor.advisorLatteshttp://lattes.cnpq.br/3355338790654065pt_BR
dc.publisher.programPrograma de Pos Graduacao em Ciencia da Computacaopt_BR
dc.description.abstractxImplementar um algoritmo computacional de reconhecimento de gesto tem sido um desafio por muitos anos. Hoje em dia, com o desenvolvimento das câmeras RGB-D, é possível adquirir um conjunto de dados que representa a posição de uma pessoa no espaço. Apesar disso, os dados adquiridos por estas câmeras ainda não são suficientes para identificar, em tempo real e de forma contínua, movimentos predefinidos dos usuários, os quais podem ser usados em aplicações como, por exemplo, a análise de movimentos ou exercícios fisioterapêuticos. Este trabalho apresenta duas novas técnicas de reconhecimento de gestos, ambas voltadas ao domínio de fisioterapia; a primeira é baseada em padrões da fisioterapia, chamados de planos biomecânicos, e a segunda tem como propósito reconhecer os gestos realizados durante os exercícios funcionais e é baseada num conceito chamado de checkpoints. Ambas técnicas foram testadas e validadas por fisioterapeutas do Departamento de Fisioterapia da Universidade Federal de Pernambuco. Essas técnicas foram integradas em uma biblioteca, a qual então foi utilizada para desenvolver dois estudos de caso e duas aplicações de propósito gerais, onde suas aplicabilidades foram testadas tanto no domínio fisioterapêutico como fora dele, obtendo bons resultados e mostrando que tais técnicas também podem ser usadas em aplicações gerais.pt_BR
Aparece en las colecciones: Dissertações de Mestrado - Ciência da Computação

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
DISSERTAÇÃO Thiago de Menezes Chaves.pdf8,74 MBAdobe PDFVista previa
Visualizar/Abrir


Este ítem está protegido por copyright original



Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons