Skip navigation
Por favor, use este identificador para citar o enlazar este ítem: https://repositorio.ufpe.br/handle/123456789/48269

Comparte esta pagina

Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorLUDEMIR, Teresa Bernarda-
dc.contributor.authorFARIAS, Felipe Costa-
dc.date.accessioned2022-12-16T14:47:28Z-
dc.date.available2022-12-16T14:47:28Z-
dc.date.issued2022-08-05-
dc.identifier.citationFARIAS, Felipe Costa. Embarrassingly parallel autoconstructive multilayer perceptron neural networks. 2022. Tese (Doutorado em Ciência da Computação) – Universidade Federal de Pernambuco, Recife, 2022.pt_BR
dc.identifier.urihttps://repositorio.ufpe.br/handle/123456789/48269-
dc.description.abstractThe present thesis proposes a method to automatically construct Multilayer Per-ceptron Artificial Neural Networks (MLP) to help non-expert users to still create robust models without the need to worry about the best combination of the number of neurons and activation functions by using specific splitting strategies, training parallelization, and multi-criteria model selection techniques. In order to do that, a data splitting algorithm (Similarity Based Stratified Splitting) was developed to produce statistically similar splits in order to better explore the feature space and consequently train better models. These splits are used to independently train several MLPs with different architectures in parallel (ParallelMLPs), using a modified matrix multiplication that takes advantage of the principle of locality to speed up the training of these networks from 1 to 4 orders of magnitude in CPUs and GPUs, when compared to the sequential training of the same models. It allowed the evaluation of several architectures for the MLPs in a very short time to produce a pool with a considerable amount of complex models. Furthermore, we were able to analyze and propose optimality conditions of theoretical optimal models and use them to automatically define MLP architectures by performing a multi-criteria model selection, since choosing a single model from an immense pool is not a trivial task. The code will be available at <https://github.com/fariasfc/parallel-mlps>.pt_BR
dc.language.isoengpt_BR
dc.publisherUniversidade Federal de Pernambucopt_BR
dc.rightsembargoedAccesspt_BR
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/br/*
dc.subjectInteligência computacionalpt_BR
dc.subjectRedes neuraispt_BR
dc.titleEmbarrassingly parallel autoconstructive multilayer perceptron neural networkspt_BR
dc.typedoctoralThesispt_BR
dc.contributor.advisor-coBASTOS FILHO, Carmelo José Albanez-
dc.contributor.authorLatteshttp://lattes.cnpq.br/4598958786544738pt_BR
dc.publisher.initialsUFPEpt_BR
dc.publisher.countryBrasilpt_BR
dc.degree.leveldoutoradopt_BR
dc.contributor.advisorLatteshttp://lattes.cnpq.br/6321179168854922pt_BR
dc.publisher.programPrograma de Pos Graduacao em Ciencia da Computacaopt_BR
dc.description.abstractxA presente tese propõe um método para construir automaticamente Redes Neurais Artificiais Multilayer Perceptron (MLP) para ajudar os usuários não-especialistas a criar modelos robustos sem a necessidade de se preocupar com a melhor combinação do número de neurônios e funções de ativação, utilizando estratégias de particionamento de dados específicas, paralelização de treinamento e técnicas de seleção de modelos multicritério. Para isso, foi desenvolvido um algoritmo de particionamento de dados (Similarity Based Stratified Splitting) para produzir divisões estatisticamente semelhantes, a fim de explorar melhor o espaço de características e, conseqüentemente, treinar melhores modelos. Estas partições são usadas para treinar, de forma independente, várias MLPs com diferentes arquiteturas em paralelo (ParallelMLPs), usando uma multiplicação matricial modificada que faz uso do princípio da localidade para acelerar o treinamento destas redes de 1 a 4 ordens de magnitude em CPUs e GPUs, quando comparado ao treinamento seqüencial dos mesmos modelos. Isto permitiu a avaliação de várias arquiteturas de MLPs em um tempo muito curto para produzir um conjunto com uma quantidade considerável de modelos complexos. Além disso, pudemos analisar e propor condições de otimalidade de modelos ótimos teóricos, e usá-las para definir automaticamente arquiteturas de MLPs realizando uma seleção multi-critérios de modelos, uma vez que escolher um único modelo de um imenso conjunto não é uma tarefa trivial. O código estará disponível em <https://github. com/fariasfc/parallel-mlps>.pt_BR
dc.contributor.advisor-coLatteshttp://lattes.cnpq.br/9745937989094036pt_BR
Aparece en las colecciones: Teses de Doutorado - Ciência da Computação

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
TESE Felipe Costa Farias.pdf2,79 MBAdobe PDFVista previa
Visualizar/Abrir


Este ítem está protegido por copyright original



Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons