Please use this identifier to cite or link to this item: https://repositorio.fei.edu.br/handle/FEI/3134
Title: Avaliação de dor em expressão facial neonatal por meio de redes neurais profundas
Authors: Buzuti, L. F.
Advisor: Thomaz, C. E.
Issue Date: 2020
Abstract: A avaliação da dor neonatal pode sofrer variações entre profissionais de saúde, resultando em intervenção tardia e tratamento inconsistente da dor. Portanto, faz-se fundamental desenvolver ferramentas computacionais de avaliação da dor menos subjetivas e que não sofram influências de variáveis externas. Modelos de Aprendizado Profundo, especialmente baseados em Redes Neurais Convolucionais, ganharam popularidade nas últimas décadas devido à ampla gama de aplicações bem-sucedidas em análise de imagens, reconhecimento de objetos e reconhecimento de emoções humanas. Neste contexto, o objetivo geral desta dissertação foi analisar, quantitativa e qualitativamente, modelos de Redes Neurais Convolucionais na tarefa de classificação automática da dor neonatal por meio de um arcabouço computacional baseado em imagens de faces de dois bancos de dados distintos (um internacional, denominado COPE, e outro nacional, denominado UNIFESP). Como objetivos específicos foram implementados, avaliados e comparados três modelos existentes de redes neurais usados na literatura afim: Neonatal Convolutional Neural Network (N-CNN) e dois tipos da arquitetura ResNet50. Os resultados quantitativos mostraram a superioridade da arquitetura N-CNN para avaliação automática da dor neonatal, com acurácias médias de 87.2% e 78.7% para os bancos de imagens COPE e UNIFESP, respectivamente. No entanto, a análise qualitativa evidenciou que todos os modelos neurais avaliados, incluindo a arquitetura N-CNN, podem aprender artefatos da imagem e não variações discriminantes das faces, mostrando a necessidade de mais estudos para aplicação de tais modelos na prática clínica em questão
Neonatal pain assessment might suffer variation among health professionals, leading to late intervention and flimsy treatment of pain in several occasions. Therefore, it is essential to develop computational tools of pain assessment, less subjective and susceptible to external variable influences. Deep learning models, especially Convolutional Neural Networks, have gained ground in the last decade, due to many successful applications in image analysis, object recognitions and human emotion recognitions. In this context, the general aim this dissertation was analyse quantitatively and qualitatively models of Convolutional Neural Networks in the task neonatal pain classification through a computacional framework based in face images of two distinct databases (an international, named COPE, and other national, named UNIFESP). How specific aims were implemented, evaluated and compared the performance of three existent models used in literature: Neonatal Convolutional Neural Network (N-CNN) and two type of ResNet50 models. The quantitative results showed the excellence of N-CNN to neonatal pain assessment automatic, with average accuracy of 87.2% and 78.7% for the databases COPE and UNIFESP, respectively. However, the quantitative analysis showed that all neural models evaluated, including N-CNN models, can learn artifacts from the imagens and not variation discriminating in faces, thus showed the necessity more studies to apply this models in clinical practice
Keywords: Redes neurais (Computação)
Expressão facial
Publisher: Centro Universitário FEI, São Bernardo do Campo
Citation: BUZUTI, L. F. <b> Avaliação de dor em expressão facial neonatal por meio de redes neurais profundas. </b> 2020. 103 f. Dissertação (Mestrado em Engenharia Elétrica) - Centro Universitário FEI, São Bernardo do Campo, 2020. Disponível em: https://doi.org/10.31414/EE.2020.D.131151.
DOI: https://doi.org/10.31414/EE.2020.D.131151
URI: https://repositorio.fei.edu.br/handle/FEI/3134
Appears in Collections:Teses e Dissertações

Files in This Item:
File Description SizeFormat 
fulltext.pdf7.4 MBAdobe PDFThumbnail
View/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.