Please use this identifier to cite or link to this item: https://repositorio.fei.edu.br/handle/FEI/3192
Title: Análise e reconhecimento de padrões cognitivos em escutas musicais e sonoros em áudios
Authors: Ribeiro, E.
Advisor: Thomaz, C. E.
Issue Date: 2020
Abstract: Estamos envolvidos em um ambiente repleto de sons ao nosso redor. Estudar e analisar os impactos que a prática musical causa e mostrar matematicamente que esta prática pode proporcionar efeitos cognitivos significativos no cérebro humano são as principais motivações desta tese. Em mais detalhes, o objetivo desta tese foi desenvolver uma metodologia capaz de caracterizar os padrões de ativações corticais gerados durante o registro de sinais de Eletroencefalograma (EEG) por meio de técnicas de reconhecimento de padrões em estatística, além de analisar as características acústicas comumente empregadas neste contexto, a fim de revelar se as mesmas são estatisticamente relevantes. Foi desenvolvido inicialmente um arcabouço computacional para abordar o problema de classificação de 2 grupos de amostras baseado em dados de sinais de EEG extraídos de voluntários músicos e não-músicos durante uma tarefa auditiva, para predizer se uma determinada pessoa é um músico ou não. Os resultados demonstraram que é possível classificar os grupos amostrados com acurácias que variam de 69.2% a 93.8%, permitindo não somente uma melhor descrição dos padrões de ativações neurais que caracterizam os voluntários músicos e não-músicos, mas também destacando como esses padrões se alteram nas regiões de transição e fronteiras de decisão que separam os grupos amostrados, indicando uma separação linear plausível entre estes grupos. Adicionalmente, como outra contribuição original desta tese, foram analisados os sinais de áudio de uma base de dados pública e internacionalmente referenciada que contém 1000 trechos musicais com 10 gêneros distintos, para investigar similaridades numéricas entre as características acústicas de baixo nível extraídas dos áudios e comumente exploradas na literatura afim. Os resultados obtidos mostram um comportamento de agrupamento similar entre essas características para todas as músicas analisadas, independente do gênero musical. Foi possível então discutir de maneira inédita a relação entre a forma como as características acústicas das músicas são descritas pela literatura e como as mesmas são agrupadas estatisticamente, revelando que a informação que usamos para processar cognitivamente essas características sonoras é implicitamente estatística. Embora todos os métodos descritos e implementados nesta tese sejam baseados em sinais de EEG, acredita-se que os mesmos possam ser estendidos para outros tipos de sinais cognitivos multivariados, como de Imagem de Ressonância Magnética funcional (fMRI), permitindo uma compreensão maior cortical e sub-corticalmente de funcionamento do nosso cérebro durante escutas musicais
We are involved in an environment full of sounds around us. Studying and analyzing the impacts that musical practice causes and showing mathematically that this practice provides significant cognitive effects on the human brain are the main motivations of this thesis. In more detail, the aim of this thesis was to develop a methodology capable of characterizing the cortical activation patterns generated during the register of Electroencephalogram (EEG) signals through pattern recognition techniques in statistics, in addition to analyzing the acoustic features commonly employed in this context, in order to reveal whether they are statistically relevant. A computational framework was initially developed to address a 2 group classification problem based on data from EEG signals extracted from volunteer musicians and non-musicians during an auditory task, to predict whether a particular person is a musician or not. The results showed that it is possible to classify the sampled groups with accuracy ranging from 69.2% to 93.8%, allowing not only a better description of the neural activation patterns that characterize the musician and non-musician volunteers, but also highlighting how these patterns they change in the transition regions and decision boundaries that separate the sampled groups, indicating a plausible linear separation between these groups. Additionally, as another original contribution of this thesis, the audio signals from a public and internationally referenced database containing 1000 musical excerpts with 10 different genres were analyzed to investigate numerical similarities between the short-term acoustic features extracted from the audios and commonly explored in related literature. The results obtained show a similar cluster behavior among these features for all analyzed music, regardless of the musical genre. It was then possible to discuss in an unprecedented way the relationship between the way the acoustic features of songs are described in the literature and how they are grouped statistically, revealing that the information we use to cognitively process these sound features is implicitly statistical. Although all the methods described and implemented in this thesis are based on EEG signals, it is believed that they can be extended to other types of multivariate cognitive signals, such as, for example, functional Magnetic Resonance Imaging (fMRI), allowing a greater cortical and sub-cortical understanding of the functioning of our brain during listening
Keywords: Música
Eletroencefalografia
Reconhecimento de padrões
Publisher: Centro Universitário da FEI, São Bernardo do Campo
Citation: RIBEIRO, E. <b> Análise e reconhecimento de padrões cognitivos em escutas musicais e sonoros em áudios. </b> 2020. 121 f. Tese (Doutorado em Engenharia Elétrica) - Centro Universitário da FEI, São Bernardo do Campo, 2020. Disponível em: https://doi.org/10.31414/EE.2020.T.131238.
DOI: https://doi.org/10.31414/EE.2020.T.131238
URI: https://repositorio.fei.edu.br/handle/FEI/3192
Appears in Collections:Teses e Dissertações

Files in This Item:
File Description SizeFormat 
fulltext.pdf10.14 MBAdobe PDFThumbnail
View/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.