Sumarização abstrativa de texto por meio do modelo teórico computacional cognitivo lida

Carregando...
Imagem de Miniatura
Citações na Scopus
Tipo de produção
Dissertação
Data
2022
Autores
Santos, Mariana Bastos
Orientador
Rodrigues, Paulo Sérgio Silva
Periódico
Título da Revista
ISSN da Revista
Título de Volume
Citação
SANTOS, Mariana Bastos. Sumarização abstrativa de texto por meio do modelo teórico computacional cognitivo lida. 2022. 114 p. Dissertação (Mestrado em Engenharia Elétrica) - Centro Universitário FEI, São Bernardo do Campo, 2022. Disponível em: https://doi.org/10.31414/EE.2022.D.131508.
Palavras-chave
sumarização abstrativa de texto,modelos computacionais cognitivos,redes neurais (computação)
Resumo
Os modelos de sumarização automática de texto surgiram na metade do século XX e por muito tempo foram desenvolvidos de maneira extrativa. Os modelos extrativos de sumarização de texto utilizam partes do texto original para construir o resumo (CELIKYILMAZ et al., 2018), gerando muitas vezes problemas de coerência e coesão quando as diferentes partes são lidas juntas.Em contrapartida, na última década, a abordagem abstrativa vem sendo bastante explorada,e diferentemente da extrativa, gera novas palavras que possivelmente não se encontram no textooriginal para construir o resumo (CELIKYILMAZ et al., 2018). Essa abordagem pode corrigir oproblema de coerência e coesão, dado que se aproxima muito do modo como são construídos os resumos por humanos (SEE; LIU; MANNING, 2017). Porém, a sumarização abstrativa ainda enfrenta alguns problemas na geração do resumo, mesmo apresentando resultados satisfatórios em métricas automáticas de validação. Além disso, quando avaliados por humanos os resumos expõem problemas, como redundância, na dinâmica de leitura que ainda não é fluída. Por outro lado, há décadas são propostos modelos teóricos computacionais cognitivos que se baseiam nas teorias da psicologia e neurociência sobre a consciência, e que permitem a adaptação para diferentes aplicações, tendo ainda, como um dos modelos mais conhecidos, o LIDA (FRANKLIN et al., 2016). O presente trabalho propõe um modelo de sumarização abstrativa de texto baseado na estrutura teórica do LIDA utilizando técnicas já aplicadas para essa abordagem, tais como: Sequence-to-Sequence (Seq2Seq) (SUTSKEVER; VINYALS; LE, 2014), Word2vec (MIKOLOV et al., 2013a), Long Short-Term Memory (LSTM) (HOCHREITER; SCHMIDHUBER, 1997) e Mecanismo de Atenção (BAHDANAU; CHO; BENGIO, 2014). Os resultados mostraram a importância dos módulos do LIDA na composição do modelo proposto, reforçando a importância dos módulos: Memória Perceptiva Associativa, Codeletes de Atenção e Espaço de Trabalho Global. Além disso, o trabalho ressaltou a fragilidade da métrica ROUGE na avaliação dos resumos gerados quanto a coerência e coesão. E por fim, a técnica de redução de dimensão utilizada no word embedding, se mostrou ineficaz para a tarefa
Automatic text summarization models appeared in the middle of the 20th century and for a long time were developed in an extractive manner. Extractive text summarization models use parts of the original text to construct the abstract (CELIKYILMAZ et al., 2018), which often generates coherence and cohesion problems when different parts are read together. On the other hand, in the last decade, an abstract approach has been extensively explored, and unlike the extractive one, it generates new words that possibly cannot be identified in the original text to construct the abstract (CELIKYILMAZ et al., 2018). This approach can solve the coherence and cohesion problem, whereas it is very close to the way that abstracts are constructed by humans (SEE; LIU; MANNING, 2017). However, the abstractive summarization still faces some problems in abstract generation, even presenting satisfactory results in automatic validation metrics, when evaluated by humans the abstracts expose problems in the reading dynamics which are not yet fluid. On the other hand, theoretical cognitive computacional models have been proposed for decades, which are based on psychology and neuroscience theories about consciousness and allow adaptation to different applications, having LIDA (FRANKLIN et al., 2016) as one of the best-known models. The present work proposes an abstractive text summarization model based on the LIDA theoretical structure using techniques already applied for the abstractive approach, such as: Sequence-to-Sequence (Seq2Seq) (SUTSKEVER; VINYALS; LE, 2014), Word2vec (MIKOLOV et al., 2013a), Long Short-Term Memory (LSTM) (HOCHREITER; SCHMIDHUBER, 1997) and Attention Mechanism (BAHDANAU; CHO; BENGIO, 2014). The results showed the importance of LIDA modules in the composition of the proposed model, reinforcing the importance of the modules: Perceptual Associative Memory, Attention Codelettes and Global Workspace. In addition, the work highlighted the fragility of the ROUGE metric in the evaluation of the generated summaries regarding coherence and cohesion. And finally, the dimensionreduction technique used in word embedding, proved to be ineffective for the task