Repositório do Conhecimento Institucional do Centro Universitário FEI
 

Teses e Dissertações

URI permanente para esta coleçãohttps://repositorio.fei.edu.br/handle/FEI/717

Navegar

Resultados da Pesquisa

Agora exibindo 1 - 10 de 105
  • Dissertação
    Environmental sound recognition in embedded systems: bridging experiments in passenger vehicles to autonomous vehicle applications in smart cities
    (2024) Florentino, André Luiz
    The autonomous vehicle market is experiencing significant growth, with indications of transitioning from the "trough of disillusionment" to the "slope of enlightenment" on the Gartner hype cycle chart. Fundamental technologies encompassing extensive data analytics, computational capabilities, and sensor fusion techniques have already been established, and all stakeholders in this industry are persistently exploring novel approaches to enhance the overall perception of end users in terms of safety and trustworthiness. In this context, this project aims to develop and implement an Environmental Sound Recognition (ESR) algorithm in an embedded system for deployment in autonomous vehicles for Smart Cities in 2025, targeting advanced functionalities for early warning systems. Due to hardware constraints, a regular passenger vehicle was used, embedding the ESR algorithm in a Raspberry Pi with a microphone array. The limited literature on ESR algorithms for vehicles primarily focuses on siren detection without real-time inferences, and to address this, a dataset benchmarking study confirmed classifiers’ accuracy, leading to the creation of a new dataset tailored to autonomous vehicles. This new dataset provided a comprehensive baseline where several classifiers were trained and evaluated for accuracy, memory usage, and prediction time, with CNN 2D using aggregated features emerging as the top-performing model, achieving an average accuracy of 80% in the sliding window process. During the indoor experiment, the total prediction time attained an average of 47.6 ms, validating the algorithm’s performance with weighted F1-scores close to or better than cross-validation results. In the final phase of the methodology, real-world tests conducted in a passenger vehicle yielded similar results. However, inconsistencies were observed in certain classes due to insufficient sample diversity and environmental noise, which affected their accuracy. The results of this project indicate that its general objective was successfully achieved, contributing to understanding of ESR algorithms in embedded systems within passenger vehicles, and it is ready for integration into the electric and electronic architecture of autonomous vehicles for Smart Cities. Additionally, upon conducting further experiments across various vehicle categories to assess cabin insulation effects, this project could potentially enhance safety features for drivers with hearing impairments by adapting the ESR algorithm as an add-on feature in regular passenger vehicles
  • Dissertação
    An approach for grouping sentences by semantic similarity using language models and graph theory
    (2024) Ramos, João Paulo Oliveira
    Revisão da literatura é uma etapa mandatória durante uma pesquisa cientifica. Nesta fase, o pesquisador está constantemente procurando, lendo e filtrando os artigos que são relacionados a seu tópico de pesquisa. Em um cenário em que um número acumulado de artigos encontrados não são de interesse, tempo e energia são gastos sem resultados concretos. Com o crescimento exponencial de informações como noticias, artigos científicos, um campo chamado Sumarização Automática de Texto (SAT) se destaca. Esse campo é uma aplicação da área de Recuperação de Informação (RI), onde um resumo reduzido e compreensivo é extraído ou gerado a partir de um documento. A sumarização manual toma tempo, é custosa e impraticável frente a quantidade de informação textual disponível. O objetivo desse trabalho é criar um modelo semi-supervisionado capaz de criar um resumo compreensivo de um artigo cientifico, agrupando parágrafos em quarto classes: Objetivo, Metodologia, Resultados e Motivação. A metodologia é composta de sete seções, sendo essas: Seção 4.1 que descreve a base de dados utilizada. Seção 4.2 que trata do pre-processamento dos textos utilizados. Seção 4.3 que trata da metodologia utilizada para extrair as palavras chaves dos textos. Seção 4.4 que trata da metodologia utilizada para criar o grafo de palavras que é utilizado pelos modelos. Na Seção 4.5 é apresentada como os parágrafos são distribuídos entre os buckets. Na Seção 4.6 é apresentado como o modelo de N-gramas foi treinado. Na Seção 4.7.3 é apresentado a métrica de Entropia, e como ela é aplicada no técnica de agrupamento dos textos, junto do algoritmo de Dijkstra que é utilizado em um dos modelos de Entropia. Por ultimo é apresentado na Seção 4.8 o modelo de otimização criado para os modelos de entropia. A base de dados utilizada foi gerada pelo crawler criado por Meng et al. (2021) com o objetivo de extrair os artigos do website Emerald (EMERALD. . . , n.d.). Emerald é um publicador de artigos e revistas cientificas, com uma base de dados com mais de 60 mil documentos de diversos campos de estudo. Cada artigo científico dessa plataforma contém um resumo separado em quatro categorias. sendo essas categorias: proposito, método, achados e valores. O proposito descreve o objetivo do artigo, o método a metodologia e tecnologias, achados encontram-se os resultados do trabalho, e valores encontramos as motivações e valores do artigo científico. Nesse trabalho é utilizado uma base de dados reduzida, pois não foi possível obter acesso completo aos dados da plataforma Emerald. Foram utilizados os artigos marcados como Open Access. No total foram utilizados 643 artigos nos experimentos. Os textos foram separados em parágrafos, cada parágrafo sendo uma das categorias citadas anteriormente. A primeira etapa dos preprocessamentos dos dados, é a extração dos parágrafos. Em seguida, é feita lematização e tokenização dos textos. Para selecionar os as palavras chaves que foram utilizadas no segundo modelo de entropia, foi utilizado o algoritmo Summa (BARRIOS et al., 2016). Foram utilizados cinco palavras por categoria de texto. O grafo de palavras foi criado a partir de um grafo bi-direcionado, onde cada nó é uma palavra e as arestas são as quantidades de vezes que uma palavra se conectou com outra palavra. Em seguida foi feita a soma dos pesos das arestas do grafo, gerando um grafo não-direcional apresentado na Figura 2. Com essa contagem de conexões entre as palavras nas arestas, foi feito o calculo da probabilidade conjunta das arestas, gerando o grafo da Figure 4. Em seguida foi feita a transformação das arestas utilizando o logaritmo negativo, para que seja possível utilizar o algoritmo de Dijkstra para encontrar o menor caminho das palavras de um paragrafo, para as palavras chaves que foram definidas anteriormente. Foram criados dois modelos de entropia, um que utiliza apenas a Entropia como métrica de agrupamento dos paragrafos, e outro que utiliza a entropia, o algoritmo de Dijkstra e as palavras chaves para enviesar o agrupamento dos parágrafos. Os modelos são compostos pelo modelo de linguagem N-grama. No total, foram gerados quatro tamanhos diferentes de N-gramas, sendo eles 2-grama, 3-grama, 4-grama e 5-grama. Cada N-grama é chamado de bucket, no total são criados 4 buckets, um para cada categoria de texto. Cada bucket tem como proposito se especializar em um grupo de texto. No caso do modelo que utiliza apenas a Entropia, o agrupamento é aleatório entre os 4 buckets. Já para o modelo que utiliza as palavras chave, cada bucket tem uma categoria de texto pré-definida. O modelo de otimização criado consiste em avaliar se a entropia geral do modelo esta diminuindo ou não. Se a entropia diminuir, o modelo executa a etapa de troca de textos entre os buckets, por outro lado, se entropia se mantiver no mesmo valor, ou for maior, o modelo não executa a troca dos textos entre os buckets. Nessa etapa são selecionados dois buckets aleatoriamente para cada iteração do modelo. Os experimentos são apresentados no Capitulo 5. Onde é avaliado a performance para cada tamanho de n-grama. A curva de otimização dos modelos para avaliar se a entropia. E por final a influencia das palavras chaves com a utilização do algoritmo de Dijkstra no agrupamento dos textos. Por final foram utilizados dois modelos conhecidos na literatura como base de comparação. O modelo K-means, aprestado na Seção 5.4 e o modelo de LSTM (Long short-term memory) apresentado na Seção 5.5. Os resultados desse projeto demonstraram que ambos os modelos de entropia não conseguiram segmentar os textos nas quatro classes previstas, mesmo quando a entropia geral dos modelos estava diminuindo ou da hipótese de que utilizar as palavras chaves e o algoritmo Dijkstra seria melhor para enviesar o agrupamento dos textos. O modelo Kmeans e LSTM também não obtiveram resultados satisfatórios no agrupamento e classificação dos textos. Conclui-se que a entropia não pode ser utilizada como uma métrica de agrupamento de texto quando utilizada junto do modelo de linguagem N-grama. O modelo Kmeans pode ter seus hiper-parâmetros otimizados para uma possível melhora no agrupamento dos textos, o mesmo pode ocorrer para o modelo LSTM, e sua classificação dos grupos de textos.
  • Imagem de Miniatura
    Dissertação
    Reconhecimento de atividades humanas utilizando sensores inerciais e aprendizado de máquina
    (2024) Montanari, Bruno Fontes
    Reconhecimento de atividades humanas, também conhecido como Human Activity Recognition (HAR), tem um papel significativo na vida das pessoas dada a capacidade de prover informações relevantes por meio de pequenos sensores, podendo ser no celular, relógios inteligentes ou até mesmo através de imagens e vídeos. A análise e classificação dos movimentos humanos é alvo de diversos estudos em decorrência de sua ampla utilização nas mais diversas áreas, como por exemplo: saúde, práticas esportivas, bem estar, assistentes tecnológicos, segurança, computação ciente do contexto, realidade virtual e aumentada, dentre outros. O maior desafio atualmente é garantir que tal reconhecimento seja feito localmente em Micro Controller Unit (MCU) com baixo consumo de energia e com baixo tempo de inferência, mantendo os dados de cada pessoa seguro. Diversas propostas para resolver o HAR já foram avaliadas e apresentam resultados excelentes, tipicamente com acurácia superior a 90% quando um número baixo de movimentos (correr, caminhar, subir e descer escadas etc.) é considerado, porém a maioria destes estudos faz uso do processamento externo, em geral usando celulares, para desempenhar as técnicas de reconhecimento, classificação e contexto. Muitos destes estudos e técnicas podem ser ajustados, migrados e empregados nos MCUs graças às recentes melhorias dos frameworks disponíveis, suas quantizações e otimizações, bem como na evolução da capacidade de processamento e densidade de memória disponível nos microcontroladores. Este trabalho explora a comparação entre o emprego e desempenho de reduções de dimensionalidades por meio de Principal Component Analysis (PCA) com as técnicas de aprendizado de máquina como Decision Tree Regression (DTR), Random Forest (RF) e Support Vector Machine (SVM) e de aprendizado profundo utilizando exclusivamente Convolution Neural Network (CNN), ambas aplicadas ao microcontroladore Arm® Cortex® M33 com foco na aplicação de HAR. Outra análise que este estudo traz é a identificação da influência do uso de quantização Post Training Quantization (PTQ) no tempo de inferência, densidade de memória, complexidade e sua relação com o consumo de energia no MCU
  • Imagem de Miniatura
    Dissertação
    Utilização de uma rede multilayer perceptron para buscasemântica de código-fonte a partir de linguagem natural
    (2024) Pompolo, Adalberto Nassu
    Ferramentas de busca de código-fonte a partir de linguagem natural são cada vez mais importantes no dia a dia de engenheiros e desenvolvedores de software. Atualmente, modelos transformers são o estado da arte em diversas tarefas da área de Natural Language Processing (NLP), como busca de código-fonte a partir de linguagem natural. Porém, tais modelos requerem muito tempo e recursos computacionais para serem treinados em um determinado domínio (fine-tuning). Por outro lado, redes neurais clássicas, como Multilayer perceptron (MLP) por exemplo, necessitam de menos recursos para seu treinamento, porém não obtém os resultados dos modelos transformers. Diante disso, o objetivo do presente trabalho é utilizar uma rede MLP para determinar a similaridade entre dois embeddings, gerados por redes transformers, de dois domínios diferentes: linguagem natural e linguagem de programação. Para tanto, serão utilizados mais de 10000 pares código-fonte/comentário, bem como um conjunto de buscas (queries) e seus resultados esperados; ambos oriundos da base de dados CodeSearchNet. Por fim, a rede obteve bons resultados em determinadas amostras, conseguindo captar informações semânticas do par código-fonte/comentário
  • Imagem de Miniatura
    Dissertação
    Análise de técnicas de navegação de robôs autônomos em ambientes dinâmicos e incertos
    (2023) Costa, Leonardo da Silva
    Este trabalho propõe o estudo de sistemas de navegação para robôs móveis em ambientes dinâmicos e incertos. Para isso, foi feita uma comparação entre dois algoritmos de planejamento global de trajetória e um algoritmo de desvio de obstáculos, sendo eles: Multi Robot A Star (MRA*), Dynamic Visibility Graph A Star (DVG+A*) e Probabilistic Safety Barrier Certificates (PrSBC), respectivamente. Para que os algoritmos fossem escolhidos, foi realizada uma profunda pesquisa bibliográfica, comparando as técnicas utilizadas nos trabalhos mais recentes. A escolha dos algoritmos de planejamento considerou dois fatores: baixo tempo computacional e capacidade de coordenar os trajetos de diversos robôs simultaneamente. Já o algoritmo de desvio de obstáculo foi escolhido com base em três fatores: baixo tempo computacional, garantia teórica de que não haverá colisões e possibilidade de aplicar para diversos robôs simultaneamente. Os algoritmos escolhidos foram testados em diversos cenários, no domínio do futebol de robôs com times de 6, 11 e 16 robôs, para isso, foi utilizado o simulador grSim. No primeiro cenário de teste foi executada uma troca de posição antipodal, o qual é um teste bastante utilizado na literatura para testar algoritmos de desvio de obstáculos. Nesse teste foi possível verificar a vantagem em utilizar o MRA*, que coordena os trajetos para múltiplos robôs. O segundo cenário de teste consiste em uma movimentação dos robôs sob marcação do time oponente. Nesse teste o objetivo foi investigar a influência de robôs sem um algoritmo de desvio de obstáculo agindo em conjunto com os robôs controlados pelo PrSBC e os planejadores globais. Para a avaliação foram utilizadas 7 métricas: tempos de planejamento, de atualização do mapa, de navegação e de desvio de obstáculos, velocidade média geral, distância mínima entre os robôs e número de colisões. Em cada cenário foram testadas três combinações entre os algoritmos: DVG+A*, DVG+A* com PrSBC e MRA* com PrSBC. Com essas combinações foi verificada a eficácia em possuir um algoritmo de desvio de obstáculos, e as vantagens em possuir trajetos coordenados para múltiplos robôs em comparação aos trajetos gerados individualmente. A partir dos experimentos realizados foi possível identificar pontos positivos e negativos de cada algoritmo. No teste antipodal o MRA* dominou praticamente todas as métricas, ficando atrás somente no tempo de planejamento. O PrSBC evitou todas as colisões, independente da quantidade de robôs. No segundo cenário os resultados foram mais distribuídos, o DVG+A* foi o algoritmo de menor tempo de navegação e maior velocidade média, porém, também foi o que causou mais colisões. Ao acrescentar o PrSBC foi possível minimizar o número de colisões em detrimento da velocidade dos robôs e tempo de navegação. O MRA* com PrSBC foi a combinação com resultados mais equilibrados, com um número baixo de colisões, velocidade média razoável e tempo de navegação mais baixo que o DVG+A* com PrSBC. Enfim, através deste trabalho foi possível investigar as características de algoritmos de planejamento tanto individual, quanto coordenado, aplicados ao futebol de robôs. Também foi analisada a importância da inclusão de um algoritmo dedicado para o desvio de obstáculos. Partindo dos resultados obtidos foi possível concluir que, para múltiplos robôs o algoritmo de planejamento coordenado entrega o melhor desempenho considerando as métricas estabelecidas, o algoritmo de desvio de obstáculos é capaz de evitar todas as colisões, contanto que todos os robôs utilizem o algoritmo, e ao incluir robôs não controlados é possível evitar a maioria das colisões, obtendo a menos de uma colisão por teste.
  • Imagem de Miniatura
    Dissertação
    Extração de sentenças relevantes de artigos científicos utilizando modelo de linguagem e representação vetorial de palavras
    (2023) Fossato, Letícia
    Nas últimas décadas, o rápido avanço tecnológico gerou reflexos diretos na comunidade científica devido ao aumento da quantidade de pesquisas publicadas mensalmente. Visando colaborar com a rotina de estudo dos pesquisadores e diminuir a quantidade de tempo dedicada para a leitura e interpretação de artigos, técnicas para a extração de sentenças relevantes ganharam destaque no ramo de Processamento de Linguagem Natural. Neste sentido, o presente trabalho propõe duas investigações para automatizar a extração de frases representativas de artigos científicos. A primeira, consiste na premissa de extração de frases representativas comparando as sentenças presentes simultaneamente nas seções “Resumo”, “Introdução” e “Conclusão”. A segunda, na criação de um Modelo de Linguagem N-Gramas, treinado a partir das frases selecionadas pela premissa anterior, para aprender e generalizar o comportamento destas sentenças. O estudo incluiu técnicas de pré-processamento, vetorização de palavras (Word2Vec e FastText), similaridade cosseno e Modelo de Linguagem N-Gramas para a obtenção dos resultados. As frases obtidas foram validadas por meio da comparação com a sumarização padrão ouro e metrificadas pelo ROUGE-1. Entre os dois métodos testados, o melhor resultado foi obtido por meio da premissa de frases simultâneas entre as três seções mencionadas, utilizando o algoritmo de vetorização FastText, com 89% de F-Score ROUGE-1. O modelo de linguagem, mesmo com técnicas de suavização aplicadas, não teve dados suficientes para generalizar o comportamento da base de dados, pois 88% do vocabulário dos artigos de teste foi inédito ao modelo
  • Imagem de Miniatura
    Dissertação
    A inclusão escolar da criança com deficiência neuromotora no projeto de robótica educacional no ensino fundamental
    (2023) Canet, Ana Maria Diniz
    A Robótica Educacional favorece o desenvolvimento do raciocínio, o trabalho em equipe e a socialização de conhecimentos. Neste trabalho, utilizando esta tecnologia educacional como mediadora da aprendizagem, questionou-se seu potencial inclusivo para alunos com deficiência, dessa forma, esta pesquisa é qualitativa e quantitativa, envolve três fases: pesquisa bibliográfica, questionário respondido pelos Professores de Apoio aos Projetos Pedagógicos de Tecnologias Educacionais (PAPP TEC) das Escolas Municipais de São Bernardo do Campo e estudo de caso envolvendo dois alunos do Ensino Fundamental – Anos Iniciais (1° ao 5° ano) com diagnóstico de encefalopatia crônica não evolutiva (ECNE), com quadro motor de tetraparesia. Os objetivos deste trabalho são: elencar quais são as estratégias e os recursos de tecnologia assistiva necessários para que crianças com diagnóstico de encefalopatia crônica não evolutiva, com quadro motor de tetraparesia, que estejam cursando o Ensino Fundamental – Anos Iniciais (1° ao 5° ano), consigam realizar as atividades propostas nas aulas de Robótica Educacional, verificar o potencial inclusivo da robótica educacional e quais são as dificuldades que os professores de robótica apresentam na inclusão de alunos com deficiência. As hipóteses levantadas são: a de que com as adaptações necessárias o aluno consiga melhorar seu desempenho funcional e realizar as atividades escolares com maior autonomia e independência e que a robótica apresenta potencial inclusivo. O estudo de caso utilizou para a avaliação do desempenho funcional a filmagem da criança antes e depois do uso das adaptações, a CIF (Classificação Internacional de Funcionalidade), o PEDI (Pediatric Evaluation of Disability Inventory) e a entrevista semiestruturada da PAPP TEC. Conclui-se que, a robótica virtual através de um software com varredura de tela e pranchas interligadas demonstrou ser uma possibilidade para adaptação de crianças que não tem acesso convencional as peças de montagem e programação do robô, principalmente as com deficiência neuromotora severa que obtém o acesso por acionador. Houve melhora de seu desempenho ocupacional e possibilitou sua participação nas atividades como protagonista e não apenas como observadora. No questionário e na entrevista semiestruturada foi apontado pelos professores a necessidade de ações formativas, ações colaborativas com os profissionais de apoio (Equipe de Orientação Técnica e professores especialistas nas áreas das deficiências) e de acesso à tecnologia assistiva para o desenvolvimento do potencial inclusivo da robótica
  • Imagem de Miniatura
    Dissertação
    Aprendizado por reforço profundo com redes recorrentes aplicado a negociação do minicontrato futuro de dólar
    (2023) Kinoshita, J. K.
    Recentemente há um aumento exponencial no uso de técnicas de aprendizado de máquina no mercado financeiro, principalmente para negociação de ações, na tentativa de prever o seu preço futuro. O objetivo desse projeto é desenvolver um sistema de negociação inteligente para o Minicontrato Futuro de Dólar, baseado no uso de aprendizado por reforço, usando o Deep Recurrent Q learning, um modelo de Redes Neurais Convolucionais combinadas com as Redes Neurais Recorrentes. O treinamento foi baseado em uma base da dados históricos do ativo e o agente realizou três ações: comprar, vender, manter o ativo, sempre visando o máximo retorno financeiro. Os experimentos realizados demonstraram que o sistema proposto teve um desempenho melhor do que as estratégias de Buy and Hold, um modelo baseado na Deep Q Network, um Fundo Cambial e uma estratégia baseada no indicador técnico MACD. Palavras-chave: Aprendizado por Reforço Profundo. Redes Neurais Convolucionais. Redes Neurais Recorrentes. Long Short-Term Network. Deep Recurrent Q Network. Mercado Futuro
  • Imagem de Miniatura
    Dissertação
    Machine learning methods for vessel type classification with underwater acoustic data
    (2022) Domingos, Lucas Cesar Ferreira
    A identificaçãodeembarcaçõesemambientesdetráfegocontroladopodeserbenéfica para manutençãodabiodiversidadeeproteçãodosambientescosteirosderegiõesprotegidas, gerandocontribuiçõesparaacomunidadelocaleparaoecossistema.Nesseâmbito,vê-se latente anecessidadedemelhorestécnicasdeidentificaçãoeclassificaçãodeembarcações, proporcionando mecanismosparamelhoradestessistemas.Sinaissonorossubaquáticossão mais difíceisdeseremmascaradosouomitidosduranteanavegaçãodeumaembarcaçãoquando comparados comoutrasfontesdedados,proporcionandoumafonteconfiáveleresistentea fraudes parasistemasdeclassificação,porém,estessofreminterferênciasdascondiçõesdomeio em queseencontram.Nestetrabalho,umametodologiafoipropostapararealizaraclassificação de sinaissonorossubaquáticosprovenientesdeembarcaçõesutilizandotécnicasdeaprendizado de máquina,considerandotambémasvariáveisambientais,comoadistânciaentreoshidrofonese as embarcações.Umacomparaçãorelativaàperformancedasredesneuraisconvolucionaismais comuns foirealizadautilizandoaarquiteturadaVGGedaResNet18.Tambémforamrealizadas comparações entreostrêsfiltrosdepré-processamentoscomumentepresentesnaliteratura,os espectrogramasMel,osfiltrosGamma,eatransformadadeconstanteQ,proporcionandoum estudosobreoimpactodetaisvariáveisnaclassificaçãofinal.Devidoaescassezdeconjuntos de dadosanotadosparaestudodesteproblema,umconjuntodedadosanotadosfoiproposto utilizando comobaseossinaissonorosdainiciativaOceanCanadaNetwork.Osresultados obtidos atingiramaacuráciade94.95%noconjuntodedadospropostousandoCQTcomofiltro de pré-processamentoparaumaredeneuralconvolucionalbaseadanaResNet.Oscódigosfontes para reproduçãodostestes,assimcomoparaobtençãododataset,estãodisponibilizadosde maneira gratuita e pública para fins acadêmicos
  • Imagem de Miniatura
    Dissertação
    O impacto da inclusão de índices sociais e macroeconômicos na detecção automática de fake news
    (2022) Carvalho, B. C. P. dos S.
    As fake news são notícias falsas que possuem a intenção de se apresentar como verdadeiras, causando assim diversos impactos na sociedade, sejam econômicos e financeiros, políticos, ou até em saúde pública. A detecção automática de fake news teve um avanço importante nos últimos anos, porém existe a carência de trabalhos em língua portuguesa, principalmente devido à baixa oferta de bases nesta língua. Pode-se evidenciar, também, que os trabalhos existentes são focados na detecção automática utilizando-se as características linguísticas ou nos padrões de dispersão das mesmas em mídias sociais. Com isso, este trabalho traz uma abordagem complementar à tarefa de detecção automática desses tipos de textos, incluindo o estudo do possível impacto da inclusão de índices sociais e macroeconômicos, como taxa de inflação e desemprego, no desempenho dos modelos. O trabalho foca na utilização dos classificadores SVM, Random Forest e Naive Bayes, além do conhecido modelo Bag of Words para extração das características linguísticas