Programa de Pós-Graduação de Mestrado e Doutorado em Engenharia Elétrica
URI Permanente desta comunidade
Navegar
Navegando Programa de Pós-Graduação de Mestrado e Doutorado em Engenharia Elétrica por Orientador "Rodrigues, Paulo Sérgio Silva"
Agora exibindo 1 - 20 de 25
Resultados por página
Opções de Ordenação
Dissertação Algoritmos de segmentação de imagens de tomografia computadorizada da artéria carótida(2012) Gallão, Celso DenisEste trabalho apresenta estudos de algoritmos de segmentação de imagens baseados na entropia extensiva de Shannon, na entropia não extensiva de Tsallis, e em uma variação da entropia de Shannon com ponderações distintas entre background e foreground, aqui apresentada pela primeira vez como entropia de Shannon Ponderada. Outras metodologias de segmentação de imagens são aqui revistas apenas por conhecimento histórico, como a entropia relativa de Kullback-Leibler, limiarização tradicional e limiarização iterativa. Para a realização de testes comparativos entre os três modelos entrópicos estudados, são aplicados dados sintéticos gerados por funções Gaussianas, representando o background e o foreground de imagens. Esses dados são utilizados para o cálculo do limiar ótimo analítico segundo variações controladas da média, do desvio-padrão e da amplitude das funções Gaussianas. Esses limiares ótimos analíticos foram comparados com os limiares calculados por meio das entropias de Shannon, de Tsallis e de Shannon Ponderada. Os resultados mostram que as entropias de Tsallis e de Shannon Ponderada foram capazes de produzir limiares iguais aos limiares ótimos analíticos encontrados pelos dados sintéticos, em todos os casos analisados. Também são aplicadas as mesmas três técnicas entrópicas em imagens medicas reais das artérias carótidas, capturadas por tomografia computadorizada. As segmentações resultantes da aplicação dos três m´métodos entrópicos são, então, comparados com as segmentações manuais feitas por especialistas, para análise e discussão da precisão na medição da espessura das paredes (IMT) e da vazão do fluxo sanguíneo (lúmen) das artérias carótidas, e os resultados são apresentados.Dissertação Análise da influência de características visuais na detecção automática de foco ocular humano(2015) Nascimento, Danilo OliveiraO foco ocular humano é uma das tarefas mais importantes nos processos cognitivos de interpretação de cenas. Na última década, surgiram vários métodos que objetivam predizer automaticamente os pontos de fixação do olhar humano. entretanto, a capacidade de estimar as regiões focais varia conforme o algoritmo utilizado e a imagem analisada, o que faz a eficiência ser satisfatória em apenas um conjunto de imagens. Este trabalho estudou 9 métodos surgidos na última década e 21 características diferentes para encontrar as relações entre as informações contidas nas imagens e a eficiência de predição. Utilizando uma base de dados supervisionada, este trabalho mostra que as características de dispersão para informações de intensidade e cor são as mais influentes para a eficiência dos métodos do que aquelas baseadas somente na média dessas informações. Além disso, características como a entropia da intensidade de tons de cinza ou área focal possuem uma correlação direta com a complexidade da cena e, quando o ruído visual aumenta (através do aumento do número de regiões de interesse ou cores) a centralidade foi a estratégia mais utilizada pelos seres humanos que testaram essa base, repercutindo nos métodos automáticos. Além do mais, este trabalho testa a capacidade de uma Rede Neural de identificar padrões contidos nas imagens originais e selecionar o método mais apropriado para estimar os pontos focais.Dissertação Análise da segmentação da carótida com modelo de snake em imagens de tomografia computadorizada(2012) Silva, Rudson de LimaDissertação Análise de características de navegação em redes para a detecção de intrusão com base em algoritmos bio-inspirados(2023) Frezzato, MiguelCom o constante aumento de usuários conectados à Internet, um grande volume de dados tem sido gerado a partir de várias redes. Em vista disso, a segurança cibernética está sendo cada vez mais afetada, havendo grande necessidade de estudos científicos na área. Sistemas de detecção de intrusão (IDS) cada vez mais robustos são constantemente desenvolvidos, visando proteger os dados que são trafegados nas redes. Estes sistemas analisam as características de fluxo de cada dispositivo na rede para identificar uma possível instrusão. Selecionar apenas as características que mais se relacionam com as intrusões influencia diretamente na velocidade da análise, além de auxiliar os classificadores a tomar decisões precisas ao identificar uma intrusão. Por outro lado, o desenvolvimento do aprendizado de máquina e de algoritmos de otimização inspirados na natureza têm impulsionado o avanço de diversas áreas tecnológicas. Assim, o presente trabalho apresenta uma metodologia de análise dessas características utilizando uma combinação de aprendizado de máquina e algoritmos bio-inspirados para detecção eficiente de intrusões na rede. Os resultados experimentais mostram que o método proposto aumenta a acurácia e a taxa de detecção do IDS, além de diminuir a taxa de falsos alarmes. Além disso, o método se mostrou competitivo com os principais trabalhos relacionados do estado da arte com desempenho semelhante ou superiror nas bases de dados NSL-KDD e UNSW-NB15Dissertação Análise de textura para detecção de trincas em corpos de prova da mecânica da fratura(2015) Fardo, F. A.No contexto da indústria metal-mecânica, há uma grande demanda por métodos para medidas de comportamento de materiais contendo trincas sob condições de operação. Este comportamento é usualmente quantificado por meio de ensaios de tenacidade à fratura utilizando parâmetros como o fator de intensidade de tensões K, o CTOD ou a Integral J. Independente do parâmetro empregado para quantificar a tenacidade à fratura, todos os ensaios exigem o conhecimento do comprimento correto da pré-trinca de fadiga existente na amostra que deu origem à falha. A maioria dos laboratórios emprega métodos de medição visuais por meio de lupa estereoscópica ou projetor de perfil. Técnicas adicionais como aplicação de heat tinting auxiliam o usuário na visualização da frente de crescimento estável de trinca. Com o avanço de técnicas de Processamento de Imagem e Visão Computacional, este trabalho propõe a aplicação de técnicas de detecção de bordas por análise de textura para obtenção do contorno correspondente ao perfil da frente de trinca em corpos de prova SE(B) post-mortem. Resultados sugerem que o método proposto poderia ser aplicado para análise de imagens de ensaios da tenacidade à fratura para medição de comprimentos de trinca com alta precisão, tendo obtido uma taxa de discriminação de superfícies de 98%. Os resultados também sugerem que o método possa ser aplicado em amostras sem a marcação por heat-tinting com o mesmo nível de precisão.Dissertação Aplicação da arquitetura transformer para sumarização de artigoscientíficos(2023) Lima, Amanda Maciel deO processo de pesquisa científica tem como sua fase inicial a exploração de artigos para o conhecimento do estado da arte do tema a ser investigado. Em virtude do crescimento de dados em artigos científicos e do curso constante da informatização, tornam-se necessários mecanismos que sejam capazes de resumir artigos científicos com a finalidade de melhorar o processo de aquisição de pesquisas e direcionar a pessoa pesquisadora a acessar conteúdos relevantes. Os trabalhos de sumarização de artigos científicos, de modo geral, apresentam métodos de relevância de sentenças e aprendizado de máquina. Nos últimos anos, mecanismos de atenção associados a redes neurais e processamento de linguagem natural vêm sendo propostos para interpretare contextualizar atividades de processamento de linguagens, sendo uma delas a textual. Paralelamente, a arquitetura Transformer sugere uma modelagem de transdução com mecanismos de autoatenção - prescindindo de convoluções e recorrências - é aplicada a diversos campos da Inteligência Articial com resultados considerados promissores. Este trabalho propôs empregar o modelo pré-treinado Longformer para a atividade de sumarização de artigos científicos da base de dados SciSummNet através de etapas de pré-processamento, fine-tuning e geração dos resumos. Os resultados obtidos indicaram melhoria de 20,8% para ROUGE-2 recall e 22,69% para ROUGE-2 F-Measure em relação ao trabalho original da base SciSummNet através do modelo ComAbstractDissertação Classificação de cenas em imagens através da arquitetura cognitiva lida(2020) Goulart, H. X.Na área de visão computacional, dentre as diversas linhas existentes, há aquela denominada de generalista. Esta vertente consiste em estudos amplos, incluindo muitos elementos e variáveis; nesse caso, inúmeras aplicações podem ser desenvolvidas dentro de um mesmo estudo. Um dos principais problemas estudados na área de visão computacional, seguindo a linha generalista, é conhecido como classificação de cenas. Na literatura, esse problema é geralmente enfrentado com o uso de técnicas de Deep Learning em combinação com outras técnicas de classificação. Em contrapartida, uma linha de pesquisa conhecida como arquiteturas cognitivas, que embora seja pouco explorada em visão computacional, vem sendo estudada nas últimas décadas buscando mesclar conceitos da neurociência e da ciência da computação. Neste trabalho, será apresentado um modelo que agrega a arquitetura cognitiva Learning Intelligent Distribution Agent (LIDA) com métodos já utilizados na área, visando estudar os aspectos poucos explorados até o momento, que são proporcionadas por esta união. Dentre os métodos existentes na área, serão utilizados o Support Vector Machine (SVM), Multilayer Perceptron (MLP) e Redes Neurais Convolucionais (CNN). Este trabalho contribuiu para a união pouco explorada descrita aqui, e também serve como base pra futuros trabalhos que estudem problemas através desta união. Outra contribuição é que o presente trabalho apresentou resultados similares ao estadoda-arte em bases de dados frequentemente utilizadas na área, como é o caso do MIT Indoor 67 (85,9% de acurácia) e SUN 397 (69,4% de acurácia), que são bases de cenas naturais coloridas segregadas entre diversas classesDissertação Classificação de cenas naturais baseada em cor e relacionamento espacial de regiões em uma Rede Complexa(2011) Silva, S. M.Este trabalho apresenta um modelo de Redes Complexas para representação de informações contextuais de imagens de cenas naturais. A hipótese que será estudada nessa dissertação é de analisar se um grupo de nós gera contexto de características comuns a determinadas classes, significando que a co-ocorrência de cores em locais específicos na cena é um fator discriminante, que pode representar contexto, permitindo assim a navegação e inferência na rede para aplicações como: Recuperação de Informação, Análise de Imagens e Inferência de Objetos em Cena. No modelo proposto, a característica de cor e posicionamento espacial na imagem que co-ocorrem é modelado como um nó da rede. As bases de dados de imagens que foram usadas são: A Corel Image Gallery, que possui cerca de 5.200 imagens divididas em 52 classes e a Coil, que possui cerca de 7200 imagens divididas em 100 classesDissertação Classificação de imagens de ultrassom de câncer de mama baseada em informações híbridas utilizando teoria da informação(2010) Lessa, V. S.Esta proposta de dissertação de mestrado apresenta uma metodologia para a classificação de câncer de mama em imagem de ultrassom do ponto de vista da teoria da informação, incluindo informação mútua, entropia e entropia relativa, estendendo os estudos para a entropia Tsalliana. Os dados gerados a partir de uma base de dados normalizada compõem um espaço vetorial de informações híbridas, envolvendo textura e geometria espacial das lesões. Um dos objetivos principais é avaliar os resultados de Rodrigues et al. (2006), bem como Thomaz et al. (2008) e Giraldi et al. (2008) com relação às características discriminantes mínimasTese Definição da função Q-Gaussiana bidimensional com aplicações em processamento digital de imagens(2016) Gallão, Celso DenisDissertação Detecção e classificação de imagens sintéticas utilizando entropia não-extensiva(2009) Erdmann, H.As interfaces gráficas ou Graphic User Interface (GUI) dos sistemas operacionais (SOs) modernos oferecem maneiras simplificadas para a operação das funções de um computador, ao contrário da digitação de comandos complexos em terminais de texto. Com a popularização de SOs gráficos, como por exemplo o Windows da Microsoft, a maioria dos programas atuais pode ser operada somente através de sua interface gráfica, gerando assim, a dificuldade de automação de tarefas por meio da interação com os componentes do programa como botões, ícones, caixas de texto, etc. Este trabalho propõe um estudo de métodos para classificação e reconhecimento de objetos sintéticos utilizando o conceito de entropia não-extensiva proposta por Constantino Tsallis de forma a possibilitar a criação de um software de automação de tarefas baseando nestas técnicas de visão computacionalDissertação Estudo da aplicação de sistemas de recomendação para apoio à decisão clínica no tratamento(2020) Horvath, M.Sistema de Recomendação (SR) são técnicas já consolidadas, desenvolvidas para auxiliar usuários na tarefa de encontrar conteúdo de interesse em meio a um grande conjunto de opções, que pode ser uma tarefa exaustiva quando feita manualmente. Estes sistemas têm sido extensivamente explorados pela comunidade acadêmica, mostrando serem eficazes para lidar com dados esparsos e prover recomendações relevantes, principalmente em cenários de comércio e entretenimento online. Trabalhos de pesquisa recentes passaram a investigar Sistemas de Recomendação em cenários relacionados à saúde, discutindo desafios e oportunidades para apoiar profissionais da saúde na tomada de decisão, ou até mesmo para gerar recomendações diretamente para pacientes. Este trabalho apresenta uma extensa revisão da área denominada Sistema de Recomendação para Saúde (SRS), com o intuito de pontuar as principais contribuições e desafios atuais. Alguns dos principais desafios pontuados no levantamento bibliográfico são: a escassez de trabalhos publicados que avaliam SRSs empiricamente, a adoção dos chamados Históricos Médicos Eletrônicos (HMEs) para a construção de SRSs e a modelagem do perfil dos pacientes em cenários de recomendações na área médica. Portanto, este trabalho apresenta uma avaliação e comparação das principais técnicas de SRs aplicadas em um cenário de recomendação na área médica, com o objetivo de recomendar procedimentos para apoiar profissionais da saúde no processo de definição de tratamento de pacientes que apresentam cardiopatias congênitas. Os experimentos foram realizados utilizando uma base de dados fornecida por um hospital de São Paulo, extraída de um sistema de Históricos Médicos Eletrônicos. Os resultados mostraram que os modelos de Filtragem Colaborativa (FC) superaram os modelos de Filtragem Baseada em Conteúdo (FBC) em todas as comparações realizadas. Além disso, os Sistemas de Recomendação Sensíveis ao Contexto (SRSCs) proporcionaram um aumento do desempenho dos SRSs, uma vez que os melhores resultados, tanto dos modelos de FC como dos modelos de FBC, foram obtidos com a utilização de informações contextuais na definição das recomendações. Por fim, os Sistemas de Recomendação Híbridos superaram todos os modelos individualmente, atingindo desempenho de 0,78 em relação ao nDCG e de 0,87 em relação à RevocaçãoDissertação Estudo de algoritmos de otimização bio-inspirados aplica à segmentação de imagens(2020) Saito, N. T.A segmentação de imagens é uma das primeiras etapas dentro do arcabouço para processamento de cenas. Entre as principais técnicas existentes destacamos a binarização baseada em histograma, que devido a simplicidade de compreensão e baixa complexidade computacional é um dos métodos mais utilizados. No entanto, para um processo de multi-limiarização, este método torna-se computacionalmente custoso. Para minimizar este problema, são utilizados algoritmos de otimização na busca dos melhores limiares. Recentemente, vários algoritmos inspirados na natureza têm sido propostos de maneira genérica na área de otimização combinatória e obtido ótimos resultados, entre eles destacamos os mais tradicionais como o Genetic Algorithm (GA), Particle Swarm Optimization (PSO), Differential Evolution Algorithm (DE), Artificial Bee Colony (ABC), Firefly Algorithm (FA) e Krill Herd (KH). Este trabalho mostra uma comparação entre alguns destes algoritmos e algoritmos mais recentes, a partir de 2014, como Grey Wolf Optimizer (GWO), Elephant Herding Optimization (EHO), Whale Optimization Algorithm (WOA), Grasshopper Optimization Algorithm (GOA) e o Harris Hawks Optmization (HHO). Este trabalho comparou os limiares obtidos por 7 algoritmos bio-inspirados em uma base composta por 100 imagens com 1 único objeto disponibilizado pela Weizmann Institute of Science (WIS). A comparação foi feita utilizando métricas consolidadas como Dice/Jaccard e PSNR, bem como o recente Hxyz. No experimento foi utilizado o Sistema extensivo como função objetivo (Método de Kapur). Ainda na proposta deste experimento, o Sistema extensivo foi comparado com a entropia não-extensiva de Tsallis, sendo que o Sistema Super-extensivo foi configurado com q ? [0.1, 0.2, . . . 0.9] e o Sistema Sub-extensivo com q ? [1.1, 1.2, . . . 1.9]. A base de imagens utilizada contém 100 imagens com 1 único objeto em cena. Os resultados mostram que o algoritmo Krill Herd (KH) foi o algoritmo vencedor em 35% das execuções segundo a métrica PSNR, 28% na métrica Dice/Jaccard e 35% na métrica Hxyz. O Sistema extensivo teve o melhor desempenho global e foi responsável pela melhor limiarização de 54 imagens segundo a métrica PSNR, 30 segundo a métrica Dice/Jaccard e 39 segundo a métrica HxyzDissertação Estudo de algoritmos de otimização inspirados na natureza aplicados ao treinamento de redes neurais artificiais(2021) Bouzon, M. F.Redes Neurais Artificiais (RNAs) são técnicas de aprendizado de máquina e inteligência artificial muito populares, propostas desde os anos 50. Entre seus maiores desafios estão o treinamento de parâmetros tais como pesos, parâmetros das funções de ativação e constantes, assim como dos seus hiper-parâmetros, como a arquitetura das redes e densidade de neurônios por camada. Entre os algoritmos mais conhecidos para a otimização paramétrica das redes estão o Adam e o Retropropagação ou Backpropagation (BP), aplicados sobretudo em arquiteturas populares como o Perceptron multicamadas ou Multilayer Perceptron (MLP), Rede Neural Recorrente ou Recurrent Neural Network (RNN), Long-Short Term Memory (LSTM), Rede neural de Base Radial ou Radial Basis Function Neural Network (RBFNN), entre muitas outras. Recentemente, o grande sucesso das redes neurais profundas, as chamadas Deep Learnings, bem como das redes totalmente conectadas, tem enfrentado problemas de tempo de treinamento e utilização de hardware especializado. Esses desafios deram novo fôlego à utilização de algoritmos de otimização para o treinamento dessas redes, e mais recentemente aos algoritmos inspirados na natureza, os chamados Inspirados na natureza ou Nature-Inspired (NI). Essa estratégia, embora não seja uma técnica tão recente, ainda não obteve grande atenção de pesquisadores, necessitando hoje de maior número de testes experimentais e avaliação, sobretudo devido ao recente aparecimento de uma gama muito maior de algoritmos NI. Alguns dos elementos que carecem de atenção, sobretudo para os NI mais recentes, estão relacionados principalmente ao tempo de convergência e estudos sobre o uso de diferentes funções custo. Assim, a presente dissertação de mestrado tem por objetivo realizar testes, comparação e estudos sobre algoritmos NI aplicados ao treinamento de redes neurais. Foram testados algoritmos NI tanto tradicionais quanto recentes, sob vários pontos de vista, incluindo o tempo de convergência e funções objetivos, elementos que receberam até o momento pouca atenção dos pesquisadores em testes prévios. Os resultados mostraram que a utilização de algoritmos NI para treinamento de RNAs tradicionais obtiveram resultados com boa classificação, similares a algoritmos populares como o Adam e o Algoritmo Backpropagation com Momento (BPMA), mas superando esses algoritmos em termos de tempo de convergência na ordem de 20 a mais de 70%, dependendo da rede e dos parâmetros envolvidos. Isso indica que a estratégia de usar algoritmos NI, sobretudo os mais recentes, para treinamento de redes neurais é um método promissor que pode impactar cada vez mais no tempo e qualidade dos resultados das aplicações recentes e futuras de aprendizado de máquina e inteligência artificial.Dissertação Uma metodologia baseada em aprendizado de máquina para predição de fases de cirurgias laparoscópicas a partir de vídeos(2023) Henrique, Matheus SilvaAs cirurgias minimamente invasivas evoluíram consideravelmente em décadas recentes e ainda podem resultar em complicações graves ao paciente relacionadas à técnica cirúrgica. A laparoscopia é um tipo de procedimento minimamente invasivo, no qual um cirurgião, por meio de imagens geradas em tempo real, movimenta instrumentos cirúrgicos através de pequenas incisões feitas no paciente. Trata-se de um procedimento com diversas fases protocolares, mas também dependente de habilidades de cada cirurgião. O rastreamento, acompanhamento e validação dessas fases é uma estratégia importante para o processo como um todo. Técnicas de Visão Computacional baseadas em aprendizado de máquina ganharam destaque recentemente, particularmente na área médica. O projeto aqui proposto apresenta uma arquitetura baseada em Mask R-CNN, Segment Anything e Long Short-Therm Memory (LSTM), que utiliza imagens capturadas de cirurgia de colecistectomia, um tipo de cirugia laparascópica, para identificar os instrumentos durante o ato, extrair informações destes instrumentos e realizar a predição de qual fase de uma cirurgia está sendo realizada. O projeto visa trazer benefícios, como: o indexamento automático de fases em um banco de dados de cirurgia, o auxílio no estudo do tempo de fases para otimizar agendamentos, e a identificação de problemas na execução de determinadas fases. O trabalho inovador alcançou a acurácia de 81,73% na previsão de fases na base de dados M2CAI, e abre espaço para novas investigações relacionadas ao modo de execução da cirurgia por meio da segmentação e monitoramento dos instrumentos cirúrgicos. Além disso, a identificação de problemas na execução de determinadas fases poderá ser realizada, contribuindo para a melhoria dos procedimentos e, consequentemente, para melhores resultados para os pacientesDissertação Metodologia para reconhecimento de objetos utilizando padrões binários locais com sensores baseados em eventos(2021) Fardo, Fernando AzevedoRecentemente, novos sensores com pixels ativos foram colocados no mercado. Estes sensores exportam variações locais de intensidade luminosa na forma de eventos assíncronos com baixa latência. Uma vez que o formato de saída dos dados é um fluxo de eventos endereçáveis e não uma imagem de intensidades completa, novos algoritmos são necessários para problemas conhecidos na área de Visão Computacional, como segmentação, VO, SLAM, reconhecimento de objetos e cenas. Algumas propostas para estes novos algoritmos foram aplicadas à navegação de veículos autônomos e mostraram bom desempenho para manobras em alta velocidade. Foram propostas também algumas metodologias para classificação de objetos utilizando métodos convencionais, adaptações para uso de redes profundas e redes neurais de terceira geração baseadas em spikes. No entanto, métodos utilizando redes profundas ou redes spike, frequentemente requerem recursos de hardware específicos e de difícil miniaturização. Além disso, diversos operadores e descritores tradicionais utilizados na área de Visão Computacional tem sido negligenciados no contexto de eventos e poderiam contribuir para metodologias mais leves para reconhecimento de objetos e símbolos. Esta tese propõe um algoritmo para extração de padrões binários locais em estruturas esparsas tipicamente encontrados em capturas por eventos com complexidade linear demonstrada experimentalmente. Para sustentar a plausibilidade da adoção deste operador, esta tese propõe a duas metodologias utilizando padrões binários locais aplicados a capturas com sensores basados em eventos para o problema de reconhecimento de objetos. A primeira metodologia, tira proveito do conhecimentos sobre os movimentos realizados pelo sensor, enquanto a segunda é agnóstica a movimentos. É demonstrado experimentalmente que o LBP é uma alternativa viável, rápida e leve e que possibilita a redução de variáveis usando algoritmo PCA em alguns casos. Demonstramos que é possível reduzir o tamanho do vetor final utilizado para classificação em até 99,73% em relação a métodos convencionais considerados estado da arte e ainda manter acurácia comparável aos mesmos.Dissertação Um modelo bayesiano com divergência de Kullback-Leibler estendida para reconhecimento de objetos 3D baseados em múltiplas visões(2009) Olívio, F.C.Este trabalho apresenta um modelo Bayesiano que combina as características de cor, forma e textura para o reconhecimento de objetos em três dimensões. As interações espaciais ou temporais de longo alcance dessas características permitem modelar a probabilidade de se observar em cada dessas evidências nos objetos com a distância de Kullback-Liebler estendida, que é um conceito recentemente proposto na mecânica estatística. O modelo Bayesiano proposto pode ser usado em diversas aplicações, mas enfatizamos o trabalho cooperativo de diversos observadores para executar a tarefa de reconhecimento tridimensional. Os experimentos com uma base de dado de informações a priori sugerem que o modelo atinge o seu melhor desempenho a partir da inclusão do terceiro observador, indicando resultados promissoresDissertação Um modelo de redes complexas para análise de informações textuais(2011) Lopes, G. A. W.Analise de textos é uma tarefa inerentemente humana, que envolve processos cognitivos complexos e difíceis de modelar em sistemas computacionais atuais. Esses processos levam em conta usualmente tanto informações léxicas quanto sintáticas, com o objetivo de situar o texto em um nível hierárquico e semântico adequado. Informações no nível léxico estão mais relacionadas com as regras de uma linguagem para geração de palavras, enquanto o nível sintático está geralmente relacionado ao posicionamento das palavras no texto. O conjunto dessas informações (léxica e sintática) leva a geração das informações semânticas. Diversas áreas de aplicações que envolvem vem analise automática de textos devem considerar essas informações a fim de atingir uma gama crescente de objetivos, tais como: recuperação de documentos, comparação de textos, geração automática de diálogos, geração de rótulos, indexação de textos, entre outras. Embora as regras de interpretação de textos sejam conhecidas há bastante tempo, devido a fatores que envolvem principalmente tempo computacional e alta dimensionalidade dos modelos, muitas dessas regras não são levadas em conta em sistemas práticos atuais. Por exemplo, a maioria dos sistemas de ´ recuperação de informações textuais geralmente considera somente a frequência com que as palavras aparecem em um texto, ou o numero de links que apontam para uma mesma página de internet, com o objetivo de ordenar documentos por relevância, quando de uma requisição do usuário. Sabe-se, no entanto, que informações léxicas contidas nas stop-words, palavras com erros e pontuação, bem como informações sintáticas, como a ordem que as palavras aparecem em um texto, não são geralmente consideradas nesses modelos, motivo que pode levar ao chamado gap-semântico entre a requisição do usuário e as informações realmente fornecidas pelo modelo de recuperação. Por outro lado, desde o início da década de 90, estudos em redes complexas vêm ganhando mais e mais atenção dos pesquisadores, sobretudo para a modelagem de informações não somente de textos, mas de dados multimídia. Assim, o presente trabalho apresenta um modelo de Redes Complexas que leva em conta não somente as informações de frequência, mas também a ordem das palavras, co-ocorrência das mesmas, stop-words e palavras erradas. O preço a pagar para este modelo e a utilização do espaço de armazenamento da ordem de Giga-Bytes, o que o torna inviável para ser tratado em computadores comuns. Modelos dessa grandeza ainda não foram completamente estudados e apresentam comportamentos ainda difíceis de se prever e discutir. As características das redes complexas estudadas ha mais de uma década na literatura (por exemplo: tipo de rede, coeficiente de clusterização, distribuição ao de graus, distribuição de pesos, matriz de distâncias, raio, diâmetro, coeficiente espectral, entre outros) permitem o estudo desses modelos para grandes bases de dados. Assim, neste trabalho, propomos o estudo de informações textuais modeladas como uma rede complexa de palavras, tanto para bases específicas quanto genéricas. Estudos preliminares mostram que palavras retiradas de um contexto específico, considerando as características léxicas e sintáticas citadas acima, apresentam um comportamento de rede livre de escala. Também apresentamos heurísticas para o calculo de grandezas físicas computacionalmente intratáveis, como o coeficiente de clusterização ao (CC) da rede. Resultados sugerem que é possível o calculo do CC com erro em torno de 5% para redes densas ou esparsas de até 10.000 palavras.Dissertação O potencial de redes complexas para análise do mercado de ações(2013) Fukuma, W.Nos últimos anos as Redes Complexas têm se mostrado bastante eficiente modelando diversos problemas de entidades e suas relações de diversas áreas do mundo real: pessoas e seus relacionamentos de amizade, aviões e seus voos entre aeroportos, doença e sua propagação de contágio,entre outras. Por outro lado, uma área que é sempre muito discutida, é a área de economia, mais precisamente a Bolsa de Valores, e com a teoria clássica de Markovitz da gestão de risco de carteirasde investimento possibilitou a modelagem relacionando as ações e suas correlações. Com isso em mente, este trabalho propõem modelar, utilizando Redes Complexas, o mercado de ações do ponto de vista de otimização de carteiras sob a teoria clássica de Markovitz. Para tanto, uma matriz de correlações das variações dos preços de fechamento é computado através de pares de ações da Bovespa (Bolsa de Valores de São Paulo) formando uma rede mercadológica. Além disso, juntamente, será construído uma árvore de espalhamento mínimo com base na distância da matriz de correlações, esta árvore é um subdomínio da rede mercadológica com as correlações mais fortes entre as açõess. A partir daí, serão investigados propriedades físicas utilizando algumas medidas como: Densidade, Distribuição de Graus, Matriz de Distâncias de Caminhos, Coeficiente de Clusterização e Modularidade. Com essas medidas, é possível verificar o modelo da rede estudada, analisar os agrupamentos da rede, retirar informações topológicas e semânticas da Bolsa de Ações. Além disso, é utilizado um método para estudar o comportamento das redes com o passar do tempo, e analisar suas mudanças. Os resultados sugerem que a árvore de espalhamento mínimo possui comportamento de rede livre de escalas.Dissertação Predição do mercado financeiro com uma arquitetura de extração de contexto baseada em decomposição de series temporais(2022) Oliveira, Guilherme Albertini deO mercadodeaçõesdoBrasilseencontraemumagrandealta.Duranteapandemiada COVID-19,abolsabrasileirateveumcrescimentonaquantidadedepessoasfísicasde92,1% entreosanos2019e2020.Estefatosedeveadiversosfatores,dosquaisosprincipaisestão:a disseminação domercadodeaçõesviaredessociais,propagandasemcomunidadesdevídeose a baixadataxadejurosdopaísnesteperíodo.Destemodo,comaaltadenegociadoresnabolsa, a buscaporalgoritmosquereduzemorisconasoperaçõesdeativos,visandomaximizarolucro obtido nacompraevendadepapeis,tambémcresce.Muitostrabalhossugeremautilizaçãode métodosde machinelearning paraaprediçãodevaloresnabolsa.Contudo,obterresultados assertivoscomaaltavolatilidade,enão-linearidadedassériestemporaisdabolsa,aindaéum desafio. Sendoassim,estetrabalhopropõeumanovametodologiaparamodelarmatematica- mente osdadosfinanceirosdabolsadevalores,utilizandoredesneuraisrecorrentes,técnicas de decomposiçãodesériestemporais,correlaçãoentrebolsaseativosearquiteturasdeextração de contextos.Comaarquiteturapropostatambémfoipossívelfazeraprediçãodepontosde reversãodequedaparaaltaoudealtaparabaixa,dosvaloresdeumadeterminadaação.Como resultado,osmelhoresalgoritmosparaaregressãoforamosquefizeramautilizaçãoderedes Long Short-TermMemory (LSTM)e DiscreteWaveletTransform (DWT),comesemutilização de extraçãodecontextos,amboscom0.9de RootMeanSquaredError (RMSE). Porém,estes algoritmossão,emmédia,38%melhorquandotreinadosomentenabolsabrasileira.Paraaclas- sificação osmelhoresalgoritmosforamosquefizeramautilizaçãodeLSTMjuntamentecom DWT,e EchoStateNetwork (ESN) comDWT,com35%e34.6%de f1-score, respectivamente. Porfim,foipossívelobservarque,emgeral,ametodologiapropostatemmelhoresresultadosem relaçãoàsmétricasestatísticas,quandocomparadocomalgoritmostradicionaisquenãofazem o usodatécnicadeextraçãodecontextoparasériestemporais