Teses e Dissertações
URI permanente para esta coleçãohttps://repositorio.fei.edu.br/handle/FEI/717
Navegar
Dissertação Algoritmos de segmentação de imagens de tomografia computadorizada da artéria carótida(2012) Gallão, Celso DenisEste trabalho apresenta estudos de algoritmos de segmentação de imagens baseados na entropia extensiva de Shannon, na entropia não extensiva de Tsallis, e em uma variação da entropia de Shannon com ponderações distintas entre background e foreground, aqui apresentada pela primeira vez como entropia de Shannon Ponderada. Outras metodologias de segmentação de imagens são aqui revistas apenas por conhecimento histórico, como a entropia relativa de Kullback-Leibler, limiarização tradicional e limiarização iterativa. Para a realização de testes comparativos entre os três modelos entrópicos estudados, são aplicados dados sintéticos gerados por funções Gaussianas, representando o background e o foreground de imagens. Esses dados são utilizados para o cálculo do limiar ótimo analítico segundo variações controladas da média, do desvio-padrão e da amplitude das funções Gaussianas. Esses limiares ótimos analíticos foram comparados com os limiares calculados por meio das entropias de Shannon, de Tsallis e de Shannon Ponderada. Os resultados mostram que as entropias de Tsallis e de Shannon Ponderada foram capazes de produzir limiares iguais aos limiares ótimos analíticos encontrados pelos dados sintéticos, em todos os casos analisados. Também são aplicadas as mesmas três técnicas entrópicas em imagens medicas reais das artérias carótidas, capturadas por tomografia computadorizada. As segmentações resultantes da aplicação dos três m´métodos entrópicos são, então, comparados com as segmentações manuais feitas por especialistas, para análise e discussão da precisão na medição da espessura das paredes (IMT) e da vazão do fluxo sanguíneo (lúmen) das artérias carótidas, e os resultados são apresentados.Dissertação Análise da segmentação da carótida com modelo de snake em imagens de tomografia computadorizada(2012) Silva, Rudson de LimaDissertação Classificação de imagens de ultrassom de câncer de mama baseada em informações híbridas utilizando teoria da informação(2010) Lessa, V. S.Esta proposta de dissertação de mestrado apresenta uma metodologia para a classificação de câncer de mama em imagem de ultrassom do ponto de vista da teoria da informação, incluindo informação mútua, entropia e entropia relativa, estendendo os estudos para a entropia Tsalliana. Os dados gerados a partir de uma base de dados normalizada compõem um espaço vetorial de informações híbridas, envolvendo textura e geometria espacial das lesões. Um dos objetivos principais é avaliar os resultados de Rodrigues et al. (2006), bem como Thomaz et al. (2008) e Giraldi et al. (2008) com relação às características discriminantes mínimasDissertação Detecção e classificação de imagens sintéticas utilizando entropia não-extensiva(2009) Erdmann, H.As interfaces gráficas ou Graphic User Interface (GUI) dos sistemas operacionais (SOs) modernos oferecem maneiras simplificadas para a operação das funções de um computador, ao contrário da digitação de comandos complexos em terminais de texto. Com a popularização de SOs gráficos, como por exemplo o Windows da Microsoft, a maioria dos programas atuais pode ser operada somente através de sua interface gráfica, gerando assim, a dificuldade de automação de tarefas por meio da interação com os componentes do programa como botões, ícones, caixas de texto, etc. Este trabalho propõe um estudo de métodos para classificação e reconhecimento de objetos sintéticos utilizando o conceito de entropia não-extensiva proposta por Constantino Tsallis de forma a possibilitar a criação de um software de automação de tarefas baseando nestas técnicas de visão computacional- Estudo de algoritmos de otimização bio-inspirados aplica à segmentação de imagens(2020) Saito, N. T.A segmentação de imagens é uma das primeiras etapas dentro do arcabouço para processamento de cenas. Entre as principais técnicas existentes destacamos a binarização baseada em histograma, que devido a simplicidade de compreensão e baixa complexidade computacional é um dos métodos mais utilizados. No entanto, para um processo de multi-limiarização, este método torna-se computacionalmente custoso. Para minimizar este problema, são utilizados algoritmos de otimização na busca dos melhores limiares. Recentemente, vários algoritmos inspirados na natureza têm sido propostos de maneira genérica na área de otimização combinatória e obtido ótimos resultados, entre eles destacamos os mais tradicionais como o Genetic Algorithm (GA), Particle Swarm Optimization (PSO), Differential Evolution Algorithm (DE), Artificial Bee Colony (ABC), Firefly Algorithm (FA) e Krill Herd (KH). Este trabalho mostra uma comparação entre alguns destes algoritmos e algoritmos mais recentes, a partir de 2014, como Grey Wolf Optimizer (GWO), Elephant Herding Optimization (EHO), Whale Optimization Algorithm (WOA), Grasshopper Optimization Algorithm (GOA) e o Harris Hawks Optmization (HHO). Este trabalho comparou os limiares obtidos por 7 algoritmos bio-inspirados em uma base composta por 100 imagens com 1 único objeto disponibilizado pela Weizmann Institute of Science (WIS). A comparação foi feita utilizando métricas consolidadas como Dice/Jaccard e PSNR, bem como o recente Hxyz. No experimento foi utilizado o Sistema extensivo como função objetivo (Método de Kapur). Ainda na proposta deste experimento, o Sistema extensivo foi comparado com a entropia não-extensiva de Tsallis, sendo que o Sistema Super-extensivo foi configurado com q ? [0.1, 0.2, . . . 0.9] e o Sistema Sub-extensivo com q ? [1.1, 1.2, . . . 1.9]. A base de imagens utilizada contém 100 imagens com 1 único objeto em cena. Os resultados mostram que o algoritmo Krill Herd (KH) foi o algoritmo vencedor em 35% das execuções segundo a métrica PSNR, 28% na métrica Dice/Jaccard e 35% na métrica Hxyz. O Sistema extensivo teve o melhor desempenho global e foi responsável pela melhor limiarização de 54 imagens segundo a métrica PSNR, 30 segundo a métrica Dice/Jaccard e 39 segundo a métrica Hxyz
Dissertação Um modelo bayesiano com divergência de Kullback-Leibler estendida para reconhecimento de objetos 3D baseados em múltiplas visões(2009) Olívio, F.C.Este trabalho apresenta um modelo Bayesiano que combina as características de cor, forma e textura para o reconhecimento de objetos em três dimensões. As interações espaciais ou temporais de longo alcance dessas características permitem modelar a probabilidade de se observar em cada dessas evidências nos objetos com a distância de Kullback-Liebler estendida, que é um conceito recentemente proposto na mecânica estatística. O modelo Bayesiano proposto pode ser usado em diversas aplicações, mas enfatizamos o trabalho cooperativo de diversos observadores para executar a tarefa de reconhecimento tridimensional. Os experimentos com uma base de dado de informações a priori sugerem que o modelo atinge o seu melhor desempenho a partir da inclusão do terceiro observador, indicando resultados promissoresDissertação Um modelo de redes complexas para análise de informações textuais(2011) Lopes, G. A. W.Analise de textos é uma tarefa inerentemente humana, que envolve processos cognitivos complexos e difíceis de modelar em sistemas computacionais atuais. Esses processos levam em conta usualmente tanto informações léxicas quanto sintáticas, com o objetivo de situar o texto em um nível hierárquico e semântico adequado. Informações no nível léxico estão mais relacionadas com as regras de uma linguagem para geração de palavras, enquanto o nível sintático está geralmente relacionado ao posicionamento das palavras no texto. O conjunto dessas informações (léxica e sintática) leva a geração das informações semânticas. Diversas áreas de aplicações que envolvem vem analise automática de textos devem considerar essas informações a fim de atingir uma gama crescente de objetivos, tais como: recuperação de documentos, comparação de textos, geração automática de diálogos, geração de rótulos, indexação de textos, entre outras. Embora as regras de interpretação de textos sejam conhecidas há bastante tempo, devido a fatores que envolvem principalmente tempo computacional e alta dimensionalidade dos modelos, muitas dessas regras não são levadas em conta em sistemas práticos atuais. Por exemplo, a maioria dos sistemas de ´ recuperação de informações textuais geralmente considera somente a frequência com que as palavras aparecem em um texto, ou o numero de links que apontam para uma mesma página de internet, com o objetivo de ordenar documentos por relevância, quando de uma requisição do usuário. Sabe-se, no entanto, que informações léxicas contidas nas stop-words, palavras com erros e pontuação, bem como informações sintáticas, como a ordem que as palavras aparecem em um texto, não são geralmente consideradas nesses modelos, motivo que pode levar ao chamado gap-semântico entre a requisição do usuário e as informações realmente fornecidas pelo modelo de recuperação. Por outro lado, desde o início da década de 90, estudos em redes complexas vêm ganhando mais e mais atenção dos pesquisadores, sobretudo para a modelagem de informações não somente de textos, mas de dados multimídia. Assim, o presente trabalho apresenta um modelo de Redes Complexas que leva em conta não somente as informações de frequência, mas também a ordem das palavras, co-ocorrência das mesmas, stop-words e palavras erradas. O preço a pagar para este modelo e a utilização do espaço de armazenamento da ordem de Giga-Bytes, o que o torna inviável para ser tratado em computadores comuns. Modelos dessa grandeza ainda não foram completamente estudados e apresentam comportamentos ainda difíceis de se prever e discutir. As características das redes complexas estudadas ha mais de uma década na literatura (por exemplo: tipo de rede, coeficiente de clusterização, distribuição ao de graus, distribuição de pesos, matriz de distâncias, raio, diâmetro, coeficiente espectral, entre outros) permitem o estudo desses modelos para grandes bases de dados. Assim, neste trabalho, propomos o estudo de informações textuais modeladas como uma rede complexa de palavras, tanto para bases específicas quanto genéricas. Estudos preliminares mostram que palavras retiradas de um contexto específico, considerando as características léxicas e sintáticas citadas acima, apresentam um comportamento de rede livre de escala. Também apresentamos heurísticas para o calculo de grandezas físicas computacionalmente intratáveis, como o coeficiente de clusterização ao (CC) da rede. Resultados sugerem que é possível o calculo do CC com erro em torno de 5% para redes densas ou esparsas de até 10.000 palavras.Dissertação O potencial de redes complexas para análise do mercado de ações(2013) Fukuma, W.Nos últimos anos as Redes Complexas têm se mostrado bastante eficiente modelando diversos problemas de entidades e suas relações de diversas áreas do mundo real: pessoas e seus relacionamentos de amizade, aviões e seus voos entre aeroportos, doença e sua propagação de contágio,entre outras. Por outro lado, uma área que é sempre muito discutida, é a área de economia, mais precisamente a Bolsa de Valores, e com a teoria clássica de Markovitz da gestão de risco de carteirasde investimento possibilitou a modelagem relacionando as ações e suas correlações. Com isso em mente, este trabalho propõem modelar, utilizando Redes Complexas, o mercado de ações do ponto de vista de otimização de carteiras sob a teoria clássica de Markovitz. Para tanto, uma matriz de correlações das variações dos preços de fechamento é computado através de pares de ações da Bovespa (Bolsa de Valores de São Paulo) formando uma rede mercadológica. Além disso, juntamente, será construído uma árvore de espalhamento mínimo com base na distância da matriz de correlações, esta árvore é um subdomínio da rede mercadológica com as correlações mais fortes entre as açõess. A partir daí, serão investigados propriedades físicas utilizando algumas medidas como: Densidade, Distribuição de Graus, Matriz de Distâncias de Caminhos, Coeficiente de Clusterização e Modularidade. Com essas medidas, é possível verificar o modelo da rede estudada, analisar os agrupamentos da rede, retirar informações topológicas e semânticas da Bolsa de Ações. Além disso, é utilizado um método para estudar o comportamento das redes com o passar do tempo, e analisar suas mudanças. Os resultados sugerem que a árvore de espalhamento mínimo possui comportamento de rede livre de escalas.