Navegando por Orientador "Rodrigues, Paulo Sérgio Silva"
Agora exibindo 1 - 20 de 32
- Resultados por Página
- Opções de Ordenação
Trabalho de Conclusão de Curso 3DOOR:(2022-12-09) Sousa, Caio Rios ; Ferreira, Guilherme Nunes Melo ; Lima, Lucas Alves de ; Pereira, Victor Manoel de LimaA reconstrução 3D de ambientes, sejam eles internos ou externos, é uma realidade e tem se tornado cada vez mais utilizada. Porém, atualmente, é difícil encontrar técnicas que tenham a capacidade de fazer uma reconstrução 3D de fachadas utilizando imagens antigas, seja por falta de conteúdo disponível, como base de dados, ou por pouca eficácia de algoritmos na reconstrução de cenas com arquiteturas antigas. Sendo assim, o principal objetivo deste trabalho é fazer a reconstrução 3D de fachadas antigas baseando-se em poucas ou até mesmo uma única imagem, passando por técnicas para processamento da imagem que possibilitam, assim, a execução do processo de reconstrução 3D da fachada. Para alcançar esse objetivo foram utilizados alguns métodos, partindo desde o tratamento de imagens de entrada com a aplicação da equalização de histograma em conjunto com a remoção de elementos que possam obstruir a fachada, para que ela se adéque às condições ideais e assim possibilite que o resultado esperado seja alcançado, até a aplicação de métodos para geração das malhas 3D da fachada desejada e para a aplicação da imagem como textura no modelo criado. O pipeline proposto apresentou resultados consistentes considerando os desafios impostos na reconstrução 3D de fachadas antigas partindo de uma única perspectiva.Dissertação Algoritmos de segmentação de imagens de tomografia computadorizada da artéria carótida(2012) Gallão, Celso DenisEste trabalho apresenta estudos de algoritmos de segmentação de imagens baseados na entropia extensiva de Shannon, na entropia não extensiva de Tsallis, e em uma variação da entropia de Shannon com ponderações distintas entre background e foreground, aqui apresentada pela primeira vez como entropia de Shannon Ponderada. Outras metodologias de segmentação de imagens são aqui revistas apenas por conhecimento histórico, como a entropia relativa de Kullback-Leibler, limiarização tradicional e limiarização iterativa. Para a realização de testes comparativos entre os três modelos entrópicos estudados, são aplicados dados sintéticos gerados por funções Gaussianas, representando o background e o foreground de imagens. Esses dados são utilizados para o cálculo do limiar ótimo analítico segundo variações controladas da média, do desvio-padrão e da amplitude das funções Gaussianas. Esses limiares ótimos analíticos foram comparados com os limiares calculados por meio das entropias de Shannon, de Tsallis e de Shannon Ponderada. Os resultados mostram que as entropias de Tsallis e de Shannon Ponderada foram capazes de produzir limiares iguais aos limiares ótimos analíticos encontrados pelos dados sintéticos, em todos os casos analisados. Também são aplicadas as mesmas três técnicas entrópicas em imagens medicas reais das artérias carótidas, capturadas por tomografia computadorizada. As segmentações resultantes da aplicação dos três m´métodos entrópicos são, então, comparados com as segmentações manuais feitas por especialistas, para análise e discussão da precisão na medição da espessura das paredes (IMT) e da vazão do fluxo sanguíneo (lúmen) das artérias carótidas, e os resultados são apresentados.Dissertação Análise da influência de características visuais na detecção automática de foco ocular humano(2015) Nascimento, Danilo OliveiraO foco ocular humano é uma das tarefas mais importantes nos processos cognitivos de interpretação de cenas. Na última década, surgiram vários métodos que objetivam predizer automaticamente os pontos de fixação do olhar humano. entretanto, a capacidade de estimar as regiões focais varia conforme o algoritmo utilizado e a imagem analisada, o que faz a eficiência ser satisfatória em apenas um conjunto de imagens. Este trabalho estudou 9 métodos surgidos na última década e 21 características diferentes para encontrar as relações entre as informações contidas nas imagens e a eficiência de predição. Utilizando uma base de dados supervisionada, este trabalho mostra que as características de dispersão para informações de intensidade e cor são as mais influentes para a eficiência dos métodos do que aquelas baseadas somente na média dessas informações. Além disso, características como a entropia da intensidade de tons de cinza ou área focal possuem uma correlação direta com a complexidade da cena e, quando o ruído visual aumenta (através do aumento do número de regiões de interesse ou cores) a centralidade foi a estratégia mais utilizada pelos seres humanos que testaram essa base, repercutindo nos métodos automáticos. Além do mais, este trabalho testa a capacidade de uma Rede Neural de identificar padrões contidos nas imagens originais e selecionar o método mais apropriado para estimar os pontos focais.Dissertação Análise da segmentação da carótida com modelo de snake em imagens de tomografia computadorizada(2012) Silva, Rudson de Lima- Análise de características de navegação em redes para a detecção de intrusão com base em algoritmos bio-inspirados(2023) Frezzato, MiguelCom o constante aumento de usuários conectados à Internet, um grande volume de dados tem sido gerado a partir de várias redes. Em vista disso, a segurança cibernética está sendo cada vez mais afetada, havendo grande necessidade de estudos científicos na área. Sistemas de detecção de intrusão (IDS) cada vez mais robustos são constantemente desenvolvidos, visando proteger os dados que são trafegados nas redes. Estes sistemas analisam as características de fluxo de cada dispositivo na rede para identificar uma possível instrusão. Selecionar apenas as características que mais se relacionam com as intrusões influencia diretamente na velocidade da análise, além de auxiliar os classificadores a tomar decisões precisas ao identificar uma intrusão. Por outro lado, o desenvolvimento do aprendizado de máquina e de algoritmos de otimização inspirados na natureza têm impulsionado o avanço de diversas áreas tecnológicas. Assim, o presente trabalho apresenta uma metodologia de análise dessas características utilizando uma combinação de aprendizado de máquina e algoritmos bio-inspirados para detecção eficiente de intrusões na rede. Os resultados experimentais mostram que o método proposto aumenta a acurácia e a taxa de detecção do IDS, além de diminuir a taxa de falsos alarmes. Além disso, o método se mostrou competitivo com os principais trabalhos relacionados do estado da arte com desempenho semelhante ou superiror nas bases de dados NSL-KDD e UNSW-NB15
Dissertação Análise de textura para detecção de trincas em corpos de prova da mecânica da fratura(2015) Fardo, F. A.No contexto da indústria metal-mecânica, há uma grande demanda por métodos para medidas de comportamento de materiais contendo trincas sob condições de operação. Este comportamento é usualmente quantificado por meio de ensaios de tenacidade à fratura utilizando parâmetros como o fator de intensidade de tensões K, o CTOD ou a Integral J. Independente do parâmetro empregado para quantificar a tenacidade à fratura, todos os ensaios exigem o conhecimento do comprimento correto da pré-trinca de fadiga existente na amostra que deu origem à falha. A maioria dos laboratórios emprega métodos de medição visuais por meio de lupa estereoscópica ou projetor de perfil. Técnicas adicionais como aplicação de heat tinting auxiliam o usuário na visualização da frente de crescimento estável de trinca. Com o avanço de técnicas de Processamento de Imagem e Visão Computacional, este trabalho propõe a aplicação de técnicas de detecção de bordas por análise de textura para obtenção do contorno correspondente ao perfil da frente de trinca em corpos de prova SE(B) post-mortem. Resultados sugerem que o método proposto poderia ser aplicado para análise de imagens de ensaios da tenacidade à fratura para medição de comprimentos de trinca com alta precisão, tendo obtido uma taxa de discriminação de superfícies de 98%. Os resultados também sugerem que o método possa ser aplicado em amostras sem a marcação por heat-tinting com o mesmo nível de precisão.- Aplicação da arquitetura transformer para sumarização de artigoscientíficos(2023) Lima, Amanda Maciel deO processo de pesquisa científica tem como sua fase inicial a exploração de artigos para o conhecimento do estado da arte do tema a ser investigado. Em virtude do crescimento de dados em artigos científicos e do curso constante da informatização, tornam-se necessários mecanismos que sejam capazes de resumir artigos científicos com a finalidade de melhorar o processo de aquisição de pesquisas e direcionar a pessoa pesquisadora a acessar conteúdos relevantes. Os trabalhos de sumarização de artigos científicos, de modo geral, apresentam métodos de relevância de sentenças e aprendizado de máquina. Nos últimos anos, mecanismos de atenção associados a redes neurais e processamento de linguagem natural vêm sendo propostos para interpretare contextualizar atividades de processamento de linguagens, sendo uma delas a textual. Paralelamente, a arquitetura Transformer sugere uma modelagem de transdução com mecanismos de autoatenção - prescindindo de convoluções e recorrências - é aplicada a diversos campos da Inteligência Articial com resultados considerados promissores. Este trabalho propôs empregar o modelo pré-treinado Longformer para a atividade de sumarização de artigos científicos da base de dados SciSummNet através de etapas de pré-processamento, fine-tuning e geração dos resumos. Os resultados obtidos indicaram melhoria de 20,8% para ROUGE-2 recall e 22,69% para ROUGE-2 F-Measure em relação ao trabalho original da base SciSummNet através do modelo ComAbstract
- Classificação de cenas em imagens através da arquitetura cognitiva lida(2020) Goulart, H. X.Na área de visão computacional, dentre as diversas linhas existentes, há aquela denominada de generalista. Esta vertente consiste em estudos amplos, incluindo muitos elementos e variáveis; nesse caso, inúmeras aplicações podem ser desenvolvidas dentro de um mesmo estudo. Um dos principais problemas estudados na área de visão computacional, seguindo a linha generalista, é conhecido como classificação de cenas. Na literatura, esse problema é geralmente enfrentado com o uso de técnicas de Deep Learning em combinação com outras técnicas de classificação. Em contrapartida, uma linha de pesquisa conhecida como arquiteturas cognitivas, que embora seja pouco explorada em visão computacional, vem sendo estudada nas últimas décadas buscando mesclar conceitos da neurociência e da ciência da computação. Neste trabalho, será apresentado um modelo que agrega a arquitetura cognitiva Learning Intelligent Distribution Agent (LIDA) com métodos já utilizados na área, visando estudar os aspectos poucos explorados até o momento, que são proporcionadas por esta união. Dentre os métodos existentes na área, serão utilizados o Support Vector Machine (SVM), Multilayer Perceptron (MLP) e Redes Neurais Convolucionais (CNN). Este trabalho contribuiu para a união pouco explorada descrita aqui, e também serve como base pra futuros trabalhos que estudem problemas através desta união. Outra contribuição é que o presente trabalho apresentou resultados similares ao estadoda-arte em bases de dados frequentemente utilizadas na área, como é o caso do MIT Indoor 67 (85,9% de acurácia) e SUN 397 (69,4% de acurácia), que são bases de cenas naturais coloridas segregadas entre diversas classes
- Classificação de cenas naturais baseada em cor e relacionamento espacial de regiões em uma Rede Complexa(2011) Silva, S. M.Este trabalho apresenta um modelo de Redes Complexas para representação de informações contextuais de imagens de cenas naturais. A hipótese que será estudada nessa dissertação é de analisar se um grupo de nós gera contexto de características comuns a determinadas classes, significando que a co-ocorrência de cores em locais específicos na cena é um fator discriminante, que pode representar contexto, permitindo assim a navegação e inferência na rede para aplicações como: Recuperação de Informação, Análise de Imagens e Inferência de Objetos em Cena. No modelo proposto, a característica de cor e posicionamento espacial na imagem que co-ocorrem é modelado como um nó da rede. As bases de dados de imagens que foram usadas são: A Corel Image Gallery, que possui cerca de 5.200 imagens divididas em 52 classes e a Coil, que possui cerca de 7200 imagens divididas em 100 classes
- Classificação de imagens de ultrassom de câncer de mama baseada em informações híbridas utilizando teoria da informação(2010) Lessa, V. S.Esta proposta de dissertação de mestrado apresenta uma metodologia para a classificação de câncer de mama em imagem de ultrassom do ponto de vista da teoria da informação, incluindo informação mútua, entropia e entropia relativa, estendendo os estudos para a entropia Tsalliana. Os dados gerados a partir de uma base de dados normalizada compõem um espaço vetorial de informações híbridas, envolvendo textura e geometria espacial das lesões. Um dos objetivos principais é avaliar os resultados de Rodrigues et al. (2006), bem como Thomaz et al. (2008) e Giraldi et al. (2008) com relação às características discriminantes mínimas
- Criminal Processing Investigation Support System (CPISS) Sistema de Suporte a Decisões em Investigações Criminais(2024-12-11) Bonnet, Jean-Luc; Carrasco, Lucas da Silva; Santos, Victor Alexandre dosCom o crescente número de casos criminalísticos e suas complexidades, os agentes investigativos enfrentam muitos desafios que podem diminuir a eficácia nas soluções desses casos, deixando até mesmo muitos casos insolúveis. Atualmente, existem diversas tecnologias para auxiliar esses investigadores, bem como ampliar a base de dados de investigação e até mesmo resolver casos, o processo investigativo depende de diversas fontes de dados, como, por exemplo: testemunhas, vítimas, redes sociais, câmeras de vigilância, entre outros, tornando a análise dessas informações uma tarefa cada vez mais desafiadora. Assim, este projeto indica os suspeitos com a maior probabilidade de ser o culpado e indica uma fila de suspeitos, auxiliando os agentes investigativos a encontrar um caminho mais assertivo em suas investigações. Este modelo utiliza correlações entre os indivíduos envolvidos no caso e um conjunto de fatos que serão quantificados para gerar sua importância, definindo assim um ranqueamento final das pessoas envolvidas. Portanto, o objetivo deste projeto é, a partir de fatos coletados por agentes investigativos de um crime, correlacionar esses fatos, ampliar novos fatos, criar novas correlações e encontrar sugestões de caminhos que levem a investigações mais assertivas, esses caminhos, por sua vez, são as filas de suspeitos entre a pessoa com maior probalidade de ser culpado e a vítima. A metodologia proposta foi testada em diversos casos reais, que foram adaptados com o objetivo de controlar os parâmetros para análise, obtendo resultados promissores em casos complexos e bem conhecidos como o da “Deputada Flordelis”, que obteve uma precisão equivalente a 79,22%; casos com baixa complexidade, como do chamado “Maníaco do Parque”, que obteve 100% de precisão; e de complexidade média, como do chamado “Fera da Penha”, que obteve cerca de 59,21% de precisão, mostrando que o método sugerido é eficiente, e pode auxiliar os investigadores em suas investigações criminais.
- Definição da função Q-Gaussiana bidimensional com aplicações em processamento digital de imagens(2016) Gallão, Celso Denis
- Detecção e classificação de imagens sintéticas utilizando entropia não-extensiva(2009) Erdmann, H.As interfaces gráficas ou Graphic User Interface (GUI) dos sistemas operacionais (SOs) modernos oferecem maneiras simplificadas para a operação das funções de um computador, ao contrário da digitação de comandos complexos em terminais de texto. Com a popularização de SOs gráficos, como por exemplo o Windows da Microsoft, a maioria dos programas atuais pode ser operada somente através de sua interface gráfica, gerando assim, a dificuldade de automação de tarefas por meio da interação com os componentes do programa como botões, ícones, caixas de texto, etc. Este trabalho propõe um estudo de métodos para classificação e reconhecimento de objetos sintéticos utilizando o conceito de entropia não-extensiva proposta por Constantino Tsallis de forma a possibilitar a criação de um software de automação de tarefas baseando nestas técnicas de visão computacional
- Detecção e interpretação de palavras chaves a partir de diálogos médico-pacientes(2025-12-11) Schanz, Gabriel Brito; Barbieri, Joao Pedro Nagib Jorge; Candido, Leonardo Barrionuevo; Fernandes, Lucas PodmanickiO atendimento rápido e preciso em hospitais é um desafio a ser superado no Brasil, onde a superlotação e a urgência são comuns. O princípio é complicado, então é uma comunicação entre médicos e pacientes, em muito pouco tempo para verificar o diagnóstico que depende da comunicação entre o médico e o paciente pode variar e, devido ao cansaço e ao estresse, podem ocorrer erros ou más interpretações. Por outro lado, o avanço das tecnologias de aprendizado de máquina na área médica tem possibilidade de desenvolvimento de sistemas mais Preciso e eficaz para uma análise de dados clínicos. Nesse contexto, o Sistema de Apoio à Decisão Clínica é utilizada em conjunto com aprendizado de máquina para analisar dados do Paciente e fornecer recomendações baseadas em evidências. No entanto, muita informação fundamentos para a detecção de sintomas ainda são frequentemente despercebidos durante as consultas. Assim, este trabalho desenvolveu uma metodologia baseada na interpretação de áudios em consultórios médicos, buscando informações relevantes para o diagnóstico. Os resultados Obtidos demonstraram uma precisão de 73% de detecção de sintomas em relação ao site lá arte.
- Estudo da aplicação de sistemas de recomendação para apoio à decisão clínica no tratamento(2020) Horvath, M.Sistema de Recomendação (SR) são técnicas já consolidadas, desenvolvidas para auxiliar usuários na tarefa de encontrar conteúdo de interesse em meio a um grande conjunto de opções, que pode ser uma tarefa exaustiva quando feita manualmente. Estes sistemas têm sido extensivamente explorados pela comunidade acadêmica, mostrando serem eficazes para lidar com dados esparsos e prover recomendações relevantes, principalmente em cenários de comércio e entretenimento online. Trabalhos de pesquisa recentes passaram a investigar Sistemas de Recomendação em cenários relacionados à saúde, discutindo desafios e oportunidades para apoiar profissionais da saúde na tomada de decisão, ou até mesmo para gerar recomendações diretamente para pacientes. Este trabalho apresenta uma extensa revisão da área denominada Sistema de Recomendação para Saúde (SRS), com o intuito de pontuar as principais contribuições e desafios atuais. Alguns dos principais desafios pontuados no levantamento bibliográfico são: a escassez de trabalhos publicados que avaliam SRSs empiricamente, a adoção dos chamados Históricos Médicos Eletrônicos (HMEs) para a construção de SRSs e a modelagem do perfil dos pacientes em cenários de recomendações na área médica. Portanto, este trabalho apresenta uma avaliação e comparação das principais técnicas de SRs aplicadas em um cenário de recomendação na área médica, com o objetivo de recomendar procedimentos para apoiar profissionais da saúde no processo de definição de tratamento de pacientes que apresentam cardiopatias congênitas. Os experimentos foram realizados utilizando uma base de dados fornecida por um hospital de São Paulo, extraída de um sistema de Históricos Médicos Eletrônicos. Os resultados mostraram que os modelos de Filtragem Colaborativa (FC) superaram os modelos de Filtragem Baseada em Conteúdo (FBC) em todas as comparações realizadas. Além disso, os Sistemas de Recomendação Sensíveis ao Contexto (SRSCs) proporcionaram um aumento do desempenho dos SRSs, uma vez que os melhores resultados, tanto dos modelos de FC como dos modelos de FBC, foram obtidos com a utilização de informações contextuais na definição das recomendações. Por fim, os Sistemas de Recomendação Híbridos superaram todos os modelos individualmente, atingindo desempenho de 0,78 em relação ao nDCG e de 0,87 em relação à Revocação
- Estudo de algoritmos bio-inspirados e aprendizado de máquina aplicados à doenças cardiovasculares(2024-12-11) Rodrigues, Lucas MedeirosA proposta deste trabalho teve como objetivo realizar um estudo comparativo do uso de uma rede do tipo MLP e algoritmos Bioinspirados para predição de doenças cardíacas, um problema grave na saúde de muitas pessoas. Usando a base dados UCI Heart Disease Dataset, foram aplicadas as técnicas análise de componentes principais e a Decomposição em valores singulares para redução de dimensionalidade com a finalidade de melhorar o desempenho dos modelos. A MLP foi implementada com cinco camadas, enquanto o algoritmo biosinpirado escolhido, Optimização por enxame de partículas (PSO) foi configurado com trinta partículas. Métricas como acurácia, precisão, recall e F1 score foram utilizadas a fim de comparar seus desempenhos. Os resultados obtidos ajudam a entender as vantagens e desvantagens de cada abordagem, possibilitando uma análise comparativa do uso dos modelos em diferentes cenários, onde foi possível observar resultados de até 85% de acurácia.
- Estudo de algoritmos de otimização bio-inspirados aplica à segmentação de imagens(2020) Saito, N. T.A segmentação de imagens é uma das primeiras etapas dentro do arcabouço para processamento de cenas. Entre as principais técnicas existentes destacamos a binarização baseada em histograma, que devido a simplicidade de compreensão e baixa complexidade computacional é um dos métodos mais utilizados. No entanto, para um processo de multi-limiarização, este método torna-se computacionalmente custoso. Para minimizar este problema, são utilizados algoritmos de otimização na busca dos melhores limiares. Recentemente, vários algoritmos inspirados na natureza têm sido propostos de maneira genérica na área de otimização combinatória e obtido ótimos resultados, entre eles destacamos os mais tradicionais como o Genetic Algorithm (GA), Particle Swarm Optimization (PSO), Differential Evolution Algorithm (DE), Artificial Bee Colony (ABC), Firefly Algorithm (FA) e Krill Herd (KH). Este trabalho mostra uma comparação entre alguns destes algoritmos e algoritmos mais recentes, a partir de 2014, como Grey Wolf Optimizer (GWO), Elephant Herding Optimization (EHO), Whale Optimization Algorithm (WOA), Grasshopper Optimization Algorithm (GOA) e o Harris Hawks Optmization (HHO). Este trabalho comparou os limiares obtidos por 7 algoritmos bio-inspirados em uma base composta por 100 imagens com 1 único objeto disponibilizado pela Weizmann Institute of Science (WIS). A comparação foi feita utilizando métricas consolidadas como Dice/Jaccard e PSNR, bem como o recente Hxyz. No experimento foi utilizado o Sistema extensivo como função objetivo (Método de Kapur). Ainda na proposta deste experimento, o Sistema extensivo foi comparado com a entropia não-extensiva de Tsallis, sendo que o Sistema Super-extensivo foi configurado com q ? [0.1, 0.2, . . . 0.9] e o Sistema Sub-extensivo com q ? [1.1, 1.2, . . . 1.9]. A base de imagens utilizada contém 100 imagens com 1 único objeto em cena. Os resultados mostram que o algoritmo Krill Herd (KH) foi o algoritmo vencedor em 35% das execuções segundo a métrica PSNR, 28% na métrica Dice/Jaccard e 35% na métrica Hxyz. O Sistema extensivo teve o melhor desempenho global e foi responsável pela melhor limiarização de 54 imagens segundo a métrica PSNR, 30 segundo a métrica Dice/Jaccard e 39 segundo a métrica Hxyz
- Estudo de algoritmos de otimização inspirados na natureza aplicados ao treinamento de redes neurais artificiais(2021) Bouzon, M. F.Redes Neurais Artificiais (RNAs) são técnicas de aprendizado de máquina e inteligência artificial muito populares, propostas desde os anos 50. Entre seus maiores desafios estão o treinamento de parâmetros tais como pesos, parâmetros das funções de ativação e constantes, assim como dos seus hiper-parâmetros, como a arquitetura das redes e densidade de neurônios por camada. Entre os algoritmos mais conhecidos para a otimização paramétrica das redes estão o Adam e o Retropropagação ou Backpropagation (BP), aplicados sobretudo em arquiteturas populares como o Perceptron multicamadas ou Multilayer Perceptron (MLP), Rede Neural Recorrente ou Recurrent Neural Network (RNN), Long-Short Term Memory (LSTM), Rede neural de Base Radial ou Radial Basis Function Neural Network (RBFNN), entre muitas outras. Recentemente, o grande sucesso das redes neurais profundas, as chamadas Deep Learnings, bem como das redes totalmente conectadas, tem enfrentado problemas de tempo de treinamento e utilização de hardware especializado. Esses desafios deram novo fôlego à utilização de algoritmos de otimização para o treinamento dessas redes, e mais recentemente aos algoritmos inspirados na natureza, os chamados Inspirados na natureza ou Nature-Inspired (NI). Essa estratégia, embora não seja uma técnica tão recente, ainda não obteve grande atenção de pesquisadores, necessitando hoje de maior número de testes experimentais e avaliação, sobretudo devido ao recente aparecimento de uma gama muito maior de algoritmos NI. Alguns dos elementos que carecem de atenção, sobretudo para os NI mais recentes, estão relacionados principalmente ao tempo de convergência e estudos sobre o uso de diferentes funções custo. Assim, a presente dissertação de mestrado tem por objetivo realizar testes, comparação e estudos sobre algoritmos NI aplicados ao treinamento de redes neurais. Foram testados algoritmos NI tanto tradicionais quanto recentes, sob vários pontos de vista, incluindo o tempo de convergência e funções objetivos, elementos que receberam até o momento pouca atenção dos pesquisadores em testes prévios. Os resultados mostraram que a utilização de algoritmos NI para treinamento de RNAs tradicionais obtiveram resultados com boa classificação, similares a algoritmos populares como o Adam e o Algoritmo Backpropagation com Momento (BPMA), mas superando esses algoritmos em termos de tempo de convergência na ordem de 20 a mais de 70%, dependendo da rede e dos parâmetros envolvidos. Isso indica que a estratégia de usar algoritmos NI, sobretudo os mais recentes, para treinamento de redes neurais é um método promissor que pode impactar cada vez mais no tempo e qualidade dos resultados das aplicações recentes e futuras de aprendizado de máquina e inteligência artificial.
- Uma metodologia baseada em aprendizado de máquina para predição de fases de cirurgias laparoscópicas a partir de vídeos(2023) Henrique, Matheus SilvaAs cirurgias minimamente invasivas evoluíram consideravelmente em décadas recentes e ainda podem resultar em complicações graves ao paciente relacionadas à técnica cirúrgica. A laparoscopia é um tipo de procedimento minimamente invasivo, no qual um cirurgião, por meio de imagens geradas em tempo real, movimenta instrumentos cirúrgicos através de pequenas incisões feitas no paciente. Trata-se de um procedimento com diversas fases protocolares, mas também dependente de habilidades de cada cirurgião. O rastreamento, acompanhamento e validação dessas fases é uma estratégia importante para o processo como um todo. Técnicas de Visão Computacional baseadas em aprendizado de máquina ganharam destaque recentemente, particularmente na área médica. O projeto aqui proposto apresenta uma arquitetura baseada em Mask R-CNN, Segment Anything e Long Short-Therm Memory (LSTM), que utiliza imagens capturadas de cirurgia de colecistectomia, um tipo de cirugia laparascópica, para identificar os instrumentos durante o ato, extrair informações destes instrumentos e realizar a predição de qual fase de uma cirurgia está sendo realizada. O projeto visa trazer benefícios, como: o indexamento automático de fases em um banco de dados de cirurgia, o auxílio no estudo do tempo de fases para otimizar agendamentos, e a identificação de problemas na execução de determinadas fases. O trabalho inovador alcançou a acurácia de 81,73% na previsão de fases na base de dados M2CAI, e abre espaço para novas investigações relacionadas ao modo de execução da cirurgia por meio da segmentação e monitoramento dos instrumentos cirúrgicos. Além disso, a identificação de problemas na execução de determinadas fases poderá ser realizada, contribuindo para a melhoria dos procedimentos e, consequentemente, para melhores resultados para os pacientes
- Metodologia para reconhecimento de objetos utilizando padrões binários locais com sensores baseados em eventos(2021) Fardo, Fernando AzevedoRecentemente, novos sensores com pixels ativos foram colocados no mercado. Estes sensores exportam variações locais de intensidade luminosa na forma de eventos assíncronos com baixa latência. Uma vez que o formato de saída dos dados é um fluxo de eventos endereçáveis e não uma imagem de intensidades completa, novos algoritmos são necessários para problemas conhecidos na área de Visão Computacional, como segmentação, VO, SLAM, reconhecimento de objetos e cenas. Algumas propostas para estes novos algoritmos foram aplicadas à navegação de veículos autônomos e mostraram bom desempenho para manobras em alta velocidade. Foram propostas também algumas metodologias para classificação de objetos utilizando métodos convencionais, adaptações para uso de redes profundas e redes neurais de terceira geração baseadas em spikes. No entanto, métodos utilizando redes profundas ou redes spike, frequentemente requerem recursos de hardware específicos e de difícil miniaturização. Além disso, diversos operadores e descritores tradicionais utilizados na área de Visão Computacional tem sido negligenciados no contexto de eventos e poderiam contribuir para metodologias mais leves para reconhecimento de objetos e símbolos. Esta tese propõe um algoritmo para extração de padrões binários locais em estruturas esparsas tipicamente encontrados em capturas por eventos com complexidade linear demonstrada experimentalmente. Para sustentar a plausibilidade da adoção deste operador, esta tese propõe a duas metodologias utilizando padrões binários locais aplicados a capturas com sensores basados em eventos para o problema de reconhecimento de objetos. A primeira metodologia, tira proveito do conhecimentos sobre os movimentos realizados pelo sensor, enquanto a segunda é agnóstica a movimentos. É demonstrado experimentalmente que o LBP é uma alternativa viável, rápida e leve e que possibilita a redução de variáveis usando algoritmo PCA em alguns casos. Demonstramos que é possível reduzir o tamanho do vetor final utilizado para classificação em até 99,73% em relação a métodos convencionais considerados estado da arte e ainda manter acurácia comparável aos mesmos.