Submissões Recentes

Tese
Estudo do comportamento de diodos pin implementados em tecnologia SOIde camada ultrafina (UTBB) operando como fotodetectores
(2024) Silva, Fernando Oliveira da
A redação desta pesquisa científica visa aprofundar resultados e conhecimentos sobre o funcionamento de diodos de junção com inserção intermediária de região intrínseca, diodos PIN, implementados em tecnologia UTBB como fotodetectores. A princípio utilizou-se dados de pesquisas elaboradas anteriormente de diodos PIN implementadas em substratos SOI como referência para a simulação do processo de fabricação dos dispositivos e a validação das curvas simuladas. Primeiramente, foram realizadas simulações numéricas da corrente catódica normalizada pela largura do dispositivo (ID/W) em função da tensão catódica (VD), considerando dispositivos sem porta com comprimento intrínseco (Li) de 8 µm, e espessura da camada de silício (TSi) de 20 nm. Demonstrou-se que camadas de silício extremamente finas podem ser aplicadas para a fotodetecção de parte do espectro de luz ultravioleta UVA (comprimentos de onda da ordem de 350 nm), uma vez que os pequenos comprimentos de onda são absorvidos próximo à superfície do dispositivo. Foi observado também que ao variar a polarização do substrato (Vsub), a corrente fotogerada é mais elevada, cerca de 2,75 x 10-11 A, no intervalo de Vsub entre -1 V e 0,7 V, apresentando uma queda para valores fora do intervalo devido à inversão ou acumulação da região intrínseca. Finalmente, foi possível observar que a corrente fotogerada máxima, da ordem de 2,8 x 10-11 A é atingida para diferentes intervalos de Vsub quando são implementados Ground Planes do tipo P e N num dispositivo com uma espessura de silício de 20 nm, o que está relacionado à depleção induzida na região ativa devido à presença de carga positiva ou negativa abaixo do óxido enterrado
Dissertação
Operações de entrega de última milha e coleta de primeira milha isolada vs coleta e entrega intercaladas vs coleta e entrega simultâneas: uma análise comparativa
(2024) Gabelini, Juliana Dombrady
O comércio eletrônico B2C, em constante crescimento, enfrenta desafios logísticos críticos, notadamente no que diz respeito à gestão da "última milha". Este estudo propõe a avaliação do impacto das estratégias de transporte VRPB (Problema de Roteamento de Veículo com Retornos) e VRPSPD (Problema de Roteamento de Veículo com Coleta e Entrega Simultâneas) em comparação com as operações de coleta e entrega isoladas no contexto do comércio eletrônico. Distingue-se pela abordagem holística, considerando todos os custos inerentes, investimentos e, crucialmente, a colaboração vertical entre diferentes níveis da rede de suprimentos. Utilizando uma abordagem de análise de caso comparativa, este estudo investiga três cenários distintos de logística: (1) o modelo de entregas e coletas isoladas, (2) a estratégia de rotas com entregas e coletas intercaladas, também conhecida como Backhaul, e (3) a estratégia de rotas com entregas e coletas simultâneas, referida como Interleaved. Este estudo é de relevância tanto para profissionais do mercado, ao proporcionar insights sobre implementação e vantagens econômicas, quanto para a academia, ao contribuir para o avanço do entendimento sobre otimização logística no comércio eletrônico. Foram avaliados três cenários logísticos distintos: (1) entregas e coletas isoladas, (2) entregas e coletas intercaladas - modelo Backhaul e (3) entregas e coletas simultâneas - modelo Interleaved. A análise revelou que o cenário de entregas e coletas isoladas incide no maior custo, decorrente do elevado número de rotas e da baixa ocupação dos veículos. Em contraste, o modelo Backhaul demonstrou uma redução de 27% nos custos e uma diminuição de 22 veículos, evidenciando uma melhoria significativa na eficiência operacional. O modelo Interleaved apresentou o melhor desempenho geral, com uma redução de 30% nos custos em relação ao modelo Backhaul e 50% comparado ao modelo de entregas e coletas isoladas, além de uma diminuição de aproximadamente 40 veículos
Dissertação
An approach for grouping sentences by semantic similarity using language models and graph theory
(2024) Ramos, João Paulo Oliveira
Revisão da literatura é uma etapa mandatória durante uma pesquisa cientifica. Nesta fase, o pesquisador está constantemente procurando, lendo e filtrando os artigos que são relacionados a seu tópico de pesquisa. Em um cenário em que um número acumulado de artigos encontrados não são de interesse, tempo e energia são gastos sem resultados concretos. Com o crescimento exponencial de informações como noticias, artigos científicos, um campo chamado Sumarização Automática de Texto (SAT) se destaca. Esse campo é uma aplicação da área de Recuperação de Informação (RI), onde um resumo reduzido e compreensivo é extraído ou gerado a partir de um documento. A sumarização manual toma tempo, é custosa e impraticável frente a quantidade de informação textual disponível. O objetivo desse trabalho é criar um modelo semi-supervisionado capaz de criar um resumo compreensivo de um artigo cientifico, agrupando parágrafos em quarto classes: Objetivo, Metodologia, Resultados e Motivação. A metodologia é composta de sete seções, sendo essas: Seção 4.1 que descreve a base de dados utilizada. Seção 4.2 que trata do pre-processamento dos textos utilizados. Seção 4.3 que trata da metodologia utilizada para extrair as palavras chaves dos textos. Seção 4.4 que trata da metodologia utilizada para criar o grafo de palavras que é utilizado pelos modelos. Na Seção 4.5 é apresentada como os parágrafos são distribuídos entre os buckets. Na Seção 4.6 é apresentado como o modelo de N-gramas foi treinado. Na Seção 4.7.3 é apresentado a métrica de Entropia, e como ela é aplicada no técnica de agrupamento dos textos, junto do algoritmo de Dijkstra que é utilizado em um dos modelos de Entropia. Por ultimo é apresentado na Seção 4.8 o modelo de otimização criado para os modelos de entropia. A base de dados utilizada foi gerada pelo crawler criado por Meng et al. (2021) com o objetivo de extrair os artigos do website Emerald (EMERALD. . . , n.d.). Emerald é um publicador de artigos e revistas cientificas, com uma base de dados com mais de 60 mil documentos de diversos campos de estudo. Cada artigo científico dessa plataforma contém um resumo separado em quatro categorias. sendo essas categorias: proposito, método, achados e valores. O proposito descreve o objetivo do artigo, o método a metodologia e tecnologias, achados encontram-se os resultados do trabalho, e valores encontramos as motivações e valores do artigo científico. Nesse trabalho é utilizado uma base de dados reduzida, pois não foi possível obter acesso completo aos dados da plataforma Emerald. Foram utilizados os artigos marcados como Open Access. No total foram utilizados 643 artigos nos experimentos. Os textos foram separados em parágrafos, cada parágrafo sendo uma das categorias citadas anteriormente. A primeira etapa dos preprocessamentos dos dados, é a extração dos parágrafos. Em seguida, é feita lematização e tokenização dos textos. Para selecionar os as palavras chaves que foram utilizadas no segundo modelo de entropia, foi utilizado o algoritmo Summa (BARRIOS et al., 2016). Foram utilizados cinco palavras por categoria de texto. O grafo de palavras foi criado a partir de um grafo bi-direcionado, onde cada nó é uma palavra e as arestas são as quantidades de vezes que uma palavra se conectou com outra palavra. Em seguida foi feita a soma dos pesos das arestas do grafo, gerando um grafo não-direcional apresentado na Figura 2. Com essa contagem de conexões entre as palavras nas arestas, foi feito o calculo da probabilidade conjunta das arestas, gerando o grafo da Figure 4. Em seguida foi feita a transformação das arestas utilizando o logaritmo negativo, para que seja possível utilizar o algoritmo de Dijkstra para encontrar o menor caminho das palavras de um paragrafo, para as palavras chaves que foram definidas anteriormente. Foram criados dois modelos de entropia, um que utiliza apenas a Entropia como métrica de agrupamento dos paragrafos, e outro que utiliza a entropia, o algoritmo de Dijkstra e as palavras chaves para enviesar o agrupamento dos parágrafos. Os modelos são compostos pelo modelo de linguagem N-grama. No total, foram gerados quatro tamanhos diferentes de N-gramas, sendo eles 2-grama, 3-grama, 4-grama e 5-grama. Cada N-grama é chamado de bucket, no total são criados 4 buckets, um para cada categoria de texto. Cada bucket tem como proposito se especializar em um grupo de texto. No caso do modelo que utiliza apenas a Entropia, o agrupamento é aleatório entre os 4 buckets. Já para o modelo que utiliza as palavras chave, cada bucket tem uma categoria de texto pré-definida. O modelo de otimização criado consiste em avaliar se a entropia geral do modelo esta diminuindo ou não. Se a entropia diminuir, o modelo executa a etapa de troca de textos entre os buckets, por outro lado, se entropia se mantiver no mesmo valor, ou for maior, o modelo não executa a troca dos textos entre os buckets. Nessa etapa são selecionados dois buckets aleatoriamente para cada iteração do modelo. Os experimentos são apresentados no Capitulo 5. Onde é avaliado a performance para cada tamanho de n-grama. A curva de otimização dos modelos para avaliar se a entropia. E por final a influencia das palavras chaves com a utilização do algoritmo de Dijkstra no agrupamento dos textos. Por final foram utilizados dois modelos conhecidos na literatura como base de comparação. O modelo K-means, aprestado na Seção 5.4 e o modelo de LSTM (Long short-term memory) apresentado na Seção 5.5. Os resultados desse projeto demonstraram que ambos os modelos de entropia não conseguiram segmentar os textos nas quatro classes previstas, mesmo quando a entropia geral dos modelos estava diminuindo ou da hipótese de que utilizar as palavras chaves e o algoritmo Dijkstra seria melhor para enviesar o agrupamento dos textos. O modelo Kmeans e LSTM também não obtiveram resultados satisfatórios no agrupamento e classificação dos textos. Conclui-se que a entropia não pode ser utilizada como uma métrica de agrupamento de texto quando utilizada junto do modelo de linguagem N-grama. O modelo Kmeans pode ter seus hiper-parâmetros otimizados para uma possível melhora no agrupamento dos textos, o mesmo pode ocorrer para o modelo LSTM, e sua classificação dos grupos de textos.
Tese
O efeito da imagem do endossante na intenção de compra: via mediação da congruência e moderação do produto
(2024) Antunes, D. das G. A.
Esta pesquisa analisa a influência da linguagem da imagem do endossante em anúncios de propaganda de produtos na intenção de compra. Por meio de método experimental, foi realizada a manipulação de uma fotografia do endossante, de uma abordagem com linguagem de retrato para uma linguagem de realidade aumentada, utilizando inteligência artificial MidJourney e o software Photoshop. Uma pesquisa online com 379 respondentes foi feita via a plataforma Survey Monkey. A análise dos dados foi conduzida no software SPSS com Hayes Process Macro Model 7, que incorpora o conceito de mediação-moderada. Os resultados destacam que a relação entre a linguagem do endossante e a intenção de compra é mediada pela congruência entre o produto e o endossante do anúncio de propaganda. Adicionalmente, essa relação é moderada pela natureza tecnológica do produto. Constatamos que o efeito do uso do endossante com linguagem de retrato influencia a intenção de compra de produtos não tecnológicos, enquanto, para os produtos tecnológicos, não há significância estatística quando se utiliza um endossante com linguagem de retrato ou com linguagem de realidade aumentada
Tese
Construindo capacidade de inovação: o papel das subsidiárias multinacionais na remodelação da P&D Global
(2024) Dividino, V. de C.
Este estudo se concentra nas mudanças no poder de inovação global, com as multinacionais (MNC) de economias avançadas apresentando uma tendência para descentralizar a estratégia global de Pesquisa e Desenvolvimento (P&D) e as subsidiárias de economias emergentes a acumularem capacidades de inovação significativas desde o início da década de 2000. Numa análise comparativa de P&D global das MNCs, este trabalho identifica como as subsidiárias dos centros de P&D constroem e evoluem a sua capacidade de inovação e o nível de envolvimento da matriz da MNC nesse processo. Adotamos um método qualitativo, com casos múltiplos. Conduzimos entrevistas aprofundadas com executivos de alto nível de áreas relacionadas à inovação das matrizes e de vários centros de P&D subsidiários ao redor do mundo dos grupos Volkswagen, Stellantis e Hyundai. Comparamos os vários centros de P&D dessas MNCs e analisamos como os fatores organizacionais, as estratégias do grupo e as características do país anfitrião influenciam o processo de construção da capacidade de inovação, assim como no processo de evolução das subsidiárias. As contribuições desse estudo demonstram como as subsidiárias influenciam as capacidades de P&D da MNC, e como os centros de P&D da Volkswagen, Stellantis e Hyundai impactam nas decisões de inovação global das respectivas empresas. O processo de criação de capacidades de inovação evoluiu de uma estratégia centralizada na sede para uma estratégia global descentralizada. A análise também indica que quanto maior o nível de capacidade de inovação do centro de P&D, maior será a sua influência na estratégia de inovação global da MNC. Esta nova dinâmica foi desencadeada entre as operações das MNCs, e essa avaliação detalha como as subsidiárias dos centros de P&D diferem nas dinâmicas e estratégias para alcançar capacidades de inovação