|
Dissertações |
|
1
|
-
Tiago Trotta Lara Barbosa
-
ReBase: um framework de aquisição e gerenciamento de dados de reabilitação neuromotora com suporte a realidade virtual e aumentada.
-
Orientador : DIEGO ROBERTO COLOMBO DIAS
-
MEMBROS DA BANCA :
-
DIEGO ROBERTO COLOMBO DIAS
-
LEONARDO CHAVES DUTRA DA ROCHA
-
EDIMILSON BATISTA DOS SANTOS
-
RAFAEL SERAPILHA DURELLI
-
Data: 26/01/2024
-
-
Mostrar Resumo
-
Há um grande interesse no desenvolvimento de aplicações de realidade virtual e realidade aumentada para o uso em tratamentos de reabilitação neuromotora, com as quais os pacientes possam interagir através de dispositivos de rastreamento corporal. Estas aplicações proveem os benefícios da reabilitação tradicional sem se tornarem massantes, pois permitem a imersão do usuário nos mais variados cenários e situações. Ademais, devido à forma de interação com estas aplicações, é possível recuperar e analisar os dados gerados pelos movimentos dos usuários durante o tratamento. Contudo, é muito difícil encontrar datasets de movimentos corporais e os que existem não incluem movimentos específicos do contexto da reabilitação. Desta forma, apresenta-se framework que disponibiliza um sistema de armazenamento padronizado de dados de sessões de reabilitação motora e neuromotora, o ReBase. Ele foi projetado de forma a permitir a reunião dos dados gerados por qualquer aplicação, independentemente da forma de rastreamento corporal empregada, além de suportar aplicações de Realidade Virtual e Aumentada. A partir dos dados armazenados no banco de dados do ReBase, é possível criar datasets de movimentos específicos, sobre os quais podem ser aplicadas técnicas de aprendizado de máquina ou mesmo de mineração de dados. Este trabalho apresenta as diversas melhorias a serem implementadas na infraestrutura já existente do ReBase e demonstra uma aplicação capaz de reconhecer o alfabeto da Libras através de aprendizado de máquina desenvolvido com o uso do framework, o CLibras.
-
Mostrar Abstract
-
There is great interest in developing virtual and augmented reality applications for neuromotor rehabilitation treatments, with which patients can interact through body tracking devices. These applications provide the benefits of traditional rehabilitation without becoming overwhelming, as they allow the user to immerse themselves in various scenarios and situations. Furthermore, the way these applications interact makes it possible to retrieve and analyze the data generated by the user's movements during treatment. However, it is challenging to find body movement datasets, and those that exist do not include movements specific to the rehabilitation context. Thus, we present a framework that provides a standardized storage system for data from motor and neuromotor rehabilitation sessions, the ReBase. It was designed to allow the gathering of data generated by any application, regardless of the form of body tracking employed, and to support Virtual and Augmented Reality applications. From the data stored in the ReBase database, it is possible to create specific movement datasets over which machine learning or even data mining techniques can be applied. This paper presents several improvements to be implemented in the existing ReBase infrastructure and demonstrates an application capable of recognizing the Libras alphabet through machine learning developed using the framework CLibras.
|
|
2
|
-
Cleverson Marques Vieira
-
Inteligência Artificial Explicável (XAI) aplicada na classificação de imagens de retinografia para apoio no diagnóstico do Glaucoma.
-
Orientador : DIEGO ROBERTO COLOMBO DIAS
-
MEMBROS DA BANCA :
-
DIEGO ROBERTO COLOMBO DIAS
-
EDIMILSON BATISTA DOS SANTOS
-
LEONARDO CHAVES DUTRA DA ROCHA
-
RODRIGO BONACIN
-
Data: 28/02/2024
-
-
Mostrar Resumo
-
Modelos de aprendizado de máquina estão sendo utilizados extensivamente em diversas áreas do conhecimento e possuem inúmeras aplicações em quase todos os segmentos da atividade humana. Na área da saúde, o uso de técnicas de inteligência artificial tem revolucionado o diagnóstico de doenças com excelentes desempenhos na classificação de imagens. Embora esses modelos tenham alcançado resultados extraordinários, a falta de explicabilidade das decisões tomadas pelos modelos tem sido uma limitação significativa para a adoção generalizada dessas técnicas na prática clínica. O glaucoma é uma doença ocular neurodegenerativa que pode levar à cegueira de forma irreversível. A sua detecção precoce é crucial para prevenir a perda de visão. A detecção automatizada do glaucoma tem sido objeto de intensa pesquisa em visão computacional com diversos estudos propondo o uso de redes neurais convolucionais (CNNs) para analisar automaticamente imagens de fundo de retina e diagnosticar a doença. No entanto, essas propostas carecem de explicabilidade, o que é crucial para que os oftalmologistas compreendam as decisões tomadas pelos modelos e possam justificá-las aos seus pacientes. Este trabalho tem a finalidade de explorar e aplicar técnicas de inteligência artificial explicável (XAI) em diferentes arquiteturas de CNNs para a classificação do glaucoma e fazer uma análise comparativa sobre quais métodos de explicação fornecem os melhores recursos para a interpretação humana, servindo de apoio no diagnóstico clínico. Uma abordagem para interpretação visual denominada SCIM (SHAP-CAM interpretable mapping) é proposta demonstrando resultados promissores. Os experimentos preliminares indicam que, em um olhar não clínico, as técnicas de interpretabilidade baseadas em mapeamento de ativação de classe com gradientes ponderados (Grad-CAM), assim como a abordagem proposta (SCIM), aplicadas na arquitetura VGG19 fornecem os melhores recursos para a interpretabilidade humana.
-
Mostrar Abstract
-
Machine learning models are being used extensively in several areas of knowledge and have numerous applications in almost all segments of human activity. In healthcare, the use of artificial intelligence techniques has revolutionized the diagnosis of diseases with excellent performance in image classification. Although these models have achieved extraordinary results, the lack of explainability of the decisions made by the models has been a significant limitation to the widespread adoption of these techniques in clinical practice. Glaucoma is a neurodegenerative eye disease that can lead to blindness irreversibly. Its early detection is crucial to prevent vision loss. Automated detection of glaucoma has been the subject of intense research in computer vision, with several studies proposing the use of convolutional neural networks (CNNs) to analyze retinal fundus images and diagnose the disease automatically. However, these proposals lack explainability, which is crucial for ophthalmologists to understand the decisions made by the models and be able to justify them to their patients. This work aims to explore and apply explainable artificial intelligence (XAI) techniques to different convolutional neural network (CNN) architectures for the classification of glaucoma and perform a comparative analysis on which explanation methods provide the best features for human interpretation to support clinical diagnosis. An approach for visual interpretation called SCIM (SHAP-CAM interpretable mapping) is proposed showing promising results. Preliminary experiments indicate that in a non-clinical look, interpretability techniques based on gradient-weighted class activation mapping (Grad-CAM) and the proposed approach (SCIM) applied to the VGG architecture19 provide the best features for human interpretability.
|
|
3
|
-
Antônio Pereira de Souza Júnior
-
Mitigando os Limites das Métricas Atuais de Avaliação de Estratégias de Modelagem de Tópicos
-
Orientador : LEONARDO CHAVES DUTRA DA ROCHA
-
MEMBROS DA BANCA :
-
ADRIANO CÉSAR MACHADO PEREIRA
-
DIEGO ROBERTO COLOMBO DIAS
-
ELISA TULER DE ALBERGARIA
-
FELIPE AUGUSTO RESENDE VIEGAS
-
LEONARDO CHAVES DUTRA DA ROCHA
-
Data: 15/03/2024
-
-
Mostrar Resumo
-
A Modelagem de Tópicos (MT) é uma abordagem popular para extrair e organizar informações de grandes quantidades de dados textuais, descobrindo e representando tópicos semânticos de documentos. Neste trabalho, investigamos um desafio importante no contexto da MT, a Avaliação de tópicos, área responsável por impulsionar os avanços no campo e avaliar a qualidade geral do processo de geração de tópicos. As métricas tradicionais de MT capturam a qualidade dos tópicos avaliando estritamente as palavras que os construíram, seja sintaticamente (i.e., NPMI, TF-IDF Coherence) ou semanticamente (i.e., WEP). Neste caso, investigamos se estamos nos aproximando dos limites das métricas atuais em relação à qualidade de avaliação dos tópicos para a MT. Realizamos um experimento abrangente, considerando três coleções de dados amplamente utilizadas em tarefas de classificação automática, para as quais o tópico (classe) de cada documento é conhecido (i.e., ACM, 20News e WOS). Comparamos a qualidade dos tópicos gerados por quatro das principais estratégias de MT (i.e., LDA, NMF, CluWords e BerTopic) com a estrutura de tópicos prévia de cada coleção. Nossos resultados mostram que, apesar da importância das métricas atuais, estas não conseguiram captar alguns aspectos idiossincráticos importantes da MT, indicando a necessidade de propor novas métricas que considerem, por exemplo, a estrutura e organização dos documentos que compõem os tópicos. Para mitigar essa limitação, propomos adaptar métricas comumente utilizadas para avaliar algoritmos de clusterização, uma vez que existem semelhanças significativas entre as estratégias de MT e de clusterização, como sua natureza não supervisionada e o objetivo de agrupar elementos semelhantes. Neste contexto, avaliamos três métricas distintas (Silhouette Score, Calinski-Harabasz e BetaCV) nos mesmos cenários anteriores e os resultados evidenciam a eficácia das métricas de clusterização na distinção dos resultados dos algoritmos de MT e do ground truth (classes). No entanto, isto implica expandir o espaço de análise através da inclusão de um novo conjunto de métricas. Assim, propomos consolidar as várias métricas, que consideram tanto a qualidade das palavras que compõem os tópicos como a estrutura organizacional dos documentos, num resultado unificado, utilizando a Multiattribute Utility Theory (MAUT). Nossos resultados demonstraram que essa abordagem permitiu classificar com mais precisão as diferentes estratégias de MT, evidenciando os avanços semânticos gerados pelo uso de word embeddings presentes em algumas estratégias, bem como a solidez e consistência na construção de tópicos através de estratégias de fatoração de matrizes.
-
Mostrar Abstract
-
Topic Modeling (TM) is a popular approach to extracting and organizing information from large amounts of textual data by discovering and representing semantic topics from documents. In this work, we investigate an important challenge in the TM context, namely Topic evaluation, responsible for driving the advances in the field and assessing the overall quality of the topic generation process. Traditional TM metrics capture the quality of topics by strictly evaluating the words that built the topics syntactically (i.e., NPMI, TF-IDF Coherence) or semantically (i.e., WEP). In here, we investigate whether we are approaching the limits of what the current evaluation metrics can assess regarding topic quality for TM. We performed a comprehensive experiment, considering three data collections widely used in automatic classification, for which each document's topic (class) is known (i.e., ACM, 20News and WOS). We contrast the quality of topics generated by four of the main TM techniques (i.e., LDA, NMF, CluWords and BerTopic) with the previous topic structure of each collection. Our results show that, despite the importance of the current metrics, they could not capture some important idiosyncratic aspects of TM, indicating the need to propose new metrics that consider, for example, the structure and organization of the documents that comprise the topics. In order to mitigate this limitation, we propose to adapt metrics commonly used to evaluate clustering algorithms since there are significant similarities between the TM and clustering strategies. Both have an unsupervised nature and the purpose of grouping similar elements. We evaluate three distinct metrics (Silhouette Score, Calinski-Harabasz and BetaCV) in the same previous scenarios and the results highlight the effectiveness of clustering metrics in distinguishing the results of MT algorithms and ground truth. However, this implies expanding the analysis space by including a new set of metrics. Therefore, we propose consolidating the various metrics, which consider both the quality of the words that make up the topics and the organizational structure of the documents, into a unified result, using Multiattribute Utility Theory (MAUT). Our results demonstrated that this approach allowed us to classify more precisely the different Topic Modeling, showing that the semantic advances generated by the use of word embeddings present in some MT strategies, as well as the solidity and consistency in the construction of topics through matrix factorization strategies.
|
|
4
|
-
Brenno Lemos Melquiades dos Santos
-
Desenvolvimento de um software científico para a modelagem e simulação computacional
-
Orientador : ALEXANDRE BITTENCOURT PIGOZZO
-
MEMBROS DA BANCA :
-
BÁRBARA DE MELO QUINTELA
-
ALEXANDRE BITTENCOURT PIGOZZO
-
MARCELO LOBOSCO
-
RAFAEL SACHETTO OLIVEIRA
-
Data: 26/03/2024
-
-
Mostrar Resumo
-
As áreas de Modelagem Matemática e Computacional têm se tornado cada vez mais importantes no mundo atual, no qual estudos científicos devem trazer resultados cada vez mais rápidos. Os modelos matemáticos e computacionais surgem como ferramentas poderosas no estudo e compreensão de sistemas complexos e que podem ser usados por pesquisadores de diversas áreas diferentes. Frequentemente, os modelos comumente requerem extensivo conhecimento matemático para serem criados, o que resulta em uma grande barreira de entrada para cientistas sem formação relacionada diretamente com a matemática, como biólogos por exemplo, e estudantes iniciando carreiras acadêmicas. Apesar de existirem softwares que auxiliam o desenvolvimento de modelos computacionais, estes frequentemente apresentam interfaces muito complexas na busca para se tornarem genéricos o suficiente e fornecerem muitos recursos. Neste trabalho, é apresentado o software que foi desenvolvido para construir e simular modelos de Equações Diferenciais Ordinárias. O objetivo foi desenvolver um software simples, fácil de usar e de estender com novas funcionalidades. Através da interface gráfica, o usuário pode construir um modelo utilizando um editor baseado em nós, realizar simulações e gerar o código que implementa o modelo. O software poderá ser utilizado na pesquisa e no processo ensino-aprendizagem de modelagem computacional.
-
Mostrar Abstract
-
The areas of Mathematical and Computational Modeling have become increasingly important in today's world, in which scientific studies must bring faster and faster results. Mathematical and computational models emerge as powerful tools in the study and understanding of complex systems that can be used by researchers from different areas. However, models commonly require extensive mathematical knowledge to create, which results in a major entry barrier for scientists without a background directly related to mathematics, such as biologists, and students starting academic careers. Although there are software for these purposes, they often have very complex interfaces in their quest to become generic enough. While these software have their use cases, this work aims to deliver a simplified but functional alternative, aimed at beginners without compromising functionality for advanced users. For this, in this work a software was developed that facilitates the construction and simulation of Ordinary Differential Equations (ODEs). ODEs are some of the most common computational models that can accurately represent various phenomena. The software presents a simple and intuitive graphical interface, which allows the user to export a simulation, perform them interactively and even generate the code that computationally implements the model.
|
|
5
|
-
Remo de Oliveira Gresta
-
Análise e Suporte à Nomeação: Explorando Práticas em Programação Orientada a Objetos
-
Orientador : ELDER JOSE REIOLI CIRILO
-
MEMBROS DA BANCA :
-
BRUNO BARBIERI DE PONTES CAFEO
-
ELDER JOSE REIOLI CIRILO
-
VINICIUS HUMBERTO SERAPILHA DURELLI
-
Data: 26/04/2024
-
-
Mostrar Resumo
-
Atualmente, pesquisas indicam que compreensão de código leva muito mais tempo de trabalho de um desenvolvedor do que escrever código. Dado que a maioria das linguagens de programação modernas impõe pouca ou nenhuma limitação aos nomes de identificadores e, portanto, os desenvolvedores podem escolher nomes de identificadores a seu próprio critério, um aspecto fundamental da compreensão do código é a nomenclatura dos identificadores. Pesquisas sobre nomenclatura de identificadores mostram que nomes informativos são cruciais para melhorar a legibilidade e a manutenção de software: essencialmente, nomes reveladores de intenção tornam o código mais fácil de entender e atuam como uma forma básica de documentação. Identificadores mal nomeados tendem a prejudicar a compreensão e a capacidade de manutenção de sistemas de software. No entanto, a maioria dos currículos de Ciência da Computação enfatiza conceitos de programação e sintaxe de linguagem em vez de diretrizes e convenções de nomenclatura. Consequentemente, os desenvolvedores não têm conhecimento sobre as práticas de nomenclatura de identificadores. Anteriormente, exploramos práticas de nomenclatura de desenvolvedores Java. Para tanto, analisamos 1.421.607 nomes de identificadores (ou seja, nomes de atributos, parâmetros e variáveis) de 40 projetos Java de código aberto e categorizamos esses nomes em oito práticas de nomenclatura. Como um estudo de acompanhamento para investigar mais detalhadamente as práticas de nomenclatura, examinamos também 40 projetos C++ de código aberto e categorizamos 1.181.774 nomes de identificadores de acordo com as oito práticas de nomenclatura mencionadas anteriormente. Examinamos a ocorrência e prevalência dessas categorias em projetos C++ e Java e nossos resultados também destacam em quais contextos os identificadores que seguem cada prática de nomenclatura tendem a aparecer com mais regularidade. Também conduzimos um questionário on-line com 52 desenvolvedores de software para obter informações do setor. No geral, acreditamos que os resultados baseados na análise de 2.603.381 nomes de identificadores podem ser úteis para aumentar a conscientização dos programadores e contribuir para melhorar os materiais educacionais e os métodos de revisão de código. Por fim, desenvolvemos uma ferramenta de análise estática para ser usada em pipelines de CI/CD, que categoriza nomes de identificadores com base nas categorias de nomenclatura criadas anteriormente, possibilitando a verificação da existência de nomes potencialmente problemáticos.
-
Mostrar Abstract
-
Currently, research indicates that understanding code takes much more of a developer's working time than writing code. Given that most modern programming languages impose little or no limitation on identifier names, thus allowing developers to choose identifier names at their discretion, a fundamental aspect of code understanding is the naming of identifiers. Research on identifier naming shows that informative names are crucial for improving software readability and maintenance: essentially, intention-revealing names make the code easier to understand and act as a basic form of documentation. Poorly named identifiers tend to impair the understanding and maintainability of software systems. However, most Computer Science curriculums emphasize programming concepts and language syntax over naming guidelines and conventions. Consequently, developers lack knowledge about identifier naming practices. Previously, we explored Java developers' naming practices. To this end, we analyzed 1,421,607 identifier names (i.e., names of attributes, parameters, and variables) from 40 open-source Java projects and categorized these names into eight naming practices. As a follow-up study to investigate naming practices in more detail, we also examined 40 open-source C++ projects and categorized 1,181,774 identifier names according to the eight previously mentioned naming practices. We examined the occurrence and prevalence of these categories in C++ and Java projects, and our results also highlight in which contexts identifiers that follow each naming practice tend to appear more regularly. We also conducted an online questionnaire with 52 software developers to obtain industry insights. Overall, we believe that the results based on the analysis of 2,603,381 identifier names can be useful for raising programmers' awareness and contributing to improving educational materials and code review methods. Finally, we developed a static analysis tool to be used in CI/CD pipelines, which categorizes identifier names based on the previously created naming categories, enabling the verification of the existence of potentially problematic names.
|
|
6
|
-
Lucas Marchisotti de Souza
-
Modelos para predição da evasão estudantil em cursos de graduação da Universidade Federal de São João del-Rei
-
Orientador : FERNANDA SUMIKA HOJO DE SOUZA
-
MEMBROS DA BANCA :
-
ANDREA GOMES CAMPOS BIANCHI
-
ELDER JOSE REIOLI CIRILO
-
FERNANDA SUMIKA HOJO DE SOUZA
-
Data: 06/05/2024
-
-
Mostrar Resumo
-
A evasão estudantil consiste no abandono dos estudos por parte de estudantes formalmente matriculados. Este fenômeno é influenciado por diferentes fatores, como a perda de interesse, dificuldades financeiras, falta de investimentos e políticas adequadas, entre outros. Os impactos da evasão alcançam diferentes níveis, desde a formação interrompida do estudante, o desperdício de recursos e até a sociedade, que perde um futuro profissional. Embora a análise da evasão seja uma tarefa complexa, o avanço de técnicas computacionais como inteligência artificial tem possibilitado a análise e inferência a partir de dados, visando a compreensão e até predição desse fenômeno. Este trabalho tem como objetivo prever a evasão no contexto do ensino superior da Universidade Federal de São João del-Rei (UFSJ) considerando períodos antes e durante a pandemia da COVID-19, através da aplicação de técnicas de aprendizado de máquina. Além disso, avaliar as principais variáveis relacionadas ao fenômeno da evasão em ambos os períodos em busca de diferenças. Dados de estudantes formados e evadidos entre os anos de 2018 e 2021 dos cursos de graduação presencial da UFSJ são incluídos na análise e criação dos modelos de predição. Variáveis sociodemográficas, informações relacionadas ao curso e desempenho do estudante são selecionadas como possíveis preditoras. A análise inicial dos dados permitiu avaliar a qualidade dos dados disponíveis, a distribuição de frequência das variáveis e realizar sua preparação. A base de dados após a preparação conta com 7.305 registros e 23 variáveis além da classe alvo. A metodologia CRISP-DM comandou o processo de entendimento sobre o negócio e sobre os dados, na preparação dos dados, criação dos modelos e avaliação. Baseada em trabalhos semelhantes, a utilização dos algoritmos de Árvore de Decisão e Random Forest apresentaram taxas de acurácia, precisão, AUC e F1-score próximo ou acima dos 90%, revelando o Random Forest como detentor dos melhores resultados. Analisando a relevância das variáveis nos resultados, atributos de desempenho acadêmico e de assistência social/financeira eram esperados como importantes e confirmaram a expectativa em ambos os períodos analisados. Outros atributos já mostraram movimentos de ganho ou perda na transição ou mesmo baixa significância entre os períodos. Em suma, os resultados deste estudo revelam um desempenho promissor do modelo proposto na análise da evasão estudantil na UFSJ. Além disso, os insights obtidos sobre as características dos alunos fornecem uma base para o desenvolvimento de estratégias preventivas e de suporte aos estudantes.
-
Mostrar Abstract
-
Student dropout is the abandonment of studies by formally enrolled students. This phenomenon is influenced by different factors, such as loss of interest, financial difficulties, lack of investment, and appropriate policies, among others. The impacts of evasion reach different levels, from the student's interrupted training to the waste of resources and even society, which loses a professional future. Although the analysis of evasion is a complex task, the advancement of computational techniques such as artificial intelligence has enabled analysis and inference from data, aiming to understand and even predict this phenomenon. This work aims to predict dropout rates in the context of higher education at the Federal University of São João del-Rei (UFSJ), considering periods before and during the COVID-19 pandemic, through the application of machine learning techniques. Furthermore, evaluate the main variables related to the evasion phenomenon in both periods in search of differences. Data from students who graduated and dropped out between 2018 and 2021 from in-person undergraduate courses at UFSJ are included in the analysis and creation of prediction models. Sociodemographic variables, information related to the course, and student performance are selected as possible predictors. The initial data analysis made it possible to evaluate the quality of the available data and the frequency distribution of the variables and to carry out their preparation. After preparation, the database has 7.305 records and 23 variables in addition to the target class. The CRISP-DM methodology commanded understanding the business and data, preparing data, creating models, and evaluating. Based on similar works, the use of Decision Tree and Random Forest algorithms presented accuracy, precision, AUC, and F1-score rates close to or above 90%, revealing Random Forest as the holder of the best results. Analyzing the relevance of the variables in the results, attributes of academic performance and social/financial assistance were expected to be important and confirmed the expectation in both periods analyzed. Other attributes have already shown movements of gain or loss in the transition or even low significance between periods. In short, the results of this study reveal a promising performance of the model proposed in the analysis of student dropout at UFSJ. Furthermore, the insights gained about student characteristics provide a basis for developing preventive and student support strategies.
|
|
7
|
-
RODRIGO ROCHA PINTO
-
Desenvolvimento e Avaliação de Redes LoRa e LoRaWAN para Internet das Coisas
-
Orientador : DANIEL LUDOVICO GUIDONI
-
MEMBROS DA BANCA :
-
DANIEL LUDOVICO GUIDONI
-
FLAVIO LUIZ SCHIAVONI
-
RODOLFO IPOLITO MENEGUETTE
-
Data: 31/07/2024
-
-
Mostrar Resumo
-
A Internet das Coisas (IoT - Internet of Things) tem se destacado como uma das tecnologias mais promissoras e transformadoras do século XXI, redefinindo a interconexão entre objetos físicos e tecnologias digitais. Isso tem impulsionado o avanço da automação e da inteligência artificial em diversos setores, envolvendo uma grande quantidade de dispositivos interconectados, como controladores, sensores, atuadores, acelerômetros, eletrodomésticos, entre outros. Nesse cenário, diversas tecnologias de comunicação estão sendo disponibilizadas, cada uma oferecendo suas vantagens e desvantagens. O foco deste trabalho são as redes LPWAN (Low Power Wide Area Network), que são capazes de estabelecer uma comunicação de dados a grandes distâncias, consumindo uma quantidade pequena de energia. Dentre elas, destacam-se as redes LoRa (Long Range) e LoRaWAN (Long Range Wide Area Network), que oferecem uma infraestrutura robusta para a comunicação de dispositivos IoT em ambientes urbanos e rurais, possibilitando aplicações inovadoras em áreas como monitoramento ambiental, agricultura e pecuária de precisão, cidades inteligentes, saúde conectada e muitas outras. A capacidade dessas redes de alcançar distâncias consideráveis enquanto mantêm um baixo consumo de energia as torna especialmente adequadas para implantações em larga escala e em ambientes remotos. Este trabalho visa incentivar o desenvolvimento dessas tecnologias por meio do estudo das suas especificações e do desenvolvimento prático e funcional de protótipos, proporcionando uma melhor compreensão e viabilidade de aplicação em ambientes reais, o que poderá servir como base para novas pesquisas sobre o tema.
-
Mostrar Abstract
-
The Internet of Things (IoT) has emerged as one of the most promising and transformative technologies of the 21st century, redefining the interconnection between physical objects and digital technologies. This has driven the advancement of automation and artificial intelligence across various sectors, involving a large number of interconnected devices such as controllers, sensors, actuators, accelerometers, household appliances, and more. In this context, various communication technologies are being made available, each offering its own advantages and disadvantages. This work focuses on LPWAN (Low Power Wide Area Network) networks, which can establish long-distance data communication while consuming a small amount of energy. Among them, LoRa (Long Range) and LoRaWAN (Long Range Wide Area Network) networks stand out, providing a robust infrastructure for IoT device communication in urban and rural environments. These networks enable innovative applications in areas such as environmental monitoring, precision agriculture and livestock, smart cities, connected health, and many others. The ability of these networks to reach considerable distances while maintaining low energy consumption makes them particularly suitable for large-scale deployments and remote environments. This work aims to encourage the development of these technologies through the study of their specifications and the practical and functional development of prototypes, providing a better understanding and viability of application in real environments, which can serve as a basis for further research on the subject.
|
|
8
|
-
Victor Ferreira Almeida Mota
-
Otimização de modelo de predição de sinal celular utilizando Algoritmo Genético - Estudo da aplicação em rede LTE 4G (700MHz)
-
Orientador : CAROLINA RIBEIRO XAVIER
-
MEMBROS DA BANCA :
-
VINICIUS DA FONSECA VIEIRA
-
MARCONI DE ARRUDA PEREIRA
-
CAROLINA RIBEIRO XAVIER
-
LEONARDO JOSE SILVESTRE
-
Data: 09/08/2024
-
-
Mostrar Resumo
-
Este trabalho apresenta o desenvolvimento de um novo modelo de predição de cobertura celular embasado em modelos teóricos (Espaço Livre) e empíricos (Okumuta-Hata), porém, com o diferencial de aplicar conceitos de propagação de sinal através da combinação do uso de diferentes mapas como relevo, visibilidade da torre, densidade populacional e medições de intensidade de sinal coletado em campo para calibração.
Foi desenvolvido um algoritmo genético com o objetivo de realizar uma otimização do modelo, de modo a sugerir valores ótimos para os fatores que multiplicam os parâmetros do modelo sugerido.
O ambiente de teste e visualização dos mapas gerados foi o QGIS, ferramenta \textit{open source} de geoprocessamento de dados, e após validação dos estudos foi desenvolvido utilizando terminal \textit{Python} embarcado no próprio QGIS, para replicação da fórmula do novo modelo proposto. O cenário de estudo para o trabalho, foi a aplicação do modelo para simular a cobertura de uma rede 4G (LTE) na frequência de 700 MHz de propagação de sinal na cidade de São João del Rei-MG.
O objetivo do trabalho é apresentar resultados que sugerem um ganho na precisão do sinal predito, quando comparado com os modelos já conhecidos e consequentemente representem uma redução na margem de erro quando comparado com o sinal medido em campo. Este novo modelo poderá ser utilizado para representar a estimativa de cobertura de uma rede celular móvel, além de auxiliar em projetos e planejamento de redes no setor de telecomunicações, como 5G (NR), 4G (LTE), NB-IoT, LoRa e etc.
-
Mostrar Abstract
-
This work presents the development of a new cellular coverage prediction model based on theoretical (Free Space) and empirical (Okumura-Hata) models, with the distinction of applying signal propagation concepts through the combination of different maps such as terrain, tower visibility, population density, and field-collected signal strength measurements for calibration.
A genetic algorithm was developed to optimize the model, aiming to suggest optimal values for the factors that multiply the parameters of the proposed model.
The testing and visualization environment for the generated maps was QGIS, an open-source geoprocessing tool. After validating the studies, the model was implemented using an embedded Python terminal within QGIS to replicate the formula of the proposed new model. The study scenario involved applying the model to simulate the coverage of a 4G (LTE) network at a 700 MHz signal propagation frequency in the city of São João del Rei-MG.
The objective of this work is to present results suggesting an improvement in the accuracy of the predicted signal compared to existing models, thereby reducing the error margin when compared to field-measured signals. This new model can be used to estimate mobile cellular network coverage and assist in network project planning in the telecommunications sector, including 5G (NR), 4G (LTE), NB-IoT, LoRa, and others.
|
|
9
|
-
Marcus Vinicius de Castro Oliveira
-
Segmentação e Extração de Características de Imagens de Retinografia para o Diagnóstico do Glaucoma: Uma alternativa ao uso das redes neurais.
-
Orientador : MICHEL CARLO RODRIGUES LELES
-
MEMBROS DA BANCA :
-
JOAO PEDRO HALLACK SANSAO
-
LEONARDO CHAVES DUTRA DA ROCHA
-
MARIO CUPERTINO DA SILVA JUNIOR
-
MICHEL CARLO RODRIGUES LELES
-
Data: 28/08/2024
-
-
Mostrar Resumo
-
O glaucoma é uma doença que afeta progressivamente o nervo óptico e é a principal causa de cegueira no mundo. Uma das estratégias mais assertivas para fazer o diagnóstico é a análise clínica auxiliada por resultados da Tomografia de Coerência Óptica (OCT). A OCT é capaz de identificar anomalias na anatomia do nervo óptico, subsidiando o diagnóstico médico. Entretanto, tal exame apresenta um custo elevado, o que tende a prejudicar sua ampla utilização. Como alternativa a essa abordagem, basicamente duas linhas de pesquisa são propostas na literatura:
1 - Utilização de redes neurais profundas para classificar imagens 2 - Soluções que utilizam técnicas de processamento de imagens tradicionais para extração e tabulação de características das imagens de retinografia
Os problemas da primeira abordagem são a necessidade de grandes volumes de dados para treinamento, o alto custo computacional e o impacto ambiental causado pelo uso de GPUs de alto desempenho, consumindo energia em larga escala e contribuindo para a emissão de carbono.
Em contrapartida, as técnicas tradicionais de processamento de imagem podem ser executadas em hardware mais acessível e consomem menos energia, tornando-as uma alternativa sustentável e econômica. Porém, devido à diferença dos conjuntos de dados - seja por tonalidade, tamanho de imagens, resolução, entre outros - os métodos propostos apresentam resultados satisfatórios apenas na base em que foram treinados.
Vale também ressaltar que, enquanto as redes neurais profundas muitas vezes operam como 'caixas-pretas', dificultando a interpretação dos resultados, as técnicas tradicionais de processamento de imagem, por meio da extração de características, fornecem resultados mais transparentes e compreensíveis, o que é crucial para o diagnóstico clínico.
Neste contexto, almejando-se atacar as limitações supracitadas, este trabalho propõe uma abordagem que se mostrou capaz de uniformizar a etapa de extração das características da anatomia do nervo óptico por meio do processamento de imagens de fundo de retina nos diversos conjuntos de dados testados. Esta abordagem alimenta um classificador baseado em um algoritmo de aprendizado de máquina para auxílio no diagnóstico de baixo custo computacional, reduzindo a dependência de recursos de alto consumo energético e minimizando o impacto ambiental.
Embora essa abordagem tenha demonstrado ser eficaz de modo geral, este trabalho não tem a intenção de desestimular o uso das redes neurais, que se encontram como estado da arte no diagnóstico do glaucoma, mas sim propor uma alternativa ao uso excessivo destas.
Uma limitação significativa nessa abordagem reside na necessidade de validação clínica extensa antes de ser incorporada em um sistema de diagnóstico e de ser adotada amplamente na prática médica. A confiabilidade e precisão do modelo em cenários clínicos reais ainda precisam ser amplamente testadas.
Para trabalhos futuros, sugere-se a continuação da pesquisa visando a um melhor desempenho do algoritmo, como também o desenvolvimento de um sistema de apoio ao diagnóstico que utilize a abordagem proposta para segmentar as imagens e tabular os dados extraídos, assim como a realização de estudos clínicos em larga escala para validar os resultados obtidos em ambientes controlados.
-
Mostrar Abstract
-
Glaucoma is a disease that progressively affects the optic nerve and is the leading cause of blindness worldwide. One of the most effective strategies for diagnosis is clinical analysis supported by Optical Coherence Tomography (OCT) results. OCT can identify anomalies in the anatomy of the optic nerve, aiding medical diagnosis. However, this exam is costly, which tends to hinder its widespread use. As an alternative to this approach, the literature proposes essentially two research directions:
1 - Utilization of deep neural networks for image classification 2 - Solutions that use traditional image processing techniques for feature extraction and tabulation from retinal images
The issues with the first approach are the need for large volumes of data for training, high computational costs, and the environmental impact caused by the use of high-performance GPUs, which consume large amounts of energy and contribute to carbon emissions.
In contrast, traditional image processing techniques can be executed on more accessible hardware and consume less energy, making them a sustainable and cost-effective alternative. However, due to differences in datasets—such as image tone, size, resolution, among others—the proposed methods yield satisfactory results only on the dataset they were trained on.
It is also worth noting that while deep neural networks often operate as 'black boxes,' making result interpretation difficult, traditional image processing techniques, through feature extraction, provide more transparent and understandable results, which is crucial for clinical diagnosis.
In this context, aiming to address the aforementioned limitations, this work proposes an approach that has proven effective in standardizing the feature extraction stage of optic nerve anatomy through retinal fundus image processing across various tested datasets. This approach feeds a classifier based on a machine learning algorithm to assist in low-cost diagnosis, reducing reliance on high-energy-consuming resources and minimizing environmental impact.
Although this approach has generally proven effective, this work does not intend to discourage the use of neural networks, which remain state-of-the-art in glaucoma diagnosis, but rather to propose an alternative to their excessive use.
A significant limitation of this approach lies in the need for extensive clinical validation before it can be incorporated into a diagnostic system and widely adopted in medical practice. The reliability and accuracy of the model in real clinical scenarios still need to be extensively tested.
For future work, it is suggested to continue research aiming at improved algorithm performance, as well as the development of a diagnostic support system that utilizes the proposed approach to segment images and tabulate extracted data, along with conducting large-scale clinical studies to validate the results obtained in controlled environments..
|
|
10
|
-
Wagner Lancetti
-
Soft Skills Essenciais Mais Procuradas em Profissionais de QA no Brasil com Desenvolvimento da Ferramenta TalentJobRadar para Recomendação de Empregos e Habilidades.
-
Orientador : VINICIUS HUMBERTO SERAPILHA DURELLI
-
MEMBROS DA BANCA :
-
VINICIUS HUMBERTO SERAPILHA DURELLI
-
ELDER JOSE REIOLI CIRILO
-
RAPHAEL WINCKLER DE BETTIO
-
Data: 08/10/2024
-
-
Mostrar Resumo
-
O controle de qualidade de software (QA) é realizada em conjunto com o desenvolvimento de software. Essencialmente, as atividades de controle de qualidade são conduzidas na esperança de avaliar até que ponto um produto de software se alinha com os requisitos predefinidos. Embora o controle de qualidade inclua tarefas altamente técnicas, muito parecidas com o desenvolvimento de software, ele permanece em grande parte um esforço centrado no ser humano. Consequentemente, as softskills podem desempenhar um papel significativo na contribuição para o sucesso de um projeto e na qualidade do produto, além de aumentar a produtividade dos profissionais de QA. Objetivo: Este trabalho possui dois objetivos principais: (i) investigar as soft skills mais procuradas para profissionais de QA, possíveis correlações entre essas soft skills, variações nos requisitos de soft skills com base no nível de senioridade dos cargos, e possíveis diferenças nas expectativas de soft skills de acordo com o tamanho das empresas contratantes; e (ii) com base nessas análises, fornecer uma ferramenta de recomendação de empregos e habilidades para usuários, focada no mercado brasileiro. Método: Foram analisadas soft skills em 2164 anúncios de emprego de empresas brasileiras. O processo de extração de dados seguiu uma abordagem indutiva e orientada por dados que incluía etapas manuais e automatizadas. Resultados: aproximadamente 91% dos anúncios de emprego listam pelo menos uma soft skill. Foram identificadas 32 soft skills, das quais cinco habilidades destacam-se como as mais procuradas: habilidades relacionadas à comunicação, planejamento, inovação, colaboração e comunicação escrita. Notavelmente, empresas de diversos tamanhos consistentemente priorizam habilidades relacionadas à comunicação e planejamento, considerando-as cruciais para profissionais de QA. Dados os resultados obtidos, emergiu a necessidade de criação de uma ferramenta de recomendação para a área de QA, a fim de contornar o problema constantemente negligenciado sobre a demanda por soft skills. Discussão: A análise dos resultados ressalta a importância crítica de cinco habilidades interpessoais: habilidades relacionadas à comunicação, planejamento, inovação, colaboração e comunicação escrita. Dessa forma, os resultados desse estudo têm potencial valor para profissionais de QA no Brasil que buscam aumentar sua empregabilidade e auxiliando aqueles na indústria responsáveis pelas contratações, bem como para aqueles que buscam propor abordagens baseadas em pesquisa para currículo e desenvolvimento profissional. Além disso, a ferramenta beneficiaria especialmente os usuários que desejam iniciar suas carreiras na área de QA ou aprimorar sua situação atual adquirindo novas habilidades.
-
Mostrar Abstract
-
Software quality assurance (QA) is carried out alongside software development. Essentially, QA activities are conducted to assess the extent to which a software product aligns with predefined requirements. Although QA includes highly technical tasks, similar to software development, it remains largely a human-centered effort. Consequently, soft skills can play a significant role in the success of a project and product quality, as well as boosting the productivity of QA professionals. Aim:This work has two main objectives: (i) to investigate the most sought-after softskills for QA professionals, potential correlations among these soft skills, variations in soft skill requirements based on the seniority level of positions, and potential differences in soft skill expectations according to the size of the hiring companies; and (ii) based on these analyses, to provide a job and skill recommendation tool for users, focused on the Brazilian market. Method: Soft skills were analyzed in 2164 job advertisements from Brazilian companies. The data extraction process followed an inductive, data-driven approach, including both manual and automated steps. Results: Approximately 91% of the job advertisements list at least one soft skill. Thirty-two soft skills were identified, with five standing out as the most sought-after: communication-related skills, planning, innovation, collaboration, and written communication. Notably, companies of various sizes consistently prioritize communication-related and planning skills, considering them crucial for QA professionals. Given the results obtained, the need for the creation of a recommendation tool for the QA field emerged, addressing the often-overlooked issue of the demand for soft skills. Discussion: The analysis of the results highlights the critical importance of five interpersonal skills: communication-related skills, planning, innovation, collaboration, and written communication. The findings of this study have potential value for QA professionals in Brazil seeking to increase their employability, assisting those in the industry responsible for hiring, as well as those looking to propose research-based approaches to curriculum and professional development. Additionally, the tool would especially benefit users who wish to start their careers in the QA field or improve their current situation by acquiring new skills.
|
|
11
|
-
João Pedro Mendes de Oliveira
-
O USO DE FERRAMENTAS COMPUTACIONAIS NA REMOÇÃO DE VAZAMENTOS SONOROS EM GRAVAÇÕES DE BATERIA
-
Orientador : FLAVIO LUIZ SCHIAVONI
-
MEMBROS DA BANCA :
-
FLAVIO LUIZ SCHIAVONI
-
JOAO PEDRO HALLACK SANSAO
-
JOSÉ GUILHERME ALLEN LIMA
-
HENRIQUE MAIA LINS VAZ
-
Data: 20/12/2024
-
-
Mostrar Resumo
-
A produção musical é uma área intrinsecamente ligada à tecnologia. As diferentes formas de registrar performances musicais ao longo dos anos influenciaram diretamente a maneira como as músicas são criadas. Com o avanço tecnológico das últimas décadas, o processo de produção musical passou por adaptações contínuas até atingir o formato atual, caracterizado por etapas que abrangem uma série de tarefas técnicas e estéticas. O advento das tecnologias digitais revolucionou a indústria musical, trazendo facilidades e novas possibilidades. Com o computador como centro da produção musical, tornou-se possível o desenvolvimento de diversas técnicas e ferramentas inovadoras para o processamento de áudio. Muitas dessas técnicas têm base em métodos computacionais tradicionais, abrangendo tanto o processamento de sinais quanto o uso da inteligência artificial. Isso permitiu que questões antes impossíveis de serem abordadas no ambiente analógico agora pudessem ser resolvidas no ambiente digital. Uma dessas questões diz respeito aos vazamentos sonoros em gravações de bateria. Embora esses vazamentos não representem necessariamente um problema na produção musical, a separação dessas interferências pode facilitar o processamento sonoro, trazendo mais dinamismo e eficiência para profissionais da área de áudio em contextos de produção contemporânea. Nesse sentido, este trabalho conecta os campos da música, do áudio e da computação ao investigar a viabilidade do uso de ferramentas de separação de fontes de áudio em situações reais de gravação de bateria. Dentro desse campo, uma subcategoria recente, conhecida como separação de fontes de bateria, tem se destacado na literatura, proporcionando avanços significativos para a solução dessas questões. Neste estudo, uma das principais ferramentas de separação de peças de bateria, o LarsNet, é aplicada a situações práticas e reais de gravação de bateria, permitindo avaliar o desempenho do modelo e sua aplicabilidade no cotidiano de profissionais da área de áudio. A ferramenta é testada em duas gravações de baterias executadas e captadas em contextos distintos, oferecendo uma análise comparativa de suas capacidades. Ao final do trabalho, os resultados são apresentados e discutidos, fornecendo uma visão detalhada da capacidade da ferramenta em lidar com os desafios apresentados e sua viabilidade no uso cotidiano por produtores musicais e engenheiros de áudio.
-
Mostrar Abstract
-
Music production is an area inherently connected to technology. The various methods of recording musical performances over the years have directly influenced the way music is created. With the technological advancements of recent decades, the music production process has undergone continuous adaptations until reaching its current form, characterized by stages that encompass a series of technical and aesthetic tasks. The advent of digital technologies has revolutionized the music industry, bringing conveniences and new possibilities. With the computer as the center of music production, it has become possible to develop a range of innovative techniques and tools for audio processing. Many of these techniques are based on traditional computational methods, encompassing both signal processing and the use of artificial intelligence. This has made it possible to address issues that were previously unfeasible in the analog environment but are now resolvable in the digital domain. One such issue concerns sound spill in drum recordings. Although these leaks do not necessarily pose a problem in music production, separating these interferences can facilitate sound processing, bringing more dynamism and efficiency to audio professionals in contemporary production contexts. In this regard, this work bridges the fields of music, audio, and computing by investigating the feasibility of using audio source separation tools in real-world drum recording situations. Within this field, a recent subcategory known as drum source separation has gained prominence in the literature, providing significant advances toward solving these issues. In this study, one of the leading tools for drum piece separation, LarsNet, is applied to practical and real-world drum recording scenarios, enabling the evaluation of its performance and applicability in the daily routines of audio professionals. The tool is tested on two drum recordings performed and captured in distinct contexts, offering a comparative analysis of its capabilities. At the conclusion of the study, the results are presented and discussed, providing a detailed view of the tool's ability to address the presented challenges and its feasibility for everyday use by music producers and audio engineers.
|
|