Dissertações/Teses
2024
Dissertações
1
  • TIAGO TROTTA LARA BARBOSA
  • ReBase: um framework de aquisição e gerenciamento de dados de reabilitação neuromotora com suporte a realidade virtual e aumentada.

  • Orientador : DIEGO ROBERTO COLOMBO DIAS
  • MEMBROS DA BANCA :
  • DIEGO ROBERTO COLOMBO DIAS
  • LEONARDO CHAVES DUTRA DA ROCHA
  • EDIMILSON BATISTA DOS SANTOS
  • RAFAEL SERAPILHA DURELLI
  • Data: 26/01/2024

  • Mostrar Resumo
  • Há um grande interesse no desenvolvimento de aplicações de realidade virtual e realidade aumentada para o uso em tratamentos de reabilitação neuromotora, com as quais os pacientes possam interagir através de dispositivos de rastreamento corporal. Estas aplicações proveem os benefícios da reabilitação tradicional sem se tornarem massantes, pois permitem a imersão do usuário nos mais variados cenários e situações. Ademais, devido à forma de interação com estas aplicações, é possível recuperar e analisar os dados gerados pelos movimentos dos usuários durante o tratamento. Contudo, é muito difícil encontrar datasets de movimentos corporais e os que existem não incluem movimentos específicos do contexto da reabilitação. Desta forma, apresenta-se framework que disponibiliza um sistema de armazenamento padronizado de dados de sessões de reabilitação motora e neuromotora, o ReBase. Ele foi projetado de forma a permitir a reunião dos dados gerados por qualquer aplicação, independentemente da forma de rastreamento corporal empregada, além de suportar aplicações de Realidade Virtual e Aumentada. A partir dos dados armazenados no banco de dados do ReBase, é possível criar datasets de movimentos específicos, sobre os quais podem ser aplicadas técnicas de aprendizado de máquina ou mesmo de mineração de dados. Este trabalho apresenta as diversas melhorias a serem implementadas na infraestrutura já existente do ReBase e demonstra uma aplicação capaz de reconhecer o alfabeto da Libras através de aprendizado de máquina desenvolvido com o uso do framework, o CLibras.


  • Mostrar Abstract
  • There is great interest in developing virtual and augmented reality applications for neuromotor rehabilitation treatments, with which patients can interact through body tracking devices. These applications provide the benefits of traditional rehabilitation without becoming overwhelming, as they allow the user to immerse themselves in various scenarios and situations. Furthermore, the way these applications interact makes it possible to retrieve and analyze the data generated by the user's movements during treatment. However, it is challenging to find body movement datasets, and those that exist do not include movements specific to the rehabilitation context. Thus, we present a framework that provides a standardized storage system for data from motor and neuromotor rehabilitation sessions, the ReBase. It was designed to allow the gathering of data generated by any application, regardless of the form of body tracking employed, and to support Virtual and Augmented Reality applications. From the data stored in the ReBase database, it is possible to create specific movement datasets over which machine learning or even data mining techniques can be applied. This paper presents several improvements to be implemented in the existing ReBase infrastructure and demonstrates an application capable of recognizing the Libras alphabet through machine learning developed using the framework CLibras.

2
  • CLEVERSON MARQUES VIEIRA
  • Inteligência Artificial Explicável (XAI) aplicada na classificação de imagens de retinografia para apoio no diagnóstico do Glaucoma.

  • Orientador : DIEGO ROBERTO COLOMBO DIAS
  • MEMBROS DA BANCA :
  • RODRIGO BONACIN
  • DIEGO ROBERTO COLOMBO DIAS
  • EDIMILSON BATISTA DOS SANTOS
  • LEONARDO CHAVES DUTRA DA ROCHA
  • Data: 28/02/2024

  • Mostrar Resumo
  • Modelos de aprendizado de máquina estão sendo utilizados extensivamente em diversas áreas do conhecimento e possuem inúmeras aplicações em quase todos os segmentos da atividade humana. Na área da saúde, o uso de técnicas de inteligência artificial tem revolucionado o diagnóstico de doenças com excelentes desempenhos na classificação de imagens. Embora esses modelos tenham alcançado resultados extraordinários, a falta de explicabilidade das decisões tomadas pelos modelos tem sido uma limitação significativa para a adoção generalizada dessas técnicas na prática clínica. O glaucoma é uma doença ocular neurodegenerativa que pode levar à cegueira de forma irreversível. A sua detecção precoce é crucial para prevenir a perda de visão. A detecção automatizada do glaucoma tem sido objeto de intensa pesquisa em visão computacional com diversos estudos propondo o uso de redes neurais convolucionais (CNNs) para analisar automaticamente imagens de fundo de retina e diagnosticar a doença. No entanto, essas propostas carecem de explicabilidade, o que é crucial para que os oftalmologistas compreendam as decisões tomadas pelos modelos e possam justificá-las aos seus pacientes. Este trabalho tem a finalidade de explorar e aplicar técnicas de inteligência artificial explicável (XAI) em diferentes arquiteturas de CNNs para a classificação do glaucoma e fazer uma análise comparativa sobre quais métodos de explicação fornecem os melhores recursos para a interpretação humana, servindo de apoio no diagnóstico clínico. Uma abordagem para interpretação visual denominada SCIM (SHAP-CAM interpretable mapping) é proposta demonstrando resultados promissores. Os experimentos preliminares indicam que, em um olhar não clínico, as técnicas de interpretabilidade baseadas em mapeamento de ativação de classe com gradientes ponderados (Grad-CAM), assim como a abordagem proposta (SCIM), aplicadas na arquitetura VGG19 fornecem os melhores recursos para a interpretabilidade humana.


  • Mostrar Abstract
  • Machine learning models are being used extensively in several areas of knowledge and have numerous applications in almost all segments of human activity. In healthcare, the use of artificial intelligence techniques has revolutionized the diagnosis of diseases with excellent performance in image classification. Although these models have achieved extraordinary results, the lack of explainability of the decisions made by the models has been a significant limitation to the widespread adoption of these techniques in clinical practice. Glaucoma is a neurodegenerative eye disease that can lead to blindness irreversibly. Its early detection is crucial to prevent vision loss. Automated detection of glaucoma has been the subject of intense research in computer vision, with several studies proposing the use of convolutional neural networks (CNNs) to analyze retinal fundus images and diagnose the disease automatically. However, these proposals lack explainability, which is crucial for ophthalmologists to understand the decisions made by the models and be able to justify them to their patients. This work aims to explore and apply explainable artificial intelligence (XAI) techniques to different convolutional neural network (CNN) architectures for the classification of glaucoma and perform a comparative analysis on which explanation methods provide the best features for human interpretation to support clinical diagnosis. An approach for visual interpretation called SCIM (SHAP-CAM interpretable mapping) is proposed showing promising results. Preliminary experiments indicate that in a non-clinical look, interpretability techniques based on gradient-weighted class activation mapping (Grad-CAM) and the proposed approach (SCIM) applied to the VGG architecture19 provide the best features for human interpretability.

3
  • ANTÔNIO PEREIRA DE SOUZA JÚNIOR
  • Mitigando os Limites das Métricas Atuais de Avaliação de Estratégias de Modelagem de Tópicos

  • Orientador : LEONARDO CHAVES DUTRA DA ROCHA
  • MEMBROS DA BANCA :
  • ADRIANO CÉSAR MACHADO PEREIRA
  • DIEGO ROBERTO COLOMBO DIAS
  • ELISA TULER DE ALBERGARIA
  • FELIPE AUGUSTO RESENDE VIEGAS
  • LEONARDO CHAVES DUTRA DA ROCHA
  • Data: 15/03/2024

  • Mostrar Resumo
  • A Modelagem de Tópicos (MT) é uma abordagem popular para extrair e organizar informações de grandes quantidades de dados textuais, descobrindo e representando tópicos semânticos de documentos. Neste trabalho, investigamos um desafio importante no contexto da MT, a Avaliação de tópicos, área responsável por impulsionar os avanços no campo e avaliar a qualidade geral do processo de geração de tópicos. As métricas tradicionais de MT capturam a qualidade dos tópicos avaliando estritamente as palavras que os construíram, seja sintaticamente (i.e., NPMI, TF-IDF Coherence) ou semanticamente (i.e., WEP). Neste caso, investigamos se estamos nos aproximando dos limites das métricas atuais em relação à qualidade de avaliação dos tópicos para a MT. Realizamos um experimento abrangente, considerando três coleções de dados amplamente utilizadas em tarefas de classificação automática, para as quais o tópico (classe) de cada documento é conhecido (i.e., ACM, 20News e WOS). Comparamos a qualidade dos tópicos gerados por quatro das principais estratégias de MT (i.e., LDA, NMF, CluWords e BerTopic) com a estrutura de tópicos prévia de cada coleção. Nossos resultados mostram que, apesar da importância das métricas atuais, estas não conseguiram captar alguns aspectos idiossincráticos importantes da MT, indicando a necessidade de propor novas métricas que considerem, por exemplo, a estrutura e organização dos documentos que compõem os tópicos. Para mitigar essa limitação, propomos adaptar métricas comumente utilizadas para avaliar algoritmos de clusterização, uma vez que existem semelhanças significativas entre as estratégias de MT e de clusterização, como sua natureza não supervisionada e o objetivo de agrupar elementos semelhantes. Neste contexto, avaliamos três métricas distintas (Silhouette Score, Calinski-Harabasz e BetaCV) nos mesmos cenários anteriores e os resultados evidenciam a eficácia das métricas de clusterização na distinção dos resultados dos algoritmos de MT e do ground truth (classes). No entanto, isto implica expandir o espaço de análise através da inclusão de um novo conjunto de métricas. Assim, propomos consolidar as várias métricas, que consideram tanto a qualidade das palavras que compõem os tópicos como a estrutura organizacional dos documentos, num resultado unificado, utilizando a Multiattribute Utility Theory (MAUT). Nossos resultados demonstraram que essa abordagem permitiu classificar com mais precisão as diferentes estratégias de MT, evidenciando os avanços semânticos gerados pelo uso de word embeddings presentes em algumas estratégias, bem como a solidez e consistência na construção de tópicos através de estratégias de fatoração de matrizes.


  • Mostrar Abstract
  • Topic Modeling (TM) is a popular approach to extracting and organizing information from large amounts of textual data by discovering and representing semantic topics from documents. In this work, we investigate an important challenge in the TM context, namely Topic evaluation, responsible for driving the advances in the field and assessing the overall quality of the topic generation process. Traditional TM metrics capture the quality of topics by strictly evaluating the words that built the topics syntactically (i.e., NPMI, TF-IDF Coherence) or semantically (i.e., WEP). In here, we investigate whether we are approaching the limits of what the current evaluation metrics can assess regarding topic quality for TM. We performed a comprehensive experiment, considering three data collections widely used in automatic classification, for which each document's topic (class) is known (i.e., ACM, 20News and WOS). We contrast the quality of topics generated by four of the main TM techniques (i.e., LDA, NMF, CluWords and BerTopic) with the previous topic structure of each collection. Our results show that, despite the importance of the current metrics, they could not capture some important idiosyncratic aspects of TM, indicating the need to propose new metrics that consider, for example, the structure and organization of the documents that comprise the topics. In order to mitigate this limitation, we propose to adapt metrics commonly used to evaluate clustering algorithms since there are significant similarities between the TM and clustering strategies. Both have an unsupervised nature and the purpose of grouping similar elements. We evaluate three distinct metrics (Silhouette Score, Calinski-Harabasz and BetaCV) in the same previous scenarios and the results highlight the effectiveness of clustering metrics in distinguishing the results of MT algorithms and ground truth. However, this implies expanding the analysis space by including a new set of metrics. Therefore, we propose consolidating the various metrics, which consider both the quality of the words that make up the topics and the organizational structure of the documents, into a unified result, using Multiattribute Utility Theory (MAUT). Our results demonstrated that this approach allowed us to classify more precisely the different Topic Modeling, showing that the semantic advances generated by the use of word embeddings present in some MT strategies, as well as the solidity and consistency in the construction of topics through matrix factorization strategies.

4
  • BRENNO LEMOS MELQUIADES DOS SANTOS
  •  

    Desenvolvimento de um software científico para a modelagem e simulação computacional

  • Orientador : ALEXANDRE BITTENCOURT PIGOZZO
  • MEMBROS DA BANCA :
  • BÁRBARA DE MELO QUINTELA
  • ALEXANDRE BITTENCOURT PIGOZZO
  • MARCELO LOBOSCO
  • RAFAEL SACHETTO OLIVEIRA
  • Data: 26/03/2024

  • Mostrar Resumo
  • As áreas de Modelagem Matemática e Computacional têm se tornado cada vez mais importantes no mundo atual, no qual estudos científicos devem trazer resultados cada vez mais rápidos. Os modelos matemáticos e computacionais surgem como ferramentas poderosas no estudo e compreensão de sistemas complexos e que podem ser usados por pesquisadores de diversas áreas diferentes. Frequentemente, os modelos comumente requerem extensivo conhecimento matemático para serem criados, o que resulta em uma grande barreira de entrada para cientistas sem formação relacionada diretamente com a matemática, como biólogos por exemplo, e estudantes iniciando carreiras acadêmicas. Apesar de existirem softwares que auxiliam o desenvolvimento de modelos computacionais, estes frequentemente apresentam interfaces muito complexas na busca para se tornarem genéricos o suficiente e fornecerem muitos recursos. Neste trabalho, é apresentado o software que foi desenvolvido para construir e simular modelos de Equações Diferenciais Ordinárias. O objetivo foi desenvolver um software simples, fácil de usar e de estender com novas funcionalidades. Através da interface gráfica, o usuário pode construir um modelo utilizando um editor baseado em nós, realizar simulações e gerar o código que implementa o modelo. O software poderá ser utilizado na pesquisa e no processo ensino-aprendizagem de modelagem computacional. 


  • Mostrar Abstract
  • The areas of Mathematical and Computational Modeling have become increasingly important in today's world, in which scientific studies must bring faster and faster results. Mathematical and computational models emerge as powerful tools in the study and understanding of complex systems that can be used by researchers from different areas. However, models commonly require extensive mathematical knowledge to create, which results in a major entry barrier for scientists without a background directly related to mathematics, such as biologists, and students starting academic careers. Although there are software for these purposes, they often have very complex interfaces in their quest to become generic enough. While these software have their use cases, this work aims to deliver a simplified but functional alternative, aimed at beginners without compromising functionality for advanced users. For this, in this work a software was developed that facilitates the construction and simulation of Ordinary Differential Equations (ODEs). ODEs are some of the most common computational models that can accurately represent various phenomena. The software presents a simple and intuitive graphical interface, which allows the user to export a simulation, perform them interactively and even generate the code that computationally implements the model.

5
  • REMO DE OLIVEIRA GRESTA
  • Análise e Suporte à Nomeação: Explorando Práticas em Programação Orientada a Objetos

  • Orientador : ELDER JOSE REIOLI CIRILO
  • MEMBROS DA BANCA :
  • BRUNO BARBIERI DE PONTES CAFEO
  • ELDER JOSE REIOLI CIRILO
  • VINICIUS HUMBERTO SERAPILHA DURELLI
  • Data: 26/04/2024

  • Mostrar Resumo
  • Atualmente, pesquisas indicam que compreensão de código leva muito mais tempo de trabalho de um desenvolvedor do que escrever código. Dado que a maioria das linguagens de programação modernas impõe pouca ou nenhuma limitação aos nomes de identificadores e, portanto, os desenvolvedores podem escolher nomes de identificadores a seu próprio critério, um aspecto fundamental da compreensão do código é a nomenclatura dos identificadores. Pesquisas sobre nomenclatura de identificadores mostram que nomes informativos são cruciais para melhorar a legibilidade e a manutenção de software: essencialmente, nomes reveladores de intenção tornam o código mais fácil de entender e atuam como uma forma básica de documentação. Identificadores mal nomeados tendem a prejudicar a compreensão e a capacidade de manutenção de sistemas de software. No entanto, a maioria dos currículos de Ciência da Computação enfatiza conceitos de programação e sintaxe de linguagem em vez de diretrizes e convenções de nomenclatura. Consequentemente, os desenvolvedores não têm conhecimento sobre as práticas de nomenclatura de identificadores. Anteriormente, exploramos práticas de nomenclatura de desenvolvedores Java. Para tanto, analisamos 1.421.607 nomes de identificadores (ou seja, nomes de atributos, parâmetros e variáveis) de 40 projetos Java de código aberto e categorizamos esses nomes em oito práticas de nomenclatura. Como um estudo de acompanhamento para investigar mais detalhadamente as práticas de nomenclatura, examinamos também 40 projetos C++ de código aberto e categorizamos 1.181.774 nomes de identificadores de acordo com as oito práticas de nomenclatura mencionadas anteriormente. Examinamos a ocorrência e prevalência dessas categorias em projetos C++ e Java e nossos resultados também destacam em quais contextos os identificadores que seguem cada prática de nomenclatura tendem a aparecer com mais regularidade. Também conduzimos um questionário on-line com 52 desenvolvedores de software para obter informações do setor. No geral, acreditamos que os resultados baseados na análise de 2.603.381 nomes de identificadores podem ser úteis para aumentar a conscientização dos programadores e contribuir para melhorar os materiais educacionais e os métodos de revisão de código. Por fim, desenvolvemos uma ferramenta de análise estática para ser usada em pipelines de CI/CD, que categoriza nomes de identificadores com base nas categorias de nomenclatura criadas anteriormente, possibilitando a verificação da existência de nomes potencialmente problemáticos.


  • Mostrar Abstract
  • Currently, research indicates that understanding code takes much more of a developer's working time than writing code. Given that most modern programming languages impose little or no limitation on identifier names, thus allowing developers to choose identifier names at their discretion, a fundamental aspect of code understanding is the naming of identifiers. Research on identifier naming shows that informative names are crucial for improving software readability and maintenance: essentially, intention-revealing names make the code easier to understand and act as a basic form of documentation. Poorly named identifiers tend to impair the understanding and maintainability of software systems. However, most Computer Science curriculums emphasize programming concepts and language syntax over naming guidelines and conventions. Consequently, developers lack knowledge about identifier naming practices. Previously, we explored Java developers' naming practices. To this end, we analyzed 1,421,607 identifier names (i.e., names of attributes, parameters, and variables) from 40 open-source Java projects and categorized these names into eight naming practices. As a follow-up study to investigate naming practices in more detail, we also examined 40 open-source C++ projects and categorized 1,181,774 identifier names according to the eight previously mentioned naming practices. We examined the occurrence and prevalence of these categories in C++ and Java projects, and our results also highlight in which contexts identifiers that follow each naming practice tend to appear more regularly. We also conducted an online questionnaire with 52 software developers to obtain industry insights. Overall, we believe that the results based on the analysis of 2,603,381 identifier names can be useful for raising programmers' awareness and contributing to improving educational materials and code review methods. Finally, we developed a static analysis tool to be used in CI/CD pipelines, which categorizes identifier names based on the previously created naming categories, enabling the verification of the existence of potentially problematic names.

6
  • LUCAS MARCHISOTTI DE SOUZA
  • Modelos para predição da evasão estudantil em cursos de graduação da Universidade Federal de São João del-Rei
  • Orientador : FERNANDA SUMIKA HOJO DE SOUZA
  • MEMBROS DA BANCA :
  • ANDREA GOMES CAMPOS BIANCHI
  • ELDER JOSE REIOLI CIRILO
  • FERNANDA SUMIKA HOJO DE SOUZA
  • Data: 06/05/2024

  • Mostrar Resumo
  • A evasão estudantil consiste no abandono dos estudos por parte de estudantes formalmente matriculados. Este fenômeno é influenciado por diferentes fatores, como a perda de interesse, dificuldades financeiras, falta de investimentos e políticas adequadas, entre outros. Os impactos da evasão alcançam diferentes níveis, desde a formação interrompida do estudante, o desperdício de recursos e até a sociedade, que perde um futuro profissional. Embora a análise da evasão seja uma tarefa complexa, o avanço de técnicas computacionais como inteligência artificial tem possibilitado a análise e inferência a partir de dados, visando a compreensão e até predição desse fenômeno. Este trabalho tem como objetivo prever a evasão no contexto do ensino superior da Universidade Federal de São João del-Rei (UFSJ) considerando períodos antes e durante a pandemia da COVID-19, através da aplicação de técnicas de aprendizado de máquina. Além disso, avaliar as principais variáveis relacionadas ao fenômeno da evasão em ambos os períodos em busca de diferenças. Dados de estudantes formados e evadidos entre os anos de 2018 e 2021 dos cursos de graduação presencial da UFSJ são incluídos na análise e criação dos modelos de predição. Variáveis sociodemográficas, informações relacionadas ao curso e desempenho do estudante são selecionadas como possíveis preditoras. A análise inicial dos dados permitiu avaliar a qualidade dos dados disponíveis, a distribuição de frequência das variáveis e realizar sua preparação. A base de dados após a preparação conta com 7.305 registros e 23 variáveis além da classe alvo. A metodologia CRISP-DM comandou o processo de entendimento sobre o negócio e sobre os dados, na preparação dos dados, criação dos modelos e avaliação. Baseada em trabalhos semelhantes, a utilização dos algoritmos de Árvore de Decisão e Random Forest apresentaram taxas de acurácia, precisão, AUC e F1-score próximo ou acima dos 90%, revelando o Random Forest como detentor dos melhores resultados. Analisando a relevância das variáveis nos resultados, atributos de desempenho acadêmico e de assistência social/financeira eram esperados como importantes e confirmaram a expectativa em ambos os períodos analisados. Outros atributos já mostraram movimentos de ganho ou perda na transição ou mesmo baixa significância entre os períodos. Em suma, os resultados deste estudo revelam um desempenho promissor do modelo proposto na análise da evasão estudantil na UFSJ. Além disso, os insights obtidos sobre as características dos alunos fornecem uma base para o desenvolvimento de estratégias preventivas e de suporte aos estudantes.


  • Mostrar Abstract
  • Student dropout is the abandonment of studies by formally enrolled students. This phenomenon is influenced by different factors, such as loss of interest, financial difficulties, lack of investment, and appropriate policies, among others. The impacts of evasion reach different levels, from the student's interrupted training to the waste of resources and even society, which loses a professional future. Although the analysis of evasion is a complex task, the advancement of computational techniques such as artificial intelligence has enabled analysis and inference from data, aiming to understand and even predict this phenomenon. This work aims to predict dropout rates in the context of higher education at the Federal University of São João del-Rei (UFSJ), considering periods before and during the COVID-19 pandemic, through the application of machine learning techniques. Furthermore, evaluate the main variables related to the evasion phenomenon in both periods in search of differences. Data from students who graduated and dropped out between 2018 and 2021 from in-person undergraduate courses at UFSJ are included in the analysis and creation of prediction models. Sociodemographic variables, information related to the course, and student performance are selected as possible predictors. The initial data analysis made it possible to evaluate the quality of the available data and the frequency distribution of the variables and to carry out their preparation. After preparation, the database has 7.305 records and 23 variables in addition to the target class. The CRISP-DM methodology commanded understanding the business and data, preparing data, creating models, and evaluating. Based on similar works, the use of Decision Tree and Random Forest algorithms presented accuracy, precision, AUC, and F1-score rates close to or above 90%, revealing Random Forest as the holder of the best results. Analyzing the relevance of the variables in the results, attributes of academic performance and social/financial assistance were expected to be important and confirmed the expectation in both periods analyzed. Other attributes have already shown movements of gain or loss in the transition or even low significance between periods. In short, the results of this study reveal a promising performance of the model proposed in the analysis of student dropout at UFSJ. Furthermore, the insights gained about student characteristics provide a basis for developing preventive and student support strategies.

2023
Dissertações
1
  • Ana Roberta Melo Nascimento
  • PARALELIZAÇÃO EM MEMÓRIA DISTRIBUÍDA E MULTI-GPU DE UM SIMULADOR DA ELETROFISIOLOGIA CARDÍACA

  • Orientador : RAFAEL SACHETTO OLIVEIRA
  • MEMBROS DA BANCA :
  • CAROLINA RIBEIRO XAVIER
  • RAFAEL SACHETTO OLIVEIRA
  • RODRIGO WEBER DOS SANTOS
  • Data: 08/02/2023

  • Mostrar Resumo
  • As doenças cardiovasculares são as principais causas de morte no mundo e muitas
    dessas enfermidades requerem um entendimento profundo e detalhado das alterações
    eletrofisiológicas para o estudo de novos fármacos e dispositivos clínicos para auxi-
    liar no tratamento. Consequentemente, as simulações numéricas surgem como uma
    ferramenta relevante na investigação dessas alterações eletrofisiológicas em doenças
    cardíacas, mas a complexidade da aplicação de modelos matemáticos da eletrofisi-
    ologia cardíaca, recaem em sistemas de equações diferenciais ordinárias (EDO) de
    elevado número de incógnitas, demandando grande esforço computacional. O tra-
    balho aqui desenvolvido consistiu na implementação de uma versão em memória
    distribuída e multi-GPU (Graphics Processing Unit) de um simulador da eletrofi-
    siologia cardíaca já existente, como forma de acelerar a solução de modelos dessa
    classe. Para isso, foi adotado o modelo monodomínio de membrana celular e modelo
    de dinâmica celular Bondarenko, juntamente com passos de tempo adaptativos. O si-
    mulador foi executado em um domíniobenchmark. Para realização dos testes, foram
    utilizadas placas de vídeo de diferentes desempenho. A combinação de duas placas
    de vídeo de menor desempenho possibilitou aceleração superior a 1,5 vezes para ca-
    sos onde foi utilizada a malha mais refinada e, um balanceamento de carga entre
    placas de diferentes desempenhos foi o que proporcionou os melhores resultados. Os
    resultados mostraram que a implementação proposta foi capaz de acelerar a solu-
    ção das EDOs em diferentes cenários, demonstrando ser uma ferramenta importante
    para simulações numéricas de problemas complexos de eletrofisiologia cardíaca.


  • Mostrar Abstract
  • Cardiovascular diseases are the main causes of death in the world. Many of these dis-
    eases require a deep and detailed understanding of electrophysiological changes for
    to the study of new drugs and clinical devices to aid in the treatment. Consequently,
    numerical simulations emerge as a relevant tool in the investigation of these electro-
    physiological changes in heart disease. However, the complexity of applying mathe-
    matical models of cardiac electrophysiology falls into systems of ordinary differential
    equations (ODE) with a high number of unknowns, demanding great computational
    effort. The work developed here consisted of the implementation of a distributed
    memory parallelization and multi-GPU (Graphics Processing Unit) version of an
    existing cardiac electrophysiology simulator with the aim of accelerate the solution
    of models of this class. The monodomain cell membrane model and Bondarenko cell
    dynamics model were adopted, together with adaptive time steps. The simulator
    was run in a benchmark domain. Graphics cards of different performance were used
    to carry out the tests. The combination of two lower performance graphics cards
    allowed acceleration of more than 1.5 times for cases where the most refined mesh
    was used. Load balancing between graphics cards of different performance provided
    the best results. The results showed that the proposed implementation was able to
    accelerate the solution of ODEs in different scenarios, proving to be an important
    tool for numerical simulations of complex cardiac electrophysiology problems.

2
  • RICARDO DE SOUZA MONTEIRO
  • Uma Abordagem de Teste Baseado em Propriedades para Modelos Clássicos de Aprendizado de Máquina.

  • Orientador : VINICIUS HUMBERTO SERAPILHA DURELLI
  • MEMBROS DA BANCA :
  • ANDRÉ TAKESHI ENDO
  • ELDER JOSE REIOLI CIRILO
  • VINICIUS HUMBERTO SERAPILHA DURELLI
  • Data: 31/03/2023

  • Mostrar Resumo
  • Recentemente, a utilização de sistemas baseados em aprendizado de máquina cresceu consideravelmente. Com o aumento da utilização desse tipo de sistema de software em diferentes domínios, a necessidade de avaliar a confiabilidade desse tipo de sistema também tem se tornado cada vez mais importante. Todavia, sistemas baseados em aprendizado de máquina introduziram novos desafios que dificultam a realização de atividades de teste de software. Diferentemente dos sistemas tradicionais cujas regras de funcionamento são explicitamente programadas no código-fonte do sistema e com isso tendem a apresentar um comportamento determinístico, a natureza estatística associada à capacidade de realizar decisões autônomas faz com que os sistemas baseados em aprendizado sejam intrinsecamente difíceis de testar. Os principais problemas que dificultam a realização do teste desse tipo de sistema são: (i) o espaço de entrada abrangente; (ii) a inexistência de oráculos de teste; e (iii) a escassez de critérios de teste. A fim de abordar esses problemas, pesquisadores vêm adaptando as técnicas de teste consolidadas no teste de sistemas tradicionais para o contexto de aprendizado de máquina, propondo assim novas abordagens que possibilitam a identificação de defeitos em sistemas baseados em aprendizado de máquina. Nesse sentido, este trabalho apresenta uma abordagem de teste baseado em propriedades para modelos clássicos de aprendizado de máquina. Adicionalmente, apresenta-se uma ferramenta que foi desenvolvida como prova de conceito da abordagem proposta. Um experimento foi conduzido com o objetivo de avaliar a eficácia das amostras de dados de teste que são geradas com a execução das propriedades de teste. Os resultados sugerem que as amostras de dados de teste geradas por meio da abordagem proposta são mais eficazes do que as amostras de dados de teste que são normalmente selecionadas a partir de conjuntos de dados pré-existentes por meio da utilização de métodos de validação cruzada.


  • Mostrar Abstract
  • Recently, due to several technological advances, machine learning based software systems have gone mainstream. As a result of their widespread adoption, software testers are striving to come up with approaches to enhancing the quality and reliability of these solutions. Nonetheless, machine learning based systems pose unique testing challenges that differ from traditional software systems. Consequently, researchers have started exploring ways to adapt existing software testing techniques for machine learning based systems. To cope with the challenges of testing machine learning based systems, we propose an approach that builds on two test adequacy criteria based on decision tree models to generate property-based test cases for better evaluating machine learning models. Specifically, the proposed approach builds on two test adequacy criteria to leverage the internal structure of decision tree models. Thus, these decision tree based criteria are used to guide the selection of test inputs. This selection process is further refined by rendering the information about decisions into rules that dictate the behavior of the model. In order to explore the problem space more thoroughly, these rules are then turned into properties. To automate our approach, we developed a proof-of-concept tool that turns rules into executable code: properties. To evaluate our approach and the implementation thereof, we carried out an experiment using 21 datasets. We evaluated the effectiveness of test inputs in terms of the difference in model’s behavior between the test input and the training data. The experiment results would seem to suggest that our property-based approach is suitable for guiding the generation of effective test data.

3
  • Luan Luiz Gonçalves
  • Mediação tecnológica em ambientes de desenvolvimento colaborativo de softwares : Apoiando Citizen Developers.


  • Orientador : FLAVIO LUIZ SCHIAVONI
  • MEMBROS DA BANCA :
  • ALUIZIO BARBOSA DE OLIVEIRA NETO
  • ELDER JOSE REIOLI CIRILO
  • FLAVIO LUIZ SCHIAVONI
  • Data: 31/08/2023

  • Mostrar Resumo
  • O acesso à tecnologia como um item de necessidade básica humana; e o compartilhamento e distribuição, podem ser não apenas como produto, mas como pesamento e código liberto a alteração e a adequação para cada necessidade. O acesso ao código-fonte está diretamente relacionado a colaboração, levando em consideração que o distribuído e colaborativo depende diretamente do compartilhamento do código-fonte. Este trabalho aborda a colaboração mediada por tecnologias baseadas em software livre, discutindo a arte tradicional e a arte digital; os valores e as liberdades do software livre; e o compartilhamento de artefatos de software em diferentes granularidades. É realizado um estudo descritivo-analítico à luz dos fundamentos de Computer-Supported Cooperative Work (CSCW) e de plataformas Groupware e Low-Code. O estudo resulta em requisitos e features de Groupware que apoiam a colaboração em processos criativos presentes no desenvolvimento de software e conduz um estudo de casos da implementação das features definidas, que tem a ferramenta Mosaicode como objeto do estudo. Essa ferramenta é ambiente de programação visual, gerador de código-fonte e software livre, com o foco na geração de aplicações de software para o domínio das artes digitais. Foi desenvolvida na Universidade Federal de São João del-Rei (UFSJ), no laboratório ALICE -- Arts Lab in Interfaces, Computers, and Everything Else. O trabalho contribui para a compreensão das possibilidades e desafios do desenvolvimento colaborativo nesse contexto, abrindo caminho para um ambiente mais inclusivos, cooperativos e livres, permitindo que artistas digitais e não-programadores (citzen developers) explorem a criatividade e a colaboração em novas dimensões tecnológicas.


  • Mostrar Abstract
  • Access to technology as a fundamental human necessity; and sharing and distribution can be not only as a product, but also as thought and liberated code adaptable for each need. Access to source code is directly related to collaboration, considering that distributed and collaborative efforts depend directly on the sharing of source code. This work addresses collaboration mediated by technology based on open-source software, discussing traditional art and digital art; the values and freedoms of open-source software; and the sharing of software artifacts at different levels of granularity. A descriptive-analytical study is conducted in the light of the foundations of Computer-Supported Cooperative Work (CSCW) and Groupware and Low-Code platforms. The study yields requirements and features of Groupware that support collaboration in creative processes present in software development, and it conducts a case study of the implementation of the defined features, with the tool Mosaicode as the object of the study. This tool is a visual programming environment, source code generator, and open-source software, with a focus on generating software applications for the domain of digital arts. It was developed at the Federal University of São João del-Rei (UFSJ), in the ALICE laboratory — Arts Lab in Interfaces, Computers, and Everything Else. The work contributes to understanding the possibilities and challenges of collaborative development in this context, enabling the way for a more inclusive, cooperative, and open environment, allowing digital artists and non-programmers (citizen developers) to explore creativity and collaboration in new technological dimensions.

4
  • Elvis Hernandes Ribeiro
  • Proposta e Implementação de uma Biblioteca de desenvolvimento de soluções de rastreamento corporal baseada em sensores inerciais.
     
  • Orientador : DIEGO ROBERTO COLOMBO DIAS
  • MEMBROS DA BANCA :
  • DIEGO ROBERTO COLOMBO DIAS
  • RAFAEL SACHETTO OLIVEIRA
  • ALEXANDRE BITTENCOURT PIGOZZO
  • DANIELA GODOI JACOMASSI
  • Data: 29/09/2023

  • Mostrar Resumo
  • Nos últimos anos, a realidade virtual tem se tornado cada vez mais presente em áreas como a Saúde, por exemplo, no apoio ao processo de reabilitação neuromotora dos pacientes. A realidade virtual na área da saúde tem sido utilizada de várias maneiras como ferramenta para incentivar os pacientes a aumentar seu compromisso com as sessões de reabilitação. Entretanto, apesar dos avanços de hardware e software nos últimos anos, ainda existe demanda de ferramentas para facilitar o desenvolvimento de novas aplicações, especialmente aquelas que utilizam sensores de rastreamento corporal. Nesta dissertação apresenta o BSNAsset, uma solução de desenvolvimento que facilita o desenvolvimento de novas aplicações de realidade virtual que utilizam sensores de rastreamento corporal.


  • Mostrar Abstract
  • In recent years, virtual reality has become increasingly present in areas such as Healthcare, for example, in supporting the neuromotor rehabilitation process of patients. Virtual reality in Healthcare has been used in various ways to encourage patients to increase their engagement with rehabilitation sessions. However, despite technological and software advances, there is still a demand for tools to facilitate the development of new applications, especially those using body tracking sensors. This dissertation presents BSNAsset, a development solution that facilitates the development of new virtual reality applications that use body-tracking sensors.

2022
Dissertações
1
  • EDUARDO CARDOSO MELO
  • Predição da evasão escolar no Instituto Federal de Minas Gerais com apoio de técnicas de Aprendizado de Máquina

  • Orientador : FERNANDA SUMIKA HOJO DE SOUZA
  • MEMBROS DA BANCA :
  • EDIMILSON BATISTA DOS SANTOS
  • FERNANDA SUMIKA HOJO DE SOUZA
  • LUIZ HENRIQUE DE CAMPOS MERSCHMANN
  • Data: 26/04/2022

  • Mostrar Resumo
  • A evasão escolar é um fenômeno caracterizado por sofrer influências de diversas variáveis, o que torna complexo o estudo para identificação de quais fatores contribuem para o desligamento de um estudante da sua instituição acadêmica. Na última década houve uma considerável ampliação da oferta de cursos superiores em Instituições Federais de Ensino, especialmente em função de polı́ticas públicas que fomentaram melhorias na infraestrutura fı́sica e de pessoal das unidades educacionais, permitindo que indivı́duos com os mais variados perfis iniciassem seus estudos e fazendo com que a tarefa de compreender a evasão escolar seja mais complexa para os gestores. Paralelamente a este cenário, a área de Aprendizado de Máquina também expandiu suas possibilidades de aplicação para as mais diversas áreas, dentre elas a educação, oportunizando diferentes maneiras de analisar e compreender os dados que são gerados no ambiente de cada instituição/organização. Esta Dissertação objetivou utilizar técnicas de Aprendizado de Máquina para prever o risco de evasão escolar nos cursos de graduação presencial do Instituto Federal de Ciência, Educação e Tecnologia de Minas Gerais (IFMG), bem como identificar quais são os atributos mais associados com este fenômeno na instituição. A estruturação e organização das atividades previstas neste trabalho teve como suporte a metodologia CRISP-DM (Cross-Industry Standard Process for Data Mining). Foram conduzidas três fases de experimentos, a primeira tratando sobre o balanceamento do conjunto de dados, a segunda com a utilização de técnicas de Seleção de Atributos e a terceira aplicando uma estratégia de aprendizado semi-supervisionado para melhorar as métricas de desempenho coletadas. Como principal resultado, obteve-se um modelo capaz de classificar a evasão com 90% de acurácia e 86% de F1, indicando uma considerável possibilidade de complementar a atuação institucional no que tange a ações que visam controlar os nı́veis de evasão no IFMG.


  • Mostrar Abstract
  • School dropout is a phenomenon characterized by being influenced by several variables, which makes the study to identify which factors contribute to the dropout of a student from their academic institution complex. In the last decade there has been a considerable expansion in the offer of higher education courses in Federal Education Institutions, especially due to public policies that have fostered improvements in the physical infrastructure and personnel of educational units, allowing individuals with the most varied profiles to start their studies and do make the task of understanding school dropout more complex for managers. Parallel to this scenario, the Machine Learning area also expanded its application possibilities to the most diverse areas, including education, providing different ways of analyzing and understanding the data that are generated in the environment of each institution/organization. This Dissertation aimed to use Machine Learning techniques to predict the risk of school dropout in undergraduate courses at the Federal Institute of Science, Education and Technology of Minas Gerais (IFMG), as well as to identify which attributes are most associated with this phenomenon in institution. The structuring and organization of the activities foreseen in this work was supported by the CRISP-DM (Cross-Industry Standard Process for Data Mining) methodology. Three phases of experiments were conducted, the first dealing with the balancing of the dataset, the second using Feature Selection techniques and the third applying a semi-supervised learning strategy to improve the performance metrics collected. As a main result, we obtained a model capable of classifying dropout with 90% accuracy and 86% F1, indicating a considerable possibility of complementing institutional action with regard to actions aimed at controlling dropout levels at the IFMG.

2
  • GUSTAVO HENRIQUE MARTINS DA COSTA
  • Caracterização da relação entre interações sociais, mobilidade e aspectos socioeconômicos de indivíduos em contextos urbanos

  • Orientador : VINICIUS DA FONSECA VIEIRA
  • MEMBROS DA BANCA :
  • CAROLINA RIBEIRO XAVIER
  • LEONARDO GOLIATT DA FONSECA
  • MARCIO ROBERTO TOLEDO
  • VINICIUS DA FONSECA VIEIRA
  • Data: 13/05/2022

  • Mostrar Resumo
  • A compreensão da organização urbana é fundamental para um melhor planejamento e definição de políticas públicas que visem maior bem estar da população e mitigação de problemas socioeconômicos. Modelos computacionais capazes de integrar dados de diferentes fontes podem auxiliar a caracterização da complexa organização geográfica e socioeconômica da população em áreas urbanas com grande resolução e aplicabilidade em contextos práticos. Este trabalho apresenta a análise da complexidade urbana representada pelas relações sociais e de mobilidade através da investigação de registros de ligações telefônicas armazenadas como Call Detail Records (CDR). Além disso, visando compreender como aspectos econômicos afetam tanto a mobilidade quanto a interação entre os indivíduos, utilizou-se dados do Censo Demográfico Brasileiro de 2010, onde os setores censitários das regiões estudadas foram classififcados conforme sua renda média. Considerando duas cidades com características distintas, experimentos realizados a partir da caracterização da mobilidade individual e econômica das pessoas permitem observar uma forte interdependência entre seu comportamento de mobilidade no espaço urbano e o comportamento exibido pelas pessoas que definem sua rede social.


  • Mostrar Abstract
  • The understanding of urban organization is essential for better planning and definition of public policies that aim at greater well-being of the population and mitigation of socioeconomic problems. Computational models capable of integrating data from different sources can help to characterize the complex geographic and socioeconomic organization of the population in urban areas with high resolution and applicability in practical contexts. This work presents the analysis of urban complexity represented by social and mobility relations through the investigation of telephone call records stored as Call Detail Records (CDR). Furthermore, in order to understand how economic aspects affect both mobility and as for the interaction between individuals, data from the 2010 Brazilian Demographic Census were used, where the census sectors of the regions studied were classified according to your average income. Considering two cities with different characteristics, experiments carried out based on the characterization of people's individual and economic mobility allow us to observe a strong interdependence between their mobility behavior in the urban space and the behavior exhibited by the people who define their social network.

3
  • THIAGO ADRIANO DA SILVA
  • iRec: Um framework para modelos interativos em Sistemas de Recomendação

  • Orientador : LEONARDO CHAVES DUTRA DA ROCHA
  • MEMBROS DA BANCA :
  • LEONARDO CHAVES DUTRA DA ROCHA
  • DIEGO ROBERTO COLOMBO DIAS
  • ADRIANO CÉSAR MACHADO PEREIRA
  • LEANDRO BALBY MARINHO
  • Data: 15/07/2022

  • Mostrar Resumo
  • Atualmente,Sistemas de Recomendação (SsR) têm assumido um papel de destaque na academia e seus avanços têm refletido diretamente na qualidade de serviços oferecidos pela indústria, como em plataformas dee-commerce, de entretenimento, e até mesmo em redes sociais. Um dos principais avanços recentes é que os SsR são responsáveis pororientar a experiência dos usuários a cada feedback fornecido por meio de recomendações interativas, em que a cada interação do usuário o sistema deve recomendar um ou mais itens, receber o'feedback e atualizar seu conhecimento para a próxima recomendação.A literatura atual tem proposto diversos trabalhos que representam o'cenário de recomendação interativa como um modelo de Multi-Armed Bandits (MAB). Apesar dos significativos avanços recentes, ainda falta consenso sobre as melhores práticas a serem adotadas para avaliar essas soluções MAB. Diversas variáveis podem afetar o processo de avaliação, mas a maioria dos trabalhos se preocupa apenas com a métrica de precisão de cada método. Assim, este trabalho propõe um framework para modelos interativos em Sistemas de Recomendação,denominado iRec. Nossa proposta abrange todo o processo de experimentação, seguindo as principais diretrizes de avaliação de SsR. O iRec fornece três módulos para preparar os conjuntos de dados, criar novos agentes de recomendação e simular diferentes cenários interativos.Além disso, também contém diversos algoritmos de última geração,um módulo de ajuste de hiper parâmetros, um vasto conjunto de métricas de avaliação, diferentes formas de visualização dos resultados e um processo de validação estatística.


  • Mostrar Abstract
  • Nowadays, most e-commerce and entertainment services have adopted interactive Recommender Systems (RS) to guide the entire journey of users into the system. This task has been addressed as a Multi-Armed Bandit problem where systems must continuously learn and recommend at each iteration. However, despite the recent advances, there is still a lack of consensus on the  best practices to evaluate such bandit solutions. Several variables might affect the evaluation process, but most of the works have  only been concerned about the accuracy of each method. Thus, this work proposes an interactive RS framework named iRec. It covers the whole experimentation process by following the main RS guidelines. The iRec provides three modules to prepare the dataset, create new recommendation agents, and simulate the interactive scenario. Moreover, it also contains several state-of-the-art algorithms, a hyperparameter tuning module, distinct evaluation metrics, different ways of visualizing the results, and statistical validation.

4
  • LUCAS JÚNIO CALSAVARA ANDRADE
  • Uma aplicação neurocriptoanalítica de ataques KPA sobre o AES e seus modos de operação clássicos

  • Orientador : EDIMILSON BATISTA DOS SANTOS
  • MEMBROS DA BANCA :
  • CHARLES FIGUEREDO DE BARROS
  • EDIMILSON BATISTA DOS SANTOS
  • LAURENCE RODRIGUES DO AMARAL
  • VINICIUS DA FONSECA VIEIRA
  • Data: 12/08/2022

  • Mostrar Resumo
  • Ataques em cifras são bastante comuns em diversos sistemas que as empregam. A criptanálise vem como acréscimo na compreensão sobre o comportamento dos atacantes e possíveis ataques. A neuro-criptoanálise se acrescenta como um método criptanalítico que usa de redes neurais artificiais e suas características para ataques em algoritmos criptográficos. Este trabalho busca analisar a neuro-criptanálise (ou criptanálise neural), área emergente na criptanálise, sob a recuperação de textos simples a partir de textos cifrados. A cifra será considerada como um problema caixa-preta: seus mecanismos serão desconhecidos. Sob esta ideia, o comportamento de redes neurais artificiais na neuro-criptoanálise é observado e os resultados analisados.


  • Mostrar Abstract
  • Cipher attacks are quite common in many systems that employ them. Cryptanalysis adds to the understanding of attackers’ behavior and possible attacks. Neuro-cryptanalysis is added as a cryptanalytic method that uses artificial neural networks and their characteristics for attacks in cryptographic algorithms. This paper seeks to analyze the neuro-cryptanalysis (or neural cryptanalysis), emerging area in cryptanalysis, under plaintext recovering from ciphertext. The cipher will be considered like a black-box problem: their mechanisms will be unknown. In this idea, we observer the behavior of artificial neural networks in neural cryptanalysis.

5
  • JONAS COSTA DE SOUZA
  • Gamificação Aplicada à Aprendizagem de Critérios de Teste de Software.

  • Orientador : VINICIUS HUMBERTO SERAPILHA DURELLI
  • MEMBROS DA BANCA :
  • VINICIUS HUMBERTO SERAPILHA DURELLI
  • ELDER JOSE REIOLI CIRILO
  • MAURÍCIO RONNY DE ALMEIDA SOUZA
  • Data: 12/08/2022

  • Mostrar Resumo
  • Um desafio importante na educação tem sido construir estratégias inovadoras para motivar e engajar os estudantes ao longo do processo de ensino-aprendizado. Nesse sentido, a gamificação é uma abordagem que vem sendo empregadas nos últimos anos, e que tem trazido diversos resultados positivos. De forma geral, a gamificação consiste em utilizar estratégias semelhantes às vistas em jogos em contextos que não são relacionados a jogos. Os Pesquisadores, em particular, têm estudado como a gamificação pode ser utilizada para melhorar o desempenho de estudantes ao tentarem aprender conteúdos desafiadores. Avaliamos até que ponto a gamificação pode ser útil no ensino de critérios de teste de software baseados em grafos. Para isso, projetamos e implementamos o Gamifying Graph Coverage Criteria (GGCC), uma ferramenta que apresenta instruções gamificadas sobre critérios baseados em grafos. Conduzimos um experimento envolvendo 20 voluntários para avaliar a efetividade da gamificação nesse contexto. Os resultados mostram que os participantes expostos ao conteúdo por meio da GGCC tiveram um desempenho melhor do que os participantes expostos ao conteúdo em salas de aula tradicionais, percepção confirmada em pesquisa posterior aplicada aos participantes em relação ao GGCC.


  • Mostrar Abstract
  • A key challenge in education is devising novel strategies to motivate and engage students throughout the learning process. Gamification has been used extensively in variety of settings to support the learning process and keep students engaged. Essentially, gamification is centered on employing game-based mechanics and gamelike features to non-game problems. Recently, researchers have started looking into how gamification can be explored to improve the performance of students while trying to master challenging topics. We set out to evaluate the extent to which gamification can be a helpful in teaching graph-based software testing criteria. To this end, we designed and implemented Gamifying Graph Coverage Criteria (GGCC), which is a tool that presents instructional information on graph-based criteria in a gamified fashion. We also carried out an experiment involving 20 participants to examine the effectiveness of gamification in the context of teaching graph-based software testing criteria. We found that participants exposed to the content through GGCC and its gamelike quizzes performed better than participants exposed to the content using traditional classroom and pen-and-paper-based exams. A later survey confirmed this positive attitude from the participants towards GGCC.

6
  • FELIPE REIS VALENTE
  • Um framework multi-agente de aplicações de rastreamento corporal aplicado à reabilitação física e neurofuncional

  • Orientador : DIEGO ROBERTO COLOMBO DIAS
  • MEMBROS DA BANCA :
  • DIEGO ROBERTO COLOMBO DIAS
  • ELDER JOSE REIOLI CIRILO
  • RAFAEL SERAPILHA DURELLI
  • VINICIUS HUMBERTO SERAPILHA DURELLI
  • Data: 30/09/2022

  • Mostrar Resumo
  • O Acidente Vascular Cerebral (AVC) é uma das doenças que mais incapacitam nos dias de hoje, portanto a investigação de métodos voltados à reabilitação de pacientes pós-AVC é algo de extrema importância. Deste modo, benefícios significativos podem ser alcançados por meio da utilização de sistemas de rastreamento corporal e ambientes virtuais para este fim. Contudo, o desenvolvimento de tais aplicações envolve um grande conjunto de requisitos, tais como a construção de ambientes virtuais, os dispositivos de interação e o armazenamento e processamento dos dados coletados em sessões de reabilitação. Neste trabalho é apresentada a proposta e desenvolvimento de um framework multi-agente com o intuito de abstrair as dificuldades acerca do desenvolvimento de soluções que envolvam utilização de dispositivos para rastreamento corporal e ambientes virtuais na reabilitação neuromotora e neurofuncional.


  • Mostrar Abstract
  • Stroke is one of the most disabling diseases, so investigating methods for rehabilitating post-stroke patients is of utmost importance. Thus, this purpose can achieve significant benefits by using body tracking systems and virtual environments. However, the development of such applications involves a large set of requirements, such as the construction of virtual environments, interaction devices, and the storage and processing of data collected during rehabilitation sessions. In this master thesis is presented the proposal and development of a multi-agent framework aiming to abstract the difficulties in developing solutions that involve the use of body tracking devices and virtual environments in neuromotor and neurofunctional rehabilitation.

     

7
  • Júlio César Mendes de Resende
  • Aprendizado por Reforço Profundo: Combinando Técnicas para Aperfeiçoar o Algoritmo FQF.

  • Orientador : EDIMILSON BATISTA DOS SANTOS
  • MEMBROS DA BANCA :
  • CAROLINA RIBEIRO XAVIER
  • DENIS FERNANDO WOLF
  • EDIMILSON BATISTA DOS SANTOS
  • MARCOS ANTONIO DE MATOS LAIA
  • Data: 26/10/2022

  • Mostrar Resumo
  • Os algoritmos de aprendizado por reforço permitem que os agentes aprendam com a experiência, sem a necessidade de conhecimento prévio. Por essa razão, eles têm sido amplamente pesquisados e o uso de jogos digitais de baixa e média complexidade como ambientes de benchmark tornou-se uma prática comum. Em 2013, um novo algoritmo, chamado DQN (Deep Q Network), causou grande impacto no meio acadêmico ao obter resultados a nível de humanos em diversos jogos do Atari 2600, utilizando para isso redes neurais artificiais. Consequentemente, novas linhas de pesquisa surgiram e novos algoritmos derivados foram propostos. Dentre esses, destaca-se o FQF (Fully Parameterized Quantile Function), um algoritmo que se tornou o estado da arte entre os algoritmos não distributivos no domínio do Atari 2600. No entanto, o FQF ainda não alcançou os resultados obtidos por um especialista humano em todos os jogos avaliados. Considerando a habilidade da inteligência artificial em detectar padrões imperceptíveis por humanos, isso nos levou a acreditar que resultados melhores do que os atuais ainda poderiam ser obtidos.     Portanto, neste trabalho foi realizada uma pesquisa por trabalhos relacionados e foram escolhidas três melhorias que trouxeram sucesso em algoritmos propostos antes do FQF para serem combinadas e avaliadas juntamente com o FQF, buscando assim melhorar o algoritmo. As melhorias aplicadas ao FQF são: a utilização de três passos na diferença temporal, a aplicação da abordagem de Munchausen e o uso da experiência por repetição priorizada. A combinação das três melhorias possibilitou a análise de oito algoritmos, os quais foram avaliados em cinco jogos do Mini Atari. De acordo com as métricas analisadas, a versão do FQF que faz o uso das três melhorias foi melhor que o FQF original em todos os experimentos realizados, disponibilizando portanto uma versão mais promissora do algoritmo para a comunidade científica.


  • Mostrar Abstract
  • Reinforcement learning algorithms allow agents to learn from experience, without the need for prior knowledge. For this reason, they have been widely used and the use of low and medium complexity digital games as benchmark environments has become a common practice. In 2013, a new algorithm, called DQN (Deep Q Network), caused a great impact in the academic environment by obtaining human-level results in several Atari 2600 games, using artificial neural networks. Consequently, new lines of research emerged and new derived algorithms were proposed. Among these, the FQF (Fully Parameterized Quantile Function) stands out, an algorithm that has become the state of the art among the non-distributional algorithms in the Atari 2600 domain. However, the FQF has not yet achieved results obtained by a human expert in all evaluated games. Considering the ability of artificial intelligence to detect patterns imperceptible by humans, this led us to believe that better results than the current ones could still be obtained. Therefore, in this work, a search for related works was carried out and three improvements that brought success in algorithms proposed before the FQF were chosen to be combined and evaluated together with the FQF, thus seeking to improve the algorithm. The improvements applied to the FQF are: the use of three steps in temporal difference, the application of the Munchausen approach and the use of prioritized experience replay. The combination of the three improvements made it possible to analyze eight algorithms, which were evaluated in five MinAtar games. According to the analyzed metrics, the version of the FQF that makes use of the three improvements was better than the original FQF in all experiments carried out, thus making a more promising version of the algorithm available to the scientific community.

8
  • PABLO WILSON LAGE
  • Uma Análise sobre as Estratégias de Resiliência na Alocação de Controladores SDN.

  • Orientador : FERNANDA SUMIKA HOJO DE SOUZA
  • MEMBROS DA BANCA :
  • DANIEL LUDOVICO GUIDONI
  • FELIPE DOMINGOS DA CUNHA
  • FERNANDA SUMIKA HOJO DE SOUZA
  • Data: 31/10/2022

  • Mostrar Resumo
  • Redes Definidas por Software (ou Software Defined Networks - SDN) emergiram da proposta de separar o gerenciamento da rede da infraestrutura subjacente, permitindo uma resposta mais eficiente às novas demandas de mercado que possuem um dinamismo e grande variedade de aplicações. No paradigma SDN, os planos de dados e controle são desacoplados, oferecendo a possibilidade de configurar a rede por software. No entanto, essa característica de gerenciamento centralizado traz um de seus grandes desafios, o problema de Alocação de Controladores, que impacta diretamente a eficiência em SDN. Este problema pertence à classe NP-difícil e sua otimização aborda aspectos como custo, capacidade dos controladores, atraso entre dispositivos, resiliência, entre outros. Este trabalho visou contribuir com uma análise quantitativa sobre as estratégias de resiliência na alocação de controladores SDN. Para tanto, foi proposto um modelo de Programação Linear Inteira que considera diversas restrições de resiliência e o uso de técnicas de simulação em redes para análise de diferentes cenários. Os resultados experimentais permitiram entender o comportamento da rede diante de diferentes posicionamentos dos controladores e variação no número destes. A análise de tradeoffs mostrou que os cenários mais robustos implicam em maior investimento, mas é possível garantir um bom desempenho em cenários mais restritivos em custos, se os controladores forem adequadamente alocados.


  • Mostrar Abstract
  • Software Defined Networks (SDN) emerged from the proposal to separate network management from the underlying infrastructure, allowing more efficient response to new market demands that need dynamism and high application variety. In the SDN paradigm, data and control plans are decoupled, offering the possibility to configure the network by software. However, this centralized management characteristic brings great challenges, including the Controller Placement Problem, which impacts SDN efficiency directly. This problem belongs to the NP-hard class and its optimization considers metrics such as costs, control capacity, inter device delays, resilience, among others. This project aimed to contribute with a quantitative analysis of resilience strategies in the controller placement problem. Therefore, an Integer Linear Programming model was proposed that considers several resilience constraints and the use of simulation techniques in networks to analyze different scenarios. The experimental results allowed us to understand the behavior of the network in the face of different placements of the controllers and variation in their number. The tradeoff analysis showed that the more robust scenarios imply greater investment, but it is possible to guarantee a good performance in more restrictive cost scenarios, if the controllers are properly allocated.

9
  • RONAN JOSÉ LOPES
  • Construção de uma plataforma para análise de tendências, padrões e interações de usuários em conteúdos publicados no Twitter

  • Orientador : CAROLINA RIBEIRO XAVIER
  • MEMBROS DA BANCA :
  • CAROLINA RIBEIRO XAVIER
  • EDIMILSON BATISTA DOS SANTOS
  • MICHELE AMARAL BRANDÃO
  • VINICIUS DA FONSECA VIEIRA
  • Data: 25/11/2022

  • Mostrar Resumo
  • Há um crescente interesse comum entre as áreas de pesquisa pela análise e descoberta de conhecimento em redes sociais. Para alguns pesquisadores, entretanto, essa tarefa esbarra no empecilho do requisito técnico para implementação (e por consequência alto custo para terceirização) de uma metodologia para esse tipo de análise. A fim de auxiliar esse processo desde o agendamento da coleta dos dados até o pós-processamento e visualização, este trabalho deu origem a uma plataforma \textit{web} cuja interação viabiliza a automatização dessas etapas. A fim de validar a utilização da plataforma desenvolvida, foi realizada (com o auxílio da ferramenta) a análise do evento da leitura do relatório da CPI do COVID no Brasil, ocorrido no mês de Outubro de 2021. Dentre as principais funcionalidades implementadas, destacam-se: modelagem de tópicos, análise de sentimento, nuvem de palavras, usuários mais centrais, potenciais usuários não-autênticos, apresentação de tendências relacionadas no período de coleta e detecção e análise de padrões em comunidades. Os resultados apresentam, além da avaliação de qualidade das funcionalidades implementadas, uma análise qualitativa de informações e conhecimentos que puderam ser extraídos através do uso da própria ferramenta.


  • Mostrar Abstract
  • provisório

2021
Dissertações
1
  • JOÃO TEIXEIRA ARAUJO
  • Proposta de Arquitetura para Interação do Público em Performances Digitais

  • Orientador : FLAVIO LUIZ SCHIAVONI
  • MEMBROS DA BANCA :
  • DIEGO ROBERTO COLOMBO DIAS
  • EDIMILSON BATISTA DOS SANTOS
  • FLAVIO LUIZ SCHIAVONI
  • TIAGO FERNANDES TAVARES
  • Data: 01/02/2021

  • Mostrar Resumo
  •  A participação do público em espetáculos artísticos se faz presente na arte contemporânea como uma tentativa de quebra de papéis onde o público, o criador e o performer podem se misturar na criação e execução de um trabalho, visando proporcionar especificamente ao público um papel ativo e não de mero espectador. Este tipo de visão aliado ao constante avanço tecnológico acabou influenciando o surgimento de trabalhos artísticos os quais envolvem a participação do público através da utilização de aparatos tecnológicos, dando origem às chamadas performances e instalações digitais. Por envolver a utilização de diferentes algoritmos através de dispositivos móveis, computadores e sensores, as formas de interação do público nestes tipos de obras se tornaram bastante amplas. Desta forma, este trabalho tem como objetivo a elaboração de uma arquitetura para descrever como cada interação é dada em uma performance ou instalação digital, do ponto de vista tecnológico. Além disto, serão apresentadas 3 obras artísticas: a performance digital "O Chaos das 5", baseada no uso de dispositivos móveis para prover a interação do público; a instalação digital "Per(sino)ficação" a qual utiliza técnicas de processamento de imagem para realizar diferentes sínteses sonoras de acordo com a imagem captada do participante; e a instalação digital "Leiamídia" a qual utiliza técnicas de machine learning e de processamento de imagem e som para prover a interação dos participantes com a máquina.


  • Mostrar Abstract
  • Public participation in artistic performances is present in contemporary art as an attempt to break roles where the public, the creator and the performer can merge in the creation and execution of a work, aiming specifically to provide the public with an active and non-active role of a spectator. This type of vision coupled with constant technological advancement ended up influencing the emergence of artistic works which involve public participation through the use of technological devices, giving rise to the so-called performances and digital installations. As it involves the use of different algorithms through mobile devices, computers and sensors, the forms of public interaction in these types of works have become quite wide. In this way, this work aims to develop an architecture to describe how each interaction is given in a performance or digital installation, from a technological point of view. In addition, 3 artistic works will be presented: the digital performance "O Chaos das 5", based on the use of mobile devices to provide audience interaction; the digital installation "Per(sino)ficação" which uses image processing techniques to perform different sound syntheses according to the image captured by the participant; and the digital installation "Leiamídia" which uses machine learning and image and sound processing techniques to provide the participants interaction with the machine.

2
  • RONALDO ALVES MARQUES JÚNIOR
  • Estudo de critérios de distribuição de vacinas com doses limitadas - uma abordagem baseada em redes complexas

  • Orientador : CAROLINA RIBEIRO XAVIER
  • MEMBROS DA BANCA :
  • RODRIGO WEBER DOS SANTOS
  • CAROLINA RIBEIRO XAVIER
  • RAFAEL SACHETTO OLIVEIRA
  • VINICIUS DA FONSECA VIEIRA
  • Data: 05/03/2021

  • Mostrar Resumo
  • O interesse pela dinâmica e a compreessão das características de disseminação de doenças infectocontagiosa datam de mais de dois séculos. Diversas perspectivas podem ser consideradas nesses estudos, onde há um apreço especial pela imunização. A escolha assertiva de grupos de indivíduos a serem imunizados pode impactar diretamente na dinâmica de contaminação, tanto na proteção de partes da população quanto na minimização da velocidade de contágio. Tal tarefa é importante e desafiadora em cenários de epidemias com número reduzidos de doses disponíveis, por envolver inúmeras combinações de escolhas.

    O objetivo deste trabalho é propor uma melhora em uma metodologia para a escolha de indivíduos a serem imunizados baseada em algoritmo genético, que utiliza o modelo epidemiológico SIR para avaliação dos diferentes conjuntos propostos. Sua efetividade será verificada através de um estudo comparativo com critérios que utilizam de métricas de centralidade em redes e de uma escolha aleatoria de indivíduos. Os resultados obtidos por experimentos que simulam epidemias com a vacinação por cada um dos critérios serão avaliados sob as perspectivas que consideram o número de indivíduos afetados, o maior número de infectados em um mesmo instante e a taxa de contaminação estimada. Os resultados obtidos indicam que a escolha sistemática de indivíduos é uma decisão acertada para este tipo de problema e que os resultados obtidos pela metodologia de otimização são equivalentes aos resultados entregues pelas principais métricas de centralidade utilizadas em redes complexas.


  • Mostrar Abstract
  • The interest in the dynamics and understanding of the characteristics of infectious diseases spread dates back more than two centuries. Several perspectives can be considered in these studies, where there is a special appreciation for immunization. The assertive choice of groups of individuals to be immunized can directly impact the dynamics of contamination, both in protecting parts of the population and in minimizing the speed of contagion. Such a task is important and challenging in epidemic scenarios with reduced number of doses available, as it involves numerous combinations of choices.

    The objective of this work is to propose an improvement in a methodology for choosing individuals to be immunized based on a genetic algorithm, which uses the SIR epidemiological model to evaluate the different sets proposed. Its effectiveness will be verified through a comparative study with criteria that use metrics of centrality in networks and a random choice of individuals. The results obtained by experiments that simulate epidemics with vaccination by each of the criteria will be evaluated from the perspectives that consider the number of individuals affected, the largest number of infected at the same time and the estimated contamination rate. The results obtained indicate that the systematic choice of individuals is a correct decision for this type of problem and that the results obtained by the optimization methodology are equivalent to the results delivered by the main centrality metrics used in complex networks.



3
  • JOSE MAURO RIBEIRO
  • Caracterização e análise de redes sociais a partir de dados de telefonia móvel

  • Orientador : VINICIUS DA FONSECA VIEIRA
  • MEMBROS DA BANCA :
  • VINICIUS DA FONSECA VIEIRA
  • CAROLINA RIBEIRO XAVIER
  • DANIEL LUDOVICO GUIDONI
  • ALEXANDRE GONÇALVES EVSUKOFF
  • Data: 25/06/2021

  • Mostrar Resumo

  • A comunicação humana sofreu uma drástica mudança com o surgimento de tecnologias que removeram a barreira imposta por grandes distâncias entre as pessoas. Nos dias de hoje, essa evolução permite que indivíduos se conectem de formas tão diversas, que muitos dispositivos podem combinar texto, imagem e som em mensagens que ajudam a redefinir as relações sociais. Mais ainda, nos últimos anos, novas tecnologias para armazenamento e processamento de grandes volumes de dados permitiram que a informação coletada em tempo real seja utilizada para o desenvolvimento de soluções inovadoras que envolvem algoritmos e metodologias que são, ainda, foco de pesquisa em muitas áreas. Os registros de dados de chamadas ou CDRs (Call Detail Record) que surgem no contexto de grande volumes de dados disponíveis atualmente contêm uma enorme quantidade de informações e se tornaram alvos  de pesquisas que utilizam ferramentas de redes complexas. Informações sobre como, quando e com quem os clientes se comunicaram em dado momento, além da localização aproximada dos mesmos constituem dados valiosos que podem ser obtidos a partir de CDRs. A partir desses dados surgiram estudos propondo modelos de redes sociais e análises de mobilidade nos últimos anos, oferecendo novas possibilidades e busca por inovações. Neste trabalho são utilizados registros telefônicos de duas regiões imediatas localizadas no estado de Minas Gerais, no Brasil: a região imediata de São João del-Rei (de porte pequeno) e a região imediata de Juiz de Fora (de porte médio). Desta forma, este trabalho tem como objetivos principais a caracterização das interações sociais a partir de registros de ligações telefônicas e a investigação da relação entre as interações sociais e os padrões de mobilidade exibidos por indivíduos em centros urbanos.  A complexidade urbana analisada neste trabalho sob duas perspectivas: social e de mobilidade. A perspectiva social permite que se compreenda como se dá a interação entre pares de indivíduos, revelando aspectos importantes específicos sobre as relações humanas em contextos urbanos. Sob a perspectiva de mobilidade é possível compreender como os indivíduos interagem com o espaço urbano e o que pode auxiliar na caracterização da organização das cidades e dos indivíduos. Com a finalidade de investigar a relação entre as relações sociais e os padrões de mobilidade, os experimentos realizados tiveram como objetivo explorar o impacto de indivíduos que possuem relação social relevante nos padrões de mobilidade de outros indivíduos. Dessa forma foram realizadas análises quanto aos padrões de mobilidade a fim de medir a similaridade desses padrões entre indivíduos.  A caracterização de cada rede também foi realizada para permitir uma compreensão das mesmas seguindo métricas básicas, além de estudos das características mais complexas como reciprocidade e detecção de comunidades da rede, que são atualmente métricas de alto interesse no campo de estudo de redes sociais. Dessa forma, este trabalho fornece um conjunto rico de informações no contexto de redes sociais para regiões de forma inédita.


  • Mostrar Abstract
  • Human communication has undergone a drastic change with the emergence of technologies that have removed a barrier for great distances between people. These days, this evolution allows them to connect in such diverse ways that many devices can combine text, image and sound into messages that redefine social relationships. Furthermore, in recent years, new technologies for storing and processing large volumes of data allow the information collected in real time to be used for the development of innovative solutions involving algorithms and methodologies that are still the focus of research in many areas . The call data records or CDRs (Call Detail Record) that arise in the context of large volumes of available data, incorporate a huge amount of information and if the amount of data searches using complex networking tools. Information on how, when, and with whom customers communicated at any given time, plus the approximate location of the same valuable data that can be picked from CDRs. Based on data, studies have emerged proposing models of social networks and mobility analysis in recent years, offering new possibilities and a search for innovations. This work uses telephone records from two immediate regions in the state of Minas Gerais, Brazil: the immediate region of São João del-Rei (small size) and the immediate region of Juiz de Fora (medium size). Thus, this work has as main objectives the characterization of social interactions from phone calls records and an investigation of the relationship between social interactions and mobility patterns by reference in urban centers. Urban complexity analyzed in this work from two perspectives: social and mobility. A social perspective allows us to understand how an interaction between pairs of products takes place, revealing specific aspects about human relationships in urban contexts. From the perspective of mobility, it is possible to understand how owners interact with the urban space and what can help to characterize the organization of cities and individuals. With the investigation of a relationship between social relationships and mobility patterns, the experiments carried out aimed to explore the impact of disabling those who have a relevant social relationship on the mobility patterns of other guests. Thus, analyzes regarding mobility patterns were evaluated in order to measure a pattern similarity between patterns. The characterization of each network was also carried out to allow an understanding of the basic norms, in addition to studies of more complex characteristics such as reciprocity and detection of network communities, which are currently metrics of high interest in the field of study of social networks. In this way, this work integrated a rich set of information in the context of social networks for regions in an unprecedented way.

4
  • DANIEL BUENO DOMINGUETI
  • Ambiente virtual 3D para o ensino de vacinação

  • Orientador : DARLINTON BARBOSA FERES CARVALHO
  • MEMBROS DA BANCA :
  • DARLINTON BARBOSA FERES CARVALHO
  • DIEGO ROBERTO COLOMBO DIAS
  • DANIEL LUIZ ALVES MADEIRA
  • VALERIA CONCEICAO DE OLIVEIRA
  • JOSE REMO FERREIRA BREGA
  • Data: 08/07/2021

  • Mostrar Resumo
  • O Programa Nacional de Imunizações (PNI), criado em 1973 pelo Ministério da Saúde do Brasil, é responsável pela regulação sobre a sala de vacinação, o que inclui os procedimentos operacionais em relação a sua utilização. O enfermeiro é o profissional responsável pela supervisão da sala de vacinação e pelo processo de educação permanente da equipe, sendo necessário realizar capacitações periodicamente. No entanto, as capacitações geralmente não ocorrem de maneira sistematizada, sendo normalmente focadas apenas na atualização do calendário vacinal. Neste trabalho é proposto o uso de abordagens inovadoras, como mundos virtuais, jogos digitais e metodologias ativas, de modo a contribuir com um ambiente para ensino de vacinação. A pesquisa é delineada segundo a metodologia Design Science Research (DSR), contanto com a orientação de uma equipe multidisciplinar. Foi modelada e desenvolvido um ambiente virtual tridimensional, como uma aplicação desktop por meio do motor de jogo Unity, para apoiar a realização de capacitações em uma sala de vacina virtual. Também foi realizada a modelagem e implementação de um sistema para a criação e educação de cenários para a simulação. Foram executadas duas avaliações, uma com juízes especialistas para validar o artefato construído por meio do método Delphi e outra com aprendizes, para validar a usabilidade e aceitação de tecnologia por meio dos métodos System Usability Scale (SUS) e Unified Theory of Acceptance and Use of Technology (UTAUT2). A partir dos resultados foi possível evidenciar que a simulação proposta foi bem aceita e possui boa usabilidade de acordo com o método SUS (Score de 81,38). A análise promovida pelo UTAUT2 permitiu ainda identificar que a expectativa de desempenho foi o fator que mais influencia positivamente na intenção comportamental dos aprendizes. Destaca-se ainda que ambos os públicos que participaram das avaliações ressaltaram a relevância da simulação proposta, bem como são apontados aprimoramentos em relação à representação de alguns itens na sala virtual. Por fim, conclui-se que a simulação proposta consiste em uma alternativa viável e desejável para o ensino de vacinação.


  • Mostrar Abstract
  • The National Immunization Program (PNI), created in 1973 by the Brazilian Ministry of Health, is responsible for regulating the vaccination room, including operational procedures regarding its use. The nurse is the professional responsible for supervising the vaccination room and the team's permanent education process, being necessary to carry out periodic training. However, training usually does not occur systematically, being focused mainly on updating the vaccination schedule. In this work, we propose using innovative approaches, such as virtual worlds, digital games, and active methodologies to contribute to an environment for vaccination training. The research is outlined according to the Design Science Research (DSR) methodology, with the guidance of a multidisciplinary team. A three-dimensional virtual environment was modeled and developed as a desktop application using the Unity game engine to support a virtual vaccination room training. A system for the creation and education of scenarios for the simulation was also modeled and implemented.  Two evaluations were performed, one with expert judges to validate the artifact built through the Delphi method, and another with apprentices, to validate the usability and acceptance of technology through the SUS (System Usability Scale) and UTAUT2 (Unified Theory of Acceptance and Use of Technology) methods. The results showed that the proposed simulation was well accepted and had good usability according to the SUS method (81.38 scores). The analysis promoted by UTAUT2 also allowed us to identify that performance expectancy was the factor that most positively influenced apprentices' behavioral intentions. It is also noteworthy that both audiences that participated in the evaluations emphasized the relevance of the proposed simulation and pointed out improvements concerning the representation of some items in the virtual room. Finally, we conclude that the proposed simulation is a viable and desirable alternative for teaching vaccination.

5
  • BRUNO DE LIMA PALHARES
  • Software como Serviço Multilocatário: Desenvolvimento, Migração e Avaliação

  • Orientador : ELDER JOSE REIOLI CIRILO
  • MEMBROS DA BANCA :
  • DAVY DE MEDEIROS BAIA
  • ELDER JOSE REIOLI CIRILO
  • FLAVIO LUIZ SCHIAVONI
  • TERESINHA MOREIRA DE MAGALHÃES
  • Data: 05/08/2021

  • Mostrar Resumo
  • Software como Serviço (SaaS) é uma estratégia de mercado que fornece software empresarial escalonável como um serviço na Internet. Dentre os seus principais conceitos está a multilocação, ou seja, a habilidade que clientes, organizações e consumidores possuem de compartilhar infraestrutura e bancos de dados para aproveitar as vantagens de preço e desempenho que vêm quando se economiza escala. Neste trabalho realizou-se uma revisão da literatura para fornecer uma compreensão aprofundada de pesquisas que vêm sendo realizadas e suas tecnologias no âmbito do desenvolvimento, migração e evolução de SaaS multilocatário. Investigou-se 53 de 666 artigos recuperados e como resultado observou e comparou-se as principais propostas para o desenvolvimento e migração de aplicações SaaS. O trabalho também sintetiza as principais vantagens e desvantagens das aplicações Saas.


  • Mostrar Abstract
  • Software as a Service (Saas) is a market strategy to offer scalable enterprise software as an Internet service. Multi-tenancy, one of SaaS's central concepts, gives us the ability to share infrastructure and databases among clients, organizations, and consumers. In this work, we conducted a systematic literature review that aims to provide a deep understanding of the research realized involving the development, migration, and evaluation of Multi-tenant SaaS applications. We analyzed 53 (out of 666 papers), and as a result, we observed the leading development and migration techniques and approaches. We also synthesized the main advantages and disadvantages of SaaS applications.

6
  • VITOR ELISIARIO DO CARMO
  • FastCELF++: Uma heurística de baixo custo computacional para maximização da influência em redes

  • Orientador : CAROLINA RIBEIRO XAVIER
  • MEMBROS DA BANCA :
  • CAROLINA RIBEIRO XAVIER
  • VINICIUS DA FONSECA VIEIRA
  • FERNANDA SUMIKA HOJO DE SOUZA
  • IAGO AUGUSTO DE CARVALHO
  • Data: 06/08/2021

  • Mostrar Resumo
  • As redes sociais refletem os relacionamentos e interações entre indivíduos e têm desempenhado um papel muito importante na difusão de informação, em que a comunicação de ideias e compartilhamento de opiniões acontecem a todo momento. São diversos os exemplos de como as redes sociais podem afetar o comportamento dos indivíduos, tais como o marketing viral, a difusão de memes e a propagação de fake news. Essa dinâmica de difusão de informação tem motivado o estudo de diversas abordagens para identificar os principais influentes em uma rede. 
    O problema de Maximização de Influência consiste em encontrar um subconjunto S, chamado de conjunto de sementes, de no máximo k elementos, de modo que a propagação máxima (esperada) seja alcançada por meio de um modelo de difusão, tendo S como os influenciadores iniciais em uma rede. Já foi demonstrado que o o problema de maximização de influência é um problema de otimização NP-difícil, portanto, devido à sua complexidade, é inviável encontrar o subconjunto S que garanta a difusão mais abrangente. 
    A abordagem mais comum para este problema é a utilização de algoritmos aproximados, destacando-se o Cost-Effective Lazy Forward (CELF), cerca de 700 vezes mais rápido do que a estratégia gulosa proposta por Kemp et al., e o CELF++, que apresenta um ganho em tempo de execução entre 35 a 55% sobre o CELF.
    Este trabalho apresenta uma modificação dos dois algoritmos estado-da-arte supracitados, CELF e CELF++, substituindo as simulações de Monte Carlo por estimativas de difusão (metamodelos), para a seleção de conjunto de sementes. Buscou-se sintetizar e, com um foco especial, mostrar que: (1) os metamodelos podem ser usados para estimar qualitativamente a difusão de conjuntos de sementes; (2) o uso de métodos já conhecidos na literatura em conjunto com metamodelos é capaz de identificar, ordens de grandeza mais rápido, indivíduos mais influentes e, em alguns casos, até superar o resultado desses métodos em propagação.


  • Mostrar Abstract
  • As redes sociais refletem os relacionamentos e interações entre indivíduos e têm desempenhado um papel muito importante na difusão de informação, em que a comunicação de ideias e compartilhamento de opiniões acontecem a todo momento. São diversos os exemplos de como as redes sociais podem afetar o comportamento dos indivíduos, tais como o marketing viral, a difusão de memes e a propagação de fake news. Essa dinâmica de difusão de informação tem motivado o estudo de diversas abordagens para identificar os principais influentes em uma rede. 
    O problema de Maximização de Influência consiste em encontrar um subconjunto S, chamado de conjunto de sementes, de no máximo k elementos, de modo que a propagação máxima (esperada) seja alcançada por meio de um modelo de difusão, tendo S como os influenciadores iniciais em uma rede. Já foi demonstrado que o o problema de maximização de influência é um problema de otimização NP-difícil, portanto, devido à sua complexidade, é inviável encontrar o subconjunto S que garanta a difusão mais abrangente. 
    A abordagem mais comum para este problema é a utilização de algoritmos aproximados, destacando-se o Cost-Effective Lazy Forward (CELF), cerca de 700 vezes mais rápido do que a estratégia gulosa proposta por Kemp et al., e o CELF++, que apresenta um ganho em tempo de execução entre 35 a 55% sobre o CELF.
    Este trabalho apresenta uma modificação dos dois algoritmos estado-da-arte supracitados, CELF e CELF++, substituindo as simulações de Monte Carlo por estimativas de difusão (metamodelos), para a seleção de conjunto de sementes. Buscou-se sintetizar e, com um foco especial, mostrar que: (1) os metamodelos podem ser usados para estimar qualitativamente a difusão de conjuntos de sementes; (2) o uso de métodos já conhecidos na literatura em conjunto com metamodelos é capaz de identificar, ordens de grandeza mais rápido, indivíduos mais influentes e, em alguns casos, até superar o resultado desses métodos em propagação.

7
  • GLEYBERSON DA SILVA ANDRADE
  • Predição de Vulnerabilidades em Sistemas de Software Configuráveis: Uma abordagem baseada em Aprendizado de Máquina

  • Orientador : ELDER JOSE REIOLI CIRILO
  • MEMBROS DA BANCA :
  • ERICK GALANI MAZIERO
  • DIEGO ROBERTO COLOMBO DIAS
  • ELDER JOSE REIOLI CIRILO
  • RAFAEL SERAPILHA DURELLI
  • VINICIUS HUMBERTO SERAPILHA DURELLI
  • Data: 27/08/2021

  • Mostrar Resumo
  • Sistemas de software configuráveis oferecem uma grande variedade de benefícios, incluindo o apoio à entrega de comportamentos personalizados para necessidades específicas de clientes. Por outro lado, a complexidade resultante das opções de configuração no código-fonte eleva o esforço de evolução e manutenção dos sistemas configuráveis, culminando em uma maior inserção de erros e incidência de vulnerabilidades. Por mais que a ocorrência de erros e vulnerabilidades possa ser verificada por meio de testes manuais e automatizados, exercitar sistemas de software dinamicamente é uma tarefa cara, e que pode se tornar impraticável quando se trata de sistemas configuráveis; contexto em que o número de variantes (produtos) cresce exponencialmente conforme o número de configurações aumenta. Para contornar esse problema, heurísticas de amostragem são geralmente empregadas na seleção de subconjuntos representativos e analisáveis de variantes de um sistema configurável. Entretanto, a eficácia dessas heurísticas depende da maneira como as variantes são selecionadas e às vezes, de fortes simplificações. Neste trabalho, propomos e avaliamos uma heurística de amostragem baseada em Aprendizado de Máquina. Nossas suposições são baseadas em características intrínsecas de vulnerabilidades no código-fonte. Neste caso, foram coletadas 53 métricas referentes à complexidade de software, probabilidade de incidência de vulnerabilidade, histórico de evolução e atuação de desenvolvedores de 11 projetos escritos em C. Esses dados foram submetidos a execuções em diferentes cenários, tais como Cross-validation e Cross-project-validation, buscando reduzir o número de variantes recomendadas pela heurística LSA (Linear Sampling Algorithm). Nossos resultados demonstram que por meio de uma heurística de amostragem baseada em Aprendizado de Máquina é possível reduzir o tamanho da amostra a ser analisada, enquanto se mantém uma boa cobertura de detecção.


  • Mostrar Abstract
  • Configurable software systems offer a variety of benefits, such as supporting the easy configuration of custom behaviors for distinctive needs. However, it is known that the presence of configuration options in source code complicates maintenance tasks and requires additional effort from developers when adding or editing code statements. They need to consider multiple configurations when executing tests or performing static analysis to detect vulnerabilities. Therefore, vulnerabilities have been widely reported in configurable software systems. Unfortunately, the effectiveness of vulnerability detection depends on how the multiple configurations (i.e., samples sets) are selected. In this work, we tackle the challenge of generating more adequate system configuration samples by considering the intrinsic characteristics of security vulnerabilities. We propose a new sampling heuristic based on Machine Learning for recommending the subset of configurations that should be analyzed individually. We collected 53 metrics of 11 projects written in C referring to software complexity, probability of vulnerability incidence, evolution history, and developer's contribution. These data were subjected to execution in different scenarios, such as Cross-validation and Cross-project-validation, attempting to reduce the number of variants recommended by the LSA (Linear Sampling Algorithm) heuristic. Our results show that we can achieve high vulnerability-detection effectiveness with a smaller sample size.

8
  • CARLOS MAGNO GERALDO BARBOSA
  • SARA: um framework para análise de redes sociais online

  • Orientador : VINICIUS DA FONSECA VIEIRA
  • MEMBROS DA BANCA :
  • VINICIUS DA FONSECA VIEIRA
  • CAROLINA RIBEIRO XAVIER
  • ELDER JOSE REIOLI CIRILO
  • VICTOR STRÖELE DE ANDRADE MENEZES
  • Data: 10/12/2021

  • Mostrar Resumo
  • Redes sociais online, como WhatsApp, Twitter e Facebook são utilizados diariamente por milhares de pessoas como meio de entretenimento, comunicação, acesso à informação e reivindicações. Neste ambiente, qualquer pessoa tem o poder de gerar e propagar notícias, resultando em novas oportunidades e dilemas, como a epidemia de desinformação. Dentro desse ecossistema, bots e estratégias como \textit{Reflexive Control} (RC) podem ser utilizadas por diferentes agentes com o intuito de confundir, manipular e distorcer a opinião pública sobre assuntos de seu interesse. Portanto, abordagens que permitam auxiliar na caracterização deste ambiente com foco no usuário tornam-se essenciais. Com este intuito apresentamos a SARA (Automated System with Complex Networks and Analytics), uma abordagem que permite a caracterização de eventos em larga escala centrada nos usuários em redes sociais online, em especial no Twitter. Combinando redes complexas, mineração de texto, aprendizado de máquina com uma abordagem de comunidades a SARA, permite a identificação de contas automatizadas (bots), mapeamento de visões antagônicas sobre determinado assunto, extração de tópicos de interesse, identificação de padrões de propagação de informação e interação dos usuários de maneira semi-automatizada. No presente trabalho também é apresentando a sua aplicação na análise de três assuntos reais no Brasil, foram analisados cerca de 3 milhões de tweets sobre STF, ansiedade e vacinação.


  • Mostrar Abstract
  • Online social networks, such as WhatsApp, Twitter and Facebook are used daily by thousands of people as a means of entertainment, communication, access to information and claims. In this environment, anyone has the power to generate and propagate news, resulting in new opportunities and dilemmas, such as the misinformation epidemic. Within this ecosystem, bots and strategies like Reflexive Control (RC) can be used by different agents in order to confuse, manipulate and distort public opinion on matters of interest. Therefore, approaches that help to characterize this environment with a focus on the user become essential. To this end, we present SARA (Automated System with Complex Networks and Analytics), an approach that allows the characterization of large-scale events centered on users in online social networks, especially on Twitter. Combining complex networks, text mining, machine learning with an communities approach to SARA, allows the identification of automated accounts (bots), mapping of antagonistic views on a given subject, extraction of topics of interest, identification of propagation patterns information and user interaction in a semi-automated way. The present work also presents its application in the analysis of three real issues in Brazil. About 3 million tweets about STF, anxiety and vaccination were analyzed.

9
  • ROMULO AUGUSTO VIEIRA COSTA
  • Sunflower: uma proposta de padronização para ambientes de Internet das Coisas Musicais.

  • Orientador : FLAVIO LUIZ SCHIAVONI
  • MEMBROS DA BANCA :
  • FLAVIO LUIZ SCHIAVONI
  • DANIEL LUDOVICO GUIDONI
  • MARCELO SOARES PIMENTA
  • FILIPE CARLOS DE ALBUQUERQUE CALEGARIO
  • Data: 13/12/2021

  • Mostrar Resumo
  • A Internet das Coisas Musicais é uma área do saber posicionada entre a Internet das Coisas, novas interfaces para expressão musical, música ubíqua, inteligência artificial, arte participatória e interação humano-computador. Ela se propõe a melhorar a relação entre musicistas e seus pares, bem como a de musicistas e membros da audiência, favorecendo concertos, produções em estúdio e o aprendizado de música. Apesar de emergente, este campo já se depara com alguns desafios, como aqueles sociais, econômicos e ambientais que são decorrentes da inserção de um novo tipo de tecnologia na sociedade, além das instigações causadas nas práticas artísticas e pedagógicas. De um ponto de vista computacional, as adversidades recaem sobre a falta de privacidade e segurança, e principalmente, na falta de padronização e interoperabilidade entre os seus dispositivos. Sendo assim, o presente trabalho apresenta o design do ambiente Sunflower, destacando sua estrutura dividida em camadas e modo de funcionamento análogo à arquitetura Pipes-and-Filters, além dos protocolos e características sonoras que podem contribuir para solucionar os problemas mais recorrentes a esta área. Para validação técnica, testes foram realizados em localhost, conexão cabeada de par trançado e conexão sem fio via Wi-Fi. Ao fim de tudo, é realizada uma análise comparativa com outros três modelos já existentes, de modo a tirar conclusões sobre quais comportamentos e protocolos são recorrentes nesta área, além de indicar particularidades que podem ajudar desenvolvedores a criarem seus próprios cenários.


  • Mostrar Abstract
  • The Internet of Musical Things is an area of knowledge positioned between the Internet of Things, new interfaces for musical expression, ubiquitous music, artificial intelligence, participatory art, and human-computer interaction. It aims to improve the relationship between musicians and their peers, as well as that of musicians and audience members, favoring concerts, studio productions, and music learning. Although emerging, this field is already facing some challenges, such as social, economic, and environmental ones that result from the insertion of a new type of technology in society, in addition to the instigations caused by artistic and pedagogical practices. From a computational point of view, the adversities fall on the lack of privacy and security, and mainly, on the lack of standardization and interoperability between its devices. Therefore, this thesis presents the design of the Sunflower environment, highlighting its structure divided into layers and operating mode similar to the Pipes-and-Filters architecture, in addition to the protocols and sound characteristics that can contribute to solving the most recurrent problems in this area. For technical validation, tests were performed on localhost, wired twisted pair connection, and wireless connection via Wi-Fi. Finally, a comparative analysis is performed with three other existing models, in order to draw conclusions about which behaviors and protocols are recurrent in this area, besides indicating particularities that can help developers to create their scenarios.

10
  • IGOR OLIVEIRA LARA
  • APLICAÇÃO DE TECNOLOGIA DE COMUNICAÇÃO LPWAN LORA EM UMA REDE IOT DE LONGA DISTÂNCIA.

  • Orientador : DANIEL LUDOVICO GUIDONI
  • MEMBROS DA BANCA :
  • FELIPE DOMINGOS DA CUNHA
  • DANIEL LUDOVICO GUIDONI
  • FLAVIO LUIZ SCHIAVONI
  • Data: 16/12/2021

  • Mostrar Resumo
  • A Internet é uma rede de computadores que interconecta centenas de milhões de dispositivos em todo o mundo. Não muito tempo atrás, esses dispositivos eram principalmente computadores desktop, estações de trabalho Linux e os chamados servidores que armazenam e transmitem informações, mas hoje em dia, cada vez mais sistemas finais de Internet modernos, como TVs, consoles de jogos, telefones celulares, webcams, automóveis, dispositivos de detecção ambiental, quadros e sistemas elétricos e de segurança internos fazem parte da rede. Seguindo essa mudança que está ocorrendo na Internet (e também nas redes privadas de computadores), o termo “Internet das Coisas” (IoT – Internet of Things) está se tornando cada vez mais difundido. Este trabalho tem como objetivo implementar um protótipo funcional para Internet das Coisas utilizando Arduino e a tecnologia de comunicação LoRaWAN. Análises foram realizadas em ambiente indoor e outdoor.


  • Mostrar Abstract
  • The Internet is a network of computers that interconnect hundreds of millions of devices around the world. Not too long ago, these devices were mainly desktop computers, Linux workstations and so-called servers that store and transmit information, but nowadays, more and more modern Internet end systems like TVs, game consoles, cell phones, webcams, automobiles, environmental detection devices, frames and internal electrical and security systems are all part of the network. Following this shift that is taking place on the Internet (and also on private computer networks), the term “Internet of Things” (IoT – Internet of Things) is becoming more and more pervasive. This work aims to implement a working prototype for the Internet of Things using Arduino and LoRaWAN communication technology. Analyzes were carried out indoors and outdoors.

11
  • ROGERS RICARDO DE AVELAR CARVALHO
  • Redes Bayesianas aplicadas à Base de Conhecimento de um Sistema de Aprendizado Sem-Fim

  • Orientador : EDIMILSON BATISTA DOS SANTOS
  • MEMBROS DA BANCA :
  • DIEGO ROBERTO COLOMBO DIAS
  • EDIMILSON BATISTA DOS SANTOS
  • LÚCIA HELENA DE MAGALHÃES
  • Data: 17/12/2021

  • Mostrar Resumo
  • O primeiro sistema de aprendizado sem fim descrito na literatura é chamado NELL (Never-Ending Language Learning). O objetivo principal do sistema NELL é aprender a ler a web, cada dia melhor, para armazenar o conhecimento adquirido em uma base de conhecimento crescente e sem fim. Para ajudar o sistema NELL nesta tarefa de aprendizagem, neste projeto, é proposta a aplicação de redes Bayesianas para realizar inferências na base de conhecimento do NELL, bem como para identificar novas relações semânticas que possam ser inseridas na base de conhecimento. Um conjunto de dados foi construído a partir de informações das relações semânticas existentes na base de conhecimento do sistema NELL. Os resultados apresentados mostram que as redes Bayesianas induzidas pelos algoritmos de aprendizado DMBC e K2 podem representar relações existentes e sugerir novas relações para estender a ontologia inicial do NELL. As inferências realizadas também indicam que as redes bayesianas induzidas por ambos algoritmos são capazes de descobrir novas informações para serem inseridas na base de conhecimento do NELL.


  • Mostrar Abstract
  • The first never-ending learning system described in the literature is called NELL (Never-Ending Language Learning). The main objective of the NELL system is to learn to read the web, getting better each day, in order to store the acquired knowledge in a growing and never-ending knowledge base. To help the NELL system in this learning task, this project proposes the application of Bayesian networks to make inferences in the NELL knowledge base, as well as to identify new semantic relations that can be inserted in the knowledge base. A dataset was built from information on the semantic relations existing in the knowledge base of the NELL system. The results found show that Bayesian networks induced by the DMBC and K2 learning algorithms can represent existing relationships and suggest new relationships to extend the initial ontology of NELL. The inferences made also indicate that the Bayesian networks induced by both algorithms are capable of discovering new information to be inserted in the NELL knowledge base.

2020
Dissertações
1
  • Rafael José de Alencar Almeida
  • Suporte à análise interativa de discussões online combinando técnicas de mineração de dados

  • Orientador : DARLINTON BARBOSA FERES CARVALHO
  • MEMBROS DA BANCA :
  • CLODIS BASCARIOLI
  • DARLINTON BARBOSA FERES CARVALHO
  • EDIMILSON BATISTA DOS SANTOS
  • Data: 12/02/2020

  • Mostrar Resumo
  • Com a popularização da Internet, discussões online vêm possibilitando uma intensa e constante troca de conhecimentos entre usuários sobre os mais variados temas. Enquanto os dados produzidos nessas discussões possibilitam novas maneiras de se fazer ciência, sua análise manual apresenta-se inviável. Técnicas de mineração de dados vêm sendo adotadas, fundamentando-se na descoberta de conhecimento em bases de dados (Knowledge Discovery in Databases), um processo iterativo e com o envolvimento do especialista no domínio de problema analisado, que visa extrair conhecimento útil de grandes volumes de dados. Cada deste processo apresenta numerosas escolhas, impactando significativamente nos resultados finais da pesquisa. Entretanto, a participação do especialista em todo o processo apresenta-se como um desafio em análises multidisciplinares, onde o domínio de problema e os pesquisadores muitas vezes não pertencem à área de Mineração de Dados. Trabalhos propostos envolvem o pesquisador predominantemente na etapa de análise final dos dados, ficando a cargo dos especialistas em mineração definir os parâmetros das demais etapas. Observa-se também a ausência de propostas de processos metodológicos para as análises, limitando seu rigor e reprodutibilidade. O presente trabalho apresenta a pesquisa e o desenvolvimento de uma ferramenta de mineração de dados para análise interativa de discussões online, bem como seu processo de uso, com foco na participação do usuário pesquisador em todas as etapas da análise. Para garantir o rigor científico do desenvolvimento, é empregada a metodologia Design Science Research, onde o conhecimento e a compreensão de um domínio do problema e sua solução são alcançados por meio de um artefato projetado. O processo de uso proposto para aplicação da ferramenta desenvolvida utiliza a análise sistemática dos dados para construção de teorias, proveniente da Pesquisa Fundamentada em Dados. Sua efetiva contribuição é avaliada por meio do método System Usability Scale, aplicado a usuários na exploração de uma discussão online real. A avaliação apresenta uma alta taxa de aceitação, indicando a relevância e utilidade da ferramenta e seu processo de uso. Também é realizado um estudo de caso aplicando a ferramenta e seu processo à análise de uma discussão online sobre neurociência. A consistência dos assuntos produzidos pela análise da comunidade e sua capacidade de responder de forma satisfatória às questões de pesquisa demonstraram a aplicabilidade da pesquisa desenvolvida, além de contribuir com a criação de novos conhecimentos científicos na área. Os resultados deste trabalho foram comunicados cientificamente nos eventos internacionais IEEE 20th International Conference on Information Reuse and Integration for Data Science e II Latin American Workshop on Computational Neuroscience.


  • Mostrar Abstract
  • With the popularization of the Internet, online discussions have enabled an intense and constant exchange of knowledge between users on the most varied topics. While the data produced in these discussions enable new ways to to do science, your manual analysis is not feasible. Data mining techniques adopted, based on the discovery of knowledge in (Knowledge Discovery in Databases), an iterative process and with the specialist involvement in the analyzed problem domain, which aims to extract useful knowledge of big data. Each of this process presents numerous choices, significantly impacting the final research results. However, the participation of the specialist in the entire process presents itself as a challenge in multidisciplinary analyzes, where the problem domain and researchers often do not belong to the Data Mining area. Proposed works involve the researcher predominantly in the final data analysis stage, being mining specialists are responsible for defining the parameters for the other stages. There is also the absence of proposals for methodological processes for the analyzes, limiting its rigor and reproducibility. The present work presents the research and development of a data mining tool for analysis interactive online discussion, as well as its use process, with a focus on participation of the researcher user in all stages of the analysis. To guarantee the scientific rigor of the development, the Design Science Research methodology is used, where the knowledge and understanding of a problem domain and its solution are achieved through a designed artifact. The proposed use process for applying the developed tool uses systematic data analysis to build theories, coming from Grounded Data Research. Your effective contribution is assessed using the System Usability Scale method, applied to users in the exploration of a real online discussion. The evaluation has a high acceptance rate, indicating the relevance and utility of the tool and its process of use. It is also A case study was carried out applying the tool and its process to the analysis of a online discussion on neuroscience. The consistency of the subjects produced by the analysis community and its ability to respond satisfactorily to research demonstrated the applicability of the developed research, besides contributing with the creation of new scientific knowledge in the area. The results of this work were communicated scientifically at IEEE 20th International international events Conference on Information Reuse and Integration for Data Science and II Latin American Workshop on Computational Neuroscience.


2
  • Alan da Silva Cardoso
  • O Problema de Escassez de Matching em Recomendações nos Domínios de Recrutamento

  • Orientador : LEONARDO CHAVES DUTRA DA ROCHA
  • MEMBROS DA BANCA :
  • ADRIANO CÉSAR MACHADO PEREIRA
  • DIEGO ROBERTO COLOMBO DIAS
  • FERNANDO HENRIQUE DE JESUS MOURAO
  • LEONARDO CHAVES DUTRA DA ROCHA
  • Data: 17/02/2020

  • Mostrar Resumo
  • Conectar candidatos e empregos para promover oportunidades reais de colocação é um dos cenários mais impactantes e desafiadores para os Sistemas de Recomendação (SsR). Uma grande preocupação ao criar SsR para serviços de recrutamento é garantir oportunidades de colocação para todos os candidatos e vagas de empregos o mais rápido possível, evitando perdas financeiras para os dois lados. Nós nos referimos a esses cenários em que candidatos ou empregos sofrem com a ausência de correspondência no sistema como Problem of Matching Scarcity (PMS). Este trabalho apresenta o PMS, discutindo os motivos pelos quais o consideramos uma ameaça recorrente aos serviços de recrutamento e apresentando novas estratégias para identificar, caracterizar e mitigar o PMS em cenários reais. Avaliações experimentais em dados reais da Catho, empresa líder de recrutamento na América Latina, evidenciaram que os currículos tendem a ser menos bem escritos do que as descrições de cargos, exibindo várias informações irrelevantes. Substituir essas informações adequadamente por outras úteis reduz em até 50% o número de currículos e vagas que sofrem de PMS.


  • Mostrar Abstract
  • Connecting candidates and jobs to promote real placement opportunities is one of the most impacting and challenging scenarios for Recommender Systems (RSs). A major concern when building RSs for recruitment services is ensuring placement opportunities for all candidates and jobs as soon as possible, avoiding financial losses for both sides. We refer to these scenarios where candidates or jobs suffer from the absence of matching in the system as the Problem of Matching Scarcity (PMS). This paper introduces the PMS, discussing the reasons we consider it as a recurring threat to recruitment services and presenting novel strategies to identify, characterize, and mitigate the PMS on real scenarios. Experimental assessments on real data from Catho, the leading recruitment company in Latin America, evinced that curricula tend to be more poorly written than job descriptions, exhibiting several irrelevant pieces of information. Replacing these pieces properly by useful ones reduces up to 50% the number of curricula and jobs that suffer from PMS.


3
  • RODRIGO RIBEIRO CAPUTO
  • Deep Learning aplicado a dados estruturados como cubos OLAP

  • Orientador : EDIMILSON BATISTA DOS SANTOS
  • MEMBROS DA BANCA :
  • EDIMILSON BATISTA DOS SANTOS
  • LEONARDO CHAVES DUTRA DA ROCHA
  • LAURENCE RODRIGUES DO AMARAL
  • Data: 17/02/2020

  • Mostrar Resumo
  • O processo de Descoberta de Conhecimento de Bases de Dados (KDD) aplicado em dados estruturados é um desafio onde diversas abordagens já há algum tempo conseguiram relativo sucesso. Muitas destas abordagens baseiam-se no Aprendizado de Máquina tradicional e seus paradigmas. Já o processamento de dados não-estruturados teve sua popularização apenas recentemente, com o surgimento do Deep Learning, uma abordagem baseada em Redes Neurais Artificiais (RNAs). Embora as RNAs não sejam um método
    novo, a evolução do poder computacional de forma acessível, em especial através das GPUs, juntamente com o surgimento de técnicas cada vez mais eficientes de otimização, impulsionaram suas aplicações de uma forma extraordinária em domínios como processamento de imagens, áudio, linguagem natural, dentre outros. Este trabalho busca investigar como estas novas técnicas podem ser aplicadas a fim de melhorar os resultados em modelos gerados sobre dados estruturados. Desta investigação, surgiu a proposta da OlapNet, uma arquitetura de Rede Neural Convolucional (CNN) que baseia-se em operações implícitas de
    cubos de dados como entrada. Formalmente identificou-se que esta arquitetura é capaz se superar os resultados de um grupo específico de transformações realizadas sobre os dados, permitindo em partes a automação da etapa de transformação de dados no processo de KDD. Para verificar a proposta empiricamente, foi utilizada uma amostra de dados de uma base real contendo dados anonimizados do histórico de endividamento dos clientes de uma instituição financeira. A partir destes dados, foi modelado um problema de classificação preditiva para estimar a probabilidade de um cliente qualquer contratar novos créditos nos próximos três meses. Assim, foram utilizados métodos tradicionais de Aprendizado de
    Máquina e variações de CNNs, incluindo a proposta deste trabalho. Os resultados mostraram que em quase todos os casos as CNNs superam os métodos tradicionais, indicando que os Features Maps gerados a partir dos kernels convolucionais aprendidos pela rede são capazes de extrair características relevantes. Estes kernels não somente permitem extrair características, como reduzem a complexidade da rede ao delimitar uma vizinhança para cada pixel e diminuem a propensão de ocorrer overfitting. Dentre as CNNs testadas, a
    OlapNet supera todos os outros métodos, indicando que a arquitetura proposta é bastante promissora.


  • Mostrar Abstract
  • The Database Knowledge Discovery (KDD) process applied to structured data is a challenge where several approaches have achieved relative success for some time. Many of these approaches are based on traditional Machine Learning and its paradigms. The processing of unstructured data, on the other hand, had its popularity only recently, with the emergence of Deep Learning, an approach based on Artificial Neural Networks (ANNs). Although ANNs are not a method new, the evolution of computational power in an accessible way, especially through GPUs, together with the emergence of increasingly efficient optimization techniques, boosted its applications in an extraordinary way in domains such as image processing, audio, natural language, among others. This work seeks to investigate how these new techniques can be applied in order to improve the results in models generated on structured data. From this investigation, OlapNet's proposal arose, a Convolutional Neural Network (CNN) architecture that is based on implicit data cubes as input. Formally it was identified that this architecture is capable of surpassing the results of a specific group of transformations carried out on the data, allowing in part the automation of the data transformation stage in the KDD process. In order to verify the proposal empirically, a sample of data from a real database was used containing anonymized data on the historical indebtedness of clients of a financial institution. Based on this data, a predictive classification problem was modeled to estimate the likelihood that any customer will contract new credits in the next three months. Thus, traditional learning methods were used Machine and CNN variations, including the proposal of this work. The results showed that in almost all cases the CNNs outperform traditional methods, indicating that the Feature Maps generated from the convolutional kernels learned by the network are capable of extracting relevant characteristics. These kernels not only allow you to extract characteristics, they also reduce the complexity of the network by delimiting a neighborhood for each pixel and decrease the propensity to occur overfitting. Among the CNNs tested, OlapNet outperforms all other methods, indicating that the proposed architecture is very promising.

4
  • THIAGO DA SILVA GOMIDES
  • An Adaptive and Distributed Traffic Management System for Vehicular ad-hoc Networks

  • Orientador : DANIEL LUDOVICO GUIDONI
  • MEMBROS DA BANCA :
  • DANIEL LUDOVICO GUIDONI
  • FERNANDA SUMIKA HOJO DE SOUZA
  • ROBSON EDUARDO DE GRANDE
  • Data: 13/03/2020

  • Mostrar Resumo
  • A capacidade da infraestrutura rodoviária e as interrupções temporárias nas viagens consistem nas principais razões por trás do fenômeno do engarrafamento. A urbanização e o crescimento das cidades intensifificam ainda mais essas duas razões, por meio do aumento das áreas de trabalho e da demanda por mobilidade. Nesse cenário, vários problemas podem surgir, como altos custo de mobilidade, congestionamentos mais frequentes, danos ambientais signifificativos, prejuízos à qualidade de vida e aumento da poluição urbana. Assim, soluções tecnológicas para o congestionamento do tráfego, como Traffific Management System (TMS), surgem como aplicações alternativas e fáceis de usar. Portanto, este trabalho apresenta o ON-DEMAND: An adaptive and Distributed Traffific Management System for VANETS. A solução proposta é baseada na comunicação V2V e na visão local do congestionamento do tráfego. Durante o deslocamento em uma estrada, o veículo monitora a distância percorrida e a esperada, considerando uma condição de tráfego de flfluxo livre. A diferença entre essas medições é usada para classifificar um fator de contenção, ou seja, a percepção do veículo nas condições de tráfego na estrada. Cada veículo usa o fator de contenção para classifificar o nível geral de congestionamento e essas informações são disseminadas proativamente nas proximidades, considerando uma abordagem  adaptativa. No caso de um veículo não possuir as informações de trânsito necessárias para estimar rotas alternativas, ele executa uma descoberta reativa de conhecimento de informações de trânsito. A solução proposta é comparada com três soluções da literatura, denominadas DIVERT, PANDORA e s-NRR. Nossos resultados mostraram que ON-DEMAND apresenta melhores resultados em relação às métricas de congestionamento de rede e tráfego. 

  • Mostrar Abstract
  • Road capacity infrastructure and temporary interruptions in trips consist of the main reasons behind the traffific jam phenomenon. City urbanization and growth further intensify these two reasons through the increase of work area and the demand for mobility. In such a scenario, several issues can emerge, such as higher mobility costs, more frequent traffific jams, more signifificant environmental damage, reduced quality of life, and more pollution. Thus, technological solutions for traffific congestion as Traffific Management Systems rise as alternative and easy-to-use applications. Therefore, this work presents a ON-DEMAND: An adaptive and Distributed Traffific Management System for VANETS. The proposed solution is based on V2V communication and the local view of traffific congestion. During its displacement in a road, the vehicle monitors its travelled distance and the expected one considering a free-flflow traffific condition. The difference between these measurements is used to classify a contention factor, i.e., the vehicle perception on the road traffific condition. Each vehicle uses the contention factor to classify the overall congestion level and this information is proactively disseminated to its vicinity considering an adaptive approach. In the case a vehicle does not have the necessary traffific information to estimate alternative routes, it executes a reactive traffific information knowledge discovery. The proposed solution is compared with three literature solutions, named DIVERT, PANDORA and s-NRR. The performance evaluation shows that ON-DEMAND presents better results regarding network and traffific congestion metrics.
5
  • REGINALDO COIMBRA VIEIRA
  • Introduzindo Gerenciamento Autonômico de Incidentes em Sistemas de Software Legados

  • Orientador : ELDER JOSE REIOLI CIRILO
  • MEMBROS DA BANCA :
  • ELDER JOSE REIOLI CIRILO
  • DANIEL LUDOVICO GUIDONI
  • MARX LELES VIANA
  • Data: 06/11/2020

  • Mostrar Resumo
  • O projeto e desenvolvimento de sistemas de software autônomos vem sendo amplamente investigados principalmente a partir do manifesto disseminado pela IBM concomitantecom o advento da Computação Autonômica (Autonomic Computing). Sistemas de software autônomos (ou autonômicos) são aqueles capazes de adaptar os comportamentos existentes à demanda de novos requisitos e de resolver incidentes com a mínima intervenção humana. Porém, investigações de como incorporar as capacidades de adaptação e resolução autônoma de incidentes em sistemas existentes (legados), apesar de desejado, pouco foi investigado nos últimos anos. Permitir que sistemas de software legados se adaptem requer a identificação e incorporação de atuadores responsáveis pela adaptação do comportamento e dos sensores que medem a variação no estado dos comportamentos monitorados. Idealmente, a incorporação de atuadores e sensores deve ser realizada de um modo flexível, isto é, sem que o sistema de software tenha que ser projetado e implementado novamente. Para isso, neste artigo, propomos uma nova abordagem para o gerenciamento autônomo de incidentes em sistemas de software legados. Nossa abordagem é baseada em dois conceitos primordiais: (i) composição transversal dos sensores com o código existe pormeio de técnicas de composição invasiva; e (ii) adaptação do comportamento por meio de tecnologias de virtualização. Com isso, é possível incorporar em sistemas legados novos comportamentos autônomos de modo rápido e flexível. Apresentamos adicionalmente uma avaliação da aplicabilidade da nossa abordagem no Moodle, um sistema legado largamente utilizado na prática para a condução de cursos a distância.


  • Mostrar Abstract
  • The design and development of autonomous software systems has been extensively investigated mainly based on the manifest disseminated by IBM concomitant with the advent of Autonomic Computing. Autonomous (or autonomous) software systems are those capable of adapting existing behaviors to the demand for new requirements and of resolving incidents with minimal human intervention. However, investigations on how to incorporate the capabilities of adaptation and autonomous incident resolution in existing (legacy) systems, although desired, little has been investigated in recent years. Allowing legacy software systems to adapt requires the identification and incorporation of actuators responsible for adapting the behavior and sensors that measure the variation in the state of the monitored behaviors. Ideally, the incorporation of actuators and sensors should be carried out in a flexible way, that is, without the software system having to be designed and implemented again. To this end, in this article, we propose a new approach for autonomous incident management in legacy software systems. Our approach is based on two fundamental concepts: (i) transversal composition of the sensors with the code exists through invasive composition techniques; and (ii) adapting behavior through virtualization technologies. With this, it is possible to incorporate new autonomous behaviors in legacy systems quickly and flexibly. We also present an assessment of the applicability of our approach in Moodle, a legacy system widely used in practice for conducting distance courses.

6
  • YGOR HENRIQUE DE PAULA BARROS BAETA
  • Recuperação de Erros em Derivação de Gramáticas Livres de Contexto Aplicado à Correção de Erros Ortográficos e Gramaticais

  • Orientador : CAROLINA RIBEIRO XAVIER
  • MEMBROS DA BANCA :
  • ALEXANDRE BITTENCOURT PIGOZZO
  • CAROLINA RIBEIRO XAVIER
  • CIRO DE BARROS BARBOSA
  • VINICIUS HUMBERTO SERAPILHA DURELLI
  • Data: 10/12/2020

  • Mostrar Resumo
  • Processamento de Linguagem Natural NLP (Natural Language Processing) é uma área interdisciplinar que estuda o processamento computacional de fala natural. É uma área em crescimento devido a popularidade de chatbots e Interfaces Vocais.  Qualquer aplicação de NLP é construída sobre um fluxo básico de passos de tokenização, stemming, marcação de função gramatical Part-of-Speech tagging (ou POS-tagging, em inglês), remoção de Stop-Words, análise de dependências, reconhecimento de entidade nomeadas e co-referenciamento, e embora essas etapas já estejam muito bem desenvolvidas para textos em inglês, o mesmo não pode ser dito para todos os idiomas. Este trabalho investiga o uso de técnicas desenvolvidas para correção de erros em compiladores para melhorar o resultado do POS-tagging em frases com problemas de classificação. Os resultados apresentados na pesquise indicam que o processo desenvolvido pode ser utilizado de maneira eficaz em alguns contextos.


  • Mostrar Abstract
  •  Natural Language Processing (NLP) is an interdisciplinary field that studies computational processing of natural speech. It is a growing area due to the popularity of Chat and Voice Interfaces. NLP application are built upon a basic flow of steps: tokenization, stemming, part-of-speech (POS) tagging, stop-word removal, dependency analysis, named entity recognition and co-referencing, and while those steps already work really well on English texts, the same cannot be said for every language. This paper investigates the use of techniques developed to correct errors in compilers to improve the result of POS-tagging in phrases with classification problems. The results presented in the research indicate that the developed process can be used effectively in some contexts.

7
  • ALEXANDRE SILVA DE ALMEIDA
  • Protocolos e aplicações para internet das coisas músicas

  • Orientador : RAFAEL SACHETTO OLIVEIRA
  • MEMBROS DA BANCA :
  • TERESINHA MOREIRA DE MAGALHÃES
  • ELDER JOSE REIOLI CIRILO
  • FLAVIO LUIZ SCHIAVONI
  • RAFAEL SACHETTO OLIVEIRA
  • Data: 14/12/2020

  • Mostrar Resumo
  • A música representa um papel fundamental e cultural de influência na sociedade e nos indivíduos, em que a relação da música com os sons inspiram o modo como os ouvintes se conectam e lidam em um ambiente musical, que está sempre se transformando por sua riqueza em orquestrar modelos de formação e procedimentos musicais em ambientes oferecidos pela teoria musical tradicional.

    Isso inclui infra-estruturas e protocolos de comunicação de baixa latência, hardware da Internet das Coisas incorporado e especializado em áudio, APIs (interfaces de programação de aplicativos dedicadas), software baseado em processos de áudio ontológico e semântico e o design de novos dispositivos dedicados que propiciam a interação entre os usuários e os dispositivos e coisas musicais, além de oferecer recursos para produção ou consumo de conteúdo musical.

    Nste trabalho, após análise dos conceitos e levantamentos da Internet das Coisas musicais, enumerando algumas dificuldades encontradas em conectar e desenvolver soluções da Internet das Coisas musicas, buscamos apresentar um protocolo e cenários baseado na necessidade em que o usuário a partir de seu dispositivo consiga conectar de forma prática e interativa aos componentes e objetos musicais, captando e enviando informações, possibilitando colocar mais animação e efeitos musicais e sonoros no ambiente conforme os ritmos musicais.


  • Mostrar Abstract
  • Music plays a fundamental and cultural role in influencing society and individuals, in which the relationship between music and sounds inspires the way listeners connect and deal in a musical environment, which is always changing due to its richness in orchestrating musical training models and procedures in environments offered by traditional music theory.

    This includes low-latency communication infrastructures and protocols, embedded and specialized audio IoT hardware, APIs (dedicated application programming interfaces), software based on ontological and semantic audio processes and the design of new dedicated devices that provide interaction between users and musical devices and things, in addition to offering resources for the production or consumption of musical content.

    In this work, after analyzing the concepts and surveys of the musical Internet of Things, listing some difficulties found in connecting and developing Internet of Things music solutions, we seek to present a protocol and scenarios based on the need in which the user can connect from his device in a practical and interactive way to the components and musical objects, capturing and sending information, making it possible to place more animation and musical and sound effects in the environment according to the musical rhythms.

8
  • GILMA APARECIDA SANTOS CAMPOS
  • Estudo do impacto da seleção de sementes baseada em centralidade e em informações de comunidades sobrepostas em redes complexas

  • Orientador : CAROLINA RIBEIRO XAVIER
  • MEMBROS DA BANCA :
  • CAROLINA RIBEIRO XAVIER
  • VINICIUS DA FONSECA VIEIRA
  • CARLOS CRISTIANO HASENCLEVER BORGES
  • Data: 14/12/2020

  • Mostrar Resumo
  • Alguns cenários onde há disseminação de uma infecção, opinião ou mesmo ideias, compartilham de características importantes; eles precisam, por exemplo, de indivíduos envolvidos em um contexto social para se espalharem. As redes sociais têm sido amplamente utilizadas para modelar e simular esses processos. Fazendo-se necessário o estudo da sua estrutura para que a escolha destes indivíduos possa garantir a otimização do processo de difusão. Este trabalho se concentra em comparar o alcance da difusão em dois contextos. O primeiro seleciona indivíduos baseado em medidas de centralidade, enquanto o segundo escolhe os indivíduos utilizando critérios baseados em comunidades sobrepostas de diferentes maneiras. Uma ampla comparação foi realizada sob os modelo de difusão: Independent Cascading Model e Threshold Model. Variando os parâmetros dos modelos,  os resultados mostraram que em alguns cenários o uso de comunidades sobrepostas pode trazer melhorias no alcance da difusão.


  • Mostrar Abstract
  • Some scenarios where an infection, opinion or even ideas spread, share important characteristics; they need, for example, individuals involved in a social context to spread. Social networks have been widely used to model and simulate these processes. It is necessary to study its structure so that the choice of these individuals can guarantee the optimization of the diffusion process. This work focuses on comparing the scope of diffusion in two contexts. The first selects individuals based on measures of centrality, while the second chooses individuals using criteria based on overlapping communities in different ways. A broad comparison was made under the diffusion model: Independent Cascading Model and Threshold Model. By varying the parameters of the models, the results showed that in some scenarios the use of overlapping communities can bring improvements in the reach of diffusion.

2019
Dissertações
1
  • RODRIGO DE CARVALHO SANTOS
  • Estratégias para Aprimorar a Diversidade Categórica e Geográfica de Sistemas de Recomendação de POIs

  • Orientador : LEONARDO CHAVES DUTRA DA ROCHA
  • MEMBROS DA BANCA :
  • LEONARDO CHAVES DUTRA DA ROCHA
  • DIEGO ROBERTO COLOMBO DIAS
  • ADRIANO CÉSAR MACHADO PEREIRA
  • FERNANDO HENRIQUE DE JESUS MOURAO
  • Data: 12/08/2019

  • Mostrar Resumo
  • Atualmente, os chamados Sistemas de Recomendação (SsR) têm sido usados para auxiliar usuários a descobrir Pontos de Interesse (POIs) relevantes em redes sociais baseadas em localização (Location Based Social Network - LBSN), tais como o Yelp e o FourSquare. Diante dos principais desafios de esparsidade de dados e diferentes fontes de informação, tais como a influência geográfica, nesse cenário, a maioria dos trabalhos sobre recomendações de POIs tem se concentrado apenas na melhoria da efetividade (i.e., acurácia) dos sistemas. No entanto, existe um crescente consenso de que apenas a efetividade não é suficiente para avaliar a utilidade prática desses sistemas. Em cenários reais, as diversidades categóricas e geográficas foram identificadas como as principais dimensões complementares para avaliar a satisfação dos usuários e a utilidade das recomendações. Os poucos trabalhos existentes na literatura estão concentrados em apenas um desses conceitos, isoladamente. Neste trabalho, propomos uma nova estratégia de pós-processamento, que combina esses conceitos a fim de melhorar a utilidade dos POIs recomendados para os usuários. Nesse contexto, o pós-processamento consiste em reordenar uma lista de POIs oriunda de um Recomendador Base (RB) a fim de maximizar as diversidades categórica e geográfica entre os primeiros itens da lista. Nossos resultados experimentais nos conjuntos de dados do Yelp mostram que nossa estratégia pode melhorar a utilidade da lista de POIs recomendados aos usuários, considerando diferentes SsR e múltiplas métricas de diversificação. Nosso método é capaz de melhorar a diversidade em até 120% sem grandes perdas de efetividade.


  • Mostrar Abstract
  • Nowadays, Recommender Systems (RSs) have been used to help users tobdiscover relevant Points Of Interest (POI) in Location Based Social Network (LBSN),bsuch as Yelp and FourSquare. In face to the main data sparity challenges and different sources of information, such as geographical influence, in this scenario, most of works about POI recommendations has only focused on improving the system’s accuracy. However, there is a consensus that just it is not enough to assess the practical effectiveness. In real scenarios, categorical and geographic diversities have been identified as key dimensions of user satisfaction and recommendation utility. The few existing works are concentrated on just one of these concepts, singly. In this work, we propose a novel postprocessing strategy to combine these concepts in order to improve the usefulness of recommended POIs. In this context, postprocessing involves reordering a POI list from a Base Recommender (RB) to maximize categorical and geographic diversities among the first items on the list. Our experimental results in Yelp datasets show that our strategy can improve the usefulness of the list of recommended user POIs, considering different RSs and multiple diversification metrics. Our method is able to improve the diversity up to 120% without major accuracy losses.

2
  • MASSILON LOURENÇO FERNANDES
  • Gerenciamento de tráfego utilizando infraestrutura auxiliar em redes veiculares

  • Orientador : DANIEL LUDOVICO GUIDONI
  • MEMBROS DA BANCA :
  • DANIEL LUDOVICO GUIDONI
  • RAFAEL SACHETTO OLIVEIRA
  • CRISTIANO MACIEL DA SILVA
  • LEANDRO APARECIDO VILLAS
  • Data: 23/08/2019

  • Mostrar Resumo
  • -


  • Mostrar Abstract
  • -

3
  • JOSÉ MAURO DA SILVA SANDY
  • UAISharing - Interface Universal de Acesso a Recursos Compartilhados

  • Orientador : FLAVIO LUIZ SCHIAVONI
  • MEMBROS DA BANCA :
  • DANIEL LUDOVICO GUIDONI
  • EDUARDO BENTO PEREIRA
  • FLAVIO LUIZ SCHIAVONI
  • Data: 29/08/2019

  • Mostrar Resumo
  • A modernização das plataformas computacionais vem proporcionando o surgimento de novas características nos sistemas de informação que são pouco exploradas, e quando são, em boa parte, não apresentam padronização quanto à sua utilização. Neste cenário, um dos pontos a ser explorado é o compartilhamento de recursos criados pelos mais diversos tipos de usuário de sistemas computacionais. No entanto, é possível verificar que o  compartilhamento de recursos entre usuários finais de sistemas computacionais costuma não possuir uma padronização para controlar seu empacotamento, distribuição e versionamento. Considerando as particularidades envolvidas em cada sistema de informação, torna-se necessário a definição de uma camada de abstração que propicie que este compartilhamento possa ocorrer de forma transparente entre os usuários dos mais diversos sistemas. Com isso, este trabalho traz o UAISharing - uma interface Universal de Acesso a Recursos Compartilhados, uma proposta que visa apresentar um modelo de empacotamento e distribuição de recursos produzidos por usuários finais.



  • Mostrar Abstract
  • The modernization of computational platforms has led to the emergence of new features in information systems that are little explored, and when they are, for the most part, they do not present standardization regarding their use. In this scenario, one of the points to be explored is the sharing of resources created by the most diverse types of computer system users. However, it is possible to verify that the sharing of resources between end users of computer systems usually does not have a standardization to control their packaging, distribution and versioning. Considering the particularities involved in each information system, it is necessary to define an abstraction layer that allows this sharing to occur transparently between users of the most diverse systems. With this, this work brings UAISharing - a Universal Interface for Access to Shared Resources, a proposal that aims to present a model of packaging and distribution of resources produced by end users.

SIGAA | NTInf - Núcleo de Tecnologia da Informação - | Copyright © 2006-2024 - UFSJ - sigaa03.ufsj.edu.br.sigaa03