Dissertações/Teses
2022
Dissertações
1
  • EDUARDO CARDOSO MELO
  • Predição da evasão escolar no Instituto Federal de Minas Gerais com apoio de técnicas de Aprendizado de Máquina

  • Orientador : FERNANDA SUMIKA HOJO DE SOUZA
  • MEMBROS DA BANCA :
  • EDIMILSON BATISTA DOS SANTOS
  • FERNANDA SUMIKA HOJO DE SOUZA
  • LUIZ HENRIQUE DE CAMPOS MERSCHMANN
  • Data: 26/04/2022

  • Mostrar Resumo
  • A evasão escolar é um fenômeno caracterizado por sofrer influências de diversas variáveis, o que torna complexo o estudo para identificação de quais fatores contribuem para o desligamento de um estudante da sua instituição acadêmica. Na última década houve uma considerável ampliação da oferta de cursos superiores em Instituições Federais de Ensino, especialmente em função de polı́ticas públicas que fomentaram melhorias na infraestrutura fı́sica e de pessoal das unidades educacionais, permitindo que indivı́duos com os mais variados perfis iniciassem seus estudos e fazendo com que a tarefa de compreender a evasão escolar seja mais complexa para os gestores. Paralelamente a este cenário, a área de Aprendizado de Máquina também expandiu suas possibilidades de aplicação para as mais diversas áreas, dentre elas a educação, oportunizando diferentes maneiras de analisar e compreender os dados que são gerados no ambiente de cada instituição/organização. Esta Dissertação objetivou utilizar técnicas de Aprendizado de Máquina para prever o risco de evasão escolar nos cursos de graduação presencial do Instituto Federal de Ciência, Educação e Tecnologia de Minas Gerais (IFMG), bem como identificar quais são os atributos mais associados com este fenômeno na instituição. A estruturação e organização das atividades previstas neste trabalho teve como suporte a metodologia CRISP-DM (Cross-Industry Standard Process for Data Mining). Foram conduzidas três fases de experimentos, a primeira tratando sobre o balanceamento do conjunto de dados, a segunda com a utilização de técnicas de Seleção de Atributos e a terceira aplicando uma estratégia de aprendizado semi-supervisionado para melhorar as métricas de desempenho coletadas. Como principal resultado, obteve-se um modelo capaz de classificar a evasão com 90% de acurácia e 86% de F1, indicando uma considerável possibilidade de complementar a atuação institucional no que tange a ações que visam controlar os nı́veis de evasão no IFMG.


  • Mostrar Abstract
  • School dropout is a phenomenon characterized by being influenced by several variables, which makes the study to identify which factors contribute to the dropout of a student from their academic institution complex. In the last decade there has been a considerable expansion in the offer of higher education courses in Federal Education Institutions, especially due to public policies that have fostered improvements in the physical infrastructure and personnel of educational units, allowing individuals with the most varied profiles to start their studies and do make the task of understanding school dropout more complex for managers. Parallel to this scenario, the Machine Learning area also expanded its application possibilities to the most diverse areas, including education, providing different ways of analyzing and understanding the data that are generated in the environment of each institution/organization. This Dissertation aimed to use Machine Learning techniques to predict the risk of school dropout in undergraduate courses at the Federal Institute of Science, Education and Technology of Minas Gerais (IFMG), as well as to identify which attributes are most associated with this phenomenon in institution. The structuring and organization of the activities foreseen in this work was supported by the CRISP-DM (Cross-Industry Standard Process for Data Mining) methodology. Three phases of experiments were conducted, the first dealing with the balancing of the dataset, the second using Feature Selection techniques and the third applying a semi-supervised learning strategy to improve the performance metrics collected. As a main result, we obtained a model capable of classifying dropout with 90% accuracy and 86% F1, indicating a considerable possibility of complementing institutional action with regard to actions aimed at controlling dropout levels at the IFMG.

2
  • GUSTAVO HENRIQUE MARTINS DA COSTA
  • Caracterização da relação entre interações sociais, mobilidade e aspectos socioeconômicos de indivíduos em contextos urbanos

  • Orientador : VINICIUS DA FONSECA VIEIRA
  • MEMBROS DA BANCA :
  • CAROLINA RIBEIRO XAVIER
  • LEONARDO GOLIATT DA FONSECA
  • MARCIO ROBERTO TOLEDO
  • VINICIUS DA FONSECA VIEIRA
  • Data: 13/05/2022

  • Mostrar Resumo
  • A compreensão da organização urbana é fundamental para um melhor planejamento e definição de políticas públicas que visem maior bem estar da população e mitigação de problemas socioeconômicos. Modelos computacionais capazes de integrar dados de diferentes fontes podem auxiliar a caracterização da complexa organização geográfica e socioeconômica da população em áreas urbanas com grande resolução e aplicabilidade em contextos práticos. Este trabalho apresenta a análise da complexidade urbana representada pelas relações sociais e de mobilidade através da investigação de registros de ligações telefônicas armazenadas como Call Detail Records (CDR). Além disso, visando compreender como aspectos econômicos afetam tanto a mobilidade quanto a interação entre os indivíduos, utilizou-se dados do Censo Demográfico Brasileiro de 2010, onde os setores censitários das regiões estudadas foram classififcados conforme sua renda média. Considerando duas cidades com características distintas, experimentos realizados a partir da caracterização da mobilidade individual e econômica das pessoas permitem observar uma forte interdependência entre seu comportamento de mobilidade no espaço urbano e o comportamento exibido pelas pessoas que definem sua rede social.


  • Mostrar Abstract
  • The understanding of urban organization is essential for better planning and definition of public policies that aim at greater well-being of the population and mitigation of socioeconomic problems. Computational models capable of integrating data from different sources can help to characterize the complex geographic and socioeconomic organization of the population in urban areas with high resolution and applicability in practical contexts. This work presents the analysis of urban complexity represented by social and mobility relations through the investigation of telephone call records stored as Call Detail Records (CDR). Furthermore, in order to understand how economic aspects affect both mobility and as for the interaction between individuals, data from the 2010 Brazilian Demographic Census were used, where the census sectors of the regions studied were classified according to your average income. Considering two cities with different characteristics, experiments carried out based on the characterization of people's individual and economic mobility allow us to observe a strong interdependence between their mobility behavior in the urban space and the behavior exhibited by the people who define their social network.

3
  • THIAGO ADRIANO DA SILVA
  • iRec: Um framework para modelos interativos em Sistemas de Recomendação

  • Orientador : LEONARDO CHAVES DUTRA DA ROCHA
  • MEMBROS DA BANCA :
  • LEONARDO CHAVES DUTRA DA ROCHA
  • DIEGO ROBERTO COLOMBO DIAS
  • ADRIANO CÉSAR MACHADO PEREIRA
  • LEANDRO BALBY MARINHO
  • Data: 15/07/2022

  • Mostrar Resumo
  • Atualmente,Sistemas de Recomendação (SsR) têm assumido um papel de destaque na academia e seus avanços têm refletido diretamente na qualidade de serviços oferecidos pela indústria, como em plataformas dee-commerce, de entretenimento, e até mesmo em redes sociais. Um dos principais avanços recentes é que os SsR são responsáveis pororientar a experiência dos usuários a cada feedback fornecido por meio de recomendações interativas, em que a cada interação do usuário o sistema deve recomendar um ou mais itens, receber o'feedback e atualizar seu conhecimento para a próxima recomendação.A literatura atual tem proposto diversos trabalhos que representam o'cenário de recomendação interativa como um modelo de Multi-Armed Bandits (MAB). Apesar dos significativos avanços recentes, ainda falta consenso sobre as melhores práticas a serem adotadas para avaliar essas soluções MAB. Diversas variáveis podem afetar o processo de avaliação, mas a maioria dos trabalhos se preocupa apenas com a métrica de precisão de cada método. Assim, este trabalho propõe um framework para modelos interativos em Sistemas de Recomendação,denominado iRec. Nossa proposta abrange todo o processo de experimentação, seguindo as principais diretrizes de avaliação de SsR. O iRec fornece três módulos para preparar os conjuntos de dados, criar novos agentes de recomendação e simular diferentes cenários interativos.Além disso, também contém diversos algoritmos de última geração,um módulo de ajuste de hiper parâmetros, um vasto conjunto de métricas de avaliação, diferentes formas de visualização dos resultados e um processo de validação estatística.


  • Mostrar Abstract
  • Nowadays, most e-commerce and entertainment services have adopted interactive Recommender Systems (RS) to guide the entire journey of users into the system. This task has been addressed as a Multi-Armed Bandit problem where systems must continuously learn and recommend at each iteration. However, despite the recent advances, there is still a lack of consensus on the  best practices to evaluate such bandit solutions. Several variables might affect the evaluation process, but most of the works have  only been concerned about the accuracy of each method. Thus, this work proposes an interactive RS framework named iRec. It covers the whole experimentation process by following the main RS guidelines. The iRec provides three modules to prepare the dataset, create new recommendation agents, and simulate the interactive scenario. Moreover, it also contains several state-of-the-art algorithms, a hyperparameter tuning module, distinct evaluation metrics, different ways of visualizing the results, and statistical validation.

4
  • LUCAS JUNIO CALSAVARA ANDRADE
  • Uma aplicação neurocriptoanalítica de ataques KPA sobre o AES e seus modos de operação clássicos

  • Orientador : EDIMILSON BATISTA DOS SANTOS
  • MEMBROS DA BANCA :
  • CHARLES FIGUEREDO DE BARROS
  • EDIMILSON BATISTA DOS SANTOS
  • LAURENCE RODRIGUES DO AMARAL
  • VINICIUS DA FONSECA VIEIRA
  • Data: 12/08/2022

  • Mostrar Resumo
  • Ataques em cifras são bastante comuns em diversos sistemas que as empregam. A criptanálise vem como acréscimo na compreensão sobre o comportamento dos atacantes e possíveis ataques. A neuro-criptoanálise se acrescenta como um método criptanalítico que usa de redes neurais artificiais e suas características para ataques em algoritmos criptográficos. Este trabalho busca analisar a neuro-criptanálise (ou criptanálise neural), área emergente na criptanálise, sob a recuperação de textos simples a partir de textos cifrados. A cifra será considerada como um problema caixa-preta: seus mecanismos serão desconhecidos. Sob esta ideia, o comportamento de redes neurais artificiais na neuro-criptoanálise é observado e os resultados analisados.


  • Mostrar Abstract
  • Cipher attacks are quite common in many systems that employ them. Cryptanalysis adds to the understanding of attackers’ behavior and possible attacks. Neuro-cryptanalysis is added as a cryptanalytic method that uses artificial neural networks and their characteristics for attacks in cryptographic algorithms. This paper seeks to analyze the neuro-cryptanalysis (or neural cryptanalysis), emerging area in cryptanalysis, under plaintext recovering from ciphertext. The cipher will be considered like a black-box problem: their mechanisms will be unknown. In this idea, we observer the behavior of artificial neural networks in neural cryptanalysis.

5
  • JONAS COSTA DE SOUZA
  • Gamificação Aplicada à Aprendizagem de Critérios de Teste de Software.

  • Orientador : VINICIUS HUMBERTO SERAPILHA DURELLI
  • MEMBROS DA BANCA :
  • VINICIUS HUMBERTO SERAPILHA DURELLI
  • ELDER JOSE REIOLI CIRILO
  • MAURÍCIO RONNY DE ALMEIDA SOUZA
  • Data: 12/08/2022

  • Mostrar Resumo
  • Um desafio importante na educação tem sido construir estratégias inovadoras para motivar e engajar os estudantes ao longo do processo de ensino-aprendizado. Nesse sentido, a gamificação é uma abordagem que vem sendo empregadas nos últimos anos, e que tem trazido diversos resultados positivos. De forma geral, a gamificação consiste em utilizar estratégias semelhantes às vistas em jogos em contextos que não são relacionados a jogos. Os Pesquisadores, em particular, têm estudado como a gamificação pode ser utilizada para melhorar o desempenho de estudantes ao tentarem aprender conteúdos desafiadores. Avaliamos até que ponto a gamificação pode ser útil no ensino de critérios de teste de software baseados em grafos. Para isso, projetamos e implementamos o Gamifying Graph Coverage Criteria (GGCC), uma ferramenta que apresenta instruções gamificadas sobre critérios baseados em grafos. Conduzimos um experimento envolvendo 20 voluntários para avaliar a efetividade da gamificação nesse contexto. Os resultados mostram que os participantes expostos ao conteúdo por meio da GGCC tiveram um desempenho melhor do que os participantes expostos ao conteúdo em salas de aula tradicionais, percepção confirmada em pesquisa posterior aplicada aos participantes em relação ao GGCC.


  • Mostrar Abstract
  • A key challenge in education is devising novel strategies to motivate and engage students throughout the learning process. Gamification has been used extensively in variety of settings to support the learning process and keep students engaged. Essentially, gamification is centered on employing game-based mechanics and gamelike features to non-game problems. Recently, researchers have started looking into how gamification can be explored to improve the performance of students while trying to master challenging topics. We set out to evaluate the extent to which gamification can be a helpful in teaching graph-based software testing criteria. To this end, we designed and implemented Gamifying Graph Coverage Criteria (GGCC), which is a tool that presents instructional information on graph-based criteria in a gamified fashion. We also carried out an experiment involving 20 participants to examine the effectiveness of gamification in the context of teaching graph-based software testing criteria. We found that participants exposed to the content through GGCC and its gamelike quizzes performed better than participants exposed to the content using traditional classroom and pen-and-paper-based exams. A later survey confirmed this positive attitude from the participants towards GGCC.

2021
Dissertações
1
  • JOÃO TEIXEIRA ARAUJO
  • Proposta de Arquitetura para Interação do Público em Performances Digitais

  • Orientador : FLAVIO LUIZ SCHIAVONI
  • MEMBROS DA BANCA :
  • DIEGO ROBERTO COLOMBO DIAS
  • EDIMILSON BATISTA DOS SANTOS
  • FLAVIO LUIZ SCHIAVONI
  • TIAGO FERNANDES TAVARES
  • Data: 01/02/2021

  • Mostrar Resumo
  •  A participação do público em espetáculos artísticos se faz presente na arte contemporânea como uma tentativa de quebra de papéis onde o público, o criador e o performer podem se misturar na criação e execução de um trabalho, visando proporcionar especificamente ao público um papel ativo e não de mero espectador. Este tipo de visão aliado ao constante avanço tecnológico acabou influenciando o surgimento de trabalhos artísticos os quais envolvem a participação do público através da utilização de aparatos tecnológicos, dando origem às chamadas performances e instalações digitais. Por envolver a utilização de diferentes algoritmos através de dispositivos móveis, computadores e sensores, as formas de interação do público nestes tipos de obras se tornaram bastante amplas. Desta forma, este trabalho tem como objetivo a elaboração de uma arquitetura para descrever como cada interação é dada em uma performance ou instalação digital, do ponto de vista tecnológico. Além disto, serão apresentadas 3 obras artísticas: a performance digital "O Chaos das 5", baseada no uso de dispositivos móveis para prover a interação do público; a instalação digital "Per(sino)ficação" a qual utiliza técnicas de processamento de imagem para realizar diferentes sínteses sonoras de acordo com a imagem captada do participante; e a instalação digital "Leiamídia" a qual utiliza técnicas de machine learning e de processamento de imagem e som para prover a interação dos participantes com a máquina.


  • Mostrar Abstract
  • Public participation in artistic performances is present in contemporary art as an attempt to break roles where the public, the creator and the performer can merge in the creation and execution of a work, aiming specifically to provide the public with an active and non-active role of a spectator. This type of vision coupled with constant technological advancement ended up influencing the emergence of artistic works which involve public participation through the use of technological devices, giving rise to the so-called performances and digital installations. As it involves the use of different algorithms through mobile devices, computers and sensors, the forms of public interaction in these types of works have become quite wide. In this way, this work aims to develop an architecture to describe how each interaction is given in a performance or digital installation, from a technological point of view. In addition, 3 artistic works will be presented: the digital performance "O Chaos das 5", based on the use of mobile devices to provide audience interaction; the digital installation "Per(sino)ficação" which uses image processing techniques to perform different sound syntheses according to the image captured by the participant; and the digital installation "Leiamídia" which uses machine learning and image and sound processing techniques to provide the participants interaction with the machine.

2
  • RONALDO ALVES MARQUES JÚNIOR
  • Estudo de critérios de distribuição de vacinas com doses limitadas - uma abordagem baseada em redes complexas

  • Orientador : CAROLINA RIBEIRO XAVIER
  • MEMBROS DA BANCA :
  • RODRIGO WEBER DOS SANTOS
  • CAROLINA RIBEIRO XAVIER
  • RAFAEL SACHETTO OLIVEIRA
  • VINICIUS DA FONSECA VIEIRA
  • Data: 05/03/2021

  • Mostrar Resumo
  • O interesse pela dinâmica e a compreessão das características de disseminação de doenças infectocontagiosa datam de mais de dois séculos. Diversas perspectivas podem ser consideradas nesses estudos, onde há um apreço especial pela imunização. A escolha assertiva de grupos de indivíduos a serem imunizados pode impactar diretamente na dinâmica de contaminação, tanto na proteção de partes da população quanto na minimização da velocidade de contágio. Tal tarefa é importante e desafiadora em cenários de epidemias com número reduzidos de doses disponíveis, por envolver inúmeras combinações de escolhas.

    O objetivo deste trabalho é propor uma melhora em uma metodologia para a escolha de indivíduos a serem imunizados baseada em algoritmo genético, que utiliza o modelo epidemiológico SIR para avaliação dos diferentes conjuntos propostos. Sua efetividade será verificada através de um estudo comparativo com critérios que utilizam de métricas de centralidade em redes e de uma escolha aleatoria de indivíduos. Os resultados obtidos por experimentos que simulam epidemias com a vacinação por cada um dos critérios serão avaliados sob as perspectivas que consideram o número de indivíduos afetados, o maior número de infectados em um mesmo instante e a taxa de contaminação estimada. Os resultados obtidos indicam que a escolha sistemática de indivíduos é uma decisão acertada para este tipo de problema e que os resultados obtidos pela metodologia de otimização são equivalentes aos resultados entregues pelas principais métricas de centralidade utilizadas em redes complexas.


  • Mostrar Abstract
  • The interest in the dynamics and understanding of the characteristics of infectious diseases spread dates back more than two centuries. Several perspectives can be considered in these studies, where there is a special appreciation for immunization. The assertive choice of groups of individuals to be immunized can directly impact the dynamics of contamination, both in protecting parts of the population and in minimizing the speed of contagion. Such a task is important and challenging in epidemic scenarios with reduced number of doses available, as it involves numerous combinations of choices.

    The objective of this work is to propose an improvement in a methodology for choosing individuals to be immunized based on a genetic algorithm, which uses the SIR epidemiological model to evaluate the different sets proposed. Its effectiveness will be verified through a comparative study with criteria that use metrics of centrality in networks and a random choice of individuals. The results obtained by experiments that simulate epidemics with vaccination by each of the criteria will be evaluated from the perspectives that consider the number of individuals affected, the largest number of infected at the same time and the estimated contamination rate. The results obtained indicate that the systematic choice of individuals is a correct decision for this type of problem and that the results obtained by the optimization methodology are equivalent to the results delivered by the main centrality metrics used in complex networks.



3
  • JOSE MAURO RIBEIRO
  • Caracterização e análise de redes sociais a partir de dados de telefonia móvel

  • Orientador : VINICIUS DA FONSECA VIEIRA
  • MEMBROS DA BANCA :
  • VINICIUS DA FONSECA VIEIRA
  • CAROLINA RIBEIRO XAVIER
  • DANIEL LUDOVICO GUIDONI
  • ALEXANDRE GONÇALVES EVSUKOFF
  • Data: 25/06/2021

  • Mostrar Resumo

  • A comunicação humana sofreu uma drástica mudança com o surgimento de tecnologias que removeram a barreira imposta por grandes distâncias entre as pessoas. Nos dias de hoje, essa evolução permite que indivíduos se conectem de formas tão diversas, que muitos dispositivos podem combinar texto, imagem e som em mensagens que ajudam a redefinir as relações sociais. Mais ainda, nos últimos anos, novas tecnologias para armazenamento e processamento de grandes volumes de dados permitiram que a informação coletada em tempo real seja utilizada para o desenvolvimento de soluções inovadoras que envolvem algoritmos e metodologias que são, ainda, foco de pesquisa em muitas áreas. Os registros de dados de chamadas ou CDRs (Call Detail Record) que surgem no contexto de grande volumes de dados disponíveis atualmente contêm uma enorme quantidade de informações e se tornaram alvos  de pesquisas que utilizam ferramentas de redes complexas. Informações sobre como, quando e com quem os clientes se comunicaram em dado momento, além da localização aproximada dos mesmos constituem dados valiosos que podem ser obtidos a partir de CDRs. A partir desses dados surgiram estudos propondo modelos de redes sociais e análises de mobilidade nos últimos anos, oferecendo novas possibilidades e busca por inovações. Neste trabalho são utilizados registros telefônicos de duas regiões imediatas localizadas no estado de Minas Gerais, no Brasil: a região imediata de São João del-Rei (de porte pequeno) e a região imediata de Juiz de Fora (de porte médio). Desta forma, este trabalho tem como objetivos principais a caracterização das interações sociais a partir de registros de ligações telefônicas e a investigação da relação entre as interações sociais e os padrões de mobilidade exibidos por indivíduos em centros urbanos.  A complexidade urbana analisada neste trabalho sob duas perspectivas: social e de mobilidade. A perspectiva social permite que se compreenda como se dá a interação entre pares de indivíduos, revelando aspectos importantes específicos sobre as relações humanas em contextos urbanos. Sob a perspectiva de mobilidade é possível compreender como os indivíduos interagem com o espaço urbano e o que pode auxiliar na caracterização da organização das cidades e dos indivíduos. Com a finalidade de investigar a relação entre as relações sociais e os padrões de mobilidade, os experimentos realizados tiveram como objetivo explorar o impacto de indivíduos que possuem relação social relevante nos padrões de mobilidade de outros indivíduos. Dessa forma foram realizadas análises quanto aos padrões de mobilidade a fim de medir a similaridade desses padrões entre indivíduos.  A caracterização de cada rede também foi realizada para permitir uma compreensão das mesmas seguindo métricas básicas, além de estudos das características mais complexas como reciprocidade e detecção de comunidades da rede, que são atualmente métricas de alto interesse no campo de estudo de redes sociais. Dessa forma, este trabalho fornece um conjunto rico de informações no contexto de redes sociais para regiões de forma inédita.


  • Mostrar Abstract
  • Human communication has undergone a drastic change with the emergence of technologies that have removed a barrier for great distances between people. These days, this evolution allows them to connect in such diverse ways that many devices can combine text, image and sound into messages that redefine social relationships. Furthermore, in recent years, new technologies for storing and processing large volumes of data allow the information collected in real time to be used for the development of innovative solutions involving algorithms and methodologies that are still the focus of research in many areas . The call data records or CDRs (Call Detail Record) that arise in the context of large volumes of available data, incorporate a huge amount of information and if the amount of data searches using complex networking tools. Information on how, when, and with whom customers communicated at any given time, plus the approximate location of the same valuable data that can be picked from CDRs. Based on data, studies have emerged proposing models of social networks and mobility analysis in recent years, offering new possibilities and a search for innovations. This work uses telephone records from two immediate regions in the state of Minas Gerais, Brazil: the immediate region of São João del-Rei (small size) and the immediate region of Juiz de Fora (medium size). Thus, this work has as main objectives the characterization of social interactions from phone calls records and an investigation of the relationship between social interactions and mobility patterns by reference in urban centers. Urban complexity analyzed in this work from two perspectives: social and mobility. A social perspective allows us to understand how an interaction between pairs of products takes place, revealing specific aspects about human relationships in urban contexts. From the perspective of mobility, it is possible to understand how owners interact with the urban space and what can help to characterize the organization of cities and individuals. With the investigation of a relationship between social relationships and mobility patterns, the experiments carried out aimed to explore the impact of disabling those who have a relevant social relationship on the mobility patterns of other guests. Thus, analyzes regarding mobility patterns were evaluated in order to measure a pattern similarity between patterns. The characterization of each network was also carried out to allow an understanding of the basic norms, in addition to studies of more complex characteristics such as reciprocity and detection of network communities, which are currently metrics of high interest in the field of study of social networks. In this way, this work integrated a rich set of information in the context of social networks for regions in an unprecedented way.

4
  • DANIEL BUENO DOMINGUETI
  • Ambiente virtual 3D para o ensino de vacinação

  • Orientador : DARLINTON BARBOSA FERES CARVALHO
  • MEMBROS DA BANCA :
  • DARLINTON BARBOSA FERES CARVALHO
  • DIEGO ROBERTO COLOMBO DIAS
  • DANIEL LUIZ ALVES MADEIRA
  • VALERIA CONCEICAO DE OLIVEIRA
  • JOSE REMO FERREIRA BREGA
  • Data: 08/07/2021

  • Mostrar Resumo
  • O Programa Nacional de Imunizações (PNI), criado em 1973 pelo Ministério da Saúde do Brasil, é responsável pela regulação sobre a sala de vacinação, o que inclui os procedimentos operacionais em relação a sua utilização. O enfermeiro é o profissional responsável pela supervisão da sala de vacinação e pelo processo de educação permanente da equipe, sendo necessário realizar capacitações periodicamente. No entanto, as capacitações geralmente não ocorrem de maneira sistematizada, sendo normalmente focadas apenas na atualização do calendário vacinal. Neste trabalho é proposto o uso de abordagens inovadoras, como mundos virtuais, jogos digitais e metodologias ativas, de modo a contribuir com um ambiente para ensino de vacinação. A pesquisa é delineada segundo a metodologia Design Science Research (DSR), contanto com a orientação de uma equipe multidisciplinar. Foi modelada e desenvolvido um ambiente virtual tridimensional, como uma aplicação desktop por meio do motor de jogo Unity, para apoiar a realização de capacitações em uma sala de vacina virtual. Também foi realizada a modelagem e implementação de um sistema para a criação e educação de cenários para a simulação. Foram executadas duas avaliações, uma com juízes especialistas para validar o artefato construído por meio do método Delphi e outra com aprendizes, para validar a usabilidade e aceitação de tecnologia por meio dos métodos System Usability Scale (SUS) e Unified Theory of Acceptance and Use of Technology (UTAUT2). A partir dos resultados foi possível evidenciar que a simulação proposta foi bem aceita e possui boa usabilidade de acordo com o método SUS (Score de 81,38). A análise promovida pelo UTAUT2 permitiu ainda identificar que a expectativa de desempenho foi o fator que mais influencia positivamente na intenção comportamental dos aprendizes. Destaca-se ainda que ambos os públicos que participaram das avaliações ressaltaram a relevância da simulação proposta, bem como são apontados aprimoramentos em relação à representação de alguns itens na sala virtual. Por fim, conclui-se que a simulação proposta consiste em uma alternativa viável e desejável para o ensino de vacinação.


  • Mostrar Abstract
  • The National Immunization Program (PNI), created in 1973 by the Brazilian Ministry of Health, is responsible for regulating the vaccination room, including operational procedures regarding its use. The nurse is the professional responsible for supervising the vaccination room and the team's permanent education process, being necessary to carry out periodic training. However, training usually does not occur systematically, being focused mainly on updating the vaccination schedule. In this work, we propose using innovative approaches, such as virtual worlds, digital games, and active methodologies to contribute to an environment for vaccination training. The research is outlined according to the Design Science Research (DSR) methodology, with the guidance of a multidisciplinary team. A three-dimensional virtual environment was modeled and developed as a desktop application using the Unity game engine to support a virtual vaccination room training. A system for the creation and education of scenarios for the simulation was also modeled and implemented.  Two evaluations were performed, one with expert judges to validate the artifact built through the Delphi method, and another with apprentices, to validate the usability and acceptance of technology through the SUS (System Usability Scale) and UTAUT2 (Unified Theory of Acceptance and Use of Technology) methods. The results showed that the proposed simulation was well accepted and had good usability according to the SUS method (81.38 scores). The analysis promoted by UTAUT2 also allowed us to identify that performance expectancy was the factor that most positively influenced apprentices' behavioral intentions. It is also noteworthy that both audiences that participated in the evaluations emphasized the relevance of the proposed simulation and pointed out improvements concerning the representation of some items in the virtual room. Finally, we conclude that the proposed simulation is a viable and desirable alternative for teaching vaccination.

5
  • BRUNO DE LIMA PALHARES
  • Software como Serviço Multilocatário: Desenvolvimento, Migração e Avaliação

  • Orientador : ELDER JOSE REIOLI CIRILO
  • MEMBROS DA BANCA :
  • DAVY DE MEDEIROS BAIA
  • ELDER JOSE REIOLI CIRILO
  • FLAVIO LUIZ SCHIAVONI
  • TERESINHA MOREIRA DE MAGALHÃES
  • Data: 05/08/2021

  • Mostrar Resumo
  • Software como Serviço (SaaS) é uma estratégia de mercado que fornece software empresarial escalonável como um serviço na Internet. Dentre os seus principais conceitos está a multilocação, ou seja, a habilidade que clientes, organizações e consumidores possuem de compartilhar infraestrutura e bancos de dados para aproveitar as vantagens de preço e desempenho que vêm quando se economiza escala. Neste trabalho realizou-se uma revisão da literatura para fornecer uma compreensão aprofundada de pesquisas que vêm sendo realizadas e suas tecnologias no âmbito do desenvolvimento, migração e evolução de SaaS multilocatário. Investigou-se 53 de 666 artigos recuperados e como resultado observou e comparou-se as principais propostas para o desenvolvimento e migração de aplicações SaaS. O trabalho também sintetiza as principais vantagens e desvantagens das aplicações Saas.


  • Mostrar Abstract
  • Software as a Service (Saas) is a market strategy to offer scalable enterprise software as an Internet service. Multi-tenancy, one of SaaS's central concepts, gives us the ability to share infrastructure and databases among clients, organizations, and consumers. In this work, we conducted a systematic literature review that aims to provide a deep understanding of the research realized involving the development, migration, and evaluation of Multi-tenant SaaS applications. We analyzed 53 (out of 666 papers), and as a result, we observed the leading development and migration techniques and approaches. We also synthesized the main advantages and disadvantages of SaaS applications.

6
  • VITOR ELISIARIO DO CARMO
  • FastCELF++: Uma heurística de baixo custo computacional para maximização da influência em redes

  • Orientador : CAROLINA RIBEIRO XAVIER
  • MEMBROS DA BANCA :
  • CAROLINA RIBEIRO XAVIER
  • VINICIUS DA FONSECA VIEIRA
  • FERNANDA SUMIKA HOJO DE SOUZA
  • IAGO AUGUSTO DE CARVALHO
  • Data: 06/08/2021

  • Mostrar Resumo
  • As redes sociais refletem os relacionamentos e interações entre indivíduos e têm desempenhado um papel muito importante na difusão de informação, em que a comunicação de ideias e compartilhamento de opiniões acontecem a todo momento. São diversos os exemplos de como as redes sociais podem afetar o comportamento dos indivíduos, tais como o marketing viral, a difusão de memes e a propagação de fake news. Essa dinâmica de difusão de informação tem motivado o estudo de diversas abordagens para identificar os principais influentes em uma rede. 
    O problema de Maximização de Influência consiste em encontrar um subconjunto S, chamado de conjunto de sementes, de no máximo k elementos, de modo que a propagação máxima (esperada) seja alcançada por meio de um modelo de difusão, tendo S como os influenciadores iniciais em uma rede. Já foi demonstrado que o o problema de maximização de influência é um problema de otimização NP-difícil, portanto, devido à sua complexidade, é inviável encontrar o subconjunto S que garanta a difusão mais abrangente. 
    A abordagem mais comum para este problema é a utilização de algoritmos aproximados, destacando-se o Cost-Effective Lazy Forward (CELF), cerca de 700 vezes mais rápido do que a estratégia gulosa proposta por Kemp et al., e o CELF++, que apresenta um ganho em tempo de execução entre 35 a 55% sobre o CELF.
    Este trabalho apresenta uma modificação dos dois algoritmos estado-da-arte supracitados, CELF e CELF++, substituindo as simulações de Monte Carlo por estimativas de difusão (metamodelos), para a seleção de conjunto de sementes. Buscou-se sintetizar e, com um foco especial, mostrar que: (1) os metamodelos podem ser usados para estimar qualitativamente a difusão de conjuntos de sementes; (2) o uso de métodos já conhecidos na literatura em conjunto com metamodelos é capaz de identificar, ordens de grandeza mais rápido, indivíduos mais influentes e, em alguns casos, até superar o resultado desses métodos em propagação.


  • Mostrar Abstract
  • As redes sociais refletem os relacionamentos e interações entre indivíduos e têm desempenhado um papel muito importante na difusão de informação, em que a comunicação de ideias e compartilhamento de opiniões acontecem a todo momento. São diversos os exemplos de como as redes sociais podem afetar o comportamento dos indivíduos, tais como o marketing viral, a difusão de memes e a propagação de fake news. Essa dinâmica de difusão de informação tem motivado o estudo de diversas abordagens para identificar os principais influentes em uma rede. 
    O problema de Maximização de Influência consiste em encontrar um subconjunto S, chamado de conjunto de sementes, de no máximo k elementos, de modo que a propagação máxima (esperada) seja alcançada por meio de um modelo de difusão, tendo S como os influenciadores iniciais em uma rede. Já foi demonstrado que o o problema de maximização de influência é um problema de otimização NP-difícil, portanto, devido à sua complexidade, é inviável encontrar o subconjunto S que garanta a difusão mais abrangente. 
    A abordagem mais comum para este problema é a utilização de algoritmos aproximados, destacando-se o Cost-Effective Lazy Forward (CELF), cerca de 700 vezes mais rápido do que a estratégia gulosa proposta por Kemp et al., e o CELF++, que apresenta um ganho em tempo de execução entre 35 a 55% sobre o CELF.
    Este trabalho apresenta uma modificação dos dois algoritmos estado-da-arte supracitados, CELF e CELF++, substituindo as simulações de Monte Carlo por estimativas de difusão (metamodelos), para a seleção de conjunto de sementes. Buscou-se sintetizar e, com um foco especial, mostrar que: (1) os metamodelos podem ser usados para estimar qualitativamente a difusão de conjuntos de sementes; (2) o uso de métodos já conhecidos na literatura em conjunto com metamodelos é capaz de identificar, ordens de grandeza mais rápido, indivíduos mais influentes e, em alguns casos, até superar o resultado desses métodos em propagação.

7
  • GLEYBERSON DA SILVA ANDRADE
  • Predição de Vulnerabilidades em Sistemas de Software Configuráveis: Uma abordagem baseada em Aprendizado de Máquina

  • Orientador : ELDER JOSE REIOLI CIRILO
  • MEMBROS DA BANCA :
  • ERICK GALANI MAZIERO
  • DIEGO ROBERTO COLOMBO DIAS
  • ELDER JOSE REIOLI CIRILO
  • RAFAEL SERAPILHA DURELLI
  • VINICIUS HUMBERTO SERAPILHA DURELLI
  • Data: 27/08/2021

  • Mostrar Resumo
  • Sistemas de software configuráveis oferecem uma grande variedade de benefícios, incluindo o apoio à entrega de comportamentos personalizados para necessidades específicas de clientes. Por outro lado, a complexidade resultante das opções de configuração no código-fonte eleva o esforço de evolução e manutenção dos sistemas configuráveis, culminando em uma maior inserção de erros e incidência de vulnerabilidades. Por mais que a ocorrência de erros e vulnerabilidades possa ser verificada por meio de testes manuais e automatizados, exercitar sistemas de software dinamicamente é uma tarefa cara, e que pode se tornar impraticável quando se trata de sistemas configuráveis; contexto em que o número de variantes (produtos) cresce exponencialmente conforme o número de configurações aumenta. Para contornar esse problema, heurísticas de amostragem são geralmente empregadas na seleção de subconjuntos representativos e analisáveis de variantes de um sistema configurável. Entretanto, a eficácia dessas heurísticas depende da maneira como as variantes são selecionadas e às vezes, de fortes simplificações. Neste trabalho, propomos e avaliamos uma heurística de amostragem baseada em Aprendizado de Máquina. Nossas suposições são baseadas em características intrínsecas de vulnerabilidades no código-fonte. Neste caso, foram coletadas 53 métricas referentes à complexidade de software, probabilidade de incidência de vulnerabilidade, histórico de evolução e atuação de desenvolvedores de 11 projetos escritos em C. Esses dados foram submetidos a execuções em diferentes cenários, tais como Cross-validation e Cross-project-validation, buscando reduzir o número de variantes recomendadas pela heurística LSA (Linear Sampling Algorithm). Nossos resultados demonstram que por meio de uma heurística de amostragem baseada em Aprendizado de Máquina é possível reduzir o tamanho da amostra a ser analisada, enquanto se mantém uma boa cobertura de detecção.


  • Mostrar Abstract
  • Configurable software systems offer a variety of benefits, such as supporting the easy configuration of custom behaviors for distinctive needs. However, it is known that the presence of configuration options in source code complicates maintenance tasks and requires additional effort from developers when adding or editing code statements. They need to consider multiple configurations when executing tests or performing static analysis to detect vulnerabilities. Therefore, vulnerabilities have been widely reported in configurable software systems. Unfortunately, the effectiveness of vulnerability detection depends on how the multiple configurations (i.e., samples sets) are selected. In this work, we tackle the challenge of generating more adequate system configuration samples by considering the intrinsic characteristics of security vulnerabilities. We propose a new sampling heuristic based on Machine Learning for recommending the subset of configurations that should be analyzed individually. We collected 53 metrics of 11 projects written in C referring to software complexity, probability of vulnerability incidence, evolution history, and developer's contribution. These data were subjected to execution in different scenarios, such as Cross-validation and Cross-project-validation, attempting to reduce the number of variants recommended by the LSA (Linear Sampling Algorithm) heuristic. Our results show that we can achieve high vulnerability-detection effectiveness with a smaller sample size.

8
  • CARLOS MAGNO GERALDO BARBOSA
  • SARA: um framework para análise de redes sociais online

  • Orientador : VINICIUS DA FONSECA VIEIRA
  • MEMBROS DA BANCA :
  • VINICIUS DA FONSECA VIEIRA
  • CAROLINA RIBEIRO XAVIER
  • ELDER JOSE REIOLI CIRILO
  • VICTOR STRÖELE DE ANDRADE MENEZES
  • Data: 10/12/2021

  • Mostrar Resumo
  • Redes sociais online, como WhatsApp, Twitter e Facebook são utilizados diariamente por milhares de pessoas como meio de entretenimento, comunicação, acesso à informação e reivindicações. Neste ambiente, qualquer pessoa tem o poder de gerar e propagar notícias, resultando em novas oportunidades e dilemas, como a epidemia de desinformação. Dentro desse ecossistema, bots e estratégias como \textit{Reflexive Control} (RC) podem ser utilizadas por diferentes agentes com o intuito de confundir, manipular e distorcer a opinião pública sobre assuntos de seu interesse. Portanto, abordagens que permitam auxiliar na caracterização deste ambiente com foco no usuário tornam-se essenciais. Com este intuito apresentamos a SARA (Automated System with Complex Networks and Analytics), uma abordagem que permite a caracterização de eventos em larga escala centrada nos usuários em redes sociais online, em especial no Twitter. Combinando redes complexas, mineração de texto, aprendizado de máquina com uma abordagem de comunidades a SARA, permite a identificação de contas automatizadas (bots), mapeamento de visões antagônicas sobre determinado assunto, extração de tópicos de interesse, identificação de padrões de propagação de informação e interação dos usuários de maneira semi-automatizada. No presente trabalho também é apresentando a sua aplicação na análise de três assuntos reais no Brasil, foram analisados cerca de 3 milhões de tweets sobre STF, ansiedade e vacinação.


  • Mostrar Abstract
  • Online social networks, such as WhatsApp, Twitter and Facebook are used daily by thousands of people as a means of entertainment, communication, access to information and claims. In this environment, anyone has the power to generate and propagate news, resulting in new opportunities and dilemmas, such as the misinformation epidemic. Within this ecosystem, bots and strategies like Reflexive Control (RC) can be used by different agents in order to confuse, manipulate and distort public opinion on matters of interest. Therefore, approaches that help to characterize this environment with a focus on the user become essential. To this end, we present SARA (Automated System with Complex Networks and Analytics), an approach that allows the characterization of large-scale events centered on users in online social networks, especially on Twitter. Combining complex networks, text mining, machine learning with an communities approach to SARA, allows the identification of automated accounts (bots), mapping of antagonistic views on a given subject, extraction of topics of interest, identification of propagation patterns information and user interaction in a semi-automated way. The present work also presents its application in the analysis of three real issues in Brazil. About 3 million tweets about STF, anxiety and vaccination were analyzed.

9
  • ROMULO AUGUSTO VIEIRA COSTA
  • Sunflower: uma proposta de padronização para ambientes de Internet das Coisas Musicais.

  • Orientador : FLAVIO LUIZ SCHIAVONI
  • MEMBROS DA BANCA :
  • FLAVIO LUIZ SCHIAVONI
  • DANIEL LUDOVICO GUIDONI
  • MARCELO SOARES PIMENTA
  • FILIPE CARLOS DE ALBUQUERQUE CALEGARIO
  • Data: 13/12/2021

  • Mostrar Resumo
  • A Internet das Coisas Musicais é uma área do saber posicionada entre a Internet das Coisas, novas interfaces para expressão musical, música ubíqua, inteligência artificial, arte participatória e interação humano-computador. Ela se propõe a melhorar a relação entre musicistas e seus pares, bem como a de musicistas e membros da audiência, favorecendo concertos, produções em estúdio e o aprendizado de música. Apesar de emergente, este campo já se depara com alguns desafios, como aqueles sociais, econômicos e ambientais que são decorrentes da inserção de um novo tipo de tecnologia na sociedade, além das instigações causadas nas práticas artísticas e pedagógicas. De um ponto de vista computacional, as adversidades recaem sobre a falta de privacidade e segurança, e principalmente, na falta de padronização e interoperabilidade entre os seus dispositivos. Sendo assim, o presente trabalho apresenta o design do ambiente Sunflower, destacando sua estrutura dividida em camadas e modo de funcionamento análogo à arquitetura Pipes-and-Filters, além dos protocolos e características sonoras que podem contribuir para solucionar os problemas mais recorrentes a esta área. Para validação técnica, testes foram realizados em localhost, conexão cabeada de par trançado e conexão sem fio via Wi-Fi. Ao fim de tudo, é realizada uma análise comparativa com outros três modelos já existentes, de modo a tirar conclusões sobre quais comportamentos e protocolos são recorrentes nesta área, além de indicar particularidades que podem ajudar desenvolvedores a criarem seus próprios cenários.


  • Mostrar Abstract
  • The Internet of Musical Things is an area of knowledge positioned between the Internet of Things, new interfaces for musical expression, ubiquitous music, artificial intelligence, participatory art, and human-computer interaction. It aims to improve the relationship between musicians and their peers, as well as that of musicians and audience members, favoring concerts, studio productions, and music learning. Although emerging, this field is already facing some challenges, such as social, economic, and environmental ones that result from the insertion of a new type of technology in society, in addition to the instigations caused by artistic and pedagogical practices. From a computational point of view, the adversities fall on the lack of privacy and security, and mainly, on the lack of standardization and interoperability between its devices. Therefore, this thesis presents the design of the Sunflower environment, highlighting its structure divided into layers and operating mode similar to the Pipes-and-Filters architecture, in addition to the protocols and sound characteristics that can contribute to solving the most recurrent problems in this area. For technical validation, tests were performed on localhost, wired twisted pair connection, and wireless connection via Wi-Fi. Finally, a comparative analysis is performed with three other existing models, in order to draw conclusions about which behaviors and protocols are recurrent in this area, besides indicating particularities that can help developers to create their scenarios.

10
  • IGOR OLIVEIRA LARA
  • APLICAÇÃO DE TECNOLOGIA DE COMUNICAÇÃO LPWAN LORA EM UMA REDE IOT DE LONGA DISTÂNCIA.

  • Orientador : DANIEL LUDOVICO GUIDONI
  • MEMBROS DA BANCA :
  • FELIPE DOMINGOS DA CUNHA
  • DANIEL LUDOVICO GUIDONI
  • FLAVIO LUIZ SCHIAVONI
  • Data: 16/12/2021

  • Mostrar Resumo
  • A Internet é uma rede de computadores que interconecta centenas de milhões de dispositivos em todo o mundo. Não muito tempo atrás, esses dispositivos eram principalmente computadores desktop, estações de trabalho Linux e os chamados servidores que armazenam e transmitem informações, mas hoje em dia, cada vez mais sistemas finais de Internet modernos, como TVs, consoles de jogos, telefones celulares, webcams, automóveis, dispositivos de detecção ambiental, quadros e sistemas elétricos e de segurança internos fazem parte da rede. Seguindo essa mudança que está ocorrendo na Internet (e também nas redes privadas de computadores), o termo “Internet das Coisas” (IoT – Internet of Things) está se tornando cada vez mais difundido. Este trabalho tem como objetivo implementar um protótipo funcional para Internet das Coisas utilizando Arduino e a tecnologia de comunicação LoRaWAN. Análises foram realizadas em ambiente indoor e outdoor.


  • Mostrar Abstract
  • The Internet is a network of computers that interconnect hundreds of millions of devices around the world. Not too long ago, these devices were mainly desktop computers, Linux workstations and so-called servers that store and transmit information, but nowadays, more and more modern Internet end systems like TVs, game consoles, cell phones, webcams, automobiles, environmental detection devices, frames and internal electrical and security systems are all part of the network. Following this shift that is taking place on the Internet (and also on private computer networks), the term “Internet of Things” (IoT – Internet of Things) is becoming more and more pervasive. This work aims to implement a working prototype for the Internet of Things using Arduino and LoRaWAN communication technology. Analyzes were carried out indoors and outdoors.

11
  • ROGERS RICARDO DE AVELAR CARVALHO
  • Redes Bayesianas aplicadas à Base de Conhecimento de um Sistema de Aprendizado Sem-Fim

  • Orientador : EDIMILSON BATISTA DOS SANTOS
  • MEMBROS DA BANCA :
  • DIEGO ROBERTO COLOMBO DIAS
  • EDIMILSON BATISTA DOS SANTOS
  • LÚCIA HELENA DE MAGALHÃES
  • Data: 17/12/2021

  • Mostrar Resumo
  • O primeiro sistema de aprendizado sem fim descrito na literatura é chamado NELL (Never-Ending Language Learning). O objetivo principal do sistema NELL é aprender a ler a web, cada dia melhor, para armazenar o conhecimento adquirido em uma base de conhecimento crescente e sem fim. Para ajudar o sistema NELL nesta tarefa de aprendizagem, neste projeto, é proposta a aplicação de redes Bayesianas para realizar inferências na base de conhecimento do NELL, bem como para identificar novas relações semânticas que possam ser inseridas na base de conhecimento. Um conjunto de dados foi construído a partir de informações das relações semânticas existentes na base de conhecimento do sistema NELL. Os resultados apresentados mostram que as redes Bayesianas induzidas pelos algoritmos de aprendizado DMBC e K2 podem representar relações existentes e sugerir novas relações para estender a ontologia inicial do NELL. As inferências realizadas também indicam que as redes bayesianas induzidas por ambos algoritmos são capazes de descobrir novas informações para serem inseridas na base de conhecimento do NELL.


  • Mostrar Abstract
  • The first never-ending learning system described in the literature is called NELL (Never-Ending Language Learning). The main objective of the NELL system is to learn to read the web, getting better each day, in order to store the acquired knowledge in a growing and never-ending knowledge base. To help the NELL system in this learning task, this project proposes the application of Bayesian networks to make inferences in the NELL knowledge base, as well as to identify new semantic relations that can be inserted in the knowledge base. A dataset was built from information on the semantic relations existing in the knowledge base of the NELL system. The results found show that Bayesian networks induced by the DMBC and K2 learning algorithms can represent existing relationships and suggest new relationships to extend the initial ontology of NELL. The inferences made also indicate that the Bayesian networks induced by both algorithms are capable of discovering new information to be inserted in the NELL knowledge base.

2020
Dissertações
1
  • RAFAEL JOSÉ DE ALENCAR ALMEIDA
  • Suporte à análise interativa de discussões online combinando técnicas de mineração de dados

  • Orientador : DARLINTON BARBOSA FERES CARVALHO
  • MEMBROS DA BANCA :
  • DARLINTON BARBOSA FERES CARVALHO
  • EDIMILSON BATISTA DOS SANTOS
  • CLODIS BASCARIOLI
  • Data: 12/02/2020

  • Mostrar Resumo
  • Com a popularização da Internet, discussões online vêm possibilitando uma intensa e constante troca de conhecimentos entre usuários sobre os mais variados temas. Enquanto os dados produzidos nessas discussões possibilitam novas maneiras de se fazer ciência, sua análise manual apresenta-se inviável. Técnicas de mineração de dados vêm sendo adotadas, fundamentando-se na descoberta de conhecimento em bases de dados (Knowledge Discovery in Databases), um processo iterativo e com o envolvimento do especialista no domínio de problema analisado, que visa extrair conhecimento útil de grandes volumes de dados. Cada deste processo apresenta numerosas escolhas, impactando significativamente nos resultados finais da pesquisa. Entretanto, a participação do especialista em todo o processo apresenta-se como um desafio em análises multidisciplinares, onde o domínio de problema e os pesquisadores muitas vezes não pertencem à área de Mineração de Dados. Trabalhos propostos envolvem o pesquisador predominantemente na etapa de análise final dos dados, ficando a cargo dos especialistas em mineração definir os parâmetros das demais etapas. Observa-se também a ausência de propostas de processos metodológicos para as análises, limitando seu rigor e reprodutibilidade. O presente trabalho apresenta a pesquisa e o desenvolvimento de uma ferramenta de mineração de dados para análise interativa de discussões online, bem como seu processo de uso, com foco na participação do usuário pesquisador em todas as etapas da análise. Para garantir o rigor científico do desenvolvimento, é empregada a metodologia Design Science Research, onde o conhecimento e a compreensão de um domínio do problema e sua solução são alcançados por meio de um artefato projetado. O processo de uso proposto para aplicação da ferramenta desenvolvida utiliza a análise sistemática dos dados para construção de teorias, proveniente da Pesquisa Fundamentada em Dados. Sua efetiva contribuição é avaliada por meio do método System Usability Scale, aplicado a usuários na exploração de uma discussão online real. A avaliação apresenta uma alta taxa de aceitação, indicando a relevância e utilidade da ferramenta e seu processo de uso. Também é realizado um estudo de caso aplicando a ferramenta e seu processo à análise de uma discussão online sobre neurociência. A consistência dos assuntos produzidos pela análise da comunidade e sua capacidade de responder de forma satisfatória às questões de pesquisa demonstraram a aplicabilidade da pesquisa desenvolvida, além de contribuir com a criação de novos conhecimentos científicos na área. Os resultados deste trabalho foram comunicados cientificamente nos eventos internacionais IEEE 20th International Conference on Information Reuse and Integration for Data Science e II Latin American Workshop on Computational Neuroscience.


  • Mostrar Abstract
  • With the popularization of the Internet, online discussions have enabled an intense and constant exchange of knowledge between users on the most varied topics. While the data produced in these discussions enable new ways to to do science, your manual analysis is not feasible. Data mining techniques adopted, based on the discovery of knowledge in (Knowledge Discovery in Databases), an iterative process and with the specialist involvement in the analyzed problem domain, which aims to extract useful knowledge of big data. Each of this process presents numerous choices, significantly impacting the final research results. However, the participation of the specialist in the entire process presents itself as a challenge in multidisciplinary analyzes, where the problem domain and researchers often do not belong to the Data Mining area. Proposed works involve the researcher predominantly in the final data analysis stage, being mining specialists are responsible for defining the parameters for the other stages. There is also the absence of proposals for methodological processes for the analyzes, limiting its rigor and reproducibility. The present work presents the research and development of a data mining tool for analysis interactive online discussion, as well as its use process, with a focus on participation of the researcher user in all stages of the analysis. To guarantee the scientific rigor of the development, the Design Science Research methodology is used, where the knowledge and understanding of a problem domain and its solution are achieved through a designed artifact. The proposed use process for applying the developed tool uses systematic data analysis to build theories, coming from Grounded Data Research. Your effective contribution is assessed using the System Usability Scale method, applied to users in the exploration of a real online discussion. The evaluation has a high acceptance rate, indicating the relevance and utility of the tool and its process of use. It is also A case study was carried out applying the tool and its process to the analysis of a online discussion on neuroscience. The consistency of the subjects produced by the analysis community and its ability to respond satisfactorily to research demonstrated the applicability of the developed research, besides contributing with the creation of new scientific knowledge in the area. The results of this work were communicated scientifically at IEEE 20th International international events Conference on Information Reuse and Integration for Data Science and II Latin American Workshop on Computational Neuroscience.


2
  • ALAN DA SILVA CARDOSO
  • O Problema da escassez de matching: quando recomendadores não conectam extremos em serviços de recrutamento

  • Orientador : LEONARDO CHAVES DUTRA DA ROCHA
  • MEMBROS DA BANCA :
  • LEONARDO CHAVES DUTRA DA ROCHA
  • DIEGO ROBERTO COLOMBO DIAS
  • ADRIANO CÉSAR MACHADO PEREIRA
  • FERNANDO HENRIQUE DE JESUS MOURAO
  • Data: 17/02/2020

  • Mostrar Resumo
  • Conectar candidatos e empregos para promover oportunidades reais de colocação é um dos cenários mais impactantes e desafiadores para os Sistemas de Recomendação (SsR). Uma grande preocupação ao criar SsR para serviços de recrutamento é garantir oportunidades de colocação para todos os candidatos e vagas de empregos o mais rápido possível, evitando perdas financeiras para os dois lados. Nós nos referimos a esses cenários em que candidatos ou empregos sofrem com a ausência de correspondência no sistema como Problem of Matching Scarcity (PMS). Este trabalho apresenta o PMS, discutindo os motivos pelos quais o consideramos uma ameaça recorrente aos serviços de recrutamento e apresentando novas estratégias para identificar, caracterizar e mitigar o PMS em cenários reais. Avaliações experimentais em dados reais da Catho, empresa líder de recrutamento na América Latina, evidenciaram que os currículos tendem a ser menos bem escritos do que as descrições de cargos, exibindo várias informações irrelevantes. Substituir essas informações adequadamente por outras úteis reduz em até 50% o número de currículos e vagas que sofrem de PMS.


  • Mostrar Abstract
  • Connecting candidates and jobs to promote real placement opportunities is one of the most impacting and challenging scenarios for Recommender Systems (RSs). A major concern when building RSs for recruitment services is ensuring placement opportunities for all candidates and jobs as soon as possible, avoiding financial losses for both sides. We refer to these scenarios where candidates or jobs suffer from the absence of matching in the system as the Problem of Matching Scarcity (PMS). This paper introduces the PMS, discussing the reasons we consider it as a recurring threat to recruitment services and presenting novel strategies to identify, characterize, and mitigate the PMS on real scenarios. Experimental assessments on real data from Catho, the leading recruitment company in Latin America, evinced that curricula tend to be more poorly written than job descriptions, exhibiting several irrelevant pieces of information. Replacing these pieces properly by useful ones reduces up to 50% the number of curricula and jobs that suffer from PMS.


3
  • RODRIGO RIBEIRO CAPUTO
  • Deep Learning aplicado a dados estruturados como cubos OLAP

  • Orientador : EDIMILSON BATISTA DOS SANTOS
  • MEMBROS DA BANCA :
  • EDIMILSON BATISTA DOS SANTOS
  • LEONARDO CHAVES DUTRA DA ROCHA
  • LAURENCE RODRIGUES DO AMARAL
  • Data: 17/02/2020

  • Mostrar Resumo
  • O processo de Descoberta de Conhecimento de Bases de Dados (KDD) aplicado em dados estruturados é um desafio onde diversas abordagens já há algum tempo conseguiram relativo sucesso. Muitas destas abordagens baseiam-se no Aprendizado de Máquina tradicional e seus paradigmas. Já o processamento de dados não-estruturados teve sua popularização apenas recentemente, com o surgimento do Deep Learning, uma abordagem baseada em Redes Neurais Artificiais (RNAs). Embora as RNAs não sejam um método
    novo, a evolução do poder computacional de forma acessível, em especial através das GPUs, juntamente com o surgimento de técnicas cada vez mais eficientes de otimização, impulsionaram suas aplicações de uma forma extraordinária em domínios como processamento de imagens, áudio, linguagem natural, dentre outros. Este trabalho busca investigar como estas novas técnicas podem ser aplicadas a fim de melhorar os resultados em modelos gerados sobre dados estruturados. Desta investigação, surgiu a proposta da OlapNet, uma arquitetura de Rede Neural Convolucional (CNN) que baseia-se em operações implícitas de
    cubos de dados como entrada. Formalmente identificou-se que esta arquitetura é capaz se superar os resultados de um grupo específico de transformações realizadas sobre os dados, permitindo em partes a automação da etapa de transformação de dados no processo de KDD. Para verificar a proposta empiricamente, foi utilizada uma amostra de dados de uma base real contendo dados anonimizados do histórico de endividamento dos clientes de uma instituição financeira. A partir destes dados, foi modelado um problema de classificação preditiva para estimar a probabilidade de um cliente qualquer contratar novos créditos nos próximos três meses. Assim, foram utilizados métodos tradicionais de Aprendizado de
    Máquina e variações de CNNs, incluindo a proposta deste trabalho. Os resultados mostraram que em quase todos os casos as CNNs superam os métodos tradicionais, indicando que os Features Maps gerados a partir dos kernels convolucionais aprendidos pela rede são capazes de extrair características relevantes. Estes kernels não somente permitem extrair características, como reduzem a complexidade da rede ao delimitar uma vizinhança para cada pixel e diminuem a propensão de ocorrer overfitting. Dentre as CNNs testadas, a
    OlapNet supera todos os outros métodos, indicando que a arquitetura proposta é bastante promissora.


  • Mostrar Abstract
  • The Database Knowledge Discovery (KDD) process applied to structured data is a challenge where several approaches have achieved relative success for some time. Many of these approaches are based on traditional Machine Learning and its paradigms. The processing of unstructured data, on the other hand, had its popularity only recently, with the emergence of Deep Learning, an approach based on Artificial Neural Networks (ANNs). Although ANNs are not a method new, the evolution of computational power in an accessible way, especially through GPUs, together with the emergence of increasingly efficient optimization techniques, boosted its applications in an extraordinary way in domains such as image processing, audio, natural language, among others. This work seeks to investigate how these new techniques can be applied in order to improve the results in models generated on structured data. From this investigation, OlapNet's proposal arose, a Convolutional Neural Network (CNN) architecture that is based on implicit data cubes as input. Formally it was identified that this architecture is capable of surpassing the results of a specific group of transformations carried out on the data, allowing in part the automation of the data transformation stage in the KDD process. In order to verify the proposal empirically, a sample of data from a real database was used containing anonymized data on the historical indebtedness of clients of a financial institution. Based on this data, a predictive classification problem was modeled to estimate the likelihood that any customer will contract new credits in the next three months. Thus, traditional learning methods were used Machine and CNN variations, including the proposal of this work. The results showed that in almost all cases the CNNs outperform traditional methods, indicating that the Feature Maps generated from the convolutional kernels learned by the network are capable of extracting relevant characteristics. These kernels not only allow you to extract characteristics, they also reduce the complexity of the network by delimiting a neighborhood for each pixel and decrease the propensity to occur overfitting. Among the CNNs tested, OlapNet outperforms all other methods, indicating that the proposed architecture is very promising.

4
  • THIAGO DA SILVA GOMIDES
  • An Adaptive and Distributed Traffic Management System for Vehicular ad-hoc Networks

  • Orientador : DANIEL LUDOVICO GUIDONI
  • MEMBROS DA BANCA :
  • DANIEL LUDOVICO GUIDONI
  • FERNANDA SUMIKA HOJO DE SOUZA
  • ROBSON EDUARDO DE GRANDE
  • Data: 13/03/2020

  • Mostrar Resumo
  • A capacidade da infraestrutura rodoviária e as interrupções temporárias nas viagens consistem nas principais razões por trás do fenômeno do engarrafamento. A urbanização e o crescimento das cidades intensifificam ainda mais essas duas razões, por meio do aumento das áreas de trabalho e da demanda por mobilidade. Nesse cenário, vários problemas podem surgir, como altos custo de mobilidade, congestionamentos mais frequentes, danos ambientais signifificativos, prejuízos à qualidade de vida e aumento da poluição urbana. Assim, soluções tecnológicas para o congestionamento do tráfego, como Traffific Management System (TMS), surgem como aplicações alternativas e fáceis de usar. Portanto, este trabalho apresenta o ON-DEMAND: An adaptive and Distributed Traffific Management System for VANETS. A solução proposta é baseada na comunicação V2V e na visão local do congestionamento do tráfego. Durante o deslocamento em uma estrada, o veículo monitora a distância percorrida e a esperada, considerando uma condição de tráfego de flfluxo livre. A diferença entre essas medições é usada para classifificar um fator de contenção, ou seja, a percepção do veículo nas condições de tráfego na estrada. Cada veículo usa o fator de contenção para classifificar o nível geral de congestionamento e essas informações são disseminadas proativamente nas proximidades, considerando uma abordagem  adaptativa. No caso de um veículo não possuir as informações de trânsito necessárias para estimar rotas alternativas, ele executa uma descoberta reativa de conhecimento de informações de trânsito. A solução proposta é comparada com três soluções da literatura, denominadas DIVERT, PANDORA e s-NRR. Nossos resultados mostraram que ON-DEMAND apresenta melhores resultados em relação às métricas de congestionamento de rede e tráfego. 

  • Mostrar Abstract
  • Road capacity infrastructure and temporary interruptions in trips consist of the main reasons behind the traffific jam phenomenon. City urbanization and growth further intensify these two reasons through the increase of work area and the demand for mobility. In such a scenario, several issues can emerge, such as higher mobility costs, more frequent traffific jams, more signifificant environmental damage, reduced quality of life, and more pollution. Thus, technological solutions for traffific congestion as Traffific Management Systems rise as alternative and easy-to-use applications. Therefore, this work presents a ON-DEMAND: An adaptive and Distributed Traffific Management System for VANETS. The proposed solution is based on V2V communication and the local view of traffific congestion. During its displacement in a road, the vehicle monitors its travelled distance and the expected one considering a free-flflow traffific condition. The difference between these measurements is used to classify a contention factor, i.e., the vehicle perception on the road traffific condition. Each vehicle uses the contention factor to classify the overall congestion level and this information is proactively disseminated to its vicinity considering an adaptive approach. In the case a vehicle does not have the necessary traffific information to estimate alternative routes, it executes a reactive traffific information knowledge discovery. The proposed solution is compared with three literature solutions, named DIVERT, PANDORA and s-NRR. The performance evaluation shows that ON-DEMAND presents better results regarding network and traffific congestion metrics.
5
  • REGINALDO COIMBRA VIEIRA
  • Introduzindo Gerenciamento Autonômico de Incidentes em Sistemas de Software Legados

  • Orientador : ELDER JOSE REIOLI CIRILO
  • MEMBROS DA BANCA :
  • ELDER JOSE REIOLI CIRILO
  • DANIEL LUDOVICO GUIDONI
  • MARX LELES VIANA
  • Data: 06/11/2020

  • Mostrar Resumo
  • O projeto e desenvolvimento de sistemas de software autônomos vem sendo amplamente investigados principalmente a partir do manifesto disseminado pela IBM concomitantecom o advento da Computação Autonômica (Autonomic Computing). Sistemas de software autônomos (ou autonômicos) são aqueles capazes de adaptar os comportamentos existentes à demanda de novos requisitos e de resolver incidentes com a mínima intervenção humana. Porém, investigações de como incorporar as capacidades de adaptação e resolução autônoma de incidentes em sistemas existentes (legados), apesar de desejado, pouco foi investigado nos últimos anos. Permitir que sistemas de software legados se adaptem requer a identificação e incorporação de atuadores responsáveis pela adaptação do comportamento e dos sensores que medem a variação no estado dos comportamentos monitorados. Idealmente, a incorporação de atuadores e sensores deve ser realizada de um modo flexível, isto é, sem que o sistema de software tenha que ser projetado e implementado novamente. Para isso, neste artigo, propomos uma nova abordagem para o gerenciamento autônomo de incidentes em sistemas de software legados. Nossa abordagem é baseada em dois conceitos primordiais: (i) composição transversal dos sensores com o código existe pormeio de técnicas de composição invasiva; e (ii) adaptação do comportamento por meio de tecnologias de virtualização. Com isso, é possível incorporar em sistemas legados novos comportamentos autônomos de modo rápido e flexível. Apresentamos adicionalmente uma avaliação da aplicabilidade da nossa abordagem no Moodle, um sistema legado largamente utilizado na prática para a condução de cursos a distância.


  • Mostrar Abstract
  • The design and development of autonomous software systems has been extensively investigated mainly based on the manifest disseminated by IBM concomitant with the advent of Autonomic Computing. Autonomous (or autonomous) software systems are those capable of adapting existing behaviors to the demand for new requirements and of resolving incidents with minimal human intervention. However, investigations on how to incorporate the capabilities of adaptation and autonomous incident resolution in existing (legacy) systems, although desired, little has been investigated in recent years. Allowing legacy software systems to adapt requires the identification and incorporation of actuators responsible for adapting the behavior and sensors that measure the variation in the state of the monitored behaviors. Ideally, the incorporation of actuators and sensors should be carried out in a flexible way, that is, without the software system having to be designed and implemented again. To this end, in this article, we propose a new approach for autonomous incident management in legacy software systems. Our approach is based on two fundamental concepts: (i) transversal composition of the sensors with the code exists through invasive composition techniques; and (ii) adapting behavior through virtualization technologies. With this, it is possible to incorporate new autonomous behaviors in legacy systems quickly and flexibly. We also present an assessment of the applicability of our approach in Moodle, a legacy system widely used in practice for conducting distance courses.

6
  • YGOR HENRIQUE DE PAULA BARROS BAETA
  • Recuperação de Erros em Derivação de Gramáticas Livres de Contexto Aplicado à Correção de Erros Ortográficos e Gramaticais

  • Orientador : CAROLINA RIBEIRO XAVIER
  • MEMBROS DA BANCA :
  • ALEXANDRE BITTENCOURT PIGOZZO
  • CAROLINA RIBEIRO XAVIER
  • CIRO DE BARROS BARBOSA
  • VINICIUS HUMBERTO SERAPILHA DURELLI
  • Data: 10/12/2020

  • Mostrar Resumo
  • Processamento de Linguagem Natural NLP (Natural Language Processing) é uma área interdisciplinar que estuda o processamento computacional de fala natural. É uma área em crescimento devido a popularidade de chatbots e Interfaces Vocais.  Qualquer aplicação de NLP é construída sobre um fluxo básico de passos de tokenização, stemming, marcação de função gramatical Part-of-Speech tagging (ou POS-tagging, em inglês), remoção de Stop-Words, análise de dependências, reconhecimento de entidade nomeadas e co-referenciamento, e embora essas etapas já estejam muito bem desenvolvidas para textos em inglês, o mesmo não pode ser dito para todos os idiomas. Este trabalho investiga o uso de técnicas desenvolvidas para correção de erros em compiladores para melhorar o resultado do POS-tagging em frases com problemas de classificação. Os resultados apresentados na pesquise indicam que o processo desenvolvido pode ser utilizado de maneira eficaz em alguns contextos.


  • Mostrar Abstract
  •  Natural Language Processing (NLP) is an interdisciplinary field that studies computational processing of natural speech. It is a growing area due to the popularity of Chat and Voice Interfaces. NLP application are built upon a basic flow of steps: tokenization, stemming, part-of-speech (POS) tagging, stop-word removal, dependency analysis, named entity recognition and co-referencing, and while those steps already work really well on English texts, the same cannot be said for every language. This paper investigates the use of techniques developed to correct errors in compilers to improve the result of POS-tagging in phrases with classification problems. The results presented in the research indicate that the developed process can be used effectively in some contexts.

7
  • ALEXANDRE SILVA DE ALMEIDA
  • Protocolos e aplicações para internet das coisas músicas

  • Orientador : RAFAEL SACHETTO OLIVEIRA
  • MEMBROS DA BANCA :
  • TERESINHA MOREIRA DE MAGALHÃES
  • ELDER JOSE REIOLI CIRILO
  • FLAVIO LUIZ SCHIAVONI
  • RAFAEL SACHETTO OLIVEIRA
  • Data: 14/12/2020

  • Mostrar Resumo
  • A música representa um papel fundamental e cultural de influência na sociedade e nos indivíduos, em que a relação da música com os sons inspiram o modo como os ouvintes se conectam e lidam em um ambiente musical, que está sempre se transformando por sua riqueza em orquestrar modelos de formação e procedimentos musicais em ambientes oferecidos pela teoria musical tradicional.

    Isso inclui infra-estruturas e protocolos de comunicação de baixa latência, hardware da Internet das Coisas incorporado e especializado em áudio, APIs (interfaces de programação de aplicativos dedicadas), software baseado em processos de áudio ontológico e semântico e o design de novos dispositivos dedicados que propiciam a interação entre os usuários e os dispositivos e coisas musicais, além de oferecer recursos para produção ou consumo de conteúdo musical.

    Nste trabalho, após análise dos conceitos e levantamentos da Internet das Coisas musicais, enumerando algumas dificuldades encontradas em conectar e desenvolver soluções da Internet das Coisas musicas, buscamos apresentar um protocolo e cenários baseado na necessidade em que o usuário a partir de seu dispositivo consiga conectar de forma prática e interativa aos componentes e objetos musicais, captando e enviando informações, possibilitando colocar mais animação e efeitos musicais e sonoros no ambiente conforme os ritmos musicais.


  • Mostrar Abstract
  • Music plays a fundamental and cultural role in influencing society and individuals, in which the relationship between music and sounds inspires the way listeners connect and deal in a musical environment, which is always changing due to its richness in orchestrating musical training models and procedures in environments offered by traditional music theory.

    This includes low-latency communication infrastructures and protocols, embedded and specialized audio IoT hardware, APIs (dedicated application programming interfaces), software based on ontological and semantic audio processes and the design of new dedicated devices that provide interaction between users and musical devices and things, in addition to offering resources for the production or consumption of musical content.

    In this work, after analyzing the concepts and surveys of the musical Internet of Things, listing some difficulties found in connecting and developing Internet of Things music solutions, we seek to present a protocol and scenarios based on the need in which the user can connect from his device in a practical and interactive way to the components and musical objects, capturing and sending information, making it possible to place more animation and musical and sound effects in the environment according to the musical rhythms.

8
  • GILMA APARECIDA SANTOS CAMPOS
  • Estudo do impacto da seleção de sementes baseada em centralidade e em informações de comunidades sobrepostas em redes complexas

  • Orientador : CAROLINA RIBEIRO XAVIER
  • MEMBROS DA BANCA :
  • CAROLINA RIBEIRO XAVIER
  • VINICIUS DA FONSECA VIEIRA
  • CARLOS CRISTIANO HASENCLEVER BORGES
  • Data: 14/12/2020

  • Mostrar Resumo
  • Alguns cenários onde há disseminação de uma infecção, opinião ou mesmo ideias, compartilham de características importantes; eles precisam, por exemplo, de indivíduos envolvidos em um contexto social para se espalharem. As redes sociais têm sido amplamente utilizadas para modelar e simular esses processos. Fazendo-se necessário o estudo da sua estrutura para que a escolha destes indivíduos possa garantir a otimização do processo de difusão. Este trabalho se concentra em comparar o alcance da difusão em dois contextos. O primeiro seleciona indivíduos baseado em medidas de centralidade, enquanto o segundo escolhe os indivíduos utilizando critérios baseados em comunidades sobrepostas de diferentes maneiras. Uma ampla comparação foi realizada sob os modelo de difusão: Independent Cascading Model e Threshold Model. Variando os parâmetros dos modelos,  os resultados mostraram que em alguns cenários o uso de comunidades sobrepostas pode trazer melhorias no alcance da difusão.


  • Mostrar Abstract
  • Some scenarios where an infection, opinion or even ideas spread, share important characteristics; they need, for example, individuals involved in a social context to spread. Social networks have been widely used to model and simulate these processes. It is necessary to study its structure so that the choice of these individuals can guarantee the optimization of the diffusion process. This work focuses on comparing the scope of diffusion in two contexts. The first selects individuals based on measures of centrality, while the second chooses individuals using criteria based on overlapping communities in different ways. A broad comparison was made under the diffusion model: Independent Cascading Model and Threshold Model. By varying the parameters of the models, the results showed that in some scenarios the use of overlapping communities can bring improvements in the reach of diffusion.

2019
Dissertações
1
  • RODRIGO DE CARVALHO SANTOS
  • Estratégias para Aprimorar a Diversidade Categórica e Geográfica de Sistemas de Recomendação de POIs

  • Orientador : LEONARDO CHAVES DUTRA DA ROCHA
  • MEMBROS DA BANCA :
  • LEONARDO CHAVES DUTRA DA ROCHA
  • DIEGO ROBERTO COLOMBO DIAS
  • ADRIANO CÉSAR MACHADO PEREIRA
  • FERNANDO HENRIQUE DE JESUS MOURAO
  • Data: 12/08/2019

  • Mostrar Resumo
  • Atualmente, os chamados Sistemas de Recomendação (SsR) têm sido usados para auxiliar usuários a descobrir Pontos de Interesse (POIs) relevantes em redes sociais baseadas em localização (Location Based Social Network - LBSN), tais como o Yelp e o FourSquare. Diante dos principais desafios de esparsidade de dados e diferentes fontes de informação, tais como a influência geográfica, nesse cenário, a maioria dos trabalhos sobre recomendações de POIs tem se concentrado apenas na melhoria da efetividade (i.e., acurácia) dos sistemas. No entanto, existe um crescente consenso de que apenas a efetividade não é suficiente para avaliar a utilidade prática desses sistemas. Em cenários reais, as diversidades categóricas e geográficas foram identificadas como as principais dimensões complementares para avaliar a satisfação dos usuários e a utilidade das recomendações. Os poucos trabalhos existentes na literatura estão concentrados em apenas um desses conceitos, isoladamente. Neste trabalho, propomos uma nova estratégia de pós-processamento, que combina esses conceitos a fim de melhorar a utilidade dos POIs recomendados para os usuários. Nesse contexto, o pós-processamento consiste em reordenar uma lista de POIs oriunda de um Recomendador Base (RB) a fim de maximizar as diversidades categórica e geográfica entre os primeiros itens da lista. Nossos resultados experimentais nos conjuntos de dados do Yelp mostram que nossa estratégia pode melhorar a utilidade da lista de POIs recomendados aos usuários, considerando diferentes SsR e múltiplas métricas de diversificação. Nosso método é capaz de melhorar a diversidade em até 120% sem grandes perdas de efetividade.


  • Mostrar Abstract
  • Nowadays, Recommender Systems (RSs) have been used to help users tobdiscover relevant Points Of Interest (POI) in Location Based Social Network (LBSN),bsuch as Yelp and FourSquare. In face to the main data sparity challenges and different sources of information, such as geographical influence, in this scenario, most of works about POI recommendations has only focused on improving the system’s accuracy. However, there is a consensus that just it is not enough to assess the practical effectiveness. In real scenarios, categorical and geographic diversities have been identified as key dimensions of user satisfaction and recommendation utility. The few existing works are concentrated on just one of these concepts, singly. In this work, we propose a novel postprocessing strategy to combine these concepts in order to improve the usefulness of recommended POIs. In this context, postprocessing involves reordering a POI list from a Base Recommender (RB) to maximize categorical and geographic diversities among the first items on the list. Our experimental results in Yelp datasets show that our strategy can improve the usefulness of the list of recommended user POIs, considering different RSs and multiple diversification metrics. Our method is able to improve the diversity up to 120% without major accuracy losses.

2
  • MASSILON LOURENÇO FERNANDES
  • Gerenciamento de tráfego utilizando infraestrutura auxiliar em redes veiculares

  • Orientador : DANIEL LUDOVICO GUIDONI
  • MEMBROS DA BANCA :
  • DANIEL LUDOVICO GUIDONI
  • RAFAEL SACHETTO OLIVEIRA
  • CRISTIANO MACIEL DA SILVA
  • LEANDRO APARECIDO VILLAS
  • Data: 23/08/2019

  • Mostrar Resumo
  • -


  • Mostrar Abstract
  • -

3
  • JOSÉ MAURO DA SILVA SANDY
  • UAISharing - Interface Universal de Acesso a Recursos Compartilhados

  • Orientador : FLAVIO LUIZ SCHIAVONI
  • MEMBROS DA BANCA :
  • DANIEL LUDOVICO GUIDONI
  • EDUARDO BENTO PEREIRA
  • FLAVIO LUIZ SCHIAVONI
  • Data: 29/08/2019

  • Mostrar Resumo
  • A modernização das plataformas computacionais vem proporcionando o surgimento de novas características nos sistemas de informação que são pouco exploradas, e quando são, em boa parte, não apresentam padronização quanto à sua utilização. Neste cenário, um dos pontos a ser explorado é o compartilhamento de recursos criados pelos mais diversos tipos de usuário de sistemas computacionais. No entanto, é possível verificar que o  compartilhamento de recursos entre usuários finais de sistemas computacionais costuma não possuir uma padronização para controlar seu empacotamento, distribuição e versionamento. Considerando as particularidades envolvidas em cada sistema de informação, torna-se necessário a definição de uma camada de abstração que propicie que este compartilhamento possa ocorrer de forma transparente entre os usuários dos mais diversos sistemas. Com isso, este trabalho traz o UAISharing - uma interface Universal de Acesso a Recursos Compartilhados, uma proposta que visa apresentar um modelo de empacotamento e distribuição de recursos produzidos por usuários finais.



  • Mostrar Abstract
  • The modernization of computational platforms has led to the emergence of new features in information systems that are little explored, and when they are, for the most part, they do not present standardization regarding their use. In this scenario, one of the points to be explored is the sharing of resources created by the most diverse types of computer system users. However, it is possible to verify that the sharing of resources between end users of computer systems usually does not have a standardization to control their packaging, distribution and versioning. Considering the particularities involved in each information system, it is necessary to define an abstraction layer that allows this sharing to occur transparently between users of the most diverse systems. With this, this work brings UAISharing - a Universal Interface for Access to Shared Resources, a proposal that aims to present a model of packaging and distribution of resources produced by end users.

SIGAA | NTInf - Núcleo de Tecnologia da Informação - | Copyright © 2006-2022 - UFSJ - sigaa01.ufsj.edu.br.sigaa01