Dissertações/Teses
2021
Dissertações
1
  • JOÃO TEIXEIRA ARAÚJO
  • Proposta de Arquitetura para Interação do Público em Performances Digitais

  • Orientador : FLAVIO LUIZ SCHIAVONI
  • MEMBROS DA BANCA :
  • DIEGO ROBERTO COLOMBO DIAS
  • EDIMILSON BATISTA DOS SANTOS
  • FLAVIO LUIZ SCHIAVONI
  • TIAGO FERNANDES TAVARES
  • Data: 01/02/2021

  • Mostrar Resumo
  •  A participação do público em espetáculos artísticos se faz presente na arte contemporânea como uma tentativa de quebra de papéis onde o público, o criador e o performer podem se misturar na criação e execução de um trabalho, visando proporcionar especificamente ao público um papel ativo e não de mero espectador. Este tipo de visão aliado ao constante avanço tecnológico acabou influenciando o surgimento de trabalhos artísticos os quais envolvem a participação do público através da utilização de aparatos tecnológicos, dando origem às chamadas performances e instalações digitais. Por envolver a utilização de diferentes algoritmos através de dispositivos móveis, computadores e sensores, as formas de interação do público nestes tipos de obras se tornaram bastante amplas. Desta forma, este trabalho tem como objetivo a elaboração de uma arquitetura para descrever como cada interação é dada em uma performance ou instalação digital, do ponto de vista tecnológico. Além disto, serão apresentadas 3 obras artísticas: a performance digital "O Chaos das 5", baseada no uso de dispositivos móveis para prover a interação do público; a instalação digital "Per(sino)ficação" a qual utiliza técnicas de processamento de imagem para realizar diferentes sínteses sonoras de acordo com a imagem captada do participante; e a instalação digital "Leiamídia" a qual utiliza técnicas de machine learning e de processamento de imagem e som para prover a interação dos participantes com a máquina.


  • Mostrar Abstract
  • Public participation in artistic performances is present in contemporary art as an attempt to break roles where the public, the creator and the performer can merge in the creation and execution of a work, aiming specifically to provide the public with an active and non-active role of a spectator. This type of vision coupled with constant technological advancement ended up influencing the emergence of artistic works which involve public participation through the use of technological devices, giving rise to the so-called performances and digital installations. As it involves the use of different algorithms through mobile devices, computers and sensors, the forms of public interaction in these types of works have become quite wide. In this way, this work aims to develop an architecture to describe how each interaction is given in a performance or digital installation, from a technological point of view. In addition, 3 artistic works will be presented: the digital performance "O Chaos das 5", based on the use of mobile devices to provide audience interaction; the digital installation "Per(sino)ficação" which uses image processing techniques to perform different sound syntheses according to the image captured by the participant; and the digital installation "Leiamídia" which uses machine learning and image and sound processing techniques to provide the participants interaction with the machine.

2
  • RONALDO ALVES MARQUES JÚNIOR
  • Estudo de critérios de distribuição de vacinas com doses limitadas - uma abordagem baseada em redes complexas

  • Orientador : CAROLINA RIBEIRO XAVIER
  • MEMBROS DA BANCA :
  • RODRIGO WEBER DOS SANTOS
  • CAROLINA RIBEIRO XAVIER
  • RAFAEL SACHETTO OLIVEIRA
  • VINICIUS DA FONSECA VIEIRA
  • Data: 05/03/2021

  • Mostrar Resumo
  • O interesse pela dinâmica e a compreessão das características de disseminação de doenças infectocontagiosa datam de mais de dois séculos. Diversas perspectivas podem ser consideradas nesses estudos, onde há um apreço especial pela imunização. A escolha assertiva de grupos de indivíduos a serem imunizados pode impactar diretamente na dinâmica de contaminação, tanto na proteção de partes da população quanto na minimização da velocidade de contágio. Tal tarefa é importante e desafiadora em cenários de epidemias com número reduzidos de doses disponíveis, por envolver inúmeras combinações de escolhas.

    O objetivo deste trabalho é propor uma melhora em uma metodologia para a escolha de indivíduos a serem imunizados baseada em algoritmo genético, que utiliza o modelo epidemiológico SIR para avaliação dos diferentes conjuntos propostos. Sua efetividade será verificada através de um estudo comparativo com critérios que utilizam de métricas de centralidade em redes e de uma escolha aleatoria de indivíduos. Os resultados obtidos por experimentos que simulam epidemias com a vacinação por cada um dos critérios serão avaliados sob as perspectivas que consideram o número de indivíduos afetados, o maior número de infectados em um mesmo instante e a taxa de contaminação estimada. Os resultados obtidos indicam que a escolha sistemática de indivíduos é uma decisão acertada para este tipo de problema e que os resultados obtidos pela metodologia de otimização são equivalentes aos resultados entregues pelas principais métricas de centralidade utilizadas em redes complexas.


  • Mostrar Abstract
  • The interest in the dynamics and understanding of the characteristics of infectious diseases spread dates back more than two centuries. Several perspectives can be considered in these studies, where there is a special appreciation for immunization. The assertive choice of groups of individuals to be immunized can directly impact the dynamics of contamination, both in protecting parts of the population and in minimizing the speed of contagion. Such a task is important and challenging in epidemic scenarios with reduced number of doses available, as it involves numerous combinations of choices.

    The objective of this work is to propose an improvement in a methodology for choosing individuals to be immunized based on a genetic algorithm, which uses the SIR epidemiological model to evaluate the different sets proposed. Its effectiveness will be verified through a comparative study with criteria that use metrics of centrality in networks and a random choice of individuals. The results obtained by experiments that simulate epidemics with vaccination by each of the criteria will be evaluated from the perspectives that consider the number of individuals affected, the largest number of infected at the same time and the estimated contamination rate. The results obtained indicate that the systematic choice of individuals is a correct decision for this type of problem and that the results obtained by the optimization methodology are equivalent to the results delivered by the main centrality metrics used in complex networks.



3
  • JOSE MAURO RIBEIRO
  • Caracterização e análise de redes sociais a partir de dados de telefonia móvel

  • Orientador : VINICIUS DA FONSECA VIEIRA
  • MEMBROS DA BANCA :
  • VINICIUS DA FONSECA VIEIRA
  • CAROLINA RIBEIRO XAVIER
  • DANIEL LUDOVICO GUIDONI
  • ALEXANDRE GONÇALVES EVSUKOFF
  • Data: 25/06/2021

  • Mostrar Resumo

  • A comunicação humana sofreu uma drástica mudança com o surgimento de tecnologias que removeram a barreira imposta por grandes distâncias entre as pessoas. Nos dias de hoje, essa evolução permite que indivíduos se conectem de formas tão diversas, que muitos dispositivos podem combinar texto, imagem e som em mensagens que ajudam a redefinir as relações sociais. Mais ainda, nos últimos anos, novas tecnologias para armazenamento e processamento de grandes volumes de dados permitiram que a informação coletada em tempo real seja utilizada para o desenvolvimento de soluções inovadoras que envolvem algoritmos e metodologias que são, ainda, foco de pesquisa em muitas áreas. Os registros de dados de chamadas ou CDRs (Call Detail Record) que surgem no contexto de grande volumes de dados disponíveis atualmente contêm uma enorme quantidade de informações e se tornaram alvos  de pesquisas que utilizam ferramentas de redes complexas. Informações sobre como, quando e com quem os clientes se comunicaram em dado momento, além da localização aproximada dos mesmos constituem dados valiosos que podem ser obtidos a partir de CDRs. A partir desses dados surgiram estudos propondo modelos de redes sociais e análises de mobilidade nos últimos anos, oferecendo novas possibilidades e busca por inovações. Neste trabalho são utilizados registros telefônicos de duas regiões imediatas localizadas no estado de Minas Gerais, no Brasil: a região imediata de São João del-Rei (de porte pequeno) e a região imediata de Juiz de Fora (de porte médio). Desta forma, este trabalho tem como objetivos principais a caracterização das interações sociais a partir de registros de ligações telefônicas e a investigação da relação entre as interações sociais e os padrões de mobilidade exibidos por indivíduos em centros urbanos.  A complexidade urbana analisada neste trabalho sob duas perspectivas: social e de mobilidade. A perspectiva social permite que se compreenda como se dá a interação entre pares de indivíduos, revelando aspectos importantes específicos sobre as relações humanas em contextos urbanos. Sob a perspectiva de mobilidade é possível compreender como os indivíduos interagem com o espaço urbano e o que pode auxiliar na caracterização da organização das cidades e dos indivíduos. Com a finalidade de investigar a relação entre as relações sociais e os padrões de mobilidade, os experimentos realizados tiveram como objetivo explorar o impacto de indivíduos que possuem relação social relevante nos padrões de mobilidade de outros indivíduos. Dessa forma foram realizadas análises quanto aos padrões de mobilidade a fim de medir a similaridade desses padrões entre indivíduos.  A caracterização de cada rede também foi realizada para permitir uma compreensão das mesmas seguindo métricas básicas, além de estudos das características mais complexas como reciprocidade e detecção de comunidades da rede, que são atualmente métricas de alto interesse no campo de estudo de redes sociais. Dessa forma, este trabalho fornece um conjunto rico de informações no contexto de redes sociais para regiões de forma inédita.


  • Mostrar Abstract
  • Human communication has undergone a drastic change with the emergence of technologies that have removed a barrier for great distances between people. These days, this evolution allows them to connect in such diverse ways that many devices can combine text, image and sound into messages that redefine social relationships. Furthermore, in recent years, new technologies for storing and processing large volumes of data allow the information collected in real time to be used for the development of innovative solutions involving algorithms and methodologies that are still the focus of research in many areas . The call data records or CDRs (Call Detail Record) that arise in the context of large volumes of available data, incorporate a huge amount of information and if the amount of data searches using complex networking tools. Information on how, when, and with whom customers communicated at any given time, plus the approximate location of the same valuable data that can be picked from CDRs. Based on data, studies have emerged proposing models of social networks and mobility analysis in recent years, offering new possibilities and a search for innovations. This work uses telephone records from two immediate regions in the state of Minas Gerais, Brazil: the immediate region of São João del-Rei (small size) and the immediate region of Juiz de Fora (medium size). Thus, this work has as main objectives the characterization of social interactions from phone calls records and an investigation of the relationship between social interactions and mobility patterns by reference in urban centers. Urban complexity analyzed in this work from two perspectives: social and mobility. A social perspective allows us to understand how an interaction between pairs of products takes place, revealing specific aspects about human relationships in urban contexts. From the perspective of mobility, it is possible to understand how owners interact with the urban space and what can help to characterize the organization of cities and individuals. With the investigation of a relationship between social relationships and mobility patterns, the experiments carried out aimed to explore the impact of disabling those who have a relevant social relationship on the mobility patterns of other guests. Thus, analyzes regarding mobility patterns were evaluated in order to measure a pattern similarity between patterns. The characterization of each network was also carried out to allow an understanding of the basic norms, in addition to studies of more complex characteristics such as reciprocity and detection of network communities, which are currently metrics of high interest in the field of study of social networks. In this way, this work integrated a rich set of information in the context of social networks for regions in an unprecedented way.

4
  • DANIEL BUENO DOMINGUETI
  • Ambiente virtual 3D para o ensino de vacinação

  • Orientador : DARLINTON BARBOSA FERES CARVALHO
  • MEMBROS DA BANCA :
  • DARLINTON BARBOSA FERES CARVALHO
  • DIEGO ROBERTO COLOMBO DIAS
  • DANIEL LUIZ ALVES MADEIRA
  • VALERIA CONCEICAO DE OLIVEIRA
  • JOSE REMO FERREIRA BREGA
  • Data: 08/07/2021

  • Mostrar Resumo
  • O Programa Nacional de Imunizações (PNI), criado em 1973 pelo Ministério da Saúde do Brasil, é responsável pela regulação sobre a sala de vacinação, o que inclui os procedimentos operacionais em relação a sua utilização. O enfermeiro é o profissional responsável pela supervisão da sala de vacinação e pelo processo de educação permanente da equipe, sendo necessário realizar capacitações periodicamente. No entanto, as capacitações geralmente não ocorrem de maneira sistematizada, sendo normalmente focadas apenas na atualização do calendário vacinal. Neste trabalho é proposto o uso de abordagens inovadoras, como mundos virtuais, jogos digitais e metodologias ativas, de modo a contribuir com um ambiente para ensino de vacinação. A pesquisa é delineada segundo a metodologia Design Science Research (DSR), contanto com a orientação de uma equipe multidisciplinar. Foi modelada e desenvolvido um ambiente virtual tridimensional, como uma aplicação desktop por meio do motor de jogo Unity, para apoiar a realização de capacitações em uma sala de vacina virtual. Também foi realizada a modelagem e implementação de um sistema para a criação e educação de cenários para a simulação. Foram executadas duas avaliações, uma com juízes especialistas para validar o artefato construído por meio do método Delphi e outra com aprendizes, para validar a usabilidade e aceitação de tecnologia por meio dos métodos System Usability Scale (SUS) e Unified Theory of Acceptance and Use of Technology (UTAUT2). A partir dos resultados foi possível evidenciar que a simulação proposta foi bem aceita e possui boa usabilidade de acordo com o método SUS (Score de 81,38). A análise promovida pelo UTAUT2 permitiu ainda identificar que a expectativa de desempenho foi o fator que mais influencia positivamente na intenção comportamental dos aprendizes. Destaca-se ainda que ambos os públicos que participaram das avaliações ressaltaram a relevância da simulação proposta, bem como são apontados aprimoramentos em relação à representação de alguns itens na sala virtual. Por fim, conclui-se que a simulação proposta consiste em uma alternativa viável e desejável para o ensino de vacinação.


  • Mostrar Abstract
  • The National Immunization Program (PNI), created in 1973 by the Brazilian Ministry of Health, is responsible for regulating the vaccination room, including operational procedures regarding its use. The nurse is the professional responsible for supervising the vaccination room and the team's permanent education process, being necessary to carry out periodic training. However, training usually does not occur systematically, being focused mainly on updating the vaccination schedule. In this work, we propose using innovative approaches, such as virtual worlds, digital games, and active methodologies to contribute to an environment for vaccination training. The research is outlined according to the Design Science Research (DSR) methodology, with the guidance of a multidisciplinary team. A three-dimensional virtual environment was modeled and developed as a desktop application using the Unity game engine to support a virtual vaccination room training. A system for the creation and education of scenarios for the simulation was also modeled and implemented.  Two evaluations were performed, one with expert judges to validate the artifact built through the Delphi method, and another with apprentices, to validate the usability and acceptance of technology through the SUS (System Usability Scale) and UTAUT2 (Unified Theory of Acceptance and Use of Technology) methods. The results showed that the proposed simulation was well accepted and had good usability according to the SUS method (81.38 scores). The analysis promoted by UTAUT2 also allowed us to identify that performance expectancy was the factor that most positively influenced apprentices' behavioral intentions. It is also noteworthy that both audiences that participated in the evaluations emphasized the relevance of the proposed simulation and pointed out improvements concerning the representation of some items in the virtual room. Finally, we conclude that the proposed simulation is a viable and desirable alternative for teaching vaccination.

5
  • BRUNO DE LIMA PALHARES
  • Software como Serviço Multilocatário: Desenvolvimento, Migração e Avaliação

  • Orientador : ELDER JOSE REIOLI CIRILO
  • MEMBROS DA BANCA :
  • DAVY DE MEDEIROS BAIA
  • ELDER JOSE REIOLI CIRILO
  • FLAVIO LUIZ SCHIAVONI
  • TERESINHA MOREIRA DE MAGALHÃES
  • Data: 05/08/2021

  • Mostrar Resumo
  • Software como Serviço (SaaS) é uma estratégia de mercado que fornece software empresarial escalonável como um serviço na Internet. Dentre os seus principais conceitos está a multilocação, ou seja, a habilidade que clientes, organizações e consumidores possuem de compartilhar infraestrutura e bancos de dados para aproveitar as vantagens de preço e desempenho que vêm quando se economiza escala. Neste trabalho realizou-se uma revisão da literatura para fornecer uma compreensão aprofundada de pesquisas que vêm sendo realizadas e suas tecnologias no âmbito do desenvolvimento, migração e evolução de SaaS multilocatário. Investigou-se 53 de 666 artigos recuperados e como resultado observou e comparou-se as principais propostas para o desenvolvimento e migração de aplicações SaaS. O trabalho também sintetiza as principais vantagens e desvantagens das aplicações Saas.


  • Mostrar Abstract
  • Software as a Service (Saas) is a market strategy to offer scalable enterprise software as an Internet service. Multi-tenancy, one of SaaS's central concepts, gives us the ability to share infrastructure and databases among clients, organizations, and consumers. In this work, we conducted a systematic literature review that aims to provide a deep understanding of the research realized involving the development, migration, and evaluation of Multi-tenant SaaS applications. We analyzed 53 (out of 666 papers), and as a result, we observed the leading development and migration techniques and approaches. We also synthesized the main advantages and disadvantages of SaaS applications.

6
  • VITOR ELISIARIO DO CARMO
  • FastCELF++: Uma heurística de baixo custo computacional para maximização da influência em redes

  • Orientador : CAROLINA RIBEIRO XAVIER
  • MEMBROS DA BANCA :
  • CAROLINA RIBEIRO XAVIER
  • VINICIUS DA FONSECA VIEIRA
  • FERNANDA SUMIKA HOJO DE SOUZA
  • IAGO AUGUSTO DE CARVALHO
  • Data: 06/08/2021

  • Mostrar Resumo
  • As redes sociais refletem os relacionamentos e interações entre indivíduos e têm desempenhado um papel muito importante na difusão de informação, em que a comunicação de ideias e compartilhamento de opiniões acontecem a todo momento. São diversos os exemplos de como as redes sociais podem afetar o comportamento dos indivíduos, tais como o marketing viral, a difusão de memes e a propagação de fake news. Essa dinâmica de difusão de informação tem motivado o estudo de diversas abordagens para identificar os principais influentes em uma rede. 
    O problema de Maximização de Influência consiste em encontrar um subconjunto S, chamado de conjunto de sementes, de no máximo k elementos, de modo que a propagação máxima (esperada) seja alcançada por meio de um modelo de difusão, tendo S como os influenciadores iniciais em uma rede. Já foi demonstrado que o o problema de maximização de influência é um problema de otimização NP-difícil, portanto, devido à sua complexidade, é inviável encontrar o subconjunto S que garanta a difusão mais abrangente. 
    A abordagem mais comum para este problema é a utilização de algoritmos aproximados, destacando-se o Cost-Effective Lazy Forward (CELF), cerca de 700 vezes mais rápido do que a estratégia gulosa proposta por Kemp et al., e o CELF++, que apresenta um ganho em tempo de execução entre 35 a 55% sobre o CELF.
    Este trabalho apresenta uma modificação dos dois algoritmos estado-da-arte supracitados, CELF e CELF++, substituindo as simulações de Monte Carlo por estimativas de difusão (metamodelos), para a seleção de conjunto de sementes. Buscou-se sintetizar e, com um foco especial, mostrar que: (1) os metamodelos podem ser usados para estimar qualitativamente a difusão de conjuntos de sementes; (2) o uso de métodos já conhecidos na literatura em conjunto com metamodelos é capaz de identificar, ordens de grandeza mais rápido, indivíduos mais influentes e, em alguns casos, até superar o resultado desses métodos em propagação.


  • Mostrar Abstract
  • As redes sociais refletem os relacionamentos e interações entre indivíduos e têm desempenhado um papel muito importante na difusão de informação, em que a comunicação de ideias e compartilhamento de opiniões acontecem a todo momento. São diversos os exemplos de como as redes sociais podem afetar o comportamento dos indivíduos, tais como o marketing viral, a difusão de memes e a propagação de fake news. Essa dinâmica de difusão de informação tem motivado o estudo de diversas abordagens para identificar os principais influentes em uma rede. 
    O problema de Maximização de Influência consiste em encontrar um subconjunto S, chamado de conjunto de sementes, de no máximo k elementos, de modo que a propagação máxima (esperada) seja alcançada por meio de um modelo de difusão, tendo S como os influenciadores iniciais em uma rede. Já foi demonstrado que o o problema de maximização de influência é um problema de otimização NP-difícil, portanto, devido à sua complexidade, é inviável encontrar o subconjunto S que garanta a difusão mais abrangente. 
    A abordagem mais comum para este problema é a utilização de algoritmos aproximados, destacando-se o Cost-Effective Lazy Forward (CELF), cerca de 700 vezes mais rápido do que a estratégia gulosa proposta por Kemp et al., e o CELF++, que apresenta um ganho em tempo de execução entre 35 a 55% sobre o CELF.
    Este trabalho apresenta uma modificação dos dois algoritmos estado-da-arte supracitados, CELF e CELF++, substituindo as simulações de Monte Carlo por estimativas de difusão (metamodelos), para a seleção de conjunto de sementes. Buscou-se sintetizar e, com um foco especial, mostrar que: (1) os metamodelos podem ser usados para estimar qualitativamente a difusão de conjuntos de sementes; (2) o uso de métodos já conhecidos na literatura em conjunto com metamodelos é capaz de identificar, ordens de grandeza mais rápido, indivíduos mais influentes e, em alguns casos, até superar o resultado desses métodos em propagação.

7
  • GLEYBERSON DA SILVA ANDRADE
  • Predição de Vulnerabilidades em Sistemas de Software Configuráveis: Uma abordagem baseada em Aprendizado de Máquina

  • Orientador : ELDER JOSE REIOLI CIRILO
  • MEMBROS DA BANCA :
  • ERICK GALANI MAZIERO
  • DIEGO ROBERTO COLOMBO DIAS
  • ELDER JOSE REIOLI CIRILO
  • RAFAEL SERAPILHA DURELLI
  • VINICIUS HUMBERTO SERAPILHA DURELLI
  • Data: 27/08/2021

  • Mostrar Resumo
  • Sistemas de software configuráveis oferecem uma grande variedade de benefícios, incluindo o apoio à entrega de comportamentos personalizados para necessidades específicas de clientes. Por outro lado, a complexidade resultante das opções de configuração no código-fonte eleva o esforço de evolução e manutenção dos sistemas configuráveis, culminando em uma maior inserção de erros e incidência de vulnerabilidades. Por mais que a ocorrência de erros e vulnerabilidades possa ser verificada por meio de testes manuais e automatizados, exercitar sistemas de software dinamicamente é uma tarefa cara, e que pode se tornar impraticável quando se trata de sistemas configuráveis; contexto em que o número de variantes (produtos) cresce exponencialmente conforme o número de configurações aumenta. Para contornar esse problema, heurísticas de amostragem são geralmente empregadas na seleção de subconjuntos representativos e analisáveis de variantes de um sistema configurável. Entretanto, a eficácia dessas heurísticas depende da maneira como as variantes são selecionadas e às vezes, de fortes simplificações. Neste trabalho, propomos e avaliamos uma heurística de amostragem baseada em Aprendizado de Máquina. Nossas suposições são baseadas em características intrínsecas de vulnerabilidades no código-fonte. Neste caso, foram coletadas 53 métricas referentes à complexidade de software, probabilidade de incidência de vulnerabilidade, histórico de evolução e atuação de desenvolvedores de 11 projetos escritos em C. Esses dados foram submetidos a execuções em diferentes cenários, tais como Cross-validation e Cross-project-validation, buscando reduzir o número de variantes recomendadas pela heurística LSA (Linear Sampling Algorithm). Nossos resultados demonstram que por meio de uma heurística de amostragem baseada em Aprendizado de Máquina é possível reduzir o tamanho da amostra a ser analisada, enquanto se mantém uma boa cobertura de detecção.


  • Mostrar Abstract
  • Configurable software systems offer a variety of benefits, such as supporting the easy configuration of custom behaviors for distinctive needs. However, it is known that the presence of configuration options in source code complicates maintenance tasks and requires additional effort from developers when adding or editing code statements. They need to consider multiple configurations when executing tests or performing static analysis to detect vulnerabilities. Therefore, vulnerabilities have been widely reported in configurable software systems. Unfortunately, the effectiveness of vulnerability detection depends on how the multiple configurations (i.e., samples sets) are selected. In this work, we tackle the challenge of generating more adequate system configuration samples by considering the intrinsic characteristics of security vulnerabilities. We propose a new sampling heuristic based on Machine Learning for recommending the subset of configurations that should be analyzed individually. We collected 53 metrics of 11 projects written in C referring to software complexity, probability of vulnerability incidence, evolution history, and developer's contribution. These data were subjected to execution in different scenarios, such as Cross-validation and Cross-project-validation, attempting to reduce the number of variants recommended by the LSA (Linear Sampling Algorithm) heuristic. Our results show that we can achieve high vulnerability-detection effectiveness with a smaller sample size.

2020
Dissertações
1
  • RAFAEL JOSÉ DE ALENCAR ALMEIDA
  • Suporte à análise interativa de discussões online combinando técnicas de mineração de dados

  • Orientador : DARLINTON BARBOSA FERES CARVALHO
  • MEMBROS DA BANCA :
  • DARLINTON BARBOSA FERES CARVALHO
  • EDIMILSON BATISTA DOS SANTOS
  • CLODIS BASCARIOLI
  • Data: 12/02/2020

  • Mostrar Resumo
  • Com a popularização da Internet, discussões online vêm possibilitando uma intensa e constante troca de conhecimentos entre usuários sobre os mais variados temas. Enquanto os dados produzidos nessas discussões possibilitam novas maneiras de se fazer ciência, sua análise manual apresenta-se inviável. Técnicas de mineração de dados vêm sendo adotadas, fundamentando-se na descoberta de conhecimento em bases de dados (Knowledge Discovery in Databases), um processo iterativo e com o envolvimento do especialista no domínio de problema analisado, que visa extrair conhecimento útil de grandes volumes de dados. Cada deste processo apresenta numerosas escolhas, impactando significativamente nos resultados finais da pesquisa. Entretanto, a participação do especialista em todo o processo apresenta-se como um desafio em análises multidisciplinares, onde o domínio de problema e os pesquisadores muitas vezes não pertencem à área de Mineração de Dados. Trabalhos propostos envolvem o pesquisador predominantemente na etapa de análise final dos dados, ficando a cargo dos especialistas em mineração definir os parâmetros das demais etapas. Observa-se também a ausência de propostas de processos metodológicos para as análises, limitando seu rigor e reprodutibilidade. O presente trabalho apresenta a pesquisa e o desenvolvimento de uma ferramenta de mineração de dados para análise interativa de discussões online, bem como seu processo de uso, com foco na participação do usuário pesquisador em todas as etapas da análise. Para garantir o rigor científico do desenvolvimento, é empregada a metodologia Design Science Research, onde o conhecimento e a compreensão de um domínio do problema e sua solução são alcançados por meio de um artefato projetado. O processo de uso proposto para aplicação da ferramenta desenvolvida utiliza a análise sistemática dos dados para construção de teorias, proveniente da Pesquisa Fundamentada em Dados. Sua efetiva contribuição é avaliada por meio do método System Usability Scale, aplicado a usuários na exploração de uma discussão online real. A avaliação apresenta uma alta taxa de aceitação, indicando a relevância e utilidade da ferramenta e seu processo de uso. Também é realizado um estudo de caso aplicando a ferramenta e seu processo à análise de uma discussão online sobre neurociência. A consistência dos assuntos produzidos pela análise da comunidade e sua capacidade de responder de forma satisfatória às questões de pesquisa demonstraram a aplicabilidade da pesquisa desenvolvida, além de contribuir com a criação de novos conhecimentos científicos na área. Os resultados deste trabalho foram comunicados cientificamente nos eventos internacionais IEEE 20th International Conference on Information Reuse and Integration for Data Science e II Latin American Workshop on Computational Neuroscience.


  • Mostrar Abstract
  • With the popularization of the Internet, online discussions have enabled an intense and constant exchange of knowledge between users on the most varied topics. While the data produced in these discussions enable new ways to to do science, your manual analysis is not feasible. Data mining techniques adopted, based on the discovery of knowledge in (Knowledge Discovery in Databases), an iterative process and with the specialist involvement in the analyzed problem domain, which aims to extract useful knowledge of big data. Each of this process presents numerous choices, significantly impacting the final research results. However, the participation of the specialist in the entire process presents itself as a challenge in multidisciplinary analyzes, where the problem domain and researchers often do not belong to the Data Mining area. Proposed works involve the researcher predominantly in the final data analysis stage, being mining specialists are responsible for defining the parameters for the other stages. There is also the absence of proposals for methodological processes for the analyzes, limiting its rigor and reproducibility. The present work presents the research and development of a data mining tool for analysis interactive online discussion, as well as its use process, with a focus on participation of the researcher user in all stages of the analysis. To guarantee the scientific rigor of the development, the Design Science Research methodology is used, where the knowledge and understanding of a problem domain and its solution are achieved through a designed artifact. The proposed use process for applying the developed tool uses systematic data analysis to build theories, coming from Grounded Data Research. Your effective contribution is assessed using the System Usability Scale method, applied to users in the exploration of a real online discussion. The evaluation has a high acceptance rate, indicating the relevance and utility of the tool and its process of use. It is also A case study was carried out applying the tool and its process to the analysis of a online discussion on neuroscience. The consistency of the subjects produced by the analysis community and its ability to respond satisfactorily to research demonstrated the applicability of the developed research, besides contributing with the creation of new scientific knowledge in the area. The results of this work were communicated scientifically at IEEE 20th International international events Conference on Information Reuse and Integration for Data Science and II Latin American Workshop on Computational Neuroscience.


2
  • ALAN DA SILVA CARDOSO
  • O Problema da escassez de matching: quando recomendadores não conectam extremos em serviços de recrutamento

  • Orientador : LEONARDO CHAVES DUTRA DA ROCHA
  • MEMBROS DA BANCA :
  • LEONARDO CHAVES DUTRA DA ROCHA
  • DIEGO ROBERTO COLOMBO DIAS
  • ADRIANO CÉSAR MACHADO PEREIRA
  • FERNANDO HENRIQUE DE JESUS MOURAO
  • Data: 17/02/2020

  • Mostrar Resumo
  • Conectar candidatos e empregos para promover oportunidades reais de colocação é um dos cenários mais impactantes e desafiadores para os Sistemas de Recomendação (SsR). Uma grande preocupação ao criar SsR para serviços de recrutamento é garantir oportunidades de colocação para todos os candidatos e vagas de empregos o mais rápido possível, evitando perdas financeiras para os dois lados. Nós nos referimos a esses cenários em que candidatos ou empregos sofrem com a ausência de correspondência no sistema como Problem of Matching Scarcity (PMS). Este trabalho apresenta o PMS, discutindo os motivos pelos quais o consideramos uma ameaça recorrente aos serviços de recrutamento e apresentando novas estratégias para identificar, caracterizar e mitigar o PMS em cenários reais. Avaliações experimentais em dados reais da Catho, empresa líder de recrutamento na América Latina, evidenciaram que os currículos tendem a ser menos bem escritos do que as descrições de cargos, exibindo várias informações irrelevantes. Substituir essas informações adequadamente por outras úteis reduz em até 50% o número de currículos e vagas que sofrem de PMS.


  • Mostrar Abstract
  • Connecting candidates and jobs to promote real placement opportunities is one of the most impacting and challenging scenarios for Recommender Systems (RSs). A major concern when building RSs for recruitment services is ensuring placement opportunities for all candidates and jobs as soon as possible, avoiding financial losses for both sides. We refer to these scenarios where candidates or jobs suffer from the absence of matching in the system as the Problem of Matching Scarcity (PMS). This paper introduces the PMS, discussing the reasons we consider it as a recurring threat to recruitment services and presenting novel strategies to identify, characterize, and mitigate the PMS on real scenarios. Experimental assessments on real data from Catho, the leading recruitment company in Latin America, evinced that curricula tend to be more poorly written than job descriptions, exhibiting several irrelevant pieces of information. Replacing these pieces properly by useful ones reduces up to 50% the number of curricula and jobs that suffer from PMS.


3
  • RODRIGO RIBEIRO CAPUTO
  • Deep Learning aplicado a dados estruturados como cubos OLAP

  • Orientador : EDIMILSON BATISTA DOS SANTOS
  • MEMBROS DA BANCA :
  • EDIMILSON BATISTA DOS SANTOS
  • LEONARDO CHAVES DUTRA DA ROCHA
  • LAURENCE RODRIGUES DO AMARAL
  • Data: 17/02/2020

  • Mostrar Resumo
  • O processo de Descoberta de Conhecimento de Bases de Dados (KDD) aplicado em dados estruturados é um desafio onde diversas abordagens já há algum tempo conseguiram relativo sucesso. Muitas destas abordagens baseiam-se no Aprendizado de Máquina tradicional e seus paradigmas. Já o processamento de dados não-estruturados teve sua popularização apenas recentemente, com o surgimento do Deep Learning, uma abordagem baseada em Redes Neurais Artificiais (RNAs). Embora as RNAs não sejam um método
    novo, a evolução do poder computacional de forma acessível, em especial através das GPUs, juntamente com o surgimento de técnicas cada vez mais eficientes de otimização, impulsionaram suas aplicações de uma forma extraordinária em domínios como processamento de imagens, áudio, linguagem natural, dentre outros. Este trabalho busca investigar como estas novas técnicas podem ser aplicadas a fim de melhorar os resultados em modelos gerados sobre dados estruturados. Desta investigação, surgiu a proposta da OlapNet, uma arquitetura de Rede Neural Convolucional (CNN) que baseia-se em operações implícitas de
    cubos de dados como entrada. Formalmente identificou-se que esta arquitetura é capaz se superar os resultados de um grupo específico de transformações realizadas sobre os dados, permitindo em partes a automação da etapa de transformação de dados no processo de KDD. Para verificar a proposta empiricamente, foi utilizada uma amostra de dados de uma base real contendo dados anonimizados do histórico de endividamento dos clientes de uma instituição financeira. A partir destes dados, foi modelado um problema de classificação preditiva para estimar a probabilidade de um cliente qualquer contratar novos créditos nos próximos três meses. Assim, foram utilizados métodos tradicionais de Aprendizado de
    Máquina e variações de CNNs, incluindo a proposta deste trabalho. Os resultados mostraram que em quase todos os casos as CNNs superam os métodos tradicionais, indicando que os Features Maps gerados a partir dos kernels convolucionais aprendidos pela rede são capazes de extrair características relevantes. Estes kernels não somente permitem extrair características, como reduzem a complexidade da rede ao delimitar uma vizinhança para cada pixel e diminuem a propensão de ocorrer overfitting. Dentre as CNNs testadas, a
    OlapNet supera todos os outros métodos, indicando que a arquitetura proposta é bastante promissora.


  • Mostrar Abstract
  • The Database Knowledge Discovery (KDD) process applied to structured data is a challenge where several approaches have achieved relative success for some time. Many of these approaches are based on traditional Machine Learning and its paradigms. The processing of unstructured data, on the other hand, had its popularity only recently, with the emergence of Deep Learning, an approach based on Artificial Neural Networks (ANNs). Although ANNs are not a method new, the evolution of computational power in an accessible way, especially through GPUs, together with the emergence of increasingly efficient optimization techniques, boosted its applications in an extraordinary way in domains such as image processing, audio, natural language, among others. This work seeks to investigate how these new techniques can be applied in order to improve the results in models generated on structured data. From this investigation, OlapNet's proposal arose, a Convolutional Neural Network (CNN) architecture that is based on implicit data cubes as input. Formally it was identified that this architecture is capable of surpassing the results of a specific group of transformations carried out on the data, allowing in part the automation of the data transformation stage in the KDD process. In order to verify the proposal empirically, a sample of data from a real database was used containing anonymized data on the historical indebtedness of clients of a financial institution. Based on this data, a predictive classification problem was modeled to estimate the likelihood that any customer will contract new credits in the next three months. Thus, traditional learning methods were used Machine and CNN variations, including the proposal of this work. The results showed that in almost all cases the CNNs outperform traditional methods, indicating that the Feature Maps generated from the convolutional kernels learned by the network are capable of extracting relevant characteristics. These kernels not only allow you to extract characteristics, they also reduce the complexity of the network by delimiting a neighborhood for each pixel and decrease the propensity to occur overfitting. Among the CNNs tested, OlapNet outperforms all other methods, indicating that the proposed architecture is very promising.
4
  • THIAGO DA SILVA GOMIDES
  • An Adaptive and Distributed Traffic Management System for Vehicular ad-hoc Networks

  • Orientador : DANIEL LUDOVICO GUIDONI
  • MEMBROS DA BANCA :
  • DANIEL LUDOVICO GUIDONI
  • FERNANDA SUMIKA HOJO DE SOUZA
  • ROBSON EDUARDO DE GRANDE
  • Data: 13/03/2020

  • Mostrar Resumo
  • A capacidade da infraestrutura rodoviária e as interrupções temporárias nas viagens consistem nas principais razões por trás do fenômeno do engarrafamento. A urbanização e o crescimento das cidades intensifificam ainda mais essas duas razões, por meio do aumento das áreas de trabalho e da demanda por mobilidade. Nesse cenário, vários problemas podem surgir, como altos custo de mobilidade, congestionamentos mais frequentes, danos ambientais signifificativos, prejuízos à qualidade de vida e aumento da poluição urbana. Assim, soluções tecnológicas para o congestionamento do tráfego, como Traffific Management System (TMS), surgem como aplicações alternativas e fáceis de usar. Portanto, este trabalho apresenta o ON-DEMAND: An adaptive and Distributed Traffific Management System for VANETS. A solução proposta é baseada na comunicação V2V e na visão local do congestionamento do tráfego. Durante o deslocamento em uma estrada, o veículo monitora a distância percorrida e a esperada, considerando uma condição de tráfego de flfluxo livre. A diferença entre essas medições é usada para classifificar um fator de contenção, ou seja, a percepção do veículo nas condições de tráfego na estrada. Cada veículo usa o fator de contenção para classifificar o nível geral de congestionamento e essas informações são disseminadas proativamente nas proximidades, considerando uma abordagem  adaptativa. No caso de um veículo não possuir as informações de trânsito necessárias para estimar rotas alternativas, ele executa uma descoberta reativa de conhecimento de informações de trânsito. A solução proposta é comparada com três soluções da literatura, denominadas DIVERT, PANDORA e s-NRR. Nossos resultados mostraram que ON-DEMAND apresenta melhores resultados em relação às métricas de congestionamento de rede e tráfego. 

  • Mostrar Abstract
  • Road capacity infrastructure and temporary interruptions in trips consist of the main reasons behind the traffific jam phenomenon. City urbanization and growth further intensify these two reasons through the increase of work area and the demand for mobility. In such a scenario, several issues can emerge, such as higher mobility costs, more frequent traffific jams, more signifificant environmental damage, reduced quality of life, and more pollution. Thus, technological solutions for traffific congestion as Traffific Management Systems rise as alternative and easy-to-use applications. Therefore, this work presents a ON-DEMAND: An adaptive and Distributed Traffific Management System for VANETS. The proposed solution is based on V2V communication and the local view of traffific congestion. During its displacement in a road, the vehicle monitors its travelled distance and the expected one considering a free-flflow traffific condition. The difference between these measurements is used to classify a contention factor, i.e., the vehicle perception on the road traffific condition. Each vehicle uses the contention factor to classify the overall congestion level and this information is proactively disseminated to its vicinity considering an adaptive approach. In the case a vehicle does not have the necessary traffific information to estimate alternative routes, it executes a reactive traffific information knowledge discovery. The proposed solution is compared with three literature solutions, named DIVERT, PANDORA and s-NRR. The performance evaluation shows that ON-DEMAND presents better results regarding network and traffific congestion metrics.
5
  • REGINALDO COIMBRA VIEIRA
  • Introduzindo Gerenciamento Autonômico de Incidentes em Sistemas de Software Legados

  • Orientador : ELDER JOSE REIOLI CIRILO
  • MEMBROS DA BANCA :
  • ELDER JOSE REIOLI CIRILO
  • DANIEL LUDOVICO GUIDONI
  • MARX LELES VIANA
  • Data: 06/11/2020

  • Mostrar Resumo
  • O projeto e desenvolvimento de sistemas de software autônomos vem sendo amplamente investigados principalmente a partir do manifesto disseminado pela IBM concomitantecom o advento da Computação Autonômica (Autonomic Computing). Sistemas de software autônomos (ou autonômicos) são aqueles capazes de adaptar os comportamentos existentes à demanda de novos requisitos e de resolver incidentes com a mínima intervenção humana. Porém, investigações de como incorporar as capacidades de adaptação e resolução autônoma de incidentes em sistemas existentes (legados), apesar de desejado, pouco foi investigado nos últimos anos. Permitir que sistemas de software legados se adaptem requer a identificação e incorporação de atuadores responsáveis pela adaptação do comportamento e dos sensores que medem a variação no estado dos comportamentos monitorados. Idealmente, a incorporação de atuadores e sensores deve ser realizada de um modo flexível, isto é, sem que o sistema de software tenha que ser projetado e implementado novamente. Para isso, neste artigo, propomos uma nova abordagem para o gerenciamento autônomo de incidentes em sistemas de software legados. Nossa abordagem é baseada em dois conceitos primordiais: (i) composição transversal dos sensores com o código existe pormeio de técnicas de composição invasiva; e (ii) adaptação do comportamento por meio de tecnologias de virtualização. Com isso, é possível incorporar em sistemas legados novos comportamentos autônomos de modo rápido e flexível. Apresentamos adicionalmente uma avaliação da aplicabilidade da nossa abordagem no Moodle, um sistema legado largamente utilizado na prática para a condução de cursos a distância.


  • Mostrar Abstract
  • The design and development of autonomous software systems has been extensively investigated mainly based on the manifest disseminated by IBM concomitant with the advent of Autonomic Computing. Autonomous (or autonomous) software systems are those capable of adapting existing behaviors to the demand for new requirements and of resolving incidents with minimal human intervention. However, investigations on how to incorporate the capabilities of adaptation and autonomous incident resolution in existing (legacy) systems, although desired, little has been investigated in recent years. Allowing legacy software systems to adapt requires the identification and incorporation of actuators responsible for adapting the behavior and sensors that measure the variation in the state of the monitored behaviors. Ideally, the incorporation of actuators and sensors should be carried out in a flexible way, that is, without the software system having to be designed and implemented again. To this end, in this article, we propose a new approach for autonomous incident management in legacy software systems. Our approach is based on two fundamental concepts: (i) transversal composition of the sensors with the code exists through invasive composition techniques; and (ii) adapting behavior through virtualization technologies. With this, it is possible to incorporate new autonomous behaviors in legacy systems quickly and flexibly. We also present an assessment of the applicability of our approach in Moodle, a legacy system widely used in practice for conducting distance courses.

6
  • YGOR HENRIQUE DE PAULA BARROS BAETA
  • Recuperação de Erros em Derivação de Gramáticas Livres de Contexto Aplicado à Correção de Erros Ortográficos e Gramaticais

  • Orientador : CAROLINA RIBEIRO XAVIER
  • MEMBROS DA BANCA :
  • ALEXANDRE BITTENCOURT PIGOZZO
  • CAROLINA RIBEIRO XAVIER
  • CIRO DE BARROS BARBOSA
  • VINICIUS HUMBERTO SERAPILHA DURELLI
  • Data: 10/12/2020

  • Mostrar Resumo
  • Processamento de Linguagem Natural NLP (Natural Language Processing) é uma área interdisciplinar que estuda o processamento computacional de fala natural. É uma área em crescimento devido a popularidade de chatbots e Interfaces Vocais.  Qualquer aplicação de NLP é construída sobre um fluxo básico de passos de tokenização, stemming, marcação de função gramatical Part-of-Speech tagging (ou POS-tagging, em inglês), remoção de Stop-Words, análise de dependências, reconhecimento de entidade nomeadas e co-referenciamento, e embora essas etapas já estejam muito bem desenvolvidas para textos em inglês, o mesmo não pode ser dito para todos os idiomas. Este trabalho investiga o uso de técnicas desenvolvidas para correção de erros em compiladores para melhorar o resultado do POS-tagging em frases com problemas de classificação. Os resultados apresentados na pesquise indicam que o processo desenvolvido pode ser utilizado de maneira eficaz em alguns contextos.


  • Mostrar Abstract
  •  Natural Language Processing (NLP) is an interdisciplinary field that studies computational processing of natural speech. It is a growing area due to the popularity of Chat and Voice Interfaces. NLP application are built upon a basic flow of steps: tokenization, stemming, part-of-speech (POS) tagging, stop-word removal, dependency analysis, named entity recognition and co-referencing, and while those steps already work really well on English texts, the same cannot be said for every language. This paper investigates the use of techniques developed to correct errors in compilers to improve the result of POS-tagging in phrases with classification problems. The results presented in the research indicate that the developed process can be used effectively in some contexts.

7
  • ALEXANDRE SILVA DE ALMEIDA
  • Protocolos e aplicações para internet das coisas músicas

  • Orientador : RAFAEL SACHETTO OLIVEIRA
  • MEMBROS DA BANCA :
  • TERESINHA MOREIRA DE MAGALHÃES
  • ELDER JOSE REIOLI CIRILO
  • FLAVIO LUIZ SCHIAVONI
  • RAFAEL SACHETTO OLIVEIRA
  • Data: 14/12/2020

  • Mostrar Resumo
  • A música representa um papel fundamental e cultural de influência na sociedade e nos indivíduos, em que a relação da música com os sons inspiram o modo como os ouvintes se conectam e lidam em um ambiente musical, que está sempre se transformando por sua riqueza em orquestrar modelos de formação e procedimentos musicais em ambientes oferecidos pela teoria musical tradicional.

    Isso inclui infra-estruturas e protocolos de comunicação de baixa latência, hardware da Internet das Coisas incorporado e especializado em áudio, APIs (interfaces de programação de aplicativos dedicadas), software baseado em processos de áudio ontológico e semântico e o design de novos dispositivos dedicados que propiciam a interação entre os usuários e os dispositivos e coisas musicais, além de oferecer recursos para produção ou consumo de conteúdo musical.

    Nste trabalho, após análise dos conceitos e levantamentos da Internet das Coisas musicais, enumerando algumas dificuldades encontradas em conectar e desenvolver soluções da Internet das Coisas musicas, buscamos apresentar um protocolo e cenários baseado na necessidade em que o usuário a partir de seu dispositivo consiga conectar de forma prática e interativa aos componentes e objetos musicais, captando e enviando informações, possibilitando colocar mais animação e efeitos musicais e sonoros no ambiente conforme os ritmos musicais.


  • Mostrar Abstract
  • Music plays a fundamental and cultural role in influencing society and individuals, in which the relationship between music and sounds inspires the way listeners connect and deal in a musical environment, which is always changing due to its richness in orchestrating musical training models and procedures in environments offered by traditional music theory.

    This includes low-latency communication infrastructures and protocols, embedded and specialized audio IoT hardware, APIs (dedicated application programming interfaces), software based on ontological and semantic audio processes and the design of new dedicated devices that provide interaction between users and musical devices and things, in addition to offering resources for the production or consumption of musical content.

    In this work, after analyzing the concepts and surveys of the musical Internet of Things, listing some difficulties found in connecting and developing Internet of Things music solutions, we seek to present a protocol and scenarios based on the need in which the user can connect from his device in a practical and interactive way to the components and musical objects, capturing and sending information, making it possible to place more animation and musical and sound effects in the environment according to the musical rhythms.

8
  • GILMA APARECIDA SANTOS CAMPOS
  • Estudo do impacto da seleção de sementes baseada em centralidade e em informações de comunidades sobrepostas em redes complexas

  • Orientador : CAROLINA RIBEIRO XAVIER
  • MEMBROS DA BANCA :
  • CAROLINA RIBEIRO XAVIER
  • VINICIUS DA FONSECA VIEIRA
  • CARLOS CRISTIANO HASENCLEVER BORGES
  • Data: 14/12/2020

  • Mostrar Resumo
  • Alguns cenários onde há disseminação de uma infecção, opinião ou mesmo ideias, compartilham de características importantes; eles precisam, por exemplo, de indivíduos envolvidos em um contexto social para se espalharem. As redes sociais têm sido amplamente utilizadas para modelar e simular esses processos. Fazendo-se necessário o estudo da sua estrutura para que a escolha destes indivíduos possa garantir a otimização do processo de difusão. Este trabalho se concentra em comparar o alcance da difusão em dois contextos. O primeiro seleciona indivíduos baseado em medidas de centralidade, enquanto o segundo escolhe os indivíduos utilizando critérios baseados em comunidades sobrepostas de diferentes maneiras. Uma ampla comparação foi realizada sob os modelo de difusão: Independent Cascading Model e Threshold Model. Variando os parâmetros dos modelos,  os resultados mostraram que em alguns cenários o uso de comunidades sobrepostas pode trazer melhorias no alcance da difusão.


  • Mostrar Abstract
  • Some scenarios where an infection, opinion or even ideas spread, share important characteristics; they need, for example, individuals involved in a social context to spread. Social networks have been widely used to model and simulate these processes. It is necessary to study its structure so that the choice of these individuals can guarantee the optimization of the diffusion process. This work focuses on comparing the scope of diffusion in two contexts. The first selects individuals based on measures of centrality, while the second chooses individuals using criteria based on overlapping communities in different ways. A broad comparison was made under the diffusion model: Independent Cascading Model and Threshold Model. By varying the parameters of the models, the results showed that in some scenarios the use of overlapping communities can bring improvements in the reach of diffusion.

2019
Dissertações
1
  • RODRIGO DE CARVALHO SANTOS
  • Estratégias para Aprimorar a Diversidade Categórica e Geográfica de Sistemas de Recomendação de POIs

  • Orientador : LEONARDO CHAVES DUTRA DA ROCHA
  • MEMBROS DA BANCA :
  • LEONARDO CHAVES DUTRA DA ROCHA
  • DIEGO ROBERTO COLOMBO DIAS
  • ADRIANO CÉSAR MACHADO PEREIRA
  • FERNANDO HENRIQUE DE JESUS MOURAO
  • Data: 12/08/2019

  • Mostrar Resumo
  • Atualmente, os chamados Sistemas de Recomendação (SsR) têm sido usados para auxiliar usuários a descobrir Pontos de Interesse (POIs) relevantes em redes sociais baseadas em localização (Location Based Social Network - LBSN), tais como o Yelp e o FourSquare. Diante dos principais desafios de esparsidade de dados e diferentes fontes de informação, tais como a influência geográfica, nesse cenário, a maioria dos trabalhos sobre recomendações de POIs tem se concentrado apenas na melhoria da efetividade (i.e., acurácia) dos sistemas. No entanto, existe um crescente consenso de que apenas a efetividade não é suficiente para avaliar a utilidade prática desses sistemas. Em cenários reais, as diversidades categóricas e geográficas foram identificadas como as principais dimensões complementares para avaliar a satisfação dos usuários e a utilidade das recomendações. Os poucos trabalhos existentes na literatura estão concentrados em apenas um desses conceitos, isoladamente. Neste trabalho, propomos uma nova estratégia de pós-processamento, que combina esses conceitos a fim de melhorar a utilidade dos POIs recomendados para os usuários. Nesse contexto, o pós-processamento consiste em reordenar uma lista de POIs oriunda de um Recomendador Base (RB) a fim de maximizar as diversidades categórica e geográfica entre os primeiros itens da lista. Nossos resultados experimentais nos conjuntos de dados do Yelp mostram que nossa estratégia pode melhorar a utilidade da lista de POIs recomendados aos usuários, considerando diferentes SsR e múltiplas métricas de diversificação. Nosso método é capaz de melhorar a diversidade em até 120% sem grandes perdas de efetividade.


  • Mostrar Abstract
  • Nowadays, Recommender Systems (RSs) have been used to help users tobdiscover relevant Points Of Interest (POI) in Location Based Social Network (LBSN),bsuch as Yelp and FourSquare. In face to the main data sparity challenges and different sources of information, such as geographical influence, in this scenario, most of works about POI recommendations has only focused on improving the system’s accuracy. However, there is a consensus that just it is not enough to assess the practical effectiveness. In real scenarios, categorical and geographic diversities have been identified as key dimensions of user satisfaction and recommendation utility. The few existing works are concentrated on just one of these concepts, singly. In this work, we propose a novel postprocessing strategy to combine these concepts in order to improve the usefulness of recommended POIs. In this context, postprocessing involves reordering a POI list from a Base Recommender (RB) to maximize categorical and geographic diversities among the first items on the list. Our experimental results in Yelp datasets show that our strategy can improve the usefulness of the list of recommended user POIs, considering different RSs and multiple diversification metrics. Our method is able to improve the diversity up to 120% without major accuracy losses.

2
  • MASSILON LOURENÇO FERNANDES
  • Gerenciamento de tráfego utilizando infraestrutura auxiliar em redes veiculares

  • Orientador : DANIEL LUDOVICO GUIDONI
  • MEMBROS DA BANCA :
  • DANIEL LUDOVICO GUIDONI
  • RAFAEL SACHETTO OLIVEIRA
  • CRISTIANO MACIEL DA SILVA
  • LEANDRO APARECIDO VILLAS
  • Data: 23/08/2019

  • Mostrar Resumo
  • -


  • Mostrar Abstract
  • -

3
  • JOSÉ MAURO DA SILVA SANDY
  • UAISharing - Interface Universal de Acesso a Recursos Compartilhados

  • Orientador : FLAVIO LUIZ SCHIAVONI
  • MEMBROS DA BANCA :
  • DANIEL LUDOVICO GUIDONI
  • EDUARDO BENTO PEREIRA
  • FLAVIO LUIZ SCHIAVONI
  • Data: 29/08/2019

  • Mostrar Resumo
  • A modernização das plataformas computacionais vem proporcionando o surgimento de novas características nos sistemas de informação que são pouco exploradas, e quando são, em boa parte, não apresentam padronização quanto à sua utilização. Neste cenário, um dos pontos a ser explorado é o compartilhamento de recursos criados pelos mais diversos tipos de usuário de sistemas computacionais. No entanto, é possível verificar que o  compartilhamento de recursos entre usuários finais de sistemas computacionais costuma não possuir uma padronização para controlar seu empacotamento, distribuição e versionamento. Considerando as particularidades envolvidas em cada sistema de informação, torna-se necessário a definição de uma camada de abstração que propicie que este compartilhamento possa ocorrer de forma transparente entre os usuários dos mais diversos sistemas. Com isso, este trabalho traz o UAISharing - uma interface Universal de Acesso a Recursos Compartilhados, uma proposta que visa apresentar um modelo de empacotamento e distribuição de recursos produzidos por usuários finais.



  • Mostrar Abstract
  • The modernization of computational platforms has led to the emergence of new features in information systems that are little explored, and when they are, for the most part, they do not present standardization regarding their use. In this scenario, one of the points to be explored is the sharing of resources created by the most diverse types of computer system users. However, it is possible to verify that the sharing of resources between end users of computer systems usually does not have a standardization to control their packaging, distribution and versioning. Considering the particularities involved in each information system, it is necessary to define an abstraction layer that allows this sharing to occur transparently between users of the most diverse systems. With this, this work brings UAISharing - a Universal Interface for Access to Shared Resources, a proposal that aims to present a model of packaging and distribution of resources produced by end users.

SIGAA | NTInf - Núcleo de Tecnologia da Informação - +55(32)3379-5824 | Copyright © 2006-2021 - UFSJ - sigaa01.ufsj.edu.br.sigaa01