Jogos, Quebra-Cabeças e Complexidade Computacional

Muitos jogos e quebra-cabeças atraem o interesse de pessoas em busca de desafios intelectuais. De certa forma, a dificuldade de uma atividade ajuda a torná-la instigante: um quebra-cabeça muito simples rapidamente se torna desinteressante. Frequentemente tal dificuldade pode ser formalizada, permitindo demonstrar que tais jogos também são difíceis, em diferentes níveis, até mesmo para modelos computacionais.

O estudo da dificuldade de jogos acompanhou os avanços da complexidade computacional, não só utilizando as ferramentas já existentes para a determinação da dificuldade de certos jogos, mas também motivando o desenvolvimento e formalização de novas ideias e modelos.

Nesta palestra discute-se como diferentes jogos (ou mesmo diferentes versões de um mesmo jogo) se posicionam em diversas classes de complexidade, não só nas famosas classes P e NP, mas até em classes mais gerais, como PSPACE e EXP.

Vinicius Fernandes dos Santos

DCC/UFMG
ORCID Lattes Scholar www

Ciência de Dados Aplicada à Saúde

Apesar do entusiasmo atual associado ao uso de algoritmos de mineração de dados e aprendizado de máquina, seu uso real ainda é um desafio em vários cenários de aplicação e há uma consciência crescente da necessidade desses algoritmos serem compatíveis com valores éticos, morais e humanos. Nesta palestra, argumentamos que empregar esses modelos e técnicas efetivamente exige que eles sejam contextualizados ao domínio, interpretáveis para os usuários finais e automatizados tanto quanto possível. Discutiremos esses requisitos e apresentaremos alguns resultados recentes que alcançamos no âmbito das aplicações em saúde, em particular na cardiologia.

Wagner Meira Jr

DCC/UFMG
ORCID Lattes Scholar www

Towards Democratizing AI: Scaling and Learning (Fair) Graph Representations in an Implementation Agnostic Fashion

Recently there has been a surge of interest in designing graph embedding methods. Few, if any, can scale to a large-sized graph with millions of nodes due to both computational complexity and memory requirements. In this talk, I will present an approach to redress this limitation by introducing the MultI-Level Embedding (MILE) framework – a generic methodology allowing con-temporary graph embedding methods to scale to large graphs. MILE repeatedly coarsens the graph into smaller ones using a hybrid matching technique to maintain the backbone structure of the graph. It then applies existing embedding methods on the coarsest graph and refines the embeddings to the original graph through a graph convolution neural network that it learns. Time permitting, I will then describe one of several natural extensions to MILE – in a distributed setting (DistMILE) to further improve the scalability of graph embedding or mechanisms – to learn fair graph representations (FairMILE).
The proposed MILE framework and variants (DistMILE, FairMILE), are agnostic to the underlying graph embedding techniques and can be applied to many existing graph embedding methods without modifying them and is agnostic to their implementation language. Experimental results on five large-scale datasets demonstrate that MILE significantly boosts the speed (order of magnitude) of graph embedding while generating embeddings of better quality, for the task of node classification. MILE can comfortably scale to a graph with 9 million nodes and 40 million edges, on which existing methods run out of memory or take too long to compute on a modern workstation. Our experiments demonstrate that DistMILE learns representations of similar quality with respect to other baselines while reducing the time of learning embeddings even further (up to 40 x speedup over MILE). FairMILE similarly learns fair representations of the data while reducing the time of learning embeddings.
Joint work with Jionqian Liang (Google Brain), S. Gurukar (OSU) and Yuntian He (OSU)

Srinivasan Parthasarathy

Professor of Computer Science and Engineering, The Ohio State University
https://web.cse.ohio-state.edu/~parthasarathy.2/

Computação em nuvem e seu impacto na arquitetura de aplicações e serviços

Nesta palestra vamos apresentar os fatores que impulsionaram a adoção de computação em nuvem, como infraestrutura de grande escala, compartilhamento de recursos, plataformas de desenvolvimento e novas arquiteturas de aplicações. Relacionaremos estes fatores com as tecnologias subjacentes e como suportam a computação em nuvem. Discutiremos também implicações da popularização da computação em nuvem para empresas, usuários e aplicações.

Ítalo Fernando Scotá Cunha

DCC/UFMG
ORCID     Lattes     Scholar     www