Computação e Nanotecnologia
Computação em nuvem e seu impacto na arquitetura de aplicações e serviços
Nesta palestra vamos apresentar os fatores que impulsionaram a adoção de computação em nuvem, como infraestrutura de grande escala, compartilhamento de recursos, plataformas de desenvolvimento e novas arquiteturas de aplicações. Relacionaremos estes fatores com as tecnologias subjacentes e como suportam a computação em nuvem. Discutiremos também implicações da popularização da computação em nuvem para empresas, usuários e aplicações.
Mining, Learning and Semantics for Personalized Health
In this talk I’ll present an overview of the challenges and opportunities for applying data mining and machine learning for tasks in personalized health, including the role of semantics. In particular, I’ll focus on the task of healthy recipe recommendation via the use of knowledge graphs, as well as generating summaries from personal health data, highlighting our work within the RPI-IBM Health Empowerment by Analytics, Learning, and Semantics (HEALS) project.
Mohammed J. Zaki is a Professor and Department Head of Computer Science at RPI. He received his Ph.D. degree in computer science from the University of Rochester in 1998. His research interests focus novel data mining and machine learning techniques, particularly for learning from graph structured and textual data, with applications in bioinformatics, personal health and financial analytics. He has around 300 publications (and 6 patents), including the Data Mining and Machine Learning textbook (2nd Edition, Cambridge University Press, 2020). He founded the BIOKDD Workshop, and recently served as PC chair for CIKM’22. He currently serves on the Board of Directors for ACM SIGKDD. He was a recipient of the NSF and DOE Career Awards. He is a Fellow of the IEEE, a Fellow of the ACM, and a Fellow of the AAAS.
http://www.cs.rpi.edu/~zaki/
Cibersegurança
Afinal o que é um curso de graduação em Cibersegurança?
Esta miniapresentação divulgará a iniciativa da Sociedade Brasilieira de Computação (SBC) através da sua Diretoria de Educação em propor um referencial de formação para os cursos de graduação em Bacharelado em Cibersergurança. Há uma carência mundial de profissionais nesta área. O objetivo é apresentar de modo simples os eixos que abragerão o curso e sua diferença para os cursos, bem como tirar dúvidas da audiência desde o contéudo técnico até as possíveis áreas de atuação.
Desinformação na Web: Lutando contra nossos próprios demônios
Apesar de vários esforços para detecção e combate à desinformação online, as campanhas de fake news, em particular em plataformas de mídia social, permanecem um problema com grande impacto nas sociedades. Nós argumentamos que para desenvolver soluções efetivas para o combate à desinformação é essencial entender (analisar e modelar) como a informação é propagada, frequentemente cruzando os limites de diferentes plataformas, e atingindo uma grande audiência. Nesta palestra, eu irei discutir alguns dos desafios principais para o combate à desinformação online a apresentar resultados recentes do nosso grupo de pesquisa sobre a análise de disseminação de fake news. Nossos resultados abordam aspectos relacionados ao conteúdo, dinâmica de propagação e à rede de disseminação de informação, bem como características dos usuários, enquanto seres humanos, que mais contribuem para o espalhamento de desinformação na Web.
Understanding and Mitigating Online Harms Using AI
Indisputably, the Web has revolutionized how people receive, consume, and interact with information. At the same time, unfortunately, the Web offers a fertile ground for online harms like the spread of hateful content and false information; hence there is a pressing need to develop techniques and tools to understand, detect, and mitigate these issues on the Web. In this talk, I will present our work on understanding and detecting hateful content using recent Artificial Intelligence (AI) advancements. The talk will focus on how we can use AI models to detect hateful content across multiple modalities (text and images) and understand the spread and evolution of hateful content online. I will conclude the talk with ongoing work on how prone Text-to-Image models are (e.g., Stable Diffusion in generating unsafe content).
Savvas Zannettou
Savvas Zannettou is an Assistant Professor at Delft University of Technology (TU Delft) and an associated researcher with the Max Planck Institute for Informatics. Before joining TU Delft, he was a Postdoctoral Researcher at Max Planck Institute for Informatics. He obtained his PhD from Cyprus University of Technology in 2020. His research focuses on applying machine learning and data-driven quantitative analysis to understand emerging phenomena on the Web, such as the spread of false information and hateful rhetoric. Also, he is interested in understanding algorithmic recommendations on the Web, their effect on end-users, and to what extend algorithms recommend extreme content. Finally, he is interested in analyzing content moderation systems to understand the effectiveness of moderation interventions on the Web.
Como o software se tornou o maior designer de hardware
A evolução da complexidade dos circuitos integrados tornou impossível aos seres humanos a tarefa de projetar um hardware sem o auxílio de softwares. Esta apresentação fornece uma visão em alto nível dos principais desafios enfrentados por estes softwares e as soluções atuais para estes problemas.
Ricardo Drummond @Cadence
Gerente de Engenharia de Software
CSI brasileiro – a tecnologia nacional que identifica criminosos e terroristas
Como as soluções biométricas da Griaule apoiam as entidades de segurança pública na identificação de indivíduos procurados ao redor do mundo.
Aprendizado de Máquina Automático: Passado, Presente e Futuro?
Nessa palestra mostraremos como o aprendizado de máquina automático (AutoML) deixou a academia e passou a ser uma parte importante das grandes plataformas de cloud para aprendizado de máquina. Falaremos sobre os principais métodos, das vantagens e desvantagens, e discutiremos se realmente é possível democratizar o uso de AutoML, independente de conhecimento prévio do usuário em aprendizado de máquina. Por último, mostraremos como métodos de AutoML podem nos ajudar a entender o que funciona ou não para resolver um novo problema de aprendizado.
Astrobox: Escalabilidade para altos volumes de dados
Vamos nessa palestra aprender um pouco mais sobre a solução interna de visualização de dados da Hotmart, sua aplicação e desenvolvimento.
Gustavo Ferreira @Hotmart
Desenvolvedor com foco em simplicidade, escalabilidade e entrega de valor ao usuário final. Iniciei minha carreira desenvolvendo minhas próprias soluções, passei por diferentes tipos de softwares em diferentes modelos de negócio e hoje atuo em soluções de alta demanda que utilizam o conceito de streaming para dados.
Raphaela Curvão @Hotmart
Product Manager da diretoria de dados da Hotmart, possui uma visão data driven. Formada pela PUC-RJ e Pós graduação pela Fundação Getulio Vargas (FGV)
Pesquisa científica e as redes sem fio
Ciência de Dados para Performance de Negócios
A Big Data, fundada em 2012, é pioneira na área de big data analytics no Brasil. Nessa palestra vamos trazer um pouco da nossa experiência na aplicação de soluções de IA e ML em grandes empresas e mostrar como a aplicação dessas tecnologias tem resultados reais. Vamos contar como vários produtos que você consome no bar, na farmácia e vários outros lugares, além do preço são determinados pelos nossos algoritmos.
Campanhas de Desinformação no Brasil: Lições Aprendidas e Desafios Futuros
O debate político e a disputa eleitoral no espaço online durante as eleições brasileiras de 2018 marcaram o início de uma grande guerra informacional no país. Essa guerra se tornou parte do nosso cotidiano e um dos problemas mais desafiadores da nossa sociedade. Visando mitigar o problema, nós criamos o projeto “Eleições Sem Fake” (www.eleicoes-sem-fake.dcc.ufmg.br) e desenvolvemos soluções tecnológicas capazes de monitorar e expor as atuações de diferentes campanhas políticas no espaço online. Exemplos de sistemas incluem: um monitor de propagandas impulsionadas no Facebook e monitores de grupos públicos, voltados para discussão política, no WhatsApp e no Telegram. Nossos sistemas se mostraram fundamentais para a checagem de fatos, para o jornalismo investigativo e, atualmente, nosso projeto faz parte da frente nacional de enfrentamento à desinformação do TSE. Essa palestra sumariza uma série de lições aprendidas a partir da implantação desses sistemas e aponta direções futuras para o combate à desinformação.
Responsible AI
In the first part we cover five current specific problems that motivate the needs of responsible AI: (1) discrimination (e.g., facial recognition, justice, sharing economy, language models); (2) phrenology (e.g., biometric based predictions); (3) unfair digital commerce (e.g., exposure and popularity bias); (4) stupid models (e.g., minimal adversarial AI) and (5) indiscriminate use of computing resources (e.g., large language models). These examples do have a personal bias but set the context for the second part where we address four challenges: (1) too many principles (e.g., principles vs. techniques), (2) cultural differences; (3) regulation and (4) our cognitive biases. We finish discussing what we can do to address these challenges in the near future to be able to develop responsible AI.
Ricardo Baeza-Yates
Ricardo Baeza-Yates is Director of Research at the Institute for Experiential AI of Northeastern University. Before, he was VP of Research at Yahoo Labs, based in Barcelona, Spain, and later in Sunnyvale, California, from 2006 to 2016. He is co-author of the best-seller Modern Information Retrieval textbook published by Addison-Wesley in 1999 and 2011 (2nd ed), that won the ASIST 2012 Book of the Year award. From 2002 to 2004 he was elected to the Board of Governors of the IEEE Computer Society and between 2012 and 2016 was elected for the ACM Council. In 2009 he was named ACM Fellow and in 2011 IEEE Fellow, among other awards and distinctions. He obtained a Ph.D. in CS from the University of Waterloo, Canada, in 1989, and his areas of expertise are web search and data mining, information retrieval, bias on AI, data science and algorithms in general.
Novas tecnologias para descarbonização e digitalização industrial
Como uma empresa alemã, líder mundial, criou um centro de competências em Belo Horizonte para exportar software e serviços para todo mundo.
Thiago Maia @Vetta
Ricardo Giacomin @Vetta
O que eu preciso para ser um excelente Engenheiro de Software?
Atualmente, toda empresa está se transformando em uma empresa de software. Então, não é surpresa que Engenheiros de Software estejam no topo das profissões mais demandadas do mercado. Nesta palestra, vamos discorrer sobre as diferentes habilidades que são exigidas de um Engenheiro de Software, bem como comentar sobre as principais técnicas usadas no dia a dia da profissão.
Problemas de Roteamento na Robótica: Desafios Práticos e Oportunidades
Nesta palestra vamos abordar e discutir as principais dificuldades que problemas clássicos de roteamento apresentam ao serem utilizados em sistemas reais. Serão apresentadas variações e modelagens que permitem representar melhor diferentes situações no contexto da robótica, tais como restrições de movimento, casos de falha na navegação e características limitantes do ambiente.
LLVM: um arcabouço para construção de linguagens de programação
LLVM é um conjunto de bibliotecas e ferramentas que facilitam o desenvolvimento de linguagens de programação. Várias linguagens populares hoje são construídas e compiladas via LLVM: C, C++, Rust e Julia, por exemplo. LLVM define uma representação intermediária de código (uma linguagem de montagem). Ao traduzir uma linguagem de alto nível para este código intermediário, tem-se acesso a uma vasta gama de análises estáticas e otimizações que já estão disponíveis em LLVM. Nessa palestra veremos como usar LLVM como uma ferramenta para compilar e visualizar programas, escreveremos código na representação intermediária, e desenvolveremos uma análise de código que pode ser acoplada àquela infra-estrutura.
Painel – Mulheres na Ciência
Towards Democratizing AI: Scaling and Learning (Fair) Graph Representations in an Implementation Agnostic Fashion
Recently there has been a surge of interest in designing graph embedding methods. Few, if any, can scale to a large-sized graph with millions of nodes due to both computational complexity and memory requirements. In this talk, I will present an approach to redress this limitation by introducing the MultI-Level Embedding (MILE) framework – a generic methodology allowing con-temporary graph embedding methods to scale to large graphs. MILE repeatedly coarsens the graph into smaller ones using a hybrid matching technique to maintain the backbone structure of the graph. It then applies existing embedding methods on the coarsest graph and refines the embeddings to the original graph through a graph convolution neural network that it learns. Time permitting, I will then describe one of several natural extensions to MILE – in a distributed setting (DistMILE) to further improve the scalability of graph embedding or mechanisms – to learn fair graph representations (FairMILE).
The proposed MILE framework and variants (DistMILE, FairMILE), are agnostic to the underlying graph embedding techniques and can be applied to many existing graph embedding methods without modifying them and is agnostic to their implementation language. Experimental results on five large-scale datasets demonstrate that MILE significantly boosts the speed (order of magnitude) of graph embedding while generating embeddings of better quality, for the task of node classification. MILE can comfortably scale to a graph with 9 million nodes and 40 million edges, on which existing methods run out of memory or take too long to compute on a modern workstation. Our experiments demonstrate that DistMILE learns representations of similar quality with respect to other baselines while reducing the time of learning embeddings even further (up to 40 x speedup over MILE). FairMILE similarly learns fair representations of the data while reducing the time of learning embeddings.
Joint work with Jionqian Liang (Google Brain), S. Gurukar (OSU) and Yuntian He (OSU)
Srinivasan Parthasarathy
Professor of Computer Science and Engineering, The Ohio State University
https://web.cse.ohio-state.edu/~parthasarathy.2/
Jogos, Quebra-Cabeças e Complexidade Computacional
Muitos jogos e quebra-cabeças atraem o interesse de pessoas em busca de desafios intelectuais. De certa forma, a dificuldade de uma atividade ajuda a torná-la instigante: um quebra-cabeça muito simples rapidamente se torna desinteressante. Frequentemente tal dificuldade pode ser formalizada, permitindo demonstrar que tais jogos também são difíceis, em diferentes níveis, até mesmo para modelos computacionais.
O estudo da dificuldade de jogos acompanhou os avanços da complexidade computacional, não só utilizando as ferramentas já existentes para a determinação da dificuldade de certos jogos, mas também motivando o desenvolvimento e formalização de novas ideias e modelos.
Nesta palestra discute-se como diferentes jogos (ou mesmo diferentes versões de um mesmo jogo) se posicionam em diversas classes de complexidade, não só nas famosas classes P e NP, mas até em classes mais gerais, como PSPACE e EXP.
Processamento rápido de pacotes
Aprendizado de Máquina: Interpretabilidade e Causalidade
Automatização de raciocínio via solucionadores SMT
Solucionadores SMT são amplamente utilizados na indústria para a automação de aplicações de métodos formais em diversos domínios, tais como verificação de programas, verificação de hardware, análise estática, segurança, geração de testes, síntese de programas, etc. Veremos como utilizar solucionadores SMT para resolver diversos problemas computacionais que surgem nesses domínios.
Mapping the NFT Revolution
Non-Fungible Tokens (NFTs) are units of data stored on a blockchain that certifies a digital asset to be unique and therefore not interchangeable, while offering a unique digital certificate of ownership. Public attention towards NFTs has exploded in 2021, when their market has experienced record sales. For long, little was known about the overall structure and evolution of its market. To shed some light on its dynamics, we collected data concerning 6.1 million trades of 4.7 million NFTs between June 2017 and April 2021 to study the statistical properties of the market and to gauge the predictability of NFT prices. We also studied the properties of the digital items exchanged on the market to find that the emerging norms of NFT valuation thwart the non-fungibility properties of NFTs. In particular, rarer NFTs: (i) sell for higher prices, (ii) are traded less frequently, (iii) guarantee higher returns on investment (ROIs), and (iv) are less risky, i.e., less prone to yield negative returns.
Luca Maria Aiello
Associate Professor at the IT University of Copenhagen, Denmark
Medical image report generation: methods, evaluation and challenges
Denis Parra
Associate Professor at the Department of Computer Science, in the School of Engineering at PUC Chile. I am principal researcher at the National Center of Artificial Intelligence (CENIA) as well as principal research at the Millenium Institute for Intelligent Healthcare Engineering (iHealth). I am also adjunct researcher at the Millennium Institute for Research on Fundamentals of Data. I hold a professional title of Civil Engineer in Informatics in 2004 from UACh, Valdivia, Chile; and a Ph.D. in Information Science from University of Pittsburgh, USA, advised by Professor Peter Brusilovsky. I earned a Fulbright scholarship to pursue my PhD studies between 2008-2013.
My research interests are Recommender Systems, Intelligent User Interfaces, Applications of Machine Learning (Healthcare, Creative AI) and Information Visualization and I am currently leading the Human-centered AI and Visualization (HAIVis) research group as well as co-leading the CreativAI Lab with professor Rodrigo Cádiz. I am also Faculty member of the PUC IA Lab.
Impactos sociais e políticos dos algoritmos e da inteligência artificial
É possível que o avanço da tecnologia e da inteligência artificial (IA) alterem a economia no futuro? Pessoas perderão seus empregos para máquinas? A evolução tecnológica impacta diferentes setores do mercado e aspectos sociais. Será sobre essas e outras questões, como um novo papel da computação que Virgilio Almeida, professor emérito do departamento de Ciência da Computação da Universidade Federal de Minas Gerais (UFMG) falará em sua palestra.
Ciência de Dados Aplicada à Saúde
Apesar do entusiasmo atual associado ao uso de algoritmos de mineração de dados e aprendizado de máquina, seu uso real ainda é um desafio em vários cenários de aplicação e há uma consciência crescente da necessidade desses algoritmos serem compatíveis com valores éticos, morais e humanos. Nesta palestra, argumentamos que empregar esses modelos e técnicas efetivamente exige que eles sejam contextualizados ao domínio, interpretáveis para os usuários finais e automatizados tanto quanto possível. Discutiremos esses requisitos e apresentaremos alguns resultados recentes que alcançamos no âmbito das aplicações em saúde, em particular na cardiologia.
O Pensamento Analítico na Otimização e Solução de Problemas em Extração de Documentos
A MOST é especialista na automatização de processos cadastrais. Um dos nossos serviços, o mostQI, é focado na classificação e extração de campos de documentos complexos. Para isso, ele requer o uso de uma camada de leitura óptica de caracteres (OCR) muito robusta.
Nesta apresentação falaremos de alguns dos problemas encontrados durante o desenvolvimento do mostQI, assim como o modo de pensar que nos levou a soluções e algumas otimizações para estes problemas.
Marco Antônio Ribeiro @Most
Computer and Information Research Scientist