
Os serviços e produtos digitais que estão disponíveis, na atualidade, nos colocam sob o dilema da privacidade. Compartilhar dados e informações é o preço que pagamos para acessar o mundo das plataformas online, sejam elas financeiras, de comunicação, de entretenimento, de transporte, de alimentação, entre outras. Mas, e se um dia quisermos deixar de “existir” dentro de um espaço digital como esse? Seria necessário apagar nossos dados pessoais, o que, não necessariamente, deixaria de influenciar modelos de filtragem, recomendação e Inteligência Artificial (IA) dessas plataformas.
Mesmo após a exclusão de informações pessoais, usadas para perfilamento de usuários, esses dados podem continuar “presentes” em modelos de IA treinados. Isso levanta questões críticas sobre conformidade com a Lei Geral de Proteção de Dados Pessoais (LGPD) e a confiança nos sistemas digitais. É nesse contexto que pesquisadores do GT-Padlock, grupo formado no âmbito do Projeto Ilíada, desenvolveram uma proposta de uso de algoritmos de desaprendizado de máquina (Machine Unlearning) para remover seletivamente a influência de dados.
Tecnicamente, o sistema funciona com integração com blockchain para registrar, validar e auditar esse processo e, assim, criar um arcabouço que permite verificar se o desaprendizado foi realmente executado. Mais do que apagar dados, a proposta avança para um novo nível, que é tornar o esquecimento verificável. A arquitetura combina registros em blockchain (Layer 1) com processamento em Layer 2 (Cartesi), garantindo transparência, rastreabilidade e escalabilidade, pontos essenciais para futuras aplicações.
Com esta proposta, assim que alguém revogar o uso das informações pessoais, é possível esquecer o armazenamento dos dados e o direito de uso em qualquer modelo que tenha sido influenciado por esses dados. Afinal, esses modelos estariam “desaprendendo” a funcionar sem a informação removida, garantido o direito ao esquecimento.
Entenda mais sobre a proposta do GT-Padlock neste vídeo.