Cresce preocupação com discriminação e falta de transparência em tratamentos automatizados de dados

O receio pela chamada ‘discriminação algorítmica’, que se configura quando o titular de dados é impedido de acessar serviços, benefícios ou tenha seus direitos afetados por uma decisão tomada apenas por sistemas de tratamento automatizado de dados, cresce à medida que a Inteligência Artificial (IA) ganha cada vez mais espaço na vida das pessoas.

De acordo com especialistas, a falta de regras claras e critérios estruturados para evitar esta prática pode reforçar desigualdades e problemas sociais, além de dificultar aos indivíduos a possibilidade de exercerem direitos básicos de acesso às informações. Com o objetivo de debater o assunto, a Autoridade Nacional de Proteção de Dados (ANPD) realizou hoje (15) o Webinar “Tomada de Subsídios – Tratamento Automatizado de Dados Pessoais“.

O evento ocorreu no contexto do Item 7 da Agenda Regulatória para o biênio 2025/2026 da entidade e terá como objetivo analisar as contribuições recebidas sobre o tema. De acordo com Bruna Fabiane da Silva, Sócia da DeServ Academy, e  co-autora do livro “LGPD: Muito além da Lei”, quando ocorre uma decisão apenas automatizada, ou seja, sem a participação de um agente humano na operação, na qual o titular dos dados é avaliado apenas por um perfilamento, seja profissional, de saúde, de condição financeira ou qualquer outro aspecto, isso acaba abrindo espaço para a violação de aspectos fundamentais da Lei Geral de Proteção de Dados (LGPD) como o princípio da transparência, da necessidade, da adequação, da minimização de dados e outros.

“O maior problema é que muitas vezes o titular dos dados não faz a menor ideia e nem sequer tem acesso às informações sobre como ou quais foram os critérios que foram adotados para que essas decisões tivessem sido escolhidas”, afirma.

Segundo ela, a própria LGPD, em seu artigo 20 estabelece práticas que devem ser seguidas para que isto não aconteça. Bruna afirma que a legislação confere ao titular de dados o direito de solicitar uma revisão das tomadas de decisões feitas por parte do controlador ou do responsável pelo tratamento de dados, quando essas decisões foram adotadas com base exclusiva no tratamento de dados automatizado.

“Isso significa que, quando tiver uma tomada de decisão na qual uma empresa ou uma organização usou como único processo o tratamento automatizado, sem nenhuma revisão ou supervisão humana e isso gerou um perfilamento, ou que essa tomada de decisão tenha afetado os direitos e liberdades do indivíduo,  o titular tem o direito de exigir uma revisão desse processo”, afirma.

A especialista comenta que um cuidado que deveria ser tomado para evitar ou mitigar os riscos é a adoção dos chamados Relatórios de Impacto à Proteção de Dados, que já estão consolidados no âmbito da LGPD. A executiva argumenta que essa ferramenta permite que ainda na fase de planejamento do processo de tratamento de dados já se consiga verificar quais são os riscos e impactos que podem ser gerados para os indivíduos. Desta forma, antes de iniciar o tratamento dos dados já é possível criar ajustes para tornar a operação adequada aos princípios estabelecidos na LGPD como transparência, necessidade, finalidade e segurança.

“Isso faz com que o titular dos dados tenha um caminho aberto para exercer seu direito junto à organização com a qual se relaciona. Já por parte das empresas que utilizam ou desenvolvem sistemas de tratamento automatizado de dados, o instrumento funciona como uma garantia de que os riscos foram mitigados antes mesmo de iniciar o tratamento dessas informações”, conclui.

Adicionar aos favoritos o Link permanente.