Regulamentação da IA precisa ser prioridade, alerta especialista

Regulamentação da IA precisa ser prioridade, alerta especialistaBruno De Blasi

A inteligência artificial (IA) permeou todas as escalas da sociedade, até mesmo áreas onde sequer existe um processo de digitalização. No entanto, apesar das facilidades e promessa de eficiência, existe o outro lado da moeda: desinformação, deepfakes, discriminação, vieses e mais. É diante desses desafios que a regulamentação se torna uma prioridade global, de acordo com a CEO da consultoria especializada em impacto social Newa, Carine Roos.

Durante o Web Summit Rio, realizado entre 16 e 18 de abril no Rio de Janeiro (RJ), o Canaltech entrevistou a executiva especialista em Diversidade, Equidade, que é jornalista, socióloga, e mestre em Gênero pela London School of Economics and Political Science (LSE).

Na conversa, Roos expôs a importância da regulação e perpassou sobre questões como inclusão digital, além de benefícios e riscos provenientes da inteligência artificial. Confira a entrevista.

– Podcast Porta 101: a equipe do Canaltech discute quinzenalmente assuntos relevantes, curiosos, e muitas vezes polêmicos, relacionados ao mundo da tecnologia, internet e inovação. Não deixe de acompanhar. –

Apesar de não ser novidade, a IA virou um lugar comum nos últimos tempos com as ferramentas generativas. Porém, dá para dizer que os sistemas atuais são inclusivos? Ou isso é um privilégio de poucos?

Primeiro, a gente precisa localizar. Se vamos falar do Brasil, a gente já tem uma grande divisão digital, que é o acesso básico à internet. Diferentemente de outros países desenvolvidos, como Taiwan, onde a banda larga é um direito humano, aqui ainda não é uma realidade. Então, enquanto a gente vê esse avanço, tem uma parcela grande da população que está sendo excluída digitalmente. É um grande desafio pensando em contextos como o Brasil, Índia, África do Sul, países que estão em desenvolvimento e que ainda não são incluídos digitalmente.

A inteligência artificial está aí há algum tempo, mas o salto aconteceu agora. E cada vez mais o avanço será mais exponencial. Estamos falando do GPT-4, mas aí tem o 5, 6, se tiver. A gente tem uma discussão muito séria para trabalhar sobre a questão de regulamentação, porque da forma como está sendo feita, hoje, o desenvolvimento tecnológico não acompanha a regulação. E aí estamos falando de risco de segurança nacional, saúde pública, de impactos gigantescos na população mundial, e não só o Brasil.

Inclusive, neste momento, estamos entrando em período eleitoral nos Estados Unidos para presidência e no Brasil para prefeituras. Então a tem a questão de desinformação e deepfakes.

Ontem, no painel [do Web Summit Rio], eu trouxe muito essa reflexão de que vai ter 64 países neste ano com eleições. Podemos dizer que essa vai ser a eleição mais vulnerável porque a inteligência artificial avançou, mas a regulação não acompanhou no mesmo ritmo. Ela demora um pouco mais para vir. Por mais que a proteção seja um direito humano, estamos desprotegidos digitalmente por conta desse descompasso entre regulação e inovação.

É importante dizer que as duas coisas não são excludentes. Para termos o desenvolvimento de uma inteligência artificial sustentável, precisamos de uma regulação onde as pessoas se sintam confiantes de utilizar essa tecnologia, de se sentirem seguras utilizando essa tecnologia, e, por fim, ela tem um prolongamento da sua vida. E não o contrário como a mentalidade que está sendo pensada atualmente, de que, se tiver regulação, a gente não vai conseguir se desenvolver, inovar. Não é bem assim.

A UNESCO vê a importância da IA para o progresso humano, até para alcançar as 17 metas dos Objetivos de Desenvolvimento Sustentável (ODS) globais da Organização das Nações Unidas (ONU). Só que, ao mesmo tempo, é importante que esses sistemas sejam abertos, e o que estamos está vendo, na verdade, é o oposto. Quão maléfico ou quão benéfico é esse cenário de concentrar a tecnologia em poucas mãos?

Essa é uma discussão muito importante. Vou dar um exemplo do caso da Índia, onde vai ter eleições neste ano e podemos trazer esse paralelo para o Brasil. A Índia também está buscando a soberania na questão desenvolvimento de chips, que está muito atrás se comparar com os Estados Unidos e China. Mas, ao mesmo tempo em que o país não está liderando isso, ele está usando a inteligência artificial para sanar questões da sociedade, como desafios relacionados à educação, saúde e cidades, o que não é ruim.

O grande desafio é que isso está sendo utilizado sobre modelos como Llama, da Meta, e o GPT, da OpenAI, que rodam aplicações proprietárias. E por que isso é ruim? Porque são dados sensíveis da população que empresas, que hoje concentram enorme poder econômico, vão ter acesso. Existe uma discussão crítica sobre dados pessoais. Esse é um grande desafio: como construir uma inteligência artificial que seja inclusiva, mas que a gente discuta criticamente questão de dados pessoais, questões relacionadas à discriminação e vieses de gênero, raça, enfim, os vieses de maneira geral. A gente também precisa discutir a questão sobre o trabalho que vai ser substituído. Por exemplo, o trabalho de programadores. Daqui a três anos, não vamos precisar mais de programadores com esse avanço. Vamos precisar discutir criticamente essas essas questões.

No mesmo sentido que estamos falando de inclusão na sociedade como um todo, parece que o mercado de trabalho corre contra o tempo para se preparar para essa “revolução tecnológica”. Esses novos recursos já ergueram uma barreira para os profissionais em competências técnicas?

Quando a gente começou a falar sobre inteligência artificial, a discussão sobre automação do trabalho veio muito forte, e depois surgiram outros temas. Essa é uma discussão extremamente relevante que ainda é necessária, porque temos mudanças drásticas, por exemplo, no setor de audiovisual e no jornalismo. Vemos, por exemplo, com o avanço do ChatGPT, discussões éticas em relação à escrita de artigos e dissertações, e no campo técnico, também, estamos discutindo sobre o desenvolvimento de código.

Esse é um dos pontos, na minha visão, que vamos precisar discutir enquanto políticas públicas. O que vamos fazer com essa parcela da população que vai ser excluída? Se a gente olhar hoje, por exemplo, as big techs fizeram cortes gigantescos nas suas indústrias porque estão direcionando esforços para a IA. Se a gente for pensar, isso já está acontecendo. Pessoas já estão sendo demitidas, justamente porque o esforço de energia hoje está no desenvolvimento de capacidade de computadores, desenvolvimento de microprocessadores.

O grande desafio é: não estamos discutindo isso enquanto sociedade civil, o impacto que isso vai ter. O que estamos vendo hoje é só o legal: a gente acessa o ChatGPT e “ah, vai facilitar o meu processo de escrita e a minha criatividade”. Mas não estamos discutindo criticamente os efeitos, os impactos que vai ter na nossa vida.

Você falou de políticas públicas. Já temos algum piloto ou algum avanço nesse sentido de governos à nível global para mitigar os impactos negativos?

Tem dois caminhos que a gente precisa trabalhar. O primeiro, relacionado às leis. Por exemplo, temos nas eleições municipais a determinação do Tribunal Superior Eleitoral (TSE) proibindo o uso de deepfake. Se qualquer político fizer algum tipo de uso de deepfake nas redes sociais, ele vai ser cortado da sua possibilidade de ser eleito. Precisamos de mais leis como essa para as eleições que vão acontecer neste ano.

A maioria das leis, digamos assim, estão ainda muito no campo do guia, em termos de recomendações, boas práticas que as empresas de desenvolvimento de tecnologias de IA devem fazer. No caso dos Estados Unidos, elas devem prestar, por exemplo, como está o avanço tecnológico. Só que, mesmo nos EUA, você não vê isso sendo aprovado no Congresso como uma lei obrigatória, em que as empresas precisam prestar contas. É como se fosse recomendações, boas práticas. É isso que a resolução da ONU fez: recentemente ela criou uma resolução buscando um grande apoio de países para buscar esse maior consenso sobre regulamentação, mas ainda assim não tem força obrigatória, força mandatória.

O outro caminho é educar criticamente as pessoas em relação a isso, como educação em Direitos Humanos, inclusive sobre dados pessoais. Porque essa tecnologia está chegando até a gente por meio de dados pessoais. E esses dados não foram autorizados, né? Essa é uma outra discussão.

A outra coisa que eu falei bastante no painel foi educação emocional. O que Taiwan tem feito? Ele não tem feito educação emocional. Mas eles se prepararam nas eleições que teve agora, em janeiro de 2024. Desde 2022, o ministro das Relações Digitais, Audrey Tang, vem conversando com a população, explicando o que é deepfake e fez um vídeo mostrando como os usuários fazem deepfake. Meio que gerou uma imunização da população, um entendimento sobre essa tecnologia. Quando eles foram expostos em 2024, eles já tinham um conhecimento prévio e sabiam que estavam sendo expostos a deepfakes.

A tecnologia avança muito rápido, então, como que eu vou conseguir identificar se é deepfake ou não, se a gente tem avanço em questão de meses? Aí eu acho que entra uma discussão que é educação emocional. A gente não foi alfabetizado emocionalmente quando a gente recebe, por exemplo, mensagens de correntes de WhatsApp. Muitas vezes, o que fazemos? Ficamos com muito ódio e divulgamos em massa esse tipo de conteúdo, sem fazer checagem. Mas o mais importante é: por que isso está me incomodando tanto esse tipo de mensagem? Ou por que isso me dá um prazer enorme? A gente precisa discutir as emoções, o efeito que a tecnologia tem nas emoções das pessoas.

Quando você fala sobre a questão de educação emocional, é relacionada o que a gente fala na comunicação política de afetos políticos?

É exatamente nesse campo. Por exemplo, podemos pensar muito como foram as eleições dos últimos anos, não só do próprio Brasil. Principalmente pensando em governos mais autoritários. As mensagens que muitas vezes são propagadas nas redes são mensagens que nos levam medo. E o medo mobiliza uma sensação de pânico e muitas vezes uma irracionalidade para lidar com aquilo. Então, a gente espalha, busca apoiar e cuidar da nossa rede passando muitas vezes mensagens que são falsas. É uma estratégia política e essa estratégia política, provavelmente, vai continuar sendo usada nas eleições deste ano também.

A gente tem algum avanço nas legislações para ter leis que vão punir, de fato, o mau uso dessas ferramentas? Ou ainda está muito no “campo das ideias”?

Depende do país. No Brasil, a gente tem um PL das Redes Sociais que está pausado por questões polarizadas. A gente tinha um PL que ele está muito baseado em responsabilização das plataformas, porque elas impulsionam por meio de anúncio, ampliando discriminações, ampliando, por exemplo, crimes como pedofilia, então elas precisam ser punidas e responsabilizadas por isso. Se elas analisam anúncio por anúncio que é subido, então elas também têm uma responsabilidade em potencializar discriminação.

A gente tem um PL hoje sobre isso, só que ele foi pausado, principalmente, pela força econômica que as Big Techs têm. As Big Techs, parlamentares, comentando e dizendo que isso era censura. Só que, quando a gente olha a legislação europeia, por exemplo, a Alemanha, temos legislação já desde 2017 que fala que qualquer ato ilegal praticado em redes sociais e plataformas terá punição. O que a gente está tentando fazer, às vezes, é espelhar o que faz sentido lá fora para tentar adaptar ao nosso contexto. Só que, atualmente, temos essa sociedade que está “fraturada”, porque o discurso é cooptado como se fosse uma questão ideológica, e não é. É uma questão de direitos humanos. A gente está falando sobre os nossos dados, falando sobre crimes.

O cenário para o futuro é mais otimista ou pessimista?

Aqui [no Web Summit Rio] foi muito interessante. Eu vi alguns painéis, às vezes, muito utópicos sobre a inteligência artificial. Eu vi um painel que era sobre Inteligência Artificial Geral. É quando a capacidade dos computadores superam a inteligência humana. E aí a gente olha para os filmes de ficção científica, todos que fomos expostos, como Blade Runner, e a gente fica com muito medo. Como assim máquinas mais inteligentes, mais competentes, que a gente, inclusive emocionalmente? Como vai ser isso?

Eu acho que tem uma capacidade enorme de gerar impacto, realmente melhorar a saúde, a educação, o meio ambiente, como a própria ONU vislumbra em relação aos ODS. Mas isso precisa ser regulamentado, não é de qualquer forma. Isso não pode ser uma autorregulação imposta, por exemplo, pelas próprias big techs. Vamos precisar de uma regulação e pensar políticas que amparem e sustentem os desafios também que essa tecnologia vai trazer.

Diria que pode ser otimista, mas se for acompanhada também de um processo de discussão na sociedade civil e também uma maior regulamentação obrigatória das empresas.

Leia a matéria no Canaltech.

Trending no Canaltech:

Adicionar aos favoritos o Link permanente.