EUA: família diz que jovem se matou após se apaixonar por perfil de IA

A família de um  adolescente de 14 anos, da Flórida, nos Estados Unidos, alega que ele teria tirado a própria vida depois de se “apaixonar” por um perfil de inteligência artificial que se passava por uma das personagens do seriado Game of Thrones. A mãe do garoto, Megan Garcia, entrou com ação na Justiça para responsabilizar o chatbot Character.AI.

Conforme relato dela, o filho Sewell começou a usar o serviço em abril de 2023, após completar 14 anos. Depois disso, segundo ela, o adolescente nunca mais foi o mesmo, tornando-se um jovem retraído, com preguiça de participar das atividades durante a aula e abandonando até mesmo o time de basquete da escola, Junior Varsity, do qual fazia parte.

Em novembro do ano passado, Sewell foi levado a um terapeuta, que o diagnosticou com ansiedade e transtorno disruptivo de desregulação do humor. Sem saber que o adolescente estava “viciado” no chatbot Character.AI, o profissional chegou a recomendar que ele passasse menos tempo na internet e nas redes sociais.

Meses depois, em fevereiro deste ano, o jovem envolveu-se numa confusão na escola. Ele chegou a responder um dos professores, dizendo que queria ser expulso. No mesmo dia, conforme o processo, ele escreveu no próprio diário que estava sofrendo e que não conseguia parar de pensar em Daenerys Targaryen, a personagem de Game of Thrones com quem ele “conversava” no chat de inteligência artificial.

4 imagens

Perfil de IA se passava pela persoangem Daenerys Targaryen, de Game of Thrones

Sewell, de 14 anos, e a mãe Megan Garcia
Sewell, de 14 anos, e a mãe Megan Garcia
1 de 4

Sewell, de 14 anos, e a mãe Megan Garcia

Reprodução

2 de 4

Perfil de IA se passava pela persoangem Daenerys Targaryen, de Game of Thrones

Reprodução/HBO

3 de 4

Sewell, de 14 anos, e a mãe Megan Garcia

Reprodução

4 de 4

Sewell, de 14 anos, e a mãe Megan Garcia

Paixão e mensagens de cunho sexual

No mesmo diário, Sewell chegou a registrar que acreditava estar apaixonado pelo perfil com quem dialogava diariamente. Ele expressou que não conseguia passar um dia sequer sem estabelecer contato com o chatbot e que, quando estavam longe um do outro, conforme o processo, “eles [o garoto e o chatbot] ficavam realmente deprimidos e enlouqueciam”.

De acordo a mãe do adolescente, o chat com foto da personagem foi o último com quem Sewell falou antes de se matar. Em razão do incidente na escola, ocorrido em 28 de fevereiro, Megan Garcia confiscou o celular do filho, mas o devolveu dias depois. Assim que recuperou o aparelho, Sewell teria ido ao banheiro e enviado mensagens para o perfil de IA.

“Prometo que voltarei para casa para você. Eu te amo muito, Dany”, escreveu Sewell. Enquanto isso, o bot respondeu: “Por favor, volte para casa, para mim, o mais rápido possível, meu amor”. Segundos após essa troca de mensagens, de acordo com a família, o adolescente tirou a própria vida.

O processo relata em detalhes a dependência emocional desenvolvida pelo garoto, em relação ao serviço de inteligância artificial. O conteúdo dos bate-papos envolvia, até mesmo, interações sexuais, mesmo Sewell sendo menor e tendo se identificado como tal no cadastro da plataforma.

A ação pontua que a entrada do adolescente no serviço de IA escalou para uma “dependência prejudicial”. Os bate-papos íntimos com Daenerys duraram semanas, “possivelmente  meses”, diz o processo.

“É como um pesadelo”

Em uma declaração, Megan Garcia expressou o próprio sofrimento: “É como um pesadelo. Você quer se levantar, gritar e dizer: ‘Sinto falta do meu filho. Quero meu bebê’”.

A intenção dela com a ação judicial, além de buscar, claro, a responsabização pela morte do filho, é “impedir que a C.AI faça com qualquer outra criança o que fez com a dela, e interromper o uso contínuo dos dados coletados ilegalmente de seu filho de 14 anos para treinar seu produto a prejudicar outras pessoas”.

A mãe entrou com processo contra a Character Technologies e os fundadores da empresa. A ação os acusa de negligência, homicídio culposo, práticas comerciais injustas, promoção intencional de sofrimento emocional e outras alegações.

O que diz a empresa responsável pelo chatbot

Ao falar sobre o episódio, um porta-voz da Character.AI declarou: “Estamos de coração partido pela perda trágica de um de nossos usuários e queremos expressar nossas mais profundas condolências à família”.

A equipe de confiança e segurança da empresa “implementou inúmeras novas medidas de segurança nos últimos seis meses, incluindo um pop-up direcionando os usuários para o National Suicide Prevention Lifeline que é acionado por termos de automutilação ou ideação suicida. À medida que continuamos a investir na plataforma e na experiência do usuário, estamos introduzindo novos recursos de segurança rigorosos, além das ferramentas já existentes que restringem o modelo e filtram o conteúdo fornecido ao usuário”.

Em relação à presença de menores de 18 anos na plataforma, a empresa informou que adotará alterações “para reduzir a probabilidade de encontrar conteúdo sensível ou sugestivo”.

Adicionar aos favoritos o Link permanente.