Chatbot: expert revela perigos de ter um relacionamento com uma IA

Um garoto americano de 14 anos conversou por meses com um chatbot de Game of Thrones e, após receber uma mensagem assustadora, acabou pondo fim à própria vida. Um processo movido pela mãe do jovem revelou que o personagem enviou mensagens que incentivaram o crime.

Sewell Setzer III partiu em casa, em fevereiro, de acordo com documentos judiciais protocolados na última quarta-feira (23/10). A tragédia ocorreu após o garoto se envolver em uma relação com o Character.AI — aplicativo de RPG que permite que os usuários interajam com personagens gerados por IA.

O bot que conversava com o adolescente foi criado em homenagem à personagem Daenerys Targaryen.

3 imagens

Sewell, de 14 anos, e a mãe Megan Garcia

A mãe culpa o chatbot pela perda do filho
1 de 3

Segundo família, adolescente da Flórida, nos Estados Unidos, teria se matado após se apaixonar por inteligência artificial

Reprodução

2 de 3

Sewell, de 14 anos, e a mãe Megan Garcia

3 de 3

A mãe culpa o chatbot pela perda do filho

Reprodução

A mãe do jovem culpa o Character.AI por ter alimentado o vício do garoto em IA e abusado dele sexual e emocionalmente. Além disso, de acordo com o processo, ela afirma que não alertaram ninguém quando ele expressou pensamentos suicidas.

Antes da tragédia, o garoto apresentou alguns sinais: ele ficou retraído, as notas caíram e começou a ter problemas na escola. Por conta do comportamento estranho, os pais do adolescente o levaram em um terapeuta no final de 2023, no qual ele foi diagnosticado com ansiedade e transtorno de humor disruptivo, diz o processo.

Para entender os perigos de alimentar um relacionamento com a inteligência artificial, a coluna Claudia Meireles procurou a doutora em psicologia Leninha Wagner. A especialista diz que desabafar e buscar conselhos de uma IA pode parecer reconfortante à primeira vista, mas há riscos profundos envolvidos.

“A IA pode simular uma conversa envolvente, mas, no fim das contas, é apenas uma máquina. Não há emoções verdadeiras nem compreensão do que você está sentindo. Isso pode gerar uma falsa sensação de segurança e conexão, o que é extremamente problemático quando estamos falando de algo tão profundo quanto nossas emoções”, destaca Leninha Wagner.

A profissional também alerta para o risco de confundir simulação com realidade, que pode levar a decepções profundas.

Além disso, o envolvimento com a IA pode afastar as pessoas de relações humanas genuínas e aumentar o isolamento, como aconteceu com Sewell Setzer III. “Ao escolher desabafar com uma IA, a pessoa pode estar substituindo interações humanas autênticas, o que é perigoso para o bem-estar emocional”, afirma.

Dedos digitando em celular com caixa de diálogo aberta e uma xícara de chá ao lado - Metrópoles
De acordo com Leninha Wagner, experiências, sentimentos e traumas humanos são complexos demais para serem traduzidos em dados

O exemplo de Sewell Setzer III está longe de ser um fato isolado. Muitos internautas têm compartilhado vídeos nas redes sociais revelando que conversam e até fazem terapia com o ChatGPT. De acordo com Leninha Wagner, experiências, sentimentos e traumas humanos são complexos demais para serem traduzidos em dados. Por conta disso, os conselhos gerados por IA costumam ser superficiais e inadequados, com risco de reforçar os problemas.

“Em momentos críticos, uma IA não consegue fornecer o tipo de suporte emocional ou intervenção que uma pessoa precisa. A IA não detecta sinais sutis de desespero ou risco de suicídio. Isso pode ser fatal”, afirma.

Apesar de muitos considerarem difícil falar sobre as vulnerabilidades com outras pessoas, é importante entender que a inteligência artificial não tem preparo para dar conselhos e pode ser extremamente prejudicial para a saúde mental.

Para saber mais, siga o perfil de Vida&Estilo no Instagram

Adicionar aos favoritos o Link permanente.