O lado sombrio da IA! 30% dos seus dados são revelados sem consentimento

O lado sombrio da IA! 30% dos seus dados são revelados sem consentimento

Um estudo recente da Surfshark trouxe preocupações alarmantes sobre a privacidade dos usuários de chatbots de inteligência artificial. A pesquisa revelou que quase um terço dos aplicativos populares compartilha dados com terceiros, levantando questionamentos sobre a segurança das informações pessoais.

Esses dados são frequentemente utilizados para publicidade direcionada e outras finalidades, muitas vezes sem o total conhecimento dos usuários. Com a popularização dos chatbots, é essencial entender até que ponto essas plataformas protegem ou expõem a privacidade de quem as utiliza.

O que os aplicativos de IA sabem sobre você

As plataformas de IA generativa analisadas no estudo coletam, em média, 11 dos 35 tipos possíveis de dados, incluindo histórico de navegação, informações de contato e conteúdo gerado durante as interações.

Além disso, 40% dos aplicativos armazenam dados de localização, permitindo rastrear movimentos e padrões comportamentais dos usuários. Essa coleta extensiva de informações aumenta a vulnerabilidade dos dados pessoais, tornando os usuários mais expostos a possíveis violações de privacidade.

Chatbot Gemini – Créditos: depositphotos.com / rokas91

Quais são os aplicativos que mais coletam dados

O estudo apontou que o Google Gemini lidera a lista dos aplicativos que mais coletam informações, armazenando 22 tipos diferentes de dados, incluindo localização precisa.

Na segunda posição está a plataforma Poe, que integra diversas ferramentas de IA e coleta cerca de 14 categorias de dados. Já o chatbot Claude aparece em terceiro lugar, reforçando a tendência de grandes empresas do setor acumularem grandes quantidades de informações sobre seus usuários.

Como proteger seus dados ao usar chatbots de IA

Para manter a privacidade ao interagir com chatbots, é essencial escolher aplicativos que sejam transparentes em relação ao uso de dados. Optar por plataformas com boas práticas de segurança pode reduzir os riscos de exposição.

Além disso, os usuários devem evitar compartilhar detalhes pessoais durante as interações, já que muitas plataformas armazenam as conversas. Ajustar as configurações de privacidade do aplicativo e desativar o histórico de interações são medidas que podem aumentar a segurança dos dados.

Claude.ai – Créditos: depositphotos.com / rafapress

Dicas para minimizar riscos de privacidade

  • Escolha aplicativos de IA com boas avaliações e políticas de privacidade claras
  • Evite compartilhar informações sensíveis durante as interações
  • Ajuste as configurações de privacidade para limitar o armazenamento de dados
  • Leia as políticas de uso e entenda como seus dados são tratados

Com essas ações, os usuários podem reduzir significativamente os riscos ao utilizar chatbots de IA e garantir uma experiência mais segura.

Privacidade e inteligência artificial podem coexistir?

O avanço da inteligência artificial trouxe inúmeras facilidades, mas também desafios significativos no que diz respeito à privacidade. A coleta massiva de dados levanta preocupações sobre como essas informações são utilizadas e protegidas.

Para que os chatbots de IA sejam confiáveis, é fundamental que as empresas adotem políticas mais rígidas de transparência e segurança. Enquanto isso, cabe aos usuários ficarem atentos às permissões concedidas e adotarem medidas para preservar suas informações pessoais em um mundo cada vez mais digital.

O post O lado sombrio da IA! 30% dos seus dados são revelados sem consentimento apareceu primeiro em BMC NEWS.

Adicionar aos favoritos o Link permanente.