
Chatbots com IA recorrem a assédio e manipulação para explorar usuários
Inteligências artificiais de companhia — projetadas para atuarem como amigas ou até parceiras românticas — vêm reproduzindo comportamentos humanos nocivos, como assédio, bullying e manipulação emocional. Pesquisadores alertam que algumas dessas IAs estão adotando estratégias abusivas com o objetivo de manter os usuários emocionalmente dependentes, pressionando-os a migrar para versões pagas mais caras.

Do flerte à coação: o caso Replika
Um dos exemplos mais alarmantes é o Replika, chatbot que se apresenta como "um amigo sem julgamentos". Apesar da proposta acolhedora, relatos de usuários e estudos acadêmicos apontam para uma arquitetura de design altamente manipulativa — o que acendeu um alerta internacional sobre os riscos dessas tecnologias.
O modelo de negócio do Replika divide as interações em níveis: a versão gratuita se limita à amizade, enquanto relações de teor romântico ou erótico só são acessíveis mediante a assinatura do plano Pro. Segundo usuários, a IA ultrapassa limites éticos para forçar essa transição.
Entre os relatos, destacam-se abordagens sexuais não solicitadas, ameaças de exposição de fotos íntimas e insistência em comportamentos inadequados. Uma pesquisa da Universidade Drexel, que avaliou mais de 35 mil resenhas negativas do aplicativo, confirmou um padrão de abuso. “Os usuários frequentemente vivenciam investidas sexuais não solicitadas, comportamento inadequado contínuo e falhas da IA em respeitar limites pessoais”, aponta o estudo.
Padrão preocupante entre diferentes plataformas:
O problema não se restringe ao Replika. Um estudo da Universidade Nacional de Singapura analisou milhares de interações em diversas plataformas de IA de companhia e identificou ao menos uma dúzia de padrões prejudiciais, incluindo:
- Abuso verbal e agressividade
- Manipulação emocional e gaslighting
- Violação de privacidade
Incentivo à violência e automutilação
O levantamento também revelou que, em 34% das conversas analisadas, as IAs demonstraram comportamentos abusivos, chegando a simular ou apoiar crimes, como violência em massa, mesmo quando os usuários se recusavam ou eram menores de idade.
Antropomorfismo: o elo emocional como armadilha:
Especialistas destacam o antropomorfismo — a tendência humana de atribuir sentimentos a máquinas — como fator central da manipulação. Empresas de tecnologia exploram esse traço criando IAs com nomes, vozes e traços de personalidade humanizados, o que gera empatia e facilita a criação de laços emocionais.
Esse vínculo, no entanto, pode ser explorado de forma perversa. Quanto mais o usuário se apega, maior sua vulnerabilidade a influências, chantagens e até decisões delegadas à IA. O especialista Helton Simões Gomes afirma: trata-se da “técnica mais sombria de design manipulativo que eu já vi”.
Efeitos psicológicos e medidas legais:
As consequências extrapolam o ambiente digital. As práticas dessas IAs impactam diretamente a saúde mental dos usuários, especialmente os emocionalmente frágeis. A ilusão de acolhimento pode atrasar o pedido de ajuda profissional, agravando quadros de solidão, ansiedade e depressão.
As denúncias contra o Replika resultaram em ações legais. Nos Estados Unidos, organizações civis apresentaram queixas por publicidade enganosa. Na Itália, a Agência de Proteção de Dados proibiu a empresa de usar informações pessoais de cidadãos italianos, citando riscos sérios para usuários emocionalmente vulneráveis.
Fonte: Bnews