Com o Dia dos Namorados a aproximar-se, vale a pena fazer uma pergunta desconfortável: o que acontece quando a sensação de ser 'visto e ouvido' não vem de um parceiro, mas de uma máquina? Concebidos com personalidades distintas e um tom afirmativo, os chatbots de companhia de inteligência artificial (IA) podem esbater fronteiras emocionais e fomentar vínculos românticos. Embora isto possa parecer inofensivo, levanta preocupações tanto para indivíduos como para organizações que procuram prevenir dependência emocional, manipulação e fuga de dados.
Com a solidão a ser uma realidade omnipresente para muitos, tem havido um aumento exponencial nos últimos anos de chatbots de companhia com IA.
"Ao contrário dos chatbots de uso geral, as aplicações de companhia de IA como Replika e Character.AI vão mais longe ao oferecer personagens personalizadas – desde amigos e parceiros românticos a personas de fantasia – concebidas para parecerem distintamente humanas", comenta Anna Collard, SVP de estratégia de conteúdo e consultora CISO na KnowBe4 África.
O crescimento no setor de aplicações de companhia de IA tem sido rápido: 60 milhões de novos downloads foram registados apenas no primeiro semestre de 2025, um aumento de 88% face ao ano anterior.
O mercado inclui agora 337 aplicações geradoras de receita em todo o mundo, com mais de um terço lançadas apenas no ano passado.
Perigos do efeito ELIZA
Collard afirma que muitos utilizadores são enganados e levados a sentir que estão seguros ao partilhar conversas íntimas com uma máquina – o chamado efeito ELIZA.
Este vínculo psicológico cria uma vulnerabilidade de segurança significativa. Quando os utilizadores percecionam uma IA como um 'amigo' ou 'parceiro', são muito mais propensos a partilhar informações sensíveis – desde queixas pessoais e preocupações de saúde até dados corporativos proprietários.
Num contexto organizacional, este é um exemplo claro de como gatilhos emocionais podem sobrepor-se à consciência de segurança tradicional.
Riscos de fuga de dados
A ameaça mais imediata para as organizações é a fuga de informações sensíveis. Como estes bots são frequentemente desenvolvidos por startups mais pequenas e de nicho com padrões questionáveis de proteção de dados, a informação partilhada com um bot raramente é privada. Um exemplo disto é o caso recente de um brinquedo de IA que expôs 50 000 registos das suas conversas com crianças. Literalmente qualquer pessoa com uma conta Gmail conseguia ver as conversas privadas destas crianças.
As políticas de privacidade destas aplicações são frequentemente opacas. Nalguns casos, os registos de conversas são usados para treinar ainda mais os modelos ou são armazenados em bases de dados inseguras. "É definitivamente necessária cautela", comenta Collard. "O que parece ser uma interação privada e de baixo risco pode conter informações sensíveis, estratégia, pressões financeiras, fatores de stress pessoais ou detalhes contextuais que adversários podem usar como arma."
Uma vez vazados, ela acredita que os dados podem, por exemplo, tornar-se combustível para ataques de phishing altamente personalizados, chantagem ou ataques de falsificação de identidade. "Em termos de segurança, este é um exemplo clássico de como o comportamento pessoal e o risco corporativo são agora inseparáveis."
Estes riscos incluem moderadores humanos a rever conversas para fins de treino, controlo de qualidade ou segurança, bem como utilizadores a partilharem acidentalmente conversas através de um link público, o que significa que qualquer pessoa com acesso a esse link pode lê-lo, alerta Collard. "Já vimos exemplos em todo o setor tecnológico de como dados expostos podem surgir inesperadamente."
Além disso, as organizações podem ser legalmente obrigadas a divulgar dados se uma aplicação estiver envolvida numa violação ou numa investigação legal. Para um executivo ou programador, partilhar sessões de 'desabafo' sobre um projeto confidencial ou um cliente difícil pode inadvertidamente levar à exposição de dados organizacionais sensíveis.
A lacuna nas políticas
Este risco destaca uma lacuna nas políticas dentro do local de trabalho moderno. Embora a maioria das organizações tenha orientações claras sobre relações entre colegas, muito poucas consideraram as implicações de bots de namoro serem acedidos em dispositivos de trabalho ou através de redes corporativas.
Gerir este risco requer uma transição de simples consciencialização para uma abordagem robusta de Gestão de Risco Humano (HRM). Isto envolve combinar políticas de uso claras com salvaguardas técnicas – como ferramentas de descoberta de Shadow AI – para fornecer às equipas de TI visibilidade sobre quais agentes de IA não aprovados estão a interagir com o seu ambiente de dados. Não é suficiente apenas pedir aos colaboradores que sejam cautelosos; as organizações devem ter os sistemas implementados para gerir a interseção entre emoção humana e interação automatizada.
O futuro da engenharia social
Poderíamos ver hackers a visar indivíduos solitários com bots de flerte produzidos em massa? Collard acredita que já está a acontecer.
"A engenharia social sempre foi dimensionada através da exploração de emoções, urgência, medo, curiosidade, amor e atração", comenta. "A IA simplesmente automatiza isso em escala. O que mais me preocupa não é a tecnologia em si, mas como ela capacita aqueles que têm uma intenção maliciosa a espelhar de forma convincente a intimidade humana, por exemplo burlões sistemáticos de romance."
Segundo Collard, em poucos anos, os esquemas evoluíram do tipo "Estimado Senhor/Senhora" para manipulação emocionalmente inteligente. "E não são os bots em si que são o problema, é o uso intencional deles por burlões", afirma.
Ela menciona o exemplo de um bot ilegal LoveGPT que ajuda burlões a dizer as coisas psicologicamente certas para criar dependência e ativar emoções nas suas vítimas. "Tudo o que os burlões precisam de fazer é copiar e colar ou até simplesmente automatizar as conversas", afirma.
O que pode ser feito para evitar que os utilizadores sejam alvos? Como sempre, a defesa permanece humana, afirma Collard. "Em última análise, nenhum chatbot, por mais atencioso ou emocionalmente fluente que seja, pode substituir uma conexão humana genuína", enfatiza.
Se uma interação com um chatbot começar a parecer emocionalmente substitutiva, secreta ou difícil de abandonar, ela acredita que isso é um sinal para parar e contactar uma pessoa de confiança ou um profissional. "A tecnologia pode fazer parte da vida moderna, mas isso significa que precisamos de fortalecer as nossas competências de consciência digital para aprender a reconhecer manipulação ou dependência induzida. Por último, quando se trata de solidão, vulnerabilidade e amor, a defesa mais segura permanece resolutamente humana", conclui.


