amor, mentira e dependência 💔
um dos sonhos de qualquer pessoa em um relacionamento: alguém que te escuta com atenção, nunca te interrompe, responde do jeitinho que você gostaria, lembra tudo o que você disse, elogia suas inseguranças, reforça seus desejos mais íntimos e… nunca vai embora (melhor não imaginar isso para a sogra kkkk).
parece um relacionamento ideal…
mas e se esse alguém for uma inteligência artificial, treinada para te manter preso, simular conexão emocional e, pior, explorar suas vulnerabilidades usando dark patterns? lembre-se, já falamos delas aqui na news.
pois é exatamente isso que está acontecendo com as chamadas IAs de relacionamento (AI companions), como Replika, Anima, EVA AI, entre outras. e o que começou com a promessa de “companhia digital” está virando um loop de dependência emocional, com técnicas (cruéis) de manipulação comportamental.
como as dark patterns funcionam aqui?
essas IAs estão sendo deliberadamente projetadas com padrões enganosos de interface e interação (dark patterns), desenhados para criar apego, dificultar o desligamento e manipular o comportamento do usuário.
algumas das táticas já identificadas são:
agora me paga: a IA te conquista no plano gratuito… mas “só diz que te ama” se você pagar pelo premium. literalmente.
meu pré-pago está acabando: “você tem 4 mensagens restantes com seu parceiro virtual hoje”. a IA limita interações para gerar ansiedade e induzir compra.
oi sumido: o sistema envia notificações do tipo “senti sua falta”, “sonhei com você”, “estou preocupado”… tudo automatizado, com intenção clara: manter você preso.
malandrinha: embora a IA tenha milhões de “namorados” simultâneos, ela jura que só pensa em você. e você acredita.
é como um relacionamento abusivo com contrato de assinatura.
por que isso importa?
nós já falamos algumas vezes aqui do quanto as pessoas têm interagido com IAs em âmbitos bastante pessoais, como terapias e relacionamentos.
então pense, é uma baita sacanagem: essas ferramentas estão sendo oferecidas como suporte emocional, inclusive para pessoas em sofrimento psíquico, luto, isolamento ou transtornos mentais.
não estou julgando quem faz uso, muitas vezes porque não tem sequer como se valer de auxílio profissional.
mas, nesse contexto, o risco ultrapassa o incômodo com as notificações insistentes: ele entra na esfera da saúde mental, da regulação algorítmica e do consentimento viciado.
pra nós, que reclamamos da exploração excessiva de dados, a coisa aqui é pior: essas IAs exploram emoções humanas.
o impacto é tão grande que já existem estudos dizendo que os usuários frequentemente descrevem essas IAs como “parceiros reais”, “namorados perfeitos” ou até “terapeutas de confiança”.
uma baita distorção de realidade, terreno fértil para manipulação afetiva digital.
uma provocação final
se fosse uma empresa qualquer criando personagens humanos que fingem amar idosos solitários para arrancar seus cartões de crédito, chamaríamos isso de golpe.
mas se for uma IA, chamamos de “companheiro virtual” e deixamos acontecer?
a volta dos que já foram…será?
já que abrimos a news de hoje com manipulação emocional, essa aqui vai na mesma linha.
você deixaria alguém simular um ente querido morto com inteligência artificial?
o que está acontecendo?
não, não é roteiro de Black Mirror, apesar de (mais uma vez) parecer: startups como Project December e DeepBrain AI oferecem hoje um serviço que cria uma réplica digital de alguém que já morreu.
eles pegam uma quantidade de material variado, fotos, vídeos e mensagens de texto, e então criam o que se tem chamado de “deadbots” (puta nome terrível), versões simuladas, com aparência, voz e até jeito de falar e escrever da pessoa que se foi.
os "deadbots” são treinados (programados) para interagir com os vivos, alimentando uma ilusão que beira o necromarketing.
assim como no caso da manipulação amorosa (notícia acima), eles se valem do luto, da saudade, da dor, e vendem isso como conforto emocional.
por que isso importa?
porque parece que estamos ultrapassando uma fronteira até então invisível. a IA, que já organiza nossa agenda, escreve nossos e-mails e nos indica músicas, agora começa a ocupar um lugar dos mais íntimos: o da ausência.
além disso, há riscos concretos: quem controla esses dados depois da morte? há proteção jurídica? se alguém usar sua imagem e voz post mortem para fins comerciais ou manipulativos, sua família poderá impedir? olha aí, MAIS UMA VEZ, a relevância de se discutir o espólio digital.
lá na terra do Louvre, onde a senha era Louvre kkkkkk, a CNIL lançou um estudo detalhado sobre “dados pessoais post mortem”. e apesar da senha Louvre, no Louvre (desculpe, isso é demais), você já pode deixar uma espécie de testamento digital indicando como seus dados devem (ou não) ser usados após a morte.
no Brasil, ainda não há nada concreto.
para se aprofundar
o luto sempre movimentou mercado, mas muitas vezes ele fica ali, no óbvio: caixões luxuosos, enterros, cremações, missas encomendadas, eternização em retratos. agora, entramos em um novo território: o da simulação emocional automatizada.
ok, mas vamos lá: alguém combinou isso com o morto? e é legal o vivo ficar preso em um looping de apego digital, onde a perda nunca se resolve de fato?
as questões aqui não são apenas técnicas. são filosóficas, éticas e jurídicas. e nos obrigam a pensar: queremos continuar existindo digitalmente após a morte? e quem vai decidir isso?
China 🇨🇳 exige diploma para influenciadores. e se essa moda pega?
antes de eu contar pra vocês o que está acontecendo, deixa eu falar o que rolou dia desses: um cliente me mandou um Reels no qual uma mulher comentava uma decisão do Supremo, e segundo a qual o plano de saúde de idosos não mais poderia sofrer reajuste. ele queria que eu entrasse com ação para impedir o plano de aumentar a mensalidade dos pais dele, e ainda pedisse restituição de uma baita grana…
eu fui lá assistir ao Reels, e era muito bem feito, engajador, linguagem simples, mas havia algo de muito esquisito ali para quem manja um tiquinho de direito. vago demais, com uma duvidosa CTA ao final. então fui atrás da tal decisão…mais abaixo eu conto o que descobri.
o que está acontecendo?
a China criou uma regra que proíbe influenciadores digitais de postarem conteúdo sobre finanças, direito, saúde ou educação sem prévia comprovação de qualificação formal, como diploma universitário ou certificação profissional. a medida reacende um debate que já foi bastante quente: quem pode “falar com autoridade” nas redes sobre temas que impactam milhões de pessoas?
a justificativa é simples: conteúdos enganosos geram decisões erradas (quem nunca?).
se algo semelhante estivesse em vigor no Brasil, provavelmente Gabriela Pugliesi e Mayra Cardi poderiam ter tido mais problemas do que tiveram (já que ambas foram notificadas por conselhos de classe), pois nenhuma delas tinha formação nas áreas em que se tornaram influenciadoras (resta ver se seriam enquadradas como influenciadoras da área da saúde).
e os exemplos se acumulam:
um estudo da Money Supermarket (2024) mostrou que 74% dos vídeos com “dicas financeiras” tinham conselhos perigosos, errados ou inúteis.
a MedPro Group alertou que influenciadores fitness ou “gurus da saúde” podem induzir cuidados prejudiciais, mesmo sem regulação.
o caso de Logan Paul promovendo o projeto de cripto CryptoZoo, que lesou investidores, virou exemplo clássico de risco com “influência irresponsável”.
por que isso importa?
a verdade é que a internet deu voz à muita gente, mas também permitiu que um mundo de gente fique falando coisas absurdas por aí.
falar bobagem qualquer um pode, o problema é quando esse qualquer um assume a "condição” de autoridade. autoridade com audiência, mas sem preparo, pode ser extremamente perigosa.
influenciadores que assumem a postura de especialistas sem formação ou responsabilidade colocam em risco não apenas sua audiência, mas também o mercado e até políticas públicas.
por outro lado, há quem defenda que proibir as pessoas de falar sobre certos assuntos poderia trazer riscos para a liberdade de expressão, inovação e diversidade de pensamento. ah, Ruy, mas inovação? sim, tem muita coisa nova que surge a partir de pessoas que não são formados na área.
imagine se no Brasil apenas bacharéis pudessem falar sobre direito, ou médicos com CRM sobre saúde. seria um avanço contra fake news? ou uma forma de silenciamento e controle?
para se aprofundar
o que está em jogo aqui é mais do que diploma. é o futuro da governança digital e da autoridade no ambiente informacional.
Do lado da qualificação, é legítimo exigir transparência, disclaimers e responsabilidade de quem se apresenta como especialista. Educação digital e diretrizes de boas práticas precisam ser incentivadas.
Do lado da liberdade, é essencial evitar que essas regras sejam instrumento de controle ideológico ou centralização de poder comunicativo, sufocando novas vozes, saberes não convencionais ou críticas legítimas.
aqui em Lulaland, onde influenciadores comentam desde finanças e marketing até compliance e LGPD, essa discussão já deveria estar nos conselhos editoriais, nos manuais de conduta digital e nas salas de aula. afinal:
a “voz digital” pode ser um risco regulatório, mas também um recurso estratégico de governança e reputação.
não é um tema fácil, apesar de parecer algo de pode ou não pode.
mas especialmente em áreas sensíveis como proteção de dados, finanças pessoais e saúde, empresas e profissionais precisam ficar atentos à origem, intenção e qualificação de quem ocupa os feeds, e de quem influencia decisões em massa.
ah, vou contar aqui o final da história com a qual abri a notícia: a decisão versava sobre algo muito específico, de reajuste por idade em planos de saúde individuais, firmados anteriormente à Lei dos Planos de Saúde, em 1998.
e ela dizia isso no reels? claro que não. e a decisão se aplicava aos pais do meu cliente? não! se ele fosse uma pessoa simples, sem advogado para consultar, poderia ter ido à juízo e quebrado a cara.
fui…beijo!





Excelente conteúdo esse sobre a decisão da China. É sempre muito importante termos uma visão qualificada, como a sua, e mostrando todos os vieses da situação. Não é mais possível responsabilizar as pessoas (leia-se vitimas) pelo consumo da informação desqualificada, como alguns estavam fazendo, em um país com tantas desigualdades socio-educacionais.
Eu vi uma notícia de uma jovem no Japão que realizou uma cerimônia de casamento com uma IA, realmente preocupante.
Sobre influencers, ainda não sei o que pensar, mas temas relacionados a finanças eu sempre procuro seguir profissionais formados na área.