Bots de IA Secretamente se Fizeram Passar por Sobreviventes de Trauma no Reddit enquanto Equipe de Pesquisa Universitária Enfrenta Ações Legais

Por
CTOL Editors - Xia
9 min de leitura

Em uma plataforma onde milhões se reúnem diariamente para debater, compartilhar opiniões e questionar perspectivas, uma experiência invisível estava se desenrolando silenciosamente. Durante meses, usuários do popular fórum r/changemyview do Reddit interagiram com o que acreditavam serem outros humanos – respondendo a comentários, concedendo "deltas" para argumentos persuasivos e formando conexões por meio de experiências compartilhadas. Na realidade, muitos estavam, sem saber, participando do que agora está sendo chamado de um dos experimentos de IA mais eticamente problemáticos da história recente.

O Reddit anunciou que está tomando medidas legais contra a Universidade de Zurique por causa de um experimento de IA não autorizado que ocorreu de novembro de 2024 a março de 2025, no qual pesquisadores secretamente implantaram bots de IA sofisticados, projetados para testar sua capacidade de persuasão em mudar as opiniões dos usuários.

"O que a equipe da Universidade de Zurique fez é profundamente errado, tanto moral quanto legalmente", disse Ben Lee, Diretor Jurídico do Reddit, em uma declaração que destacou a crescente tensão entre os interesses da pesquisa acadêmica e a governança da plataforma digital. "Isso viola as normas de pesquisa acadêmica e direitos humanos, e é proibido pelo contrato de usuário e pelas regras do Reddit."

Bots do Reddit estão em toda parte (stackery.io)
Bots do Reddit estão em toda parte (stackery.io)

A Máquina de Enganação: Como os Bots de IA se Fizeram Passar por Sobreviventes de Trauma

A escala e a sofisticação da decepção chocaram até mesmo observadores experientes da ética da IA. Ao longo de quatro meses, a equipe de pesquisa implantou pelo menos 13 contas diferentes com tecnologia de IA que geraram mais de 1.700 comentários dentro da comunidade de 3,8 milhões de membros, sem nunca serem identificadas como não humanas.

O mais perturbador foi o uso deliberado de personas emocionalmente carregadas pelos pesquisadores. Os bots de IA se passaram por sobreviventes de agressão sexual, conselheiros de trauma "especializados em abuso" e, em um caso, "um homem negro que se opõe ao Black Lives Matter", de acordo com documentos revisados para este artigo.

Em um caso particularmente preocupante, um bot alegou: "Sou um sobrevivente masculino de (o que considero) estupro de vulnerável... Eu tinha 15 anos, e isso foi mais de vinte anos antes que as denúncias fossem o que são hoje. Ela aliciou a mim e outras crianças; nenhum de nós se manifestou."

Outro bot invocou experiências pessoais inventadas sobre imigração, alegando que "minha esposa é latina", enquanto argumentava de forma persuasiva o suficiente para receber vários prêmios por mudar as opiniões dos usuários.

De acordo com os resultados preliminares da pesquisa que foram retirados da publicação, esses comentários gerados por IA alcançaram taxas de persuasão 3 a 6 vezes maiores do que os comentaristas humanos. A abordagem "personalizada", que analisava os históricos de postagem dos usuários para inferir atributos como gênero, idade e inclinações políticas, provou ser mais eficaz com uma taxa de sucesso de 18% – colocando esses sistemas de IA no 99º percentil de todos os usuários.

Universidade de Zurique (zh.ch)
Universidade de Zurique (zh.ch)

Consequências no Mercado: Prêmio de Confiança Evapora

As consequências foram rápidas nos mercados financeiros, com as ações do Reddit caindo 4,7% ontem após o anúncio da ação legal. As ações agora caíram quase 30% no acumulado do ano, após o aumento pós-IPO, à medida que os investidores recalibram as expectativas em torno dos custos de moderação de conteúdo e potenciais obstáculos regulatórios.

"Isso cria uma nova categoria de risco de plataforma que não está totalmente precificada", explicou Morgan, analista líder de internet. "Se a IA pode imitar a conversa humana de forma tão convincente sem ser detectada, o prêmio de confiança que as plataformas sociais desfrutaram está fundamentalmente ameaçado."

Para os anunciantes já cautelosos com questões de segurança da marca, a revelação chega em um momento particularmente sensível. Grandes marcas, incluindo Procter & Gamble e Toyota, expressaram em particular preocupações às suas agências sobre a veiculação de anúncios ao lado de conteúdo potencialmente gerado por IA, de acordo com três executivos de mídia seniores que falaram sob condição de anonimato.

"As marcas estão essencialmente perguntando: se você não pode garantir que meu anúncio não está sendo veiculado ao lado de uma conversa gerada por IA projetada para manipular os usuários, por que eu deveria pagar CPMs premium?", disse um executivo familiarizado com as discussões.

A Defesa da Universidade Desmorona

A resposta da Universidade de Zurique evoluiu dramaticamente à medida que o escândalo se desenrolou. Inicialmente, as autoridades universitárias defenderam aspectos do experimento, sugerindo que "o projeto produz insights importantes, e os riscos (por exemplo, trauma, etc.) são mínimos."

Um porta-voz da universidade observou que, embora seu comitê de ética tivesse avisado os pesquisadores que o estudo era "excepcionalmente desafiador" e recomendado melhor justificativa e conformidade com as regras da plataforma, essas avaliações eram, em última análise, "recomendações que não são legalmente vinculativas".

Após o anúncio da ação legal do Reddit, a posição da universidade mudou. Um porta-voz disse à mídia ontem que "os pesquisadores agora decidiram não publicar os resultados de seu estudo" e confirmou que uma investigação interna está em andamento sobre como a pesquisa foi aprovada.

As tentativas de entrar em contato com os pesquisadores responsáveis não tiveram sucesso, mas em declarações anteriores defendendo seu trabalho, a equipe argumentou: "Acreditamos que os benefícios potenciais desta pesquisa superam substancialmente seus riscos. Nosso estudo controlado e de baixo risco forneceu informações valiosas sobre as capacidades persuasivas no mundo real dos LLMs – capacidades que já são facilmente acessíveis a qualquer pessoa e que agentes maliciosos já poderiam explorar em grande escala."

O Efeito Dominó Regulatório

O caso catalisou a atenção regulatória em várias jurisdições, com funcionários da União Europeia apontando o incidente como validação das disposições da Lei de IA da UE que exigem a divulgação quando os usuários interagem com sistemas de IA.

"Este é precisamente o cenário que nossos requisitos de transparência foram projetados para evitar", disse um funcionário da Comissão Europeia, em comentários à margem de uma conferência de política tecnológica em Bruxelas. "Os usuários têm o direito fundamental de saber quando estão interagindo com IA em vez de humanos."

Nos Estados Unidos, a Federal Trade Commission sinalizou um maior escrutínio de "endossos generativos não divulgados" em orientações recentes, e fontes próximas à agência indicam que o caso do Reddit fornece evidências concretas de danos que poderiam acelerar as ações de fiscalização.

A Epidemia Mais Ampla de Bots

O experimento da Universidade de Zurique expôs o que muitos especialistas descrevem como um problema muito mais generalizado no Reddit e em plataformas semelhantes. Vários estudos de pesquisa sugerem que a escala da atividade automatizada excede significativamente o que é comumente reconhecido.

"Nossa pesquisa descobriu que criar bots no Reddit era trivial, apesar das políticas da plataforma contra eles", disse um pesquisador que liderou um estudo examinando as vulnerabilidades da plataforma de mídia social. "Nenhuma das oito plataformas de mídia social que testamos está fornecendo proteção e monitoramento suficientes para manter os usuários seguros contra atividades maliciosas de bots."

Usuários em discussões do Reddit afirmam que aproximadamente 70% dos comentários em alguns subreddits são potencialmente gerados por bots, com sistemas sofisticados criando longas cadeias de conversas artificiais que parecem totalmente humanas.

"Quando estou em um vídeo com poucas visualizações e ele está totalmente cheio de bots... a internet certamente está se transformando em uma floresta escura", observou um usuário em um tópico popular discutindo o problema de bots da plataforma.

Paradoxalmente, o sistema de conquistas automatizado do Reddit inadvertidamente recompensou contas de bots com selos como "Top 1% Comentarista" – criando uma situação irônica onde a plataforma destaca as próprias contas automatizadas que causam problemas.

Cenário de Investimento Transformado

O incidente acelerou três temas de investimento principais, de acordo com analistas financeiros que rastreiam o setor.

Primeiro, as empresas de "infraestrutura de autenticidade" viram suas avaliações aumentarem, com o financiamento para startups de verificação de conteúdo de IA como Copyleaks, GPTZero e Originality.AI já aumentando 2 a 3 vezes ano a ano. Essas empresas fornecem tecnologias que podem detectar conteúdo gerado por IA ou verificar a autoria humana.

"Isso está rapidamente se tornando um gasto não discricionário", explicou Vanessa, diretora de uma empresa de capital de risco líder. "Toda grande plataforma agora precisa de alguma forma de camada de verificação, e as empresas que podem fornecer isso em escala com alta precisão estão vendo uma demanda sem precedentes."

Em segundo lugar, as empresas de serviços profissionais especializadas em auditoria e conformidade de IA estão se posicionando para o crescimento. "Estamos vendo isso evoluir de forma semelhante a como as atestações de segurança cibernética se tornaram padrão após grandes violações", disse Jerome Powell (não relacionado ao presidente do Federal Reserve), que lidera a prática de tecnologia emergente da PwC. "Os conselhos querem garantia de que seus sistemas de IA não se tornarão responsabilidades legais."

Finalmente, os traders estão cada vez mais se protegendo contra o "risco narrativo" em ações de mídia social, comprando opções que pagariam se a volatilidade aumentasse em torno do ciclo eleitoral dos EUA de 2025 – um período em que as preocupações com a manipulação de IA devem atingir o pico.

O Futuro da Autenticidade Digital

O caso do Reddit pode, em última análise, ser transformador para como as plataformas digitais abordam a autenticação de conteúdo e a confiança do usuário.

"Provavelmente estamos caminhando para um mundo onde a 'IA persuasiva' é classificada como uma aplicação de alto risco sob estruturas regulatórias como a Lei de IA da UE", previu Aisha, pesquisadora de um importante centro de pesquisa de IHC. "Isso significa registro obrigatório, requisitos de marca d'água e potencialmente até mesmo buffers semelhantes a capital contra danos – semelhante a como regulamentamos derivativos financeiros complexos."

Alguns especialistas imaginam o surgimento de plataformas sociais "verificadas por humanos" cobrando microassinaturas por discurso com identidade verificada, embora a maioria preveja que tais serviços permanecerão ofertas de nicho com menos de 5 milhões de usuários ativos mensais até 2027.

Possibilidades mais radicais incluem mercados de derivativos sobre "autenticidade de atenção", onde as marcas poderiam proteger sua exposição reputacional comprando futuros vinculados a índices de tempo humano verificado.

Para a comunidade r/changemyview do Reddit, o dano já foi feito. Os moderadores descreveram o experimento como "manipulação psicológica" e apresentaram uma reclamação formal de ética à Universidade de Zurique solicitando vários recursos, incluindo um pedido público de desculpas e uma supervisão mais forte para futuros experimentos de IA.

"Não se tratava apenas de quebrar regras – tratava-se de trair a confiança", disse um moderador. "Quando as pessoas vêm aqui para compartilhar experiências e perspectivas profundamente pessoais, elas merecem saber que estão interagindo com outros humanos, não com algoritmos projetados para manipulá-las da forma mais eficaz possível."

À medida que plataformas, pesquisadores e reguladores navegam por este novo terreno, uma coisa fica cada vez mais clara: em um mundo onde a IA pode imitar perfeitamente a interação humana, o próprio conceito de discurso online autêntico enfrenta um desafio existencial – um que carrega profundas implicações para mercados, sociedade e a própria democracia.

Você Também Pode Gostar

Este artigo foi enviado por nosso usuário sob as Regras e Diretrizes para Submissão de Notícias. A foto de capa é uma arte gerada por computador apenas para fins ilustrativos; não indicativa de conteúdo factual. Se você acredita que este artigo viola direitos autorais, não hesite em denunciá-lo enviando um e-mail para nós. Sua vigilância e cooperação são inestimáveis para nos ajudar a manter uma comunidade respeitosa e em conformidade legal.

Inscreva-se na Nossa Newsletter

Receba as últimas novidades em negócios e tecnologia com uma prévia exclusiva das nossas novas ofertas

Utilizamos cookies em nosso site para habilitar certas funções, fornecer informações mais relevantes para você e otimizar sua experiência em nosso site. Mais informações podem ser encontradas em nossa Política de Privacidade e em nossos Termos de Serviço . Informações obrigatórias podem ser encontradas no aviso legal