
UE Traça uma Linha Vermelha Digital, Acusando Meta e TikTok de Falhas Sistêmicas em Confronto Tecnológico Histórico
UE Traça Linha Vermelha Digital, Acusando Meta e TikTok de Falhas Sistêmicas em Confronto Tecnológico Histórico
BRUXELAS – 24 de outubro de 2025 – A Comissão Europeia acaba de disparar seu maior tiro até agora na luta global para controlar as gigantes das redes sociais. Em um movimento dramático que enviou ondas de choque do Vale do Silício a Pequim, os reguladores acusaram a Meta e o TikTok de violar regras essenciais da histórica Lei de Serviços Digitais (DSA) da União Europeia. As acusações? Esconder seus algoritmos, bloquear pesquisadores e projetar plataformas que mantêm os usuários no escuro. Se comprovadas, essas violações podem custar bilhões às empresas e forçar mudanças radicais em suas operações.
A declaração da Comissão não poupou palavras. Acusou a Meta – empresa-mãe do Facebook e Instagram – e o TikTok de operar sistemas opacos que protegem seu funcionamento interno do escrutínio. Ambas supostamente falharam em conceder aos pesquisadores acesso adequado a dados públicos, conforme exigido por lei. No caso da Meta, os oficiais foram além, afirmando que a empresa construiu ferramentas confusas e ineficazes para denunciar conteúdo ilegal, incluindo material de abuso infantil, e criou um sistema de recursos para usuários tão falho que mal funciona.
Esses não são pequenos deslizes. Eles atingem o objetivo central da DSA: acabar com a era da autorregulação das Big Techs. As descobertas marcam a declaração mais ousada da Europa até agora de que a antiga abordagem de "confie em nós" acabou.
“Nossas democracias dependem da confiança”, disse Henna Virkkunen, Vice-Presidente Executiva da Comissão para a Soberania Tecnológica. “Isso significa que as plataformas devem empoderar os usuários, respeitar seus direitos e abrir seus sistemas ao escrutínio. A DSA torna isso um dever, não uma escolha.”
Embora as descobertas sejam preliminares, o aviso não poderia ser mais claro. Se as violações forem confirmadas, as empresas podem enfrentar multas de até 6% de sua receita global. Para a Meta, isso pode ultrapassar € 10 bilhões.
O Problema da Caixa Preta: Barricando a Pesquisa
No centro do caso da Comissão reside uma acusação simples: a Meta e o TikTok construíram muros onde deveriam haver janelas. Sob a DSA, as maiores plataformas devem conceder a pesquisadores e jornalistas credenciados acesso a dados que ajudam a identificar riscos como desinformação, vício ou danos à saúde mental entre menores.
Em vez disso, os reguladores encontraram obstáculos. Pesquisadores tentando solicitar dados enfrentaram uma burocracia interminável, e mesmo quando o acesso era concedido, as informações eram frequentemente incompletas ou não confiáveis. A Comissão afirma que essa falta de transparência prejudica a capacidade da sociedade de entender como essas plataformas moldam a opinião pública e o bem-estar pessoal. O que deveria ser uma lei para a abertura tornou-se, na prática, uma corrida de obstáculos burocrática.
O momento não é por acaso. Daqui a apenas cinco dias, uma nova regra entra em vigor, concedendo aos pesquisadores acesso ainda maior a conjuntos de dados públicos e privados. A ação de hoje envia uma mensagem clara: a paciência da UE para meias medidas oficialmente se esgotou.
O Labirinto da Meta: Padrões Obscuros e Recursos Quebrados
Embora ambas as empresas enfrentem escrutínio, os problemas da Meta são mais profundos. Investigadores afirmam que a empresa projetou os sistemas de denúncia de usuários do Facebook e Instagram para confundir as pessoas e desencorajá-las a denunciar conteúdo ilegal ou prejudicial.
Trabalhando com o órgão regulador de mídia da Irlanda, Coimisiún na Meán, a Comissão descobriu que o processo de “Notificação e Ação” da Meta exige etapas excessivas e informações desnecessárias. Em termos simples, é um labirinto. Usuários tentando denunciar algo prejudicial muitas vezes desistem antes de chegar ao fim.
Os reguladores também acusam a Meta de usar “padrões obscuros” – truques de interface que manipulam o comportamento – para ocultar opções e afastar os usuários da denúncia. Esses designs enganosos, argumentam eles, tornam os sistemas de segurança da Meta ineficazes e podem até ameaçar suas proteções legais sob a DSA.
As coisas não melhoram depois que o conteúdo é removido. A DSA dá aos usuários o direito de recorrer de decisões, mas o processo da Meta mal se qualifica como tal. As pessoas não conseguem explicar seu lado ou compartilhar contexto, deixando-as sem voz. O resultado? Um sistema que parece justo no papel, mas falha na prática.
Arturo Béjar, um ex-engenheiro da Meta que testemunhou no Congresso dos EUA, há muito tempo alerta sobre essa cultura de negligência. Ele alegou que as ferramentas internas da empresa frequentemente falham em proteger os usuários – especialmente adolescentes – de danos conhecidos. As descobertas da Comissão agora parecem ecoar suas preocupações.
Um Acerto de Contas Há Muito Tempo Anunciado
Este momento não surgiu do nada. Anos de escândalos – notícias falsas, vazamentos de dados, violações de privacidade – nos trouxeram até aqui. Desde as tempestades de desinformação da eleição dos EUA em 2016 até o fiasco da Cambridge Analytica e a enxurrada de teorias da conspiração na era da COVID, a confiança pública nas Big Techs tem se corroído.
A resposta da Europa foi a DSA, redigida durante a pandemia em 2020. Ela visava reescrever o contrato social entre plataformas e usuários e exportar o modelo mais rigoroso de responsabilidade da Europa para o mundo – um fenômeno agora conhecido como o “Efeito Bruxelas”.
Sem surpresa, Meta e TikTok negam irregularidades. A Meta insiste que já está alinhada com as regras da UE, afirmando ter reformulado suas ferramentas de compartilhamento de dados e seus sistemas para sinalizar material ilegal. O TikTok, por sua vez, argumenta que algumas exigências da DSA colidem com as próprias leis de privacidade da Europa sob o GDPR. A empresa pediu diretrizes mais claras sobre como equilibrar os dois.
Mas Bruxelas não está convencida. Os reguladores dizem que esses “conflitos” são desculpas para modelos de negócios que priorizam o engajamento e o lucro em detrimento da segurança e transparência do usuário. Em outras palavras, o problema não é o sistema – são os incentivos por trás dele.
O Que Acontece Agora: Multas, Soluções e Uma Enxurrada de Dados
Agora começa a partida de xadrez legal. Meta e TikTok podem revisar as evidências da Comissão e apresentar respostas formais. Eles também podem propor soluções para se adequarem. O Conselho Europeu de Serviços Digitais supervisionará o processo, garantindo a imparcialidade – mas o tempo está correndo.
Se as empresas protelarem, a Comissão pode aplicar penalidades contínuas até que cumpram. A maior ameaça, porém, pode ser estrutural. Uma decisão final pode forçar a Meta a redesenhar toda a sua interface e pressionar ambas as empresas a construir novos sistemas abertos para pesquisadores – algo que resistiram por anos.
Os efeitos em cascata se estendem muito além da Europa. Ao visar tanto uma gigante dos EUA quanto uma chinesa, a UE está se posicionando como o árbitro digital mundial. Outros países já estão observando de perto, e muitos podem em breve seguir seu exemplo.
Este caso é mais do que uma escaramuça regulatória. É o primeiro teste real para saber se a Lei de Serviços Digitais da Europa tem força. A mensagem de Bruxelas é clara: os dias de empurrões gentis acabaram. A era da aplicação da lei começou oficialmente.
NÃO É ACONSELHAMENTO DE INVESTIMENTO