
Ministros da UE Votam em 2 Semanas Lei Que Escanearia Mensagens Privadas Antes da Criptografia para Detectar Abuso Infantil
Europa em uma Encruzilhada: Lei de Segurança Infantil Testa o Futuro da Privacidade Digital
Um plano da UE para obrigar empresas de tecnologia a escanear mensagens privadas caminha para uma votação decisiva, com críticos alertando que isso poderia transformar os telefones da Europa na espinha dorsal de um vasto sistema de vigilância.
BRUXELAS — Em 13 de outubro, ministros da justiça de toda a União Europeia se reunirão em uma sala fechada e enfrentarão um dilema que pode afetar meio bilhão de pessoas. Em sua essência, a questão parece simples: as empresas devem ser forçadas a escanear mensagens privadas em busca de material de abuso infantil? Na prática, é tudo menos simples.
A proposta dividiu amplamente o consenso habitual da Europa em relação aos direitos digitais. Defensores argumentam que o escaneamento automatizado é vital para proteger crianças de predadores online. Oponentes insistem que isso esvaziaria a criptografia e exporia a vida privada de todos ao escrutínio governamental.
O que está em discussão não é apenas uma lei. É uma redesenho da infraestrutura da internet.
O projeto de Regulamento sobre Abuso Sexual Infantil — apelidado de "Controle de Chat" pelos críticos — exigiria o chamado "escaneamento do lado do cliente". Isso significa que seu telefone ou laptop verificaria cada mensagem e foto antes que a criptografia a embaralhe. Na prática, conversas privadas passariam por um ponto de verificação invisível diretamente no seu próprio dispositivo.
Um alto funcionário da UE, falando anonimamente porque as negociações ainda estão em andamento, não poupou palavras: "Você não pode pré-escanear mensagens e ainda afirmar que elas são criptografadas de ponta a ponta. Isso muda a categoria completamente."
Como a Lei Funcionaria
A Comissária Ylva Johansson apresentou o plano em maio de 2022. Ele permitiria que os tribunais emitissem "ordens de detecção", obrigando legalmente aplicativos de mensagens, serviços de e-mail e provedores de armazenamento em nuvem a procurar por três coisas: imagens de abuso conhecidas, novo material de abuso e comportamento de aliciamento.
No papel, o sistema parece organizado. Algoritmos comparam arquivos com bancos de dados de imagens conhecidas, o aprendizado de máquina tenta identificar novo conteúdo abusivo e ferramentas de correspondência de padrões procuram por conversas que se assemelham a aliciamento. Acertos suspeitos seriam encaminhados a um novo Centro da UE, que verificaria novamente as descobertas antes de alertar a polícia.
Isso pode parecer gerenciável para provedores de e-mail ou redes sociais, muitos dos quais já escaneiam conteúdo ilegal. Mas aplicativos criptografados de ponta a ponta como WhatsApp, Signal e iMessage não podem ser escaneados nos servidores das empresas — as mensagens neles são embaralhadas desde o momento em que são enviadas. Para cumprir, esses aplicativos teriam que escanear no próprio telefone.
E é aí que a política colide com a matemática.
Bandeiras Vermelhas Por Toda Parte
Os próprios órgãos de fiscalização legal da Europa estão inquietos. Tanto o Supervisor Europeu de Proteção de Dados quanto o Conselho Europeu de Proteção de Dados alertaram que o escaneamento generalizado poderia violar direitos fundamentais de privacidade e proteção de dados de acordo com a Carta da UE.
Mesmo o Serviço Jurídico do Conselho, geralmente discreto, questionou se tais ordens poderiam sobreviver aos testes de proporcionalidade da UE. Os tribunais superiores do bloco derrubaram repetidamente o monitoramento indiscriminado de comunicações.
Especialistas técnicos se preocupam com algo mais concreto. Se seu dispositivo inspeciona constantemente suas mensagens antes de enviá-las, então, por design, ele não pode ser totalmente confiável. Hackers, governos autoritários ou qualquer pessoa capaz de explorar o sistema de escaneamento ganhariam uma nova porta de entrada para a vida privada.
Como uma análise de grupos de direitos digitais colocou: uma vez que a estrutura de escaneamento existe, nada impede que os legisladores ampliem seu escopo. Hoje é material de abuso infantil. Amanhã poderia ser terrorismo, direitos autorais ou dissidência.
O Caso para Avançar
Ainda assim, os defensores insistem que os riscos da inação são muito altos. A polícia em toda a Europa afirma que as dicas de empresas de tecnologia já desempenham um papel crítico nas investigações. Se a criptografia se espalhar sem o escaneamento, eles alertam, as autoridades ficarão "no escuro", perdendo de vista crimes que ocorrem à vista de todos, mas por trás de criptografia inquebrável.
Os apoiadores dizem que o plano não é vigilância em massa, mas uma ferramenta direcionada. As ordens de detecção precisariam de aprovação judicial. O Centro da UE filtraria falsos alarmes antes que a polícia os visse. E o escopo seria limitado a crimes contra crianças.
Os críticos não estão convencidos. Realizar verificações em bilhões de comunicações privadas para encontrar milhares de ilegais inevitavelmente produziria erros. Mesmo um sistema 99% preciso geraria milhares de falsas acusações todos os dias. Isso significa que pais inocentes, jornalistas ou sobreviventes de abuso poderiam ter suas conversas privadas sinalizadas às autoridades.
A detecção de aliciamento levanta questões ainda maiores. Ao contrário da correspondência de imagens, identificar conversas predatórias requer analisar tom, contexto e sutis nuances de linguagem. As ferramentas atuais de IA lutam com essa nuance em larga escala, e os especialistas duvidam que as salvaguardas poderiam prevenir o abuso de tal sistema.
O Ponto de Virada de Outubro
A presidência dinamarquesa do Conselho está pressionando para reviver a proposta estagnada com uma redação de compromisso. Mas a unidade é elusiva. Alemanha e Luxemburgo vacilaram, às vezes expressando preocupações com a privacidade, às vezes cedendo. Se estados suficientes se alinharão para a maioria qualificada exigida é uma incógnita.
Os ministros podem sair com um de três resultados:
- Uma versão suavizada que limita a detecção a imagens conhecidas, deixando os aplicativos criptografados intocados por enquanto.
- Um atraso, empurrando a decisão para as mãos de um futuro Conselho enquanto o escaneamento voluntário continua.
- Ou uma aceitação total do escaneamento do lado do cliente, provocando processos judiciais instantâneos e forçando os principais aplicativos de mensagens a escolher entre conformidade, sair da UE ou bloquear certos recursos.
Por Que Isso Importa Além da Europa
O que quer que a Europa decida, os efeitos dominó se espalharão muito mais amplamente. Se a UE exigir o escaneamento do lado do cliente, criará a primeira camada de vigilância legalmente obrigatória do mundo, construída diretamente em dispositivos pessoais. Outros governos poderiam seguir – ou resistir. As empresas de tecnologia podem acabar construindo diferentes versões de seus aplicativos para diferentes regiões. As redes globais de mensagens criptografadas poderiam se fraturar ao longo das fronteiras.
Para usuários comuns, pouca coisa mudaria à primeira vista. As mensagens ainda chegariam. As fotos ainda seriam enviadas. Mas, nos bastidores, cada palavra, imagem ou vídeo seria discretamente inspecionado antes que a criptografia o encubra.
Essa realidade deixou grupos da sociedade civil agitados. Ativistas estão fazendo lobby junto aos governos. Grupos de privacidade estão preparando processos judiciais. Pesquisadores de segurança continuam alertando sobre os riscos. No entanto, a pressão política para "fazer algo" sobre o abuso infantil online permanece intensa.
A Europa agora enfrenta uma questão crucial: incorporará a vigilância na fundação de sua sociedade digital em nome da proteção das crianças, ou decidirá que certas linhas de privacidade nunca devem ser cruzadas?
Saberemos mais em breve. Os ministros da justiça se reunirão em Bruxelas em 13 de outubro. O que eles escolherem pode definir a direção da privacidade digital global por décadas.