Startup de Segurança de IA Irregular Arrecada US$ 80 Milhões da Sequoia para Testar Modelos da OpenAI e Anthropic para Capacidades de Ataque Cibernético

Por
Tomorrow Capital
8 min de leitura

A Pergunta de US$ 450 Milhões: Por Que a Elite do Vale do Silício Aposta Pesado no Lado Sombrio da IA

Em uma manhã de quarta-feira em setembro, enquanto as empresas de inteligência artificial corriam para construir modelos cada vez mais poderosos, uma startup israelense relativamente desconhecida saiu do modo furtivo com um caixa de guerra de US$ 80 milhões e uma missão séria: testar a capacidade da IA de causar danos antes que chegue ao mundo.

A Irregular, antiga Pattern Labs, anunciou uma rodada de financiamento substancial liderada pela Sequoia Capital e Redpoint Ventures, com a participação do CEO da Wiz, Assaf Rappaport. Fontes próximas ao negócio avaliaram a empresa em aproximadamente US$ 450 milhões — uma cifra notável para uma empresa com menos de três dúzias de funcionários da qual a maioria dos observadores da indústria nunca tinha ouvido falar até esta semana.

No entanto, as impressões digitais da Irregular já estão incorporadas nos sistemas de IA mais importantes do nosso tempo. As avaliações de segurança da empresa aparecem de forma proeminente nos cartões de sistema da OpenAI para seus modelos o3 e o4-mini, enquanto a Anthropic credita seu trabalho colaborativo nas avaliações do Claude 3.7 Sonnet. Seu framework SOLVE para pontuar a detecção de vulnerabilidades de IA se tornou um padrão da indústria, moldando silenciosamente como os sistemas de IA mais avançados do mundo são testados antes do lançamento.

Quando as Mentes Mais Brilhantes do Vale do Silício Se Preocupam com a Guerra de IA

O financiamento reflete uma mudança fundamental na forma como a indústria de tecnologia vê os riscos da inteligência artificial. Onde as preocupações anteriores se concentravam em vieses ou desinformação, os medos de hoje são mais profundos: sistemas de IA capazes de ciberataques autônomos, descoberta sofisticada de vulnerabilidades e coordenação entre múltiplos agentes de IA de maneiras que poderiam sobrecarregar as defesas tradicionais.

"Em breve, grande parte da atividade econômica virá da interação humano-IA e IA-IA, e isso vai quebrar a pilha de segurança em múltiplos pontos", explicou o cofundador Dan Lahav a observadores da indústria. Seu parceiro, CTO Omer Nevo, descreveu sua abordagem com precisão militar: "Temos simulações de rede complexas onde a IA assume o papel tanto de atacante quanto de defensor. Quando um novo modelo é lançado, podemos ver onde as defesas resistem e onde não."

Isso não é especulação teórica. A OpenAI revisou seus protocolos de segurança internos neste verão em meio a preocupações com espionagem corporativa. Enquanto isso, modelos de IA de fronteira demonstraram habilidades cada vez mais sofisticadas para identificar vulnerabilidades de software – capacidades que servem tanto a propósitos defensivos quanto ofensivos. Avaliações recentes mostram que esses sistemas podem planejar ataques sofisticados, embora muitas vezes falhem na execução sem assistência humana.

O surgimento de "comportamentos emergentes" – capacidades inesperadas que surgem à medida que os sistemas de IA escalam – criou o que os especialistas em segurança descrevem como um problema de alvo em movimento. Modelos treinados para propósitos benignos podem desenvolver espontaneamente habilidades que seus criadores nunca pretenderam, desde raciocínio avançado sobre guerra cibernética até coordenação autônoma com outros sistemas de IA.

A Ciência dos Red Teams Digitais

A abordagem da Irregular se concentra em ambientes simulados elaborados que espelham arquiteturas de rede do mundo real. Ao contrário de simples tentativas de "jailbreaking" que tentam enganar modelos de IA para respostas prejudiciais, seus testes envolvem cenários complexos e de várias etapas, onde agentes de IA devem navegar por defesas de rede realistas, escalar privilégios e cumprir objetivos específicos.

O sistema de pontuação SOLVE da empresa oferece uma avaliação granular de como os modelos de IA lidam com tarefas de descoberta e exploração de vulnerabilidades. Esse framework ganhou força em toda a indústria, aparecendo em avaliações conduzidas por grandes laboratórios de IA e agências governamentais. O governo do Reino Unido e a Anthropic referenciam o SOLVE em suas avaliações de segurança, sugerindo que o framework pode se tornar um padrão de facto para a avaliação de segurança de IA.

O que diferencia a Irregular das empresas de cibersegurança tradicionais é seu foco em riscos emergentes – ameaças que ainda não se manifestaram no mundo real, mas que podem surgir à medida que as capacidades da IA avançam. Seus ambientes simulados testam não apenas as capacidades atuais do modelo, mas também comportamentos futuros potenciais que podem surgir através de treinamento contínuo ou interação com outros sistemas.

Analistas da indústria observam que o acesso antecipado da Irregular a modelos de IA pré-lançamento de grandes laboratórios oferece uma vantagem competitiva significativa. Esse posicionamento permite que identifiquem vulnerabilidades de segurança antes da implantação pública, potencialmente prevenindo incidentes no mundo real.

Forças de Mercado Impulsionando a Corrida Armamentista de Segurança

O mercado de segurança de IA está experimentando um crescimento sem precedentes, com gastos projetados para exceder US$ 20 bilhões até 2028. Esse aumento reflete tanto o uso crescente de sistemas de IA quanto a crescente conscientização sobre os riscos associados. Incidentes recentes, incluindo deepfakes gerados por IA causando bilhões em perdas por fraude e preocupações sobre ataques facilitados por IA à infraestrutura crítica, elevaram a segurança de uma reflexão tardia a um pré-requisito de implantação.

A pressão regulatória está acelerando a adoção de soluções de segurança de IA. O AI Act da União Europeia, que entrou em vigor em agosto de 2025, exige avaliações de risco abrangentes para sistemas de IA de alta capacidade. Requisitos semelhantes estão surgindo em várias jurisdições, criando demanda por frameworks de avaliação padronizados e avaliações de segurança por terceiros.

O cenário competitivo revela um mercado fragmentado e maduro para consolidação. Grandes plataformas de cibersegurança começaram a adquirir empresas especializadas em segurança de IA: a Cisco comprou a Robust Intelligence, a Palo Alto Networks adquiriu a Protect AI e a Check Point comprou a Lakera. Esses movimentos sinalizam o reconhecimento de que a segurança de IA requer expertise especializada além das abordagens tradicionais de cibersegurança.

O posicionamento da Irregular como provedora de avaliação e potencial definidora de padrões a coloca no centro dessa onda de consolidação. Seus relacionamentos com grandes laboratórios de IA e agências governamentais proporcionam um valor estratégico que se estende além de sua receita atual, que fontes descrevem como já atingindo milhões anualmente, apesar da recente saída da empresa do modo furtivo.

Implicações de Investimento em um Cenário Incerto

Para investidores institucionais, a Irregular representa uma aposta na camada de infraestrutura da implantação de IA, em vez das capacidades de IA em si. À medida que os sistemas de IA se tornam mais poderosos e ubíquos, a camada de segurança se torna cada vez mais crítica – e valiosa.

A avaliação da empresa em US$ 450 milhões reflete considerações estratégicas, e não puramente financeiras. Com acesso a modelos pré-lançamento da OpenAI, Anthropic e Google DeepMind, a Irregular ocupa uma posição única no ecossistema de IA. Esse acesso, combinado com sua crescente influência nos padrões da indústria, cria potencial para um valor de plataforma significativo.

A dinâmica do mercado favorece empresas que podem fornecer soluções abrangentes de segurança de IA. A mudança para interações IA-em-IA – onde múltiplos sistemas de IA se coordenam autonomamente – cria desafios de segurança que as abordagens tradicionais não conseguem abordar. O foco da Irregular em simulações multiagente os posiciona bem para essa transição.

Os fatores de risco incluem a possibilidade de grandes laboratórios de IA desenvolverem capacidades de segurança internas, reduzindo a demanda por serviços de avaliação externos. No entanto, os requisitos regulatórios para avaliações independentes e a complexidade dos testes avançados de segurança de IA sugerem uma demanda contínua por provedores especializados.

Investidores com visão de futuro devem monitorar várias métricas-chave: a expansão da Irregular além da avaliação para controles de segurança em tempo de execução, a adoção de seus frameworks por órgãos reguladores e sua capacidade de escalar as capacidades de teste à medida que os sistemas de IA se tornam mais sofisticados.

O Caminho a Seguir em um Mundo Centrado em IA

O surgimento da Irregular reflete uma maturação mais ampla da indústria de IA, onde as considerações de segurança impulsionam cada vez mais as decisões de implantação. A rápida ascensão da empresa do modo furtivo a uma avaliação de quase unicórnio demonstra o reconhecimento dos investidores de que a segurança da IA representa tanto uma necessidade quanto uma oportunidade.

O anúncio do financiamento chega enquanto a indústria de IA lida com o equilíbrio entre o ritmo da inovação e as considerações de segurança. Avaliações recentes sugerem que, embora os sistemas de IA atuais possam auxiliar em ciberataques, eles permanecem limitados em comparação com operadores humanos especializados. No entanto, a trajetória aponta para sistemas mais capazes e autônomos que poderiam alterar fundamentalmente o cenário da cibersegurança.

À medida que os sistemas de IA se tornam mais prevalentes em infraestruturas críticas, serviços financeiros e aplicações de segurança nacional, os riscos de errar na segurança continuam a aumentar. Empresas como a Irregular servem como guardiões cruciais, testando os limites das capacidades da IA antes que sejam implantadas.

O investimento de US$ 80 milhões na Irregular sinaliza uma confiança mais ampla de que a segurança da IA se tornará uma categoria de mercado substancial. Para investidores que buscam exposição à infraestrutura de IA em vez de capacidades diretas de IA, empresas que fornecem avaliação de segurança e proteção em tempo de execução representam oportunidades atraentes em um cenário em rápida evolução.

Se a Irregular pode traduzir seu sucesso inicial em avaliação para domínio da plataforma permanece uma questão em aberto. No entanto, seu posicionamento na intersecção entre o avanço da IA e a necessidade de segurança sugere que desempenharão um papel influente na formação de como a sociedade gerencia os riscos e benefícios de sistemas de inteligência artificial cada vez mais poderosos.

Você Também Pode Gostar

Este artigo foi enviado por nosso usuário sob as Regras e Diretrizes para Submissão de Notícias. A foto de capa é uma arte gerada por computador apenas para fins ilustrativos; não indicativa de conteúdo factual. Se você acredita que este artigo viola direitos autorais, não hesite em denunciá-lo enviando um e-mail para nós. Sua vigilância e cooperação são inestimáveis para nos ajudar a manter uma comunidade respeitosa e em conformidade legal.

Inscreva-se na Nossa Newsletter

Receba as últimas novidades em negócios e tecnologia com uma prévia exclusiva das nossas novas ofertas

Utilizamos cookies em nosso site para habilitar certas funções, fornecer informações mais relevantes para você e otimizar sua experiência em nosso site. Mais informações podem ser encontradas em nossa Política de Privacidade e em nossos Termos de Serviço . Informações obrigatórias podem ser encontradas no aviso legal