“Mais Lento, Vagamante Mais Inteligente?” - Gemini 2.5 Pro 05-06 Enfrenta Críticas de Usuários Avançados Devido à Queda na Precisão e no Desempenho

Por
CTOL Editors - Ken
6 min de leitura

“Mais Lento, Vagamente Mais Inteligente?”: Gemini 2.5 Pro Sofre Reação Negativa de Usuários Avançados por Queda na Precisão e Performance

Antes o Favorito de Desenvolvedores e Cientistas de Dados, o Modelo Mais Recente de IA do Google Gera Frustração na Comunidade Técnica

No mundo competitivo do desenvolvimento de IA, onde milissegundos fazem diferença e a precisão não é opcional, o lançamento do Gemini 2.5 Pro em 6 de maio pelo Google – a atualização muito esperada de seu modelo principal – teve uma recepção fria entre seus usuários mais exigentes: programadores profissionais, analistas de dados e pesquisadores técnicos.

Apenas 24 horas após o lançamento, fóruns e canais de desenvolvedores ficaram cheios de descontentamento. De “lentidão paralisante” a “amnésia de instruções”, os primeiros usuários levantaram alarmes sobre o que consideram uma regressão significativa mascarada por uma camada de polidez superficial e animações de processamento.

Ficha Técnica do Gemini 2.5 Pro 05-06

FuncionalidadeDetalhes
Nome do ModeloGemini 2.5 Pro Preview 05-06
ID do Modelogemini-2.5-pro-preview-05-06
Preço (por 1M de tokens)
    Entrada (≤200K tokens)$1.25 (dólares)
    Entrada (>200K tokens)$2.50 (dólares)
    Saída (≤200K tokens)$10.00 (dólares)
    Saída (>200K tokens)$15.00 (dólares)
Melhor paraProgramação, Raciocínio, Entendimento Multimodal
Casos de Uso- Raciocinar sobre problemas complexos
- Lidar com código, matemática e STEM difíceis
- Analisar grandes conjuntos de dados/bases de código/documentos
Data de Corte de ConhecimentoJaneiro de 2025
Limites de Taxa- 150 RPM (Pago)
- 5 RPM / 25 requisições por dia (Gratuito)

"Pensa Mais, Diz Menos": Uma Mudança Frustrante nos Padrões de Interação

Uma das mudanças mais consistentes – e chocantes – relatadas pelos usuários é um aumento acentuado na latência. Vários profissionais compartilharam que o Gemini 2.5 Pro agora “pensa” por períodos mais longos, frequentemente 2 a 4 vezes mais tempo que a versão anterior. Esses atrasos são agravados por um novo padrão: o modelo exibe intermitentemente mensagens como "thought for 13 seconds", aparentemente tentando justificar seu ritmo mais lento.

Contudo, o que surge após essa espera é, paradoxalmente, uma saída menos incisiva.

“É como se estivesse 'carregando confiança'”, disse um líder técnico em uma empresa de modelagem financeira, pedindo anonimato para falar abertamente. “Você espera mais tempo, mas recebe algo mais superficial. Há uma queda perturbadora na profundidade analítica, especialmente ao lidar com problemas em camadas.”

Essa mudança é particularmente problemática para usuários avançados que dependem de IA para fluxos de lógica aninhada, modelagem estatística ou revisão de código precisa – áreas onde velocidade e rigor são inseparáveis.

Desvio Cognitivo: A Capacidade de Seguir Instruções Piora

Outro ponto de crítica é a capacidade diminuída do Gemini 2.5 Pro de seguir instruções em conversas com várias interações – uma capacidade central para fluxos de trabalho profissionais.

Vários usuários notaram que o modelo esquece diretivas no meio da conversa, chegando a não conseguir manter parâmetros simples de uma resposta para a próxima. Outros observaram que ele “errava instruções básicas” ou, pior, as ignorava completamente.

"Em um momento, dei cinco diretivas. Ele respondeu a duas e perdeu as outras três", contou um engenheiro de IA de uma empresa. "No passado, ele costumava combinar esses requisitos perfeitamente. Agora é como lidar com um estagiário no primeiro dia."

E para desenvolvedores, a frustração aumenta ainda mais. O Gemini, segundo relatos, omite partes importantes de arquivos de código, especialmente em saídas longas. Isso levou a compilações quebradas e pipelines interrompidos – resultados que não são apenas inconvenientes, mas potencialmente custosos em ambientes de produção.

“Agora Estraga Código”: A Anatomia de uma Regressão

Talvez a preocupação mais séria resida na qualidade do código – uma área onde o Gemini 2.5 Pro, pelos números, tem performance inferior aos seus equivalentes da OpenAI.

De acordo com métricas do LiveBench, o Gemini obteve 72.87 em programação, comparado ao desempenho notavelmente superior das variantes o3 Medium e High da OpenAI. Embora sua pontuação em matemática e capacidade de raciocínio permaneçam competitivas, essas forças estão se mostrando compensação insuficiente para a execução errática do modelo em domínios técnicos.

Um desenvolvedor descreveu como o modelo "mutilava" código existente em vez de ajustar blocos específicos, fazendo edições abrangentes e prejudiciais em vez das modificações precisas e cirúrgicas solicitadas. Outro notou que o Gemini "satisfazia talvez três de oito testes de sanidade em um teste de if-else aninhado", perdendo caminhos lógicos óbvios que versões anteriores lidavam com competência.

Esta não é uma degradação menor – isto é, como um revisor descreveu, "pelo menos 50% pior que a versão anterior na minha opinião sincera".

“Excessivamente Educado, Perigosamente Vago”: Um Problema de Estilo em Vez de Substância?

Muitos apontaram para uma mudança de tom conspícua na saída do Gemini 2.5 Pro. Ele agora é, segundo múltiplos revisores, “mais educado, mais prolixo e mais evasivo”. A crítica não é sobre o tom por si só – mas sobre o que esse tom mascara.

"Versões anteriores eram diretas, mas perspicazes. Esta parece que passou por um filtro de relações públicas", notou um arquiteto de software de Berlim. "Você pede uma análise de risco e recebe um ensaio diplomático. É vago, cauteloso – basicamente inutilizável quando você precisa de decisões difíceis."

Em uma indústria que valoriza diretividade e clareza de diagnóstico, o estilo de saída suavizado do Gemini parece uma escolha editorial indesejada – que vem às custas da utilidade.

Sobrecarga de Hardware e Erros de Upload: Limitações Técnicas Aparecem

Além do desempenho do software, usuários também relataram ineficiências de hardware, com o uso local da GPU pelo Gemini estabilizando em torno de 30%, bem abaixo da utilização esperada. Esse gargalo agrava os tempos de resposta já lentos, especialmente durante computações complexas ou tarefas com múltiplos arquivos.

Vários usuários também relataram falhas de upload após uso prolongado – um problema que pode indicar vazamento de memória ou gerenciamento de sessão instável na nova versão.

Os Números Não Mentem – Mas Também Não Contam a História Toda

No papel, o Gemini 2.5 Pro não é um fracasso. Sua pontuação média global no LiveBench de 78.99 o posiciona como um modelo de propósito geral forte, apenas atrás da classe o3 da OpenAI.

Suas forças em matemática e raciocínio o tornam viável para domínios quantitativos, e ele se sai razoavelmente bem em seguir instruções – estatisticamente falando.

Mas em fluxos de trabalho do mundo real, de alta precisão – particularmente em engenharia de software e análise de dados, onde a margem para imprecisão é zero – esses números são menos tranquilizadores.

"Este modelo parece configurado para um usuário que nunca vai além de tarefas simples", comentou um engenheiro de dados. "Para pessoas como eu, isso não é apenas frustrante – é perigoso."

Nostalgia Encontra a Necessidade: Os Usuários Vão Voltar Atrás?

Talvez o indicador mais revelador de desilusão seja a nostalgia repentina pela versão anterior do Gemini, com muitos pedindo uma opção de voltar para a versão anterior.

“Esta é a primeira vez que tive colegas dizendo: ‘Podemos voltar?’ Isso deveria preocupar o Google”, disse um desenvolvedor em uma empresa de infraestrutura de nuvem.

E de fato, se o Gemini 2.5 Pro continuar nessa trajetória, o Google pode enfrentar uma decisão difícil: priorizar performance para profissionais, ou focar na acessibilidade para usuários gerais.

E Agora? Um Cruzamento Para o Gemini

O descontentamento em torno do lançamento de maio do Gemini 2.5 Pro não representa apenas um passo em falso técnico – ele destaca uma tensão mais profunda no desenvolvimento de IA: equilibrar a segurança geral do usuário e o refinamento do tom com as necessidades de usuários avançados que demandam clareza, consistência e controle.

À medida que laboratórios concorrentes iteram rapidamente e as expectativas dos usuários se consolidam, o Google pode ter pouca escolha a não ser recalibrar as bases do modelo – ou arriscar perder terreno para concorrentes mais ágeis e precisos.

Por enquanto, aqueles na ponta da tecnologia em código e computação estão observando de perto – e esperando por uma solução que não apenas pense por mais tempo, mas pense melhor.

Você Também Pode Gostar

Este artigo foi enviado por nosso usuário sob as Regras e Diretrizes para Submissão de Notícias. A foto de capa é uma arte gerada por computador apenas para fins ilustrativos; não indicativa de conteúdo factual. Se você acredita que este artigo viola direitos autorais, não hesite em denunciá-lo enviando um e-mail para nós. Sua vigilância e cooperação são inestimáveis para nos ajudar a manter uma comunidade respeitosa e em conformidade legal.

Inscreva-se na Nossa Newsletter

Receba as últimas novidades em negócios e tecnologia com uma prévia exclusiva das nossas novas ofertas

Utilizamos cookies em nosso site para habilitar certas funções, fornecer informações mais relevantes para você e otimizar sua experiência em nosso site. Mais informações podem ser encontradas em nossa Política de Privacidade e em nossos Termos de Serviço . Informações obrigatórias podem ser encontradas no aviso legal