
O Tinker, Primeiro Produto de Mira Murati, Enfrenta Dificuldades Enquanto Engenheiros Questionam Sua Proposta de Valor
Primeiro Produto da Startup de Mira Murati Encontra Público Cético
Engenheiros duvidam do retorno de sua API de ajuste fino enquanto rivais de código aberto se mantêm fortes
SAN FRANCISCO — Quando Mira Murati deixou a OpenAI no outono passado, após meses de tensões reportadas, o mundo da IA prendeu a respiração. A ex-diretora de tecnologia (CTO), há muito vista como uma das vozes mais influentes da empresa, tinha algo novo em desenvolvimento. Esta semana, sua startup Thinking Machines finalmente revelou seu produto de estreia: Tinker — uma API gerenciada que promete tornar o ajuste fino de grandes modelos de linguagem de peso aberto muito menos complicado.
Em vez de aplausos, no entanto, o lançamento foi recebido com ceticismo.
“Unsloth é muito melhor”, comentou um engenheiro da CTOL.digital em nosso canal interno do Slack, resumindo grande parte da primeira reação da indústria. A análise de nossa equipe aponta para sérias dúvidas sobre se o Tinker realmente oferece algo novo.
Para Murati, as apostas não poderiam ser maiores. Ao lançar um serviço de ajuste fino em vez de buscar o próximo grande modelo estilo GPT, ela está apostando que o futuro da IA reside na personalização. É uma crítica direta à filosofia de "caixa fechada" de sua ex-empregadora — e uma aposta que pode tanto validar o alto valuation da Thinking Machines quanto expô-la como superestimada.
A Promessa: Simplificando a Parte Mais Difícil
No papel, o Tinker faz uma oferta simples. Ele cuida das complicadas dores de cabeça de infraestrutura — pense em agendamento, alocação de recursos e recuperação de falhas — enquanto dá aos pesquisadores controle sobre seus dados e algoritmos. As equipes podem transitar entre modelos, desde construções menores até gigantes maciços como Qwen-235B-A22B, com uma única linha de código.
O sistema opera nos clusters internos da Thinking Machines e usa LoRA (Low-Rank Adaptation) para estender os recursos computacionais por múltiplos trabalhos de treinamento, o que pode reduzir custos. Para ajudar os desenvolvedores a começar, a empresa também lançou o “Tinker Cookbook”, uma biblioteca de código aberto de métodos modernos de pós-treinamento.
Alguns grupos de pesquisa de peso já testaram a ferramenta. Equipes de Princeton, Stanford e Berkeley testaram o Tinker em projetos que abrangem desde a prova de teoremas matemáticos até o raciocínio químico. A Redwood Research chegou a usá-lo para treinar o Qwen3-32B em problemas complexos de controle de IA.
O Problema: Convencer de que é Diferente
Aqui está o cerne da questão: nada disso responde à pergunta que os engenheiros continuam fazendo — por que mudar das ferramentas de código aberto em que eles já confiam?
A análise da equipe de engenharia da CTOL.digital destaca dois pontos fracos. O primeiro é uma dúvida antiga e persistente. Sem benchmarks publicados comparando o Tinker com sistemas comprovados como Unsloth ou TRL, os desenvolvedores não têm números concretos para julgar se ele é mais rápido, mais barato ou mais estável. “Vantagens claras e comprovadas” são o que eles querem. Até agora, não as viram.
O segundo ponto é mais contundente. Alguns engenheiros descartam o Tinker como um “show para investidores”, uma ferramenta feita para impressionar os patrocinadores em vez de servir a usuários reais. Uma vez que essa percepção se instala, generalizações sobre facilidade de uso não vão resolver.
“Queremos resultados transparentes e reproduzíveis que superem as stacks atuais em custo e desempenho”, diz um de nossos engenheiros categoricamente. Enquanto eles não surgirem, a desconfiança prevalece.
O Que Está Faltando: Provas Que Resistem
A maior lacuna na estreia do Tinker é fácil de identificar: a ausência de benchmarks independentes. Nenhuma execução de treinamento sequer foi publicada comparando-o a alternativas nas métricas que realmente importam — custo por token, throughput, estabilidade de treinamento, tempo para convergência.
Esse silêncio deixa os engenheiros a adivinhar em vez de avaliar. Eles não conseguem dizer se a infraestrutura gerenciada do Tinker realmente alivia a carga, ou se seu truque LoRA de fato economiza dinheiro em comparação com a execução do Unsloth em GPUs alugadas.
Igualmente notável é o que não está sendo dito. A falta de relatórios de bugs detalhados ou análises de falha sugere que a maioria dos desenvolvedores ainda nem sequer investiu tempo sério em testá-lo. Uma vez que o acesso beta se ampliar e os usuários começarem a compartilhar logs, configurações e erros reproduzíveis, o feedback ou se solidificará em críticas afiadas ou se suavizará em aceitação.
O Panorama Geral: Uma Aposta Contra a Corrida pela IAG
O lançamento do Tinker também revela algo mais profundo sobre a perspectiva de Murati. Ao escolher a infraestrutura de ajuste fino em vez do desenvolvimento de modelos de fronteira, ela está sinalizando que não espera um salto revolucionário em direção à inteligência artificial geral tão cedo.
Essa visão a coloca na companhia de outros ex-alunos da OpenAI, como o cofundador John Schulman e os pesquisadores Barret Zoph e Luke Metz, que todos pivotaram para modelos de peso aberto. Juntos, seus movimentos sugerem uma crença compartilhada: neste momento, adaptar modelos abertos oferece mais valor prático do que correr em direção ao próximo sistema gigante fechado.
O debate atinge o cerne da indústria de IA. O progresso vem da construção de modelos cada vez maiores e rigidamente protegidos, ou da invenção de maneiras mais inteligentes de adaptar aqueles que já existem?
O Caminho à Frente: Prove ou Desapareça
A Thinking Machines está gradualmente tirando os usuários da lista de espera. O serviço é gratuito durante a fase beta, mas o preço mudará para um modelo baseado em uso em breve. Quando questionada sobre a recepção fria entre os engenheiros, a empresa se recusou a comentar. Também não compartilhou nenhum dado de benchmark contra sistemas rivais.
Esse silêncio deixa apenas um caminho a seguir. Para conquistar a confiança, a equipe de Murati precisa publicar provas concretas: benchmarks reproduzíveis, economia de custos no mundo real, melhorias de estabilidade e ganhos de produtividade documentados com curvas de treinamento reais. Sem elas, o Tinker corre o risco de ser lembrado como uma estreia chamativa que não conseguiu se firmar.
Alguns engenheiros da CTOL.digital foram diretos: “Esperem críticas mais substantivas assim que o beta se expandir e os usuários publicarem configurações, logs e resultados de falhas. Mas espere, os investidores estão chorando agora?”
A reputação de Murati, construída em seus anos na OpenAI, ainda lhe garante atenção. Se ela a manterá ou não, depende do que virá a seguir — não em promessas, mas em provas.