Inception levanta US$ 50 milhões para construir modelos de difusão para código e texto

A group of nine men stand on a sunlit balcony.

Inception levanta US$ 50 milhões para construir modelos de difusão para código e texto

Com tanto dinheiro inundando startups de IA, é um bom momento para ser um pesquisador de IA com uma ideia para testar. E se a ideia for inovadora o suficiente, pode ser mais fácil obter os recursos necessários como uma empresa independente, em vez de dentro de um dos grandes laboratórios.

Essa é a história da Inception, uma startup que desenvolve modelos de IA baseados em difusão que acaba de levantar US$ 50 milhões em financiamento inicial liderado pela Menlo Ventures. Andrew Ng e Andrej Karpathy forneceram financiamento anjo adicional.

O líder do projeto é Stefano Ermon, professor de Stanford, cuja pesquisa se concentra em modelos de difusão – que geram resultados por meio de refinamento iterativo, em vez de palavra por palavra. Esses modelos alimentam sistemas de IA baseados em imagens, como Stable Diffusion, Midjourney e Sora. Tendo trabalhado nesses sistemas desde antes do boom da IA ​​torná-los interessantes, Ermon está usando o Inception para aplicar os mesmos modelos a uma gama mais ampla de tarefas.

Juntamente com o financiamento, a empresa lançou uma nova versão do seu modelo Mercury, projetado para desenvolvimento de software. O Mercury já foi integrado a diversas ferramentas de desenvolvimento, incluindo ProxyAI, Buildglare e Kilo Code. Mais importante ainda, Ermon diz que a abordagem de difusão ajudará os modelos da Inception a conservar duas das métricas mais importantes: latência (tempo de resposta) e custo de computação.

“Esses LLMs baseados em difusão são muito mais rápidos e eficientes do que todos os outros estão construindo hoje”, diz Ermon. “É apenas uma abordagem completamente diferente, onde há muita inovação que ainda pode ser trazida para a mesa.”

Compreender a diferença técnica requer um pouco de conhecimento. Os modelos de difusão são estruturalmente diferentes dos modelos de autorregressão, que dominam os serviços de IA baseados em texto. Modelos de regressão automática como GPT-5 e Gemini funcionam sequencialmente, prevendo cada palavra seguinte ou fragmento de palavra com base no material processado anteriormente. Os modelos de difusão, treinados para geração de imagens, adotam uma abordagem mais holística, modificando a estrutura geral de uma resposta de forma incremental até que ela corresponda ao resultado desejado.

A sabedoria convencional é usar modelos de regressão automática para aplicações de texto, e essa abordagem tem sido extremamente bem-sucedida nas gerações recentes de modelos de IA. Mas um crescente corpo de pesquisas sugere que os modelos de difusão podem ter melhor desempenho quando um modelo é processar grandes quantidades de texto ou gerenciando restrições de dados. Como diz Ermon, essas qualidades se tornam uma vantagem real ao executar operações em grandes bases de código.

Evento Techcrunch

São Francisco
|
13 a 15 de outubro de 2026

Os modelos de difusão também têm mais flexibilidade na forma como utilizam o hardware, uma vantagem particularmente importante à medida que as exigências de infraestrutura da IA ​​se tornam claras. Enquanto os modelos de regressão automática precisam executar operações uma após a outra, os modelos de difusão podem processar muitas operações simultaneamente, permitindo uma latência significativamente menor em tarefas complexas.

“Fomos avaliados em mais de 1.000 tokens por segundo, o que é muito maior do que qualquer coisa possível usando as tecnologias autorregressivas existentes”, diz Ermon, “porque nosso sistema foi construído para ser paralelo. Ele foi criado para ser muito, muito rápido”.

Share this content:

Publicar comentário