Por que o ex-líder de pesquisa de IA de Cohere está apostando contra a corrida em escala

Por que o ex-líder de pesquisa de IA de Cohere está apostando contra a corrida em escala

Por que o ex-líder de pesquisa de IA de Cohere está apostando contra a corrida em escala

Laboratórios de IA estão correndo para construir data centers tão grande quanto Manhattan, cada uma custando bilhões de dólares e consumindo tanta energia quanto uma pequena cidade. O esforço é impulsionado por uma profunda crença na “escalação” – a ideia de que adicionar mais poder computacional aos métodos de treinamento de IA existentes acabará por produzir sistemas superinteligentes capazes de executar todos os tipos de tarefas.

Mas um coro crescente de investigadores de IA afirma que a escala de grandes modelos de linguagem pode estar a atingir os seus limites e que podem ser necessários outros avanços para melhorar o desempenho da IA.

Essa é a aposta que Sara Hooker, ex-vice-presidente de pesquisa de IA da Cohere e ex-aluna do Google Brain, está fazendo com sua nova startup, Laboratórios de Adaptação. Ela foi cofundadora da empresa com Sudip Roy, colega Cohere e veterano do Google, e ela se baseia na ideia de que dimensionar LLMs se tornou uma maneira ineficiente de extrair mais desempenho dos modelos de IA. Hooker, que deixou Cohere em agosto, anunciou calmamente a startup este mês para começar a recrutar de forma mais ampla.

Em entrevista ao TechCrunch, Hooker disse que o Adaption Labs está construindo sistemas de IA que podem se adaptar e aprender continuamente com suas experiências do mundo real, e fazê-lo de forma extremamente eficiente. Ela se recusou a compartilhar detalhes sobre os métodos por trás dessa abordagem ou se a empresa depende de LLMs ou de outra arquitetura.

“Há agora um ponto de viragem em que é muito claro que a fórmula de apenas dimensionar estes modelos – abordagens escalonadas, que são atraentes mas extremamente aborrecidas – não produziu inteligência capaz de navegar ou interagir com o mundo”, disse Hooker.

A adaptação é o “coração da aprendizagem”, de acordo com Hooker. Por exemplo, dê uma topada com o dedo do pé ao passar pela mesa da sala de jantar e aprenderá a contorná-la com mais cuidado na próxima vez. Os laboratórios de IA tentaram capturar essa ideia por meio do aprendizado por reforço (RL), que permite que os modelos de IA aprendam com seus erros em ambientes controlados. No entanto, os métodos RL atuais não ajudam os modelos de IA em produção – ou seja, sistemas já usados ​​pelos clientes – a aprender com seus erros em tempo real. Eles simplesmente continuam batendo o dedo do pé.

Alguns laboratórios de IA oferecem serviços de consultoria para ajudar as empresas a ajustar seus modelos de IA de acordo com suas necessidades personalizadas, mas isso tem um preço. A OpenAI supostamente exige que os clientes gastar mais de US$ 10 milhões com a empresa para oferecer seus serviços de consultoria em ajuste fino.

Evento Techcrunch

São Francisco
|
27 a 29 de outubro de 2025

“Temos alguns laboratórios de ponta que determinam esse conjunto de modelos de IA que são servidos da mesma maneira para todos e cuja adaptação é muito cara”, disse Hooker. “E, na verdade, acho que isso não precisa mais ser verdade, e os sistemas de IA podem aprender com muita eficiência a partir de um ambiente. Provar isso mudará completamente a dinâmica de quem controla e molda a IA e, na verdade, a quem esses modelos servem no final do dia.”

Adaption Labs é o mais recente sinal de que a confiança da indústria na expansão dos LLMs está vacilando. Um artigo recente de pesquisadores do MIT descobriu que os maiores modelos de IA do mundo poderão em breve apresentar retornos decrescentes. As vibrações em São Francisco também parecem estar mudando. O podcaster favorito do mundo da IA, Dwarkesh Patel, recentemente organizou algumas conversas incomumente céticas com pesquisadores famosos de IA.

Richard Sutton, vencedor do prêmio Turing considerado “o pai da RL”, disse a Patel em setembro que LLMs não podem realmente escalar porque eles não aprendem com a experiência do mundo real. Este mês, o antigo funcionário da OpenAI, Andrej Karpathy, disse a Patel que tinha reservas sobre o potencial de longo prazo da RL para melhorar os modelos de IA.

Esses tipos de medos não são sem precedentes. No final de 2024, alguns investigadores de IA levantaram preocupações de que o dimensionamento de modelos de IA através de pré-treinamento – no qual os modelos de IA aprendem padrões a partir de montes de conjuntos de dados – estava a obter retornos decrescentes. Até então, o pré-treinamento era o ingrediente secreto para a OpenAI e o Google melhorarem seus modelos.

Essas preocupações de escalonamento pré-treinamento estão agora aparecendo nos dados, mas a indústria de IA encontrou outras maneiras de melhorar os modelos. Em 2025, os avanços em torno dos modelos de raciocínio de IA, que exigem tempo e recursos computacionais adicionais para resolver os problemas antes de responder, ampliaram ainda mais as capacidades dos modelos de IA.

Os laboratórios de IA parecem convencidos de que a ampliação dos modelos de raciocínio de RL e IA são a nova fronteira. Pesquisadores da OpenAI disseram anteriormente ao TechCrunch que desenvolveram seu primeiro modelo de raciocínio de IA, o1, porque pensaram que ele seria bem dimensionado. Pesquisadores do Meta e Periodic Labs recentemente lançou um artigo explorando como a RL poderia dimensionar ainda mais o desempenho – um estudo que supostamente custou mais de US$ 4 milhões, sublinhando o quão dispendiosas as actuais abordagens continuam a ser.

O Adaption Labs, por outro lado, pretende encontrar o próximo avanço e provar que aprender com a experiência pode ser muito mais barato. A startup estava em negociações para levantar uma rodada inicial de US$ 20 milhões a US$ 40 milhões no início deste outono, de acordo com três investidores que revisaram suas apresentações. Eles dizem que a rodada já foi encerrada, embora o valor final não seja claro. Hooker se recusou a comentar.

“Estamos preparados para ser muito ambiciosos”, disse Hooker, quando questionada sobre seus investidores.

Hooker liderou anteriormente o Cohere Labs, onde treinou pequenos modelos de IA para casos de uso corporativo. Os sistemas compactos de IA agora superam rotineiramente seus equivalentes maiores em benchmarks de codificação, matemática e raciocínio – uma tendência que Hooker deseja continuar pressionando.

Ela também construiu uma reputação por ampliar o acesso à pesquisa em IA em todo o mundo, contratando talentos em pesquisa de regiões sub-representadas, como a África. Embora a Adaption Labs abra um escritório em São Francisco em breve, Hooker diz que planeja contratar em todo o mundo.

Se Hooker e Adaption Labs estiverem certos sobre as limitações do dimensionamento, as implicações poderão ser enormes. Bilhões já foram investidos na expansão de LLMs, com a suposição de que modelos maiores levarão à inteligência geral. Mas é possível que a verdadeira aprendizagem adaptativa possa revelar-se não só mais poderosa – mas também muito mais eficiente.

Marina Temkin contribuiu com reportagens.

Share this content:

Publicar comentário