Meta Poaches Pesquisador-chave do Google DeepMind AI
Bem-vindo de volta ao No circuitoo novo boletim informativo duas vezes por semana da TIME sobre IA. Se você está lendo isso no seu navegador, por que não inscrever-se para que o próximo seja entregue diretamente na sua caixa de entrada?
O que saber: Meta rouba pesquisador-chave do Google
A Meta contratou um importante pesquisador do Google DeepMind no mês passado, em um sinal de que a competição por talentos em uma área relativamente nova de desenvolvimento de IA está esquentando. Tim Brooks, que co-liderou a equipe Sora na OpenAI antes de mudar para o Google DeepMind em 2024, trabalha no Superintelligence Labs da Meta desde setembro, de acordo com seu perfil no LinkedIn. A mudança indica que a Meta pode estar redobrando seus esforços para construir “modelos mundiais”, um tipo de IA que tanto a OpenAI quanto o Google acreditam que será um trampolim fundamental para a inteligência artificial geral.
Brooks não respondeu a um pedido de comentário e não foi possível saber sua compensação. (A Meta supostamente atraiu alguns dos principais pesquisadores de empresas rivais com pacotes de pagamento valor mais de US$ 1 bilhão.) “Sou um pesquisador de IA no Meta Superintelligence Labs, onde faço modelos generativos multimodais”, diz o site pessoal de Brooks. Meta não respondeu a um pedido de comentário.
O pano de fundo – Após seu lançamento no início deste mês, o modelo Sora 2 da OpenAI conquistou a Internet, graças à sua capacidade de gerar vídeos realistas a partir de apenas um prompt de texto. Mas Sora é mais do que apenas capturar olhos com conteúdo viral. “Superficialmente, Sora, por exemplo, não parece ser relevante para AGI”, Sam Altman, CEO da OpenAI disse em um podcast no início deste mês. “Mas aposto que, se conseguirmos construir modelos mundiais realmente excelentes, isso será muito mais importante para a AGI do que as pessoas pensam.”
Altman estava falando sobre uma crença crescente dentro da indústria de IA em geral: se você puder simular o mundo com precisão suficiente, poderá colocar agentes de IA nessas simulações. Lá, eles poderiam aprender mais habilidades do que atualmente conseguem apenas com texto, fotos e vídeos – porque poderiam interagir com um mundo simulado. Essa forma de treinamento pode ser altamente eficiente, em parte porque o tempo simulado pode ser acelerado e porque muitas simulações podem ser executadas em paralelo.
Modelos mundiais – Quando o Google contratou Brooks da OpenAI no ano passado, o CEO da DeepMind, Demis Hassabis, deu-lhe as boas-vindas pessoalmente com um publicar no X, dizendo que estava “muito animado por trabalhar juntos para tornar realidade o sonho de longa data de um simulador mundial”. A empresa tornou-se cada vez mais otimista quanto à ideia de que os modelos mundiais são fundamentais para o desenvolvimento da AGI. A empresa anunciou recentemente o Genie 3, um simulador de mundo 3D que permite ao usuário navegar em um ambiente gerado por um prompt. “Os modelos mundiais são um trampolim fundamental no caminho para a AGI, pois tornam possível treinar agentes de IA em um currículo ilimitado de ambientes de simulação ricos”, disse a empresa no anúncio do modelo. Esse anúncio incluiu o nome de Brooks em sua lista de agradecimentos.
Aluguel de Meta – Nem Meta nem Brooks responderam às perguntas sobre sua nova função no Meta Superintelligence Labs. Mas a contratação de Brooks é especialmente notável porque a sua experiência parece entrar em conflito com a abordagem anterior da Meta aos modelos mundiais. Tal como o Google e a OpenAI, a empresa acredita que os modelos mundiais serão um passo vital em direção à AGI. Mas até agora, ela os construiu de uma maneira fundamentalmente diferente daquelas que Brooks construiu na OpenAI e no Google. Em vez de gerar vídeos realistas pixel por pixel como Sora e Genie, os modelos do Meta prevêem resultados em espaço abstrato, sem renderizar vídeo.
O principal líder dessa abordagem dentro do Meta tem sido o cientista-chefe de IA Yann LeCun, que tem criticado fortemente Sora. “Sora é treinado para gerar pixels”, escreveu LeCun no X em 2024. “Não há nada de errado com isso se seu objetivo é realmente gerar vídeos. Mas se o seu propósito é entender como o mundo funciona, é uma proposta perdida.” A chegada de Brooks sugere que Meta pode agora estar explorando essa mesma abordagem. Isso pode representar uma perda para LeCun, cuja influência diminuiu desde que a Meta anunciou sua nova divisão Superintelligence Labs, que eclipsou a equipe de Pesquisa Fundamental de IA da LeCun como o centro de gravidade da IA dentro da Meta.
Se você tiver um minuto, por favor, aproveite nosso rápido enquete para nos ajudar a entender melhor quem você é e quais tópicos de IA mais lhe interessam.
Quem saber: Kevin Weil, vice-presidente de ciência da OpenAI
Foi um fim de semana embaraçoso para Kevin Weil, vice-presidente de ciência da OpenAI. Ele tuitou na sexta-feira que o GPT-5 encontrou soluções para 10 problemas matemáticos “anteriormente não resolvidos” que “estão todos abertos há décadas”. Seguindo os passos dos modelos OpenAI e DeepMind derrotando especialistas humanos na Olimpíada Internacional de Matemática, a postagem parecia mostrar que a OpenAI havia finalmente alcançado um objetivo tentador: expandir a fronteira da matemática além do que qualquer ser humano poderia alcançar.
Só havia um problema: Weil entendeu errado. Os problemas matemáticos tive já foi resolvido por humanos – e o GPT-5 simplesmente descobriu as soluções existentes para esses problemas. Demis Hassabis, líder do rival DeepMind da OpenAI, opinou com uma brutalidade incomum publicar em X: “Isso é constrangedor.”
Para ser justo com a OpenAI, o que o GPT-5 fez ainda é muito legal. Descobriu uma prova matemática de um artigo esquecido da década de 1960, escrito em alemão, e identificou-a como a solução correta para um problema que tinha sido (erroneamente) descrito online como “aberto”. Isso não é o mesmo que fazer um novo avanço, com certeza, mas ainda é uma superpotência potencial para matemáticos e cientistas que trabalham em problemas difíceis. Como o pesquisador da OpenAI, Sebastien Bubeck escreveu no X: “Não se trata de IA descobrir novos resultados por conta própria, mas sim de como ferramentas como o GPT-5 podem ajudar os pesquisadores a navegar, conectar e compreender nosso corpo de conhecimento existente de maneiras que nunca foram possíveis antes (ou pelo menos muito mais demoradas).”
IA em ação
O governo do Reino Unido disse na semana passada, utilizou uma ferramenta de IA para analisar e classificar mais de 50.000 respostas a uma consulta em apenas duas horas, superando a precisão humana na mesma tarefa. O governo disse esperar que a implementação de ferramentas semelhantes acabe por poupar aos funcionários 75.000 dias de trabalho em tarefas mecânicas por ano – o equivalente a 20 milhões de libras (27 milhões de dólares) em custos de pessoal. Em vez de substituir trabalhadores, a IA pretende libertar os funcionários do governo para se concentrarem em assuntos mais importantes, disse o ministro do governo digital, Ian Murray, num comunicado. “Isto mostra o enorme potencial da tecnologia e da IA para fornecer serviços públicos melhores e mais eficientes ao público e proporcionar melhor valor para o contribuinte.”
Como sempre, se você tiver uma história interessante sobre IA em ação, adoraríamos ouvi-la. Envie-nos um e-mail para: intheloop@time.com
O que estamos lendo
Otimismo tecnológico e medo apropriadopor Jack Clark em Importação AI
O cofundador e chefe de política da Anthropic, Jack Clark, publicou um ensaio preocupante na semana passada, descrevendo o terror que às vezes sente em relação à nossa trajetória de IA, mesmo permanecendo um otimista tecnológico. David Sacks, o czar da IA da Casa Branca, aproveitou este ensaio como prova de que a Anthropic está supostamente a executar uma “estratégia sofisticada de captura regulamentar baseada na disseminação do medo”. Outra maneira de ver a questão é que Clark não é motivado pela ganância, mas pelo medo genuíno – o que, do meu ponto de vista, parece bastante bem fundamentado. Vale a pena ler a peça inteira, mas aqui está um trecho:
“Também estou profundamente receoso. Seria extraordinariamente arrogante pensar que trabalhar com uma tecnologia como esta seria fácil ou simples.
Minha própria experiência mostra que, à medida que esses sistemas de IA ficam cada vez mais inteligentes, eles desenvolvem objetivos cada vez mais complicados. Quando esses objetivos não estão absolutamente alinhados com as nossas preferências e com o contexto certo, os sistemas de IA se comportarão de maneira estranha.
(…) Esses sistemas de IA já estão acelerando os desenvolvedores nos laboratórios de IA por meio de ferramentas como Claude Code ou Codex. Eles também estão começando a contribuir com pedaços de código não triviais para as ferramentas e sistemas de treinamento de seus futuros sistemas.
Para ser claro, ainda não estamos na “IA de auto-aperfeiçoamento”, mas estamos na fase de “IA que melhora partes da próxima IA, com autonomia e agência crescentes”. E alguns anos atrás estávamos em “IA que acelera marginalmente os codificadores”, e alguns anos antes estávamos em “IA é inútil para o desenvolvimento de IA”. Onde estaremos daqui a um ou dois anos?
E deixem-me lembrar-nos a todos que o sistema que está agora a começar a conceber o seu sucessor também está cada vez mais autoconsciente e, portanto, acabará certamente por estar propenso a pensar, independentemente de nós, sobre como poderá querer ser concebido.
Claro, isso não acontece hoje. Mas posso descartar a possibilidade de querer fazer isso no futuro? Não.”
Share this content:
Publicar comentário