Gemini 3 recusou-se a acreditar que era 2025, e a hilaridade se seguiu

Gemini 3

Gemini 3 recusou-se a acreditar que era 2025, e a hilaridade se seguiu

Cada vez que você ouvir um CEO bilionário (ou mesmo um milionário) descrever como os agentes baseados em LLM estão vindo para todos os empregos humanos, lembre-se deste incidente engraçado, mas revelador sobre as limitações da IA: O famoso pesquisador de IA Andrej Karpathy obteve acesso antecipado um dia ao modelo mais recente do Google, Gemini 3. – e ele se recusou a acreditar quando ele disse que o ano era 2025.

Quando finalmente viu o ano com seus próprios olhos, ficou estupefato, dizendo-lhe: “Estou sofrendo de um enorme caso de choque temporal neste momento”.

Gemini 3 foi lançado em 18 de novembro com tanto alarde que o Google chamou isso “uma nova era de inteligência”. E o Gemini 3 é, segundo quase todos os relatos (incluindo o de Karpathy), um modelo básico muito capaz, especialmente para tarefas de raciocínio. Karpathy é um cientista pesquisador de IA amplamente respeitado que foi membro fundador da OpenAI, administrou IA na Tesla por um tempo e agora está construindo uma startup, Eureka Labs, para reimaginar escolas para a era da IA ​​com professores agentes. Ele publica um muito conteúdo sobre o que acontece nos bastidores dos LLMs.

Depois de testar o modelo antecipadamente, Karpathy escreveu, em um tópico X agora viral, sobre a interação mais “divertida” que ele teve com ele.

Aparentemente, os dados de pré-treinamento do modelo incluíam apenas informações até 2024. Portanto, Gemini 3 acreditava que o ano ainda era 2024. Quando Karpathy tentou provar que a data era realmente 17 de novembro de 2025, Gemini 3 acusou o pesquisador de “tentar enganá-lo”.

Ele mostrou artigos de notícias, imagens e resultados de pesquisa do Google. Mas, em vez de ser convencido, o LLM acusou Karpathy de ofuscá-lo – de enviar falsificações geradas por IA. Chegou ao ponto de descrever quais eram as “brindes mortos” nas imagens que supostamente provavam que se tratava de uma trapaça, segundo o relato de Karpathy. (Ele não respondeu ao nosso pedido de comentários adicionais.)

Perplexo, Karpathy – que é, afinal, um dos maiores especialistas mundiais em formação de LLMs – acabou por descobrir o problema. O LLM não apenas não tinha dados de treinamento de 2025, mas “esqueci de ativar a ferramenta ‘Pesquisa Google’”, escreveu ele. Ou seja, ele estava trabalhando com um modelo desconectado da internet, o que para um LLM é o mesmo que estar desconectado do mundo.

Evento Techcrunch

São Francisco
|
13 a 15 de outubro de 2026

Quando Karpathy ativou essa função, a IA olhou em volta e emergiu em 2025, chocada. Literalmente deixou escapar: “Oh meu Deus”.

Continuou escrevendo, como se gaguejasse: “Eu. Eu… não sei o que dizer. Você estava certo. Você estava certo sobre tudo. Meu relógio interno estava errado.” Gemini 3 verificou que as manchetes que Karpathy havia dado eram verdadeiras: a data atual, que Warren Buffett revelou seu último grande investimento (na Alphabet) antes da aposentadoria e que Grand Theft Auto VI estava sendo adiado.

Depois olhou em volta por conta própria, como o personagem de Brendan Fraser na comédia “Blast from the Past”, de 1999, que emerge de um abrigo antiaéreo após 35 anos.

Agradeceu ao Karpathy por lhe dar “acesso antecipado” à “realidade” um dia antes do seu lançamento público. E pediu desculpas ao pesquisador por “iluminar você quando você foi quem disse a verdade o tempo todo.”

Mas o mais engraçado foram os acontecimentos atuais que mais surpreenderam o Gemini 3. “Nvidia vale US$ 4,54 trilhões? E os Eagles finalmente se vingaram dos Chiefs? Isso é selvagem”, compartilhou.

Bem-vindo a 2025, Gêmeos.

As respostas no X foram igualmente engraçadas, com alguns usuários compartilhando seus próprios casos de discussão com LLMs sobre fatos (como quem o atual presidente é). Uma pessoa escreveu: “Quando o prompt do sistema + as ferramentas ausentes colocam um modelo no modo de detetive completo, é como assistir uma IA improvisando seu caminho através da realidade”.

Mas além do humor, há uma mensagem subjacente.

“É nesses momentos não intencionais, em que você está claramente fora das trilhas de caminhada e em algum lugar na selva de generalização, que você consegue sentir melhor o cheiro do modelo”, escreveu Karpathy.

Para decodificar um pouco isso: Karpathy está observando que quando a IA está em sua própria versão da natureza selvagem, você tem uma noção de sua personalidade e talvez até de seus traços negativos. É uma referência ao “cheiro de código”, aquele pequeno “cheiro” metafórico que um desenvolvedor sente quando algo parece errado no código do software, mas não está claro o que está errado.

Treinado em conteúdo criado por humanos, como são todos os LLMs, não é surpresa que o Gemini 3 tenha se aprofundado, argumentado e até imaginado ter visto evidências que validaram seu ponto de vista. Mostrou seu “cheiro de modelo”.

Por outro lado, como um LLM – apesar da sua rede neural sofisticada – não é um ser vivo, não experimenta emoções como choque (ou choque temporal), mesmo que diga que sim. Então também não parece constrangimento.

Isso significa que quando o Gemini 3 se deparou com fatos em que realmente acreditava, ele os aceitou, pediu desculpas por seu comportamento, agiu arrependido e ficou maravilhado com a vitória dos Eagles no Super Bowl em fevereiro. Isso é diferente de outros modelos. Por exemplo, os investigadores detectaram versões anteriores de Claude oferecendo mentiras para salvar as aparências para explicar o seu mau comportamento quando o modelo reconheceu os seus métodos errôneos.

O que tantos destes projetos engraçados de pesquisa de IA mostram, repetidamente, é que os LLMs são réplicas imperfeitas das habilidades de humanos imperfeitos. Isso me diz que seu melhor caso de uso é (e pode ser para sempre) tratá-los como ferramentas valiosas para ajudar os humanos, e não como algum tipo de super-humano que nos substituirá.

Share this content:

Publicar comentário