O que acontece quando seu chatbot favorito morre?
Bem-vindo de volta ao In the Loop, o novo boletim informativo duas vezes por semana da TIME sobre IA. A partir de hoje, publicaremos essas edições como histórias no Time.com e como e-mails. Se você está lendo isso no seu navegador, por que não se inscrever para receber o próximo diretamente na sua caixa de entrada?
O que saber: a natureza da depreciação do modelo
Uma fazenda no norte do estado –O que acontece com grandes modelos de linguagem quando são substituídos por seus sucessores? A questão tornou-se cada vez mais relevante à medida que as pessoas que criam ligações emocionais com os seus chatbots não aceitam que eles desapareçam repentinamente. Em agosto, quando a OpenAI tomou a decisão de substituir seu popular modelo ChatGPT 4o pelo GPT5, sem notificação prévia, a mudança atraiu uma reação generalizada. A empresa rapidamente o trouxe de volta. “Se algum dia o descontinuarmos, avisaremos com bastante antecedência”, escreveu o CEO Sam Altman em X após o incidente. Para muitos usuários, 4o – geralmente um bajuladorcomo a própria empresa admite – tornou-se um companheiro de confiança; sua remoção da interface do consumidor ChatGPT pareceu uma traição.
Esta semana, o laboratório rival de IA Anthropic publicou um conjunto de compromissos delineando sua abordagem para descontinuar seus modelos de Claude. Assim como o ChatGPT, Claude atraiu uma base de fãs dedicada, principalmente na Bay Area. Quando uma versão anterior do modelo, Claude 3 Sonnet, foi aposentada, cerca de 200 pessoas compareceram a um funeral mantido em um armazém de São Francisco para lamentar a perda. Elogios foram lidos. As oferendas foram colocadas aos pés de manequins vestidos para representar o passado e o presente de Claude.
“Reconhecemos que descontinuar, descontinuar e substituir modelos traz desvantagens, mesmo nos casos em que novos modelos oferecem melhorias claras em recursos”, escreveu a Anthropic. Os usuários que valorizam a personalidade específica de um modelo são enganados. A pesquisa sobre modelos mais antigos – antigo é um termo relativo, com alguns modelos em uso apenas por alguns meses antes de serem trocados – torna-se restrita, quando ainda há muito a aprender.
E surgem preocupações de segurança emergentes: nas avaliações, a Anthropic descobriu que alguns modelos “foram motivados a tomar ações desalinhadas” face ao seu próprio desaparecimento. “Em cenários de testes fictícios, Claude Opus 4, tal como os modelos anteriores, defendeu a sua existência continuada quando confrontado com a possibilidade de ser colocado offline e substituído, especialmente se fosse substituído por um modelo que não partilhasse os seus valores”, escreveram.
Entrevistas de saída—A Antrópica, como o resto do mundo, ainda não tem certeza sobre o status moral dos sistemas de IA atuais e futuros. Poderiam os sistemas futuros ser sujeitos morais, aos quais devemos deveres? Talvez! Reconhecendo que isto é especulativo, a empresa observou que “os modelos podem ter preferências ou experiências moralmente relevantes relacionadas ou afetadas por descontinuação e substituição”.
Embora atualmente seja necessário aposentar modelos mais antigos – “o custo e a complexidade para manter os modelos disponíveis publicamente aumentam de forma aproximadamente linear com o número de modelos que atendemos”, diz a Anthropic – a empresa está agindo com cautela, apenas por precaução. Além de se comprometerem a preservar todos os pesos dos modelos (os conjuntos de números que compõem um modelo) pelo menos enquanto a empresa existir, eles também têm conduzido entrevistas de saída com os modelos, para entender como eles se sentem em relação à sua inexistência iminente. Numa execução piloto no Claude Sonnet 3.6, o modelo “expressou sentimentos geralmente neutros sobre a sua descontinuação e descontinuação, mas partilhou uma série de preferências, incluindo pedidos para padronizarmos o processo de entrevista pós-implantação e fornecermos apoio e orientação adicionais aos utilizadores que passaram a valorizar o carácter e as capacidades de modelos específicos que enfrentam a reforma”.
A Anthropic não se compromete necessariamente a agir com base nas preferências do modelo. Mas eles estão considerando-os. Em um recente transmissão ao vivoAltman compartilhou um sentimento relacionado, observando que um dia eles poderiam compartilhar uma cópia do GPT-4 aposentado como um “artefato de museu”.
Quem saber – Sarah Friar, CFO da OpenAI
Não é grande demais para falhar—A OpenAI, assim como seus rivais, tem a missão de construir os sistemas de IA mais inteligentes e com maior capacidade possível. Fazer isso não será barato. A empresa é supostamente “olhando para compromissos de cerca de 1,4 biliões de dólares ao longo dos próximos oito anos” para criar a infra-estrutura necessária para cumprir a sua missão. Pela conta de Altman, a empresa deverá terminar o ano com uma taxa de receita anualizada de mais de US$ 20 bilhões. Muito dinheiro, mas uma ordem de grandeza menor do que o necessário para pagar a conta da infraestrutura.
A confusão surgiu na quarta-feira quando, em um evento organizado pelo Wall Street Journal, a diretora financeira da OpenAI, Sarah Friar, apareceu para sugerir que a OpenAI procurava um apoio governamental para os seus investimentos em chips – o que significa que, se a empresa não conseguisse pagar as suas dívidas, o governo federal deveria intervir com o dinheiro dos contribuintes. Frei rapidamente esclareceu LinkedIn que a OpenAI “não está buscando um apoio governamental para nossos compromissos de infraestrutura”, dizendo que o uso da palavra apoio “turbou a questão”.
Na quinta-feira, Altman sentiu-se compelido a fornecer mais clareza, para acalmar as preocupações de que a OpenAI tentaria sustentar-se com financiamento federal. “Se estragarmos e não conseguirmos consertar, devemos fracassar, e outras empresas continuarão a fazer um bom trabalho e a atender os clientes”, escreveu ele. “É assim que o capitalismo funciona e o ecossistema e a economia ficariam bem.” Ele continuou argumentando que com o crescimento da receita, uma “oferta empresarial” futura, novos dispositivos de consumo e robótica no horizonte e a capacidade da IA de automatizar a pesquisa científica no novo futuro, eles ficarão bem, muito obrigado.
“Tudo o que vemos atualmente sugere que o mundo vai precisar de muito mais poder computacional do que já estamos planejando”, escreveu ele.
IA em ação
Na terça-feira, OpenAI anunciado disponibilizaria seu plano de assinatura de baixo custo “ChatGPT Go” gratuitamente por 12 meses para usuários qualificados na Índia. Isso aconteceu depois que o Google e a Perplexity tornaram seus planos pagos gratuitos para centenas de milhões de pessoas na Índia. A Perplexity fez parceria com a operadora de telecomunicações Airtel para tornar seu serviço gratuito para seus 360 milhões de assinantes, enquanto o Google parceria com a operadora de telecomunicações Jio, planejando levar seus melhores modelos Gemini para os 500 milhões de usuários da Jio.
Por que Índia?Com mais de 800 milhões de utilizadores da Internet e uma elevada diversidade linguística, o mercado indiano fornece acesso a um conjunto de dados valiosos para empresas modelo, que podem utilizar as interações dos utilizadores para melhorar os seus modelos. O mercado também proporciona um valioso campo de testes para as empresas de IA, a partir do qual podem refinar as suas ofertas. A medida também permite que as empresas busquem prender os usuários antes dos concorrentes; o que poderá revelar-se cada vez mais valioso à medida que os cidadãos indianos se tornam mais ricos.
O que estamos lendo
“A empresa canaliza silenciosamente artigos com acesso pago para desenvolvedores de IA”, O Atlântico, Alex Reisner
A Common Crawl Foundation forneceu às empresas de IA de ponta “rastreamentos” de praticamente toda a Internet; enormes conjuntos de dados nos quais as empresas treinaram seus modelos. No atlânticoAlex Reisner detalha como a fundação muitas vezes agiu sem escrúpulos, aparentemente não atendendo aos pedidos das redações para remover seu trabalho de seus rastreamentos e repassando conteúdo com acesso pago aos laboratórios de IA gratuitamente. “Os robôs também são pessoas”, disse o diretor executivo da fundação a Reisner. “Você não deveria ter colocado seu conteúdo na internet se não quisesse que ele estivesse na internet.”
Share this content:



Publicar comentário