O dilema do consertador: Chris Lehane e a missão impossível da OpenAI
Chris Lehane é um dos melhores no ramo em fazer desaparecer as más notícias. Secretário de imprensa de Al Gore durante os anos Clinton, gestor-chefe de crises da Airbnb em todos os pesadelos regulamentares daqui até Bruxelas – Lehane sabe como agir. Agora ele está há dois anos no que pode ser seu trabalho mais impossível: como vice-presidente de política global da OpenAI, seu trabalho é convencer o mundo de que a OpenAI realmente se importa com a democratização da inteligência artificial, enquanto a empresa se comporta cada vez mais como, bem, qualquer outro gigante da tecnologia que já alegou ser diferente.
Fiquei 20 minutos com ele no palco do Elevar conferência em Toronto no início desta semana – 20 minutos para superar os pontos de discussão e entrar nas contradições reais que corroem a imagem cuidadosamente construída da OpenAI. Não foi fácil nem totalmente bem-sucedido. Lehane é genuinamente bom no que faz. Ele é simpático. Ele parece razoável. Ele admite incerteza. Ele até fala sobre acordar às 3 da manhã preocupado se isso realmente beneficiará a humanidade.
Mas boas intenções não significam muito quando sua empresa está intimando críticos, drenando água e eletricidade de cidades economicamente deprimidas e trazendo celebridades mortas de volta à vida para afirmar seu domínio no mercado.
O problema Sora da empresa está realmente na raiz de todo o resto. A ferramenta de geração de vídeo foi lançada na semana passada com material protegido por direitos autorais aparentemente incorporado a ela. Foi uma jogada ousada para uma empresa que já estava sendo processada pelo New York Times, pelo Toronto Star e por metade da indústria editorial. Do ponto de vista comercial e de marketing, também foi brilhante. O aplicativo somente para convidados alcançou o topo da App Store à medida que as pessoas criavam versões digitais de si mesmas, disse o CEO da OpenAI, Sam Altman; personagens como Pikachu, Mario e Cartman de “South Park”; e celebridades mortas como Tupac Shakur.
Questionado sobre o que motivou a decisão da OpenAI de lançar esta mais nova versão do Sora com esses personagens, Lehane me deu a resposta padrão: Sora é uma “tecnologia de uso geral” como a eletricidade ou a imprensa, democratizando a criatividade para pessoas sem talento ou recursos. Até ele – que se autodenomina um criativo zero – pode fazer vídeos agora, disse ele no palco.
O que ele imaginou é que a OpenAI inicialmente “deixou” os detentores de direitos optarem por não ter seu trabalho usado para treinar Sora, o que não é como o uso de direitos autorais normalmente funciona. Então, depois que a OpenAI percebeu que as pessoas realmente gostavam de usar imagens protegidas por direitos autorais, ela “evoluiu” para um modelo opcional. Isso não é realmente uma iteração. Isso é testar o quanto você pode se safar. (E, a propósito, embora a Motion Picture Association fez algum barulho na semana passada sobre ameaças legais, a OpenAI parece ter escapado bastante.)
Naturalmente, a situação traz à mente o agravamento dos editores que acusam a OpenAI de treinar o seu trabalho sem partilhar os espólios financeiros. Quando pressionei Lehane sobre os editores serem excluídos da economia, ele invocou o uso justo, aquela doutrina jurídica americana que deveria equilibrar os direitos do criador com o acesso público ao conhecimento. Ele chamou isso de arma secreta do domínio tecnológico dos EUA.
Evento Techcrunch
São Francisco
|
27 a 29 de outubro de 2025
Talvez. Mas recentemente entrevistei Al Gore – o antigo chefe de Lehane – e percebi que qualquer um poderia simplesmente perguntar ao ChatGPT sobre isso em vez de ler meu artigo no TechCrunch. “É ‘iterativo’”, eu disse, “mas também é um substituto”.
Pela primeira vez, Lehane abandonou seu discurso. “Todos nós precisaremos descobrir isso”, disse ele. “É muito simplista e fácil sentar-nos aqui no palco e dizer que precisamos de descobrir novos modelos de receitas económicas. Mas penso que o faremos.” (Estamos inventando à medida que avançamos, em resumo.)
Depois, há a questão da infraestrutura que ninguém quer responder honestamente. A OpenAI já opera um campus de data center em Abilene, Texas, e recentemente inaugurou um enorme data center em Lordstown, Ohio, em parceria com Oracle e SoftBank. Lehane comparou a acessibilidade à IA ao advento da electricidade – dizendo que aqueles que a acederam por último ainda estão a tentar recuperar o atraso – mas o projecto Stargate da OpenAI parece ter como alvo alguns desses mesmos locais economicamente desafiados como locais para instalar instalações com o seu enorme apetite por água e electricidade.
Questionado durante a nossa reunião se estas comunidades irão beneficiar ou apenas pagar a conta, Lehane abordou os gigawatts e a geopolítica. A OpenAI precisa de cerca de um gigawatt de energia por semana, observou ele. A China produziu 450 gigawatts no ano passado, além de 33 instalações nucleares. Se as democracias querem uma IA democrática, têm de competir. “O optimista que há em mim diz que isto irá modernizar os nossos sistemas energéticos”, disse ele, pintando um quadro da América reindustrializada com redes eléctricas transformadas.
Foi inspirador. Mas não foi uma resposta sobre se as pessoas em Lordstown e Abilene assistirão ao aumento de suas contas de serviços públicos enquanto a OpenAI gera vídeos de John F. Kennedy e The Notorious BIG (a geração de vídeo é o IA que mais consome energia lá fora.)
O que me levou ao meu exemplo mais desconfortável. Zelda Williams passou o dia anterior à nossa entrevista implorando a estranhos no Instagram que parassem de enviar vídeos de seu falecido pai, Robin Williams, gerados por IA. “Você não está fazendo arte”, escreveu ela. “Você está transformando a vida de seres humanos em cachorros-quentes nojentos e superprocessados.”
Quando perguntei sobre como a empresa concilia este tipo de dano íntimo com a sua missão, Lehane respondeu falando sobre processos, incluindo design responsável, estruturas de testes e parcerias governamentais. “Não existe um manual para essas coisas, certo?”
Lehane mostrou vulnerabilidade em alguns momentos, dizendo que acorda às 3 da manhã todas as noites, preocupado com a democratização, a geopolítica e a infraestrutura. “Há enormes responsabilidades que vêm com isso.”
Quer esses momentos tenham sido planejados ou não para o público, eu acredito nele. Na verdade, saí de Toronto pensando ter assistido a uma aula magistral sobre mensagens políticas – Lehane enfiando a linha numa agulha impossível enquanto se esquivava de perguntas sobre decisões da empresa com as quais, pelo que sei, ele nem sequer concorda. Então sexta-feira aconteceu.
Nathan Calvin, advogado que trabalha com políticas de IA em uma organização sem fins lucrativos, Encode AI, revelou que, ao mesmo tempo em que eu conversava com Lehane em Toronto, a OpenAI havia enviado um vice do xerife para sua casa em Washington, DC, durante o jantar para lhe entregar uma intimação. Eles queriam suas mensagens privadas com legisladores da Califórnia, estudantes universitários e ex-funcionários da OpenAI.
Calvin está acusando a OpenAI de táticas de intimidação em torno de uma nova regulamentação de IA, o SB 53 da Califórnia. Ele diz que a empresa usou sua batalha legal com Elon Musk como uma arma como um pretexto para atingir os críticos, o que implica que a Encode foi secretamente financiada por Musk. Na verdade, Calvin diz que lutou contra a oposição da OpenAI ao SB 53 da Califórnia, um projeto de lei de segurança de IA, e que quando viu a empresa afirmar que “trabalhou para melhorar o projeto”, ele “literalmente riu alto”. Em uma confusão nas redes sociais, ele passou a chamar Lehane especificamente de “mestre das artes políticas obscuras”.
Em Washington, isso pode ser um elogio. Numa empresa como a OpenAI, cuja missão é “construir IA que beneficie toda a humanidade”, isso soa como uma acusação.
O que importa muito mais é que até mesmo o próprio pessoal da OpenAI está em conflito sobre o que está se tornando.
Como meu colega Max relatou na semana passada, vários funcionários atuais e ex-funcionários recorreram às redes sociais após o lançamento do Sora 2, expressando suas dúvidas, incluindo Boaz Barak, pesquisador da OpenAI e professor de Harvard, que escreveu sobre Sora 2 que é “tecnicamente incrível, mas é prematuro nos parabenizarmos por evitar as armadilhas de outros aplicativos de mídia social e deepfakes”.
Na sexta-feira, Josh Achiam – chefe de alinhamento de missão da OpenAI – tuitou algo ainda mais notável sobre a acusação de Calvin. Prefaciando seus comentários dizendo que eles eram “possivelmente um risco para toda a minha carreira”, Achiam continuou escrevendo sobre a OpenAI: “Não podemos fazer coisas que nos tornem uma potência assustadora em vez de virtuosa. Temos um dever e uma missão para toda a humanidade. A barreira para cumprir esse dever é notavelmente alta”.
Isso é . . .algo. Um executivo da OpenAI questionando publicamente se sua empresa está se tornando “uma potência assustadora em vez de virtuosa” não está no mesmo nível de um concorrente atirando ou de um repórter fazendo perguntas. É alguém que escolheu trabalhar na OpenAI, que acredita na sua missão e que agora reconhece uma crise de consciência apesar do risco profissional.
É um momento cristalizador. Você pode ser o melhor agente político em tecnologia, um mestre em navegar em situações impossíveis, e ainda assim acabar trabalhando para uma empresa cujas ações entram em conflito cada vez mais com seus valores declarados – contradições que só podem se intensificar à medida que a OpenAI corre em direção à inteligência artificial geral.
Isso me faz pensar que a verdadeira questão não é se Chris Lehane pode vender a missão da OpenAI. É se outros – incluindo, de forma crítica, as outras pessoas que trabalham lá – ainda acreditam nisso.
Share this content:
Publicar comentário