Silicon Valley assusta os defensores da segurança da IA

Silicon Valley assusta os defensores da segurança da IA

Silicon Valley assusta os defensores da segurança da IA

Os líderes do Vale do Silício, incluindo a IA da Casa Branca e o Czar da Criptografia, David Sacks, e o Diretor de Estratégia da OpenAI, Jason Kwon, causaram polêmica online esta semana por seus comentários sobre grupos que promovem a segurança da IA. Em casos separados, eles alegaram que certos defensores da segurança da IA ​​não são tão virtuosos quanto parecem e estão agindo no interesse de si mesmos ou de mestres de marionetes bilionários nos bastidores.

Grupos de segurança de IA que conversaram com o TechCrunch dizem que as alegações de Sacks e OpenAI são a mais recente tentativa do Vale do Silício de intimidar seus críticos, mas certamente não a primeira. Em 2024, algumas empresas de capital de risco espalharam rumores de que um projeto de lei de segurança de IA da Califórnia, SB 1047, enviaria os fundadores de startups para a prisão. A Brookings Institution classificou o boato como um entre muitos “deturpações”Sobre o projeto, mas o governador Gavin Newsom acabou vetando-o de qualquer maneira.

Quer Sacks e OpenAI pretendessem ou não intimidar os críticos, suas ações assustaram suficientemente vários defensores da segurança de IA. Muitos líderes de organizações sem fins lucrativos que o TechCrunch procurou na semana passada pediram para falar sob condição de anonimato para poupar seus grupos de retaliações.

A controvérsia ressalta a crescente tensão no Vale do Silício entre construir IA de forma responsável e construí-la para ser um produto de consumo massivo – um tema que meus colegas Kirsten Korosec, Anthony Ha e eu revelamos no artigo desta semana. Equidade podcast. Também nos aprofundamos em uma nova lei de segurança de IA aprovada na Califórnia para regulamentar os chatbots e na abordagem da OpenAI ao erotismo no ChatGPT.

Na terça-feira, Sacks escreveu um postar no X alegando que a Antrópica – que tem levantou preocupações sobre a capacidade da IA ​​de contribuir para o desemprego, ataques cibernéticos e danos catastróficos para a sociedade – é simplesmente fomentar o medo para conseguir a aprovação de leis que irão beneficiar a si mesma e abafar pequenas startups na papelada. A Anthropic foi o único grande laboratório de IA a endossar o Projeto de Lei 53 do Senado da Califórnia (SB 53), um projeto de lei que estabelece requisitos de relatórios de segurança para grandes empresas de IA, que foi sancionado no mês passado.

Sacks estava respondendo a um ensaio viral do cofundador da Anthropic, Jack Clark, sobre seus medos em relação à IA. Clark apresentou o ensaio como um discurso na conferência de segurança Curve AI em Berkeley, semanas antes. Sentado na plateia, certamente parecia um relato genuíno das reservas de um tecnólogo em relação aos seus produtos, mas Sacks não via as coisas dessa forma.

Sacks disse que a Anthropic está executando uma “estratégia sofisticada de captura regulatória”, embora valha a pena notar que uma estratégia verdadeiramente sofisticada provavelmente não envolveria transformar o governo federal em inimigo. Em um postagem de acompanhamento no X, Sacks observou que a Anthropic se posicionou “consistentemente como inimiga da administração Trump”.

Evento Techcrunch

São Francisco
|
27 a 29 de outubro de 2025

Também esta semana, o diretor de estratégia da OpenAI, Jason Kwon, escreveu um postar no X explicando por que a empresa estava enviando intimações para organizações sem fins lucrativos de segurança de IA, como a Encode, uma organização sem fins lucrativos que defende uma política responsável de IA. (Uma intimação é uma ordem legal que exige documentos ou testemunho.) Kwon disse que depois que Elon Musk processou a OpenAI – devido a preocupações de que o fabricante do ChatGPT se desviasse de sua missão sem fins lucrativos – a OpenAI achou suspeito como várias organizações também levantaram oposição à sua reestruturação. A Encode entrou com um pedido de amicus brief em apoio ao processo de Musk, e outras organizações sem fins lucrativos se manifestaram publicamente contra a reestruturação da OpenAI.

“Isto levantou questões de transparência sobre quem os financiava e se havia alguma coordenação”, disse Kwon.

A NBC News informou esta semana que a OpenAI enviou amplas intimações para Encode e seis outras organizações sem fins lucrativos que criticou a empresa, solicitando suas comunicações relacionadas a dois dos maiores oponentes da OpenAI, Musk e o CEO da Meta, Mark Zuckerberg. A OpenAI também solicitou à Encode comunicações relacionadas ao seu suporte ao SB 53.

Um proeminente líder de segurança de IA disse ao TechCrunch que há uma divisão crescente entre a equipe de assuntos governamentais da OpenAI e sua organização de pesquisa. Embora os investigadores de segurança da OpenAI publiquem frequentemente relatórios divulgando os riscos dos sistemas de IA, a unidade política da OpenAI fez lobby contra o SB 53, dizendo que preferia ter regras uniformes a nível federal.

O chefe de alinhamento de missão da OpenAI, Joshua Achiam, falou sobre sua empresa enviar intimações para organizações sem fins lucrativos em um postar no X essa semana.

“Diante do que possivelmente representa um risco para toda a minha carreira, direi: isso não parece ótimo”, disse Achiam.

Brendan Steinhauser, CEO da organização sem fins lucrativos de segurança de IA Alliance for Secure AI (que não foi intimada pela OpenAI), disse ao TechCrunch que a OpenAI parece convencida de que seus críticos fazem parte de uma conspiração liderada por Musk. No entanto, ele argumenta que este não é o caso, e que grande parte da comunidade de segurança de IA é bastante crítica em relação às práticas de segurança da xAI, ou à falta delas.

“Da parte da OpenAI, o objetivo é silenciar os críticos, intimidá-los e dissuadir outras organizações sem fins lucrativos de fazerem o mesmo”, disse Steinhauser. “Para Sacks, acho que ele está preocupado com o fato de o movimento (de segurança da IA) estar crescendo e as pessoas quererem responsabilizar essas empresas.”

Sriram Krishnan, conselheiro político sênior para IA da Casa Branca e ex-sócio geral da a16z, entrou na conversa esta semana com um postagem nas redes sociais por conta própria, deixando os defensores da segurança da IA ​​fora de contato. Ele instou as organizações de segurança de IA a conversarem com “pessoas no mundo real que usam, vendem e adotam IA em suas casas e organizações”.

Um estudo recente da Pew descobriu que cerca de metade dos americanos são mais preocupado do que animado sobre IA, mas não está claro o que exatamente os preocupa. Outro estudo recente foi mais detalhado e descobriu que os eleitores americanos se preocupam mais com perdas de empregos e deepfakes do que os riscos catastróficos causados ​​pela IA, nos quais o movimento de segurança da IA ​​está amplamente focado.

A resolução destas preocupações de segurança poderá ocorrer à custa do rápido crescimento da indústria da IA ​​– uma compensação que preocupa muitos no Vale do Silício. Com o investimento em IA a sustentar grande parte da economia americana, o receio de uma regulamentação excessiva é compreensível.

Mas depois de anos de progresso não regulamentado na IA, o movimento de segurança da IA ​​parece estar a ganhar um verdadeiro impulso rumo a 2026. As tentativas de Silicon Valley de lutar contra grupos centrados na segurança podem ser um sinal de que estão a funcionar.

Share this content:

Publicar comentário