Precisamos de um movimento global para proibir a IA superinteligente

Precisamos de um movimento global para proibir a IA superinteligente

Precisamos de um movimento global para proibir a IA superinteligente

Na semana passada, uma coligação de líderes científicos, religiosos e políticos chamado por uma proibição global do desenvolvimento de superinteligência: IA que supera os humanos em todas as tarefas cognitivas. Fui um dos primeiros signatários, ao lado de ganhadores do Nobel como Geoffrey Hinton; o cientista de IA mais citado do mundo, Yoshua Bengio; ex-assessor do presidente Donald Trump Steve Bannon; o ex-presidente do Estado-Maior Conjunto, Mike Mullen; e o Príncipe Harry e Meghan, Duquesa de Sussex.

O que está unindo esta coalizão sem precedentes? A ameaça urgente e de extinção representada pela superinteligência. As empresas de tecnologia estão investindo bilhões de dólares no alcance privado da superinteligência o mais rápido possível. Ninguém sabe como controlar IAs que são muito mais competentes do que qualquer ser humano, mas estamos cada vez mais perto de desenvolvê-las, com muitos especialistas esperando superinteligência nos próximos 5 anos, ao ritmo atual.

É por isso que os principais cientistas de IA avisar que o desenvolvimento da superinteligência poderia resultar na extinção da humanidade.

A necessidade de uma proibição da superinteligência

Assim que desenvolvermos máquinas significativamente mais competentes do que nós em todos os domínios, muito provavelmente ficaremos à mercê das próprias máquinas superinteligentes, uma vez que actualmente nenhum país, nenhuma empresa e nenhuma pessoa sabe como controlá-las. Em teoria, uma IA superinteligente perseguiria os seus próprios objectivos e, se esses objectivos fossem incompatíveis com a sustentação da vida humana, seríamos aniquilados.

Para piorar a situação, os desenvolvedores de IA não entendem como os poderosos sistemas de IA atuais realmente funcionam. Ao contrário das pontes ou das centrais eléctricas, que são concebidas de acordo com especificações humanas precisas, os actuais sistemas de IA são “crescido” de vastos conjuntos de dados através de processos que seus próprios criadores não conseguem interpretar. Até o CEO da Anthropic, Dario Amodei admite que “compreendemos apenas 3% de como eles funcionam”.

Apesar deste perigo, a superinteligência continua a ser o objetivo explícito das principais empresas de IA: OpenAI, Anthropic, Google DeepMind, Meta, xAI, DeepSeek. E dada a valorização vertiginosa destas empresas, elas não estão dispostas a parar sozinhas.

Os governos de todo o mundo devem intervir antes que seja tarde demais. No entanto, a situação internacional não é encorajadora. Vivemos numa era de crescente tensão geopolítica, repleta de guerras comerciais entre os EUA e a China. Os países estão a apressar-se para investir milhares de milhões em centros de dados para alimentar a IA, numa altura em que o desenvolvimento e a implantação de sistemas perigosos de IA permanecem menos regulamentados do que abrir um novo restaurante ou construir uma casa.

Como proibir a superinteligência

Neste clima, será mesmo possível uma proibição internacional do desenvolvimento da superinteligência?

Sim, porque já alcançámos tais proibições globais antes.

Em 1985, o mundo aprendido houve um buraco na camada de ozônio acima da Antártida, graças a três cientistas do British Antarctic Survey. Os culpados deste crime atmosférico foram os clorofluorcarbonos (CFC), produtos químicos industriais omnipresentes. A menos que algo fosse feito, o buraco continuaria a crescer, e milhões de pessoas contraíriam cancro de pele ou ficariam cegos devido à falta de protecção UV.

Em vez disso, milhões se uniram para proibir os CFCs. Os cientistas tornaram a ameaça tangível com imagens coloridas de satélite e uma discussão clara sobre as consequências para a saúde. As ONG orquestraram boicotes a grandes marcas e orientaram milhares de cidadãos preocupados a escrever cartas de protesto. Escolas em todo o mundo realizaram programas educativos e a ONU apoiou campanhas de sensibilização pública.

Em 1987, apenas dois anos depois de o buraco na camada de ozono ter sido tornado público, todos os países existentes assinaram o Protocolo de Montreal. Assinado durante a Guerra Fria, o Protocolo de Montreal demonstra que é possível alcançar acordos internacionais rápidos e decisivos em meio a tensões geopolíticas.

Um fator-chave foi que o buraco na camada de ozônio colocou em perigo quase todas as pessoas do mundo. Não foi uma externalidade empurrada por algumas pessoas para outras, mas algo que todos sofreriam. A superinteligência é uma ameaça igualmente universal: a perda de controlo da IA ​​significa que mesmo aqueles que a desenvolvem não serão poupados dos seus perigos. O risco de extinção da superinteligência tem, portanto, o potencial de atravessar todas as divisões. Pode unir pessoas de partidos políticos, religiões, nações e ideologias. Ninguém quer que sua vida, sua família, seu mundo sejam destruídos.

Quando as pessoas aprendem sobre a superinteligência e o risco de extinção que ela representa, muitos percebem o perigo e começam a se preocupar com ele. Tal como acontece com o buraco na camada de ozono, esta preocupação deve ser catalisada no envolvimento cívico, construindo um movimento global que trabalhe com os governos para tornar realidade a proibição da superinteligência.

Infelizmente, a maioria dos legisladores simplesmente ainda não sabe da ameaça da superinteligência ou da sua urgência, e as empresas de IA estão agora a implementar centenas de milhões de dólares para esmagar as tentativas de regular a IA.

O melhor contrapeso a este gigantesco esforço de lobby é que os legisladores ouçam dos seus eleitores o que eles realmente pensam sobre a superinteligência. Muitas vezes, os legisladores descobrirão que a maioria dos seus eleitores quer que eles digam “não” à superinteligênciae “sim” para um futuro onde a humanidade sobreviva e prospere.

Numa era de declínio do envolvimento político e de aumento do partidarismo, proibir a superinteligência é uma questão de bom senso que une as pessoas em todo o espectro político.

Tal como acontece com a destruição da camada de ozono, todos têm a perder com o desenvolvimento da superinteligência. Sabemos que o movimento para evitar esse destino pode ser construído.

A única questão que resta é: podemos construí-lo com rapidez suficiente?

Share this content:

Publicar comentário