Carta aberta pede proibição do desenvolvimento de IA superinteligente

Carta aberta pede proibição do desenvolvimento de IA superinteligente

Carta aberta pede proibição do desenvolvimento de IA superinteligente

Uma carta aberta apelando à proibição do desenvolvimento de IA superinteligente foi anunciada na quarta-feira, com as assinaturas de mais de 700 celebridades, cientistas de IA, líderes religiosos e decisores políticos.

Entre os signatários estão cinco ganhadores do Nobel; dois chamados “Padrinhos da IA”; Steve Wozniak, cofundador da Apple; Steve Bannon, um aliado próximo do presidente Trump; Paolo Benanti, conselheiro do Papa; e até mesmo Harry e Meghan, o duque e a duquesa de Sussex.

A carta aberta diz, na íntegra:

“Pedimos uma proibição do desenvolvimento da superinteligência, que não será levantada antes que haja

  1. amplo consenso científico de que isso será feito de forma segura e controlada, e
  2. forte adesão pública.”

A carta foi coordenada e publicada pelo Future of Life Institute, uma organização sem fins lucrativos que em 2023 publicou um texto diferente carta aberta apelando a uma pausa de seis meses no desenvolvimento de sistemas poderosos de IA. Embora amplamente divulgada, essa carta não atingiu o seu objetivo.

Os organizadores disseram que decidiram montar uma nova campanha, com um foco mais específico na superinteligência, porque acreditam que a tecnologia – que definem como um sistema que pode superar o desempenho humano em todas as tarefas úteis – poderá chegar dentro de um a dois anos. “O tempo está se esgotando”, diz Anthony Aguirre, diretor executivo da FLI, em entrevista à TIME. A única coisa que provavelmente impedirá as empresas de IA de avançarem rumo à superinteligência, diz ele, “é que haja uma percepção generalizada entre a sociedade, em todos os seus níveis, de que isto não é realmente o que queremos”.

Votação divulgado junto com a carta mostrou que 64% dos americanos acreditam que a superinteligência “não deveria ser desenvolvida até que seja comprovadamente segura e controlável”, e apenas 5% acreditam que deveria ser desenvolvida o mais rápido possível. “É um pequeno número de empresas muito ricas que as estão a construir, e um número muito, muito grande de pessoas que preferem seguir um caminho diferente”, diz Aguirre.

Os atores Joseph Gordon-Levitt e Stephen Fry, o rapper will.i.am e o autor Yuval Noah Harari também assinaram seus nomes na carta. Susan Rice, conselheira de segurança nacional na administração de Barack Obama, assinou. O mesmo fez um membro da equipe da OpenAI – uma organização descrito pelo seu CEO, Sam Altman, como uma “empresa de pesquisa de superinteligência” – Leo Gao, membro da equipe técnica da empresa. Aguirre espera que mais pessoas assinem à medida que a campanha se desenrola. “As crenças já estão lá”, diz ele. “O que não temos é pessoas se sentindo livres para expressar suas crenças em voz alta.”

“O futuro da IA ​​deve servir a humanidade, não substituí-la”, disse o príncipe Harry, duque de Sussex, numa mensagem que acompanha a sua assinatura. “Acredito que o verdadeiro teste do progresso não será a rapidez com que nos movemos, mas a sabedoria com que orientamos. Não há segunda oportunidade.”

A assinatura de Joseph Gordon-Levitt foi acompanhada pela mensagem: “Sim, queremos ferramentas específicas de IA que possam ajudar a curar doenças, fortalecer a segurança nacional, etc. Mas será que a IA também precisa imitar os humanos, preparar os nossos filhos, transformar-nos a todos em viciados em lixo e ganhar zilhões de dólares servindo anúncios? A maioria das pessoas não quer isso. Mas é isso que estas grandes empresas de tecnologia querem dizer quando falam sobre construir ‘Superinteligência’.”

A declaração foi mantida mínima para atrair um conjunto amplo e diversificado de signatários. Mas para uma mudança significativa, Aguirre acredita que a regulamentação é necessária. “Muitos dos danos advêm das estruturas de incentivos perversas a que as empresas estão sujeitas neste momento”, diz ele, observando que as empresas na América e na China estão a competir para serem as primeiras na criação de superinteligência.

“Seja em breve ou demore um pouco, depois que desenvolvermos a superinteligência, as máquinas estarão no comando”, diz Aguirre. “Se isso vai bem ou não para a humanidade, realmente não sabemos. Mas esse não é um experimento que queremos apenas realizar.”

Share this content:

Publicar comentário