Carta aberta pede proibição do desenvolvimento de IA superinteligente
Uma carta aberta apelando à proibição do desenvolvimento de IA superinteligente foi anunciada na quarta-feira, com as assinaturas de mais de 700 celebridades, cientistas de IA, líderes religiosos e decisores políticos.
Entre os signatários estão cinco ganhadores do Nobel; dois chamados “Padrinhos da IA”; Steve Wozniak, cofundador da Apple; Steve Bannon, um aliado próximo do presidente Trump; Paolo Benanti, conselheiro do Papa; e até mesmo Harry e Meghan, o duque e a duquesa de Sussex.
A carta aberta diz, na íntegra:
“Pedimos uma proibição do desenvolvimento da superinteligência, que não será levantada antes que haja
- amplo consenso científico de que isso será feito de forma segura e controlada, e
- forte adesão pública.”
A carta foi coordenada e publicada pelo Future of Life Institute, uma organização sem fins lucrativos que em 2023 publicou um texto diferente carta aberta apelando a uma pausa de seis meses no desenvolvimento de sistemas poderosos de IA. Embora amplamente divulgada, essa carta não atingiu o seu objetivo.
Os organizadores disseram que decidiram montar uma nova campanha, com um foco mais específico na superinteligência, porque acreditam que a tecnologia – que definem como um sistema que pode superar o desempenho humano em todas as tarefas úteis – poderá chegar dentro de um a dois anos. “O tempo está se esgotando”, diz Anthony Aguirre, diretor executivo da FLI, em entrevista à TIME. A única coisa que provavelmente impedirá as empresas de IA de avançarem rumo à superinteligência, diz ele, “é que haja uma percepção generalizada entre a sociedade, em todos os seus níveis, de que isto não é realmente o que queremos”.
Votação divulgado junto com a carta mostrou que 64% dos americanos acreditam que a superinteligência “não deveria ser desenvolvida até que seja comprovadamente segura e controlável”, e apenas 5% acreditam que deveria ser desenvolvida o mais rápido possível. “É um pequeno número de empresas muito ricas que as estão a construir, e um número muito, muito grande de pessoas que preferem seguir um caminho diferente”, diz Aguirre.
Os atores Joseph Gordon-Levitt e Stephen Fry, o rapper will.i.am e o autor Yuval Noah Harari também assinaram seus nomes na carta. Susan Rice, conselheira de segurança nacional na administração de Barack Obama, assinou. O mesmo fez um membro da equipe da OpenAI – uma organização descrito pelo seu CEO, Sam Altman, como uma “empresa de pesquisa de superinteligência” – Leo Gao, membro da equipe técnica da empresa. Aguirre espera que mais pessoas assinem à medida que a campanha se desenrola. “As crenças já estão lá”, diz ele. “O que não temos é pessoas se sentindo livres para expressar suas crenças em voz alta.”
“O futuro da IA deve servir a humanidade, não substituí-la”, disse o príncipe Harry, duque de Sussex, numa mensagem que acompanha a sua assinatura. “Acredito que o verdadeiro teste do progresso não será a rapidez com que nos movemos, mas a sabedoria com que orientamos. Não há segunda oportunidade.”
A assinatura de Joseph Gordon-Levitt foi acompanhada pela mensagem: “Sim, queremos ferramentas específicas de IA que possam ajudar a curar doenças, fortalecer a segurança nacional, etc. Mas será que a IA também precisa imitar os humanos, preparar os nossos filhos, transformar-nos a todos em viciados em lixo e ganhar zilhões de dólares servindo anúncios? A maioria das pessoas não quer isso. Mas é isso que estas grandes empresas de tecnologia querem dizer quando falam sobre construir ‘Superinteligência’.”
A declaração foi mantida mínima para atrair um conjunto amplo e diversificado de signatários. Mas para uma mudança significativa, Aguirre acredita que a regulamentação é necessária. “Muitos dos danos advêm das estruturas de incentivos perversas a que as empresas estão sujeitas neste momento”, diz ele, observando que as empresas na América e na China estão a competir para serem as primeiras na criação de superinteligência.
“Seja em breve ou demore um pouco, depois que desenvolvermos a superinteligência, as máquinas estarão no comando”, diz Aguirre. “Se isso vai bem ou não para a humanidade, realmente não sabemos. Mas esse não é um experimento que queremos apenas realizar.”
Share this content:
Publicar comentário