Quando se trata de IA, o que não sabemos pode nos prejudicar

Quando se trata de IA, o que não sabemos pode nos prejudicar

Quando se trata de IA, o que não sabemos pode nos prejudicar

Nos últimos anos, a inteligência artificial tem sido o assunto de destaque na cidade. Cada novo modelo de IA revela inovações incríveis que rivalizam com a versão lançada semanas antes. Especialistas, desenvolvedores e CEOs de empresas de IA fazem afirmações ousadas sobre as trajetórias futuras, desde a eliminação do trabalho árduo e o aumento da longevidade humana até às potenciais ameaças existenciais à humanidade.

Se todos falam de IA, é em parte porque a divulgação dessas inovações gerou receitas crescentes exponencialmente para as empresas que desenvolvem esses modelos. Mas à medida que a IA se torna mais rápida, mais capaz e mais complexa, essa conversa pública poderá rapidamente ser transferida para trás de portas fechadas. As empresas de IA estão cada vez mais implantando modelos de IA em suas próprias organizações e é provável que em breve o descubram estrategicamente essencial reservar seus futuros modelos mais poderosos para uso interno. Mas estas decisões aparentemente inócuas podem constituir uma séria ameaça para a sociedade em geral, conforme argumentado abaixo.

A maioria das empresas líderes em IA declararam publicamente a sua intenção de desenvolver modelos de IA tão competentes como os humanos em todas as tarefas cognitivas, o que poderia gerar biliões de dólares em valor económico. Com a crença actualmente comum numa corrida em que o vencedor leva tudo em direcção à inteligência artificial geral (AGI), a potencial vantagem estratégica de modelos altamente avançados poderá em breve levar as empresas a alavancar os seus modelos de forma confidencial e interna para aumentar o progresso técnico – mas fornecendo poucos sinais de avanço aos concorrentes e ao mundo exterior em geral.

Os atuais sistemas de IA já se comportam frequentemente de maneiras inesperadas, não intencionais e indesejáveis ​​em contextos simulados experimentalmente, por exemplo, ameaçando chantagem Usuários, fingindo alinhamento ou mostrando comportamento de autopreservação. No entanto, se os principais desenvolvedores começarem a manter as cartas mais fechadas, a sociedade não terá mais uma janela, nem mesmo estreita, para aprender e avaliar publicamente as vantagens e desvantagens, os perfis de risco e segurança, e a trajetória desta tecnologia fundamental. Assim que os futuros sistemas avançados de IA forem implementados e utilizados, e talvez exclusivamente, à porta fechada, perigos invisíveis para a sociedade poderão emergir e evoluir sem supervisão ou disparos de aviso – essa é uma ameaça que podemos e devemos evitar.

Os principais laboratórios já estão a aproveitar cada vez mais os sistemas de IA para acelerar os seus próprios pipelines de investigação e desenvolvimento (I&D), concebendo novos algoritmos, propondo arquiteturas inteiramente novas ou otimizando códigos. Google, por exemplo, estimado em 2024 que 50% do seu código agora foi escrito pela IA. Como destacado em pesquisa recentesistemas avançados de IA poderiam eventualmente ser usados ​​para melhorar iterativamente seus próprios sucessores, criando potencialmente um poderoso “ciclo de feedback“de modelos cada vez mais capazes. Este resultado seria uma ótima notícia para as empresas de IA que desejam alcançar rapidamente a inteligência artificial geral, ou mesmo superinteligênciaà frente dos concorrentes – mas apenas se aproveitarem a sua vantagem estratégica longe de olhares indiscretos.

À primeira vista, tudo isso pode parecer inofensivo: que ameaça um sistema de IA não lançado poderia representar?

O problema é duplo: primeiro, à medida que os sistemas avançados de IA se tornam cada vez mais úteis internamente para construir uma IA melhor, poderá haver um forte incentivo competitivo e económico, ainda mais do que hoje, para dar prioridade à velocidade e à vantagem competitiva em detrimento da cautela. Esta dinâmica de corrida acarreta riscos, especialmente se sistemas de IA cada vez mais avançados começarem a ser utilizados pelo pessoal da empresa e implementados para utilização em áreas críticas de segurança, como a I&D de IA, potencialmente de forma autónoma para reduzir a fricção, preparando potenciais pontos de falha antes que alguém possa compreender completamente o comportamento dos sistemas de IA.

Em segundo lugar, as avaliações e intervenções existentes centram-se predominantemente em sistemas de IA disponíveis ao público. Para sistemas de IA implantados internamente, há muito pouca ou nenhuma informação disponível sobre quem tem acesso privilegiado a eles ou para que são usados. Mais precisamente, há pouca informação disponível sobre as suas capacidades, quer se comportem de forma indesejável; se estão sob controlo adequado com mecanismos e salvaguardas de supervisão; se podem ser utilizados indevidamente por aqueles que têm acesso a eles ou pelos seus perfis de risco globais. Também não existem requisitos suficientemente equilibrados e detalhados para garantir que estes sistemas de IA sejam rigorosamente testados e não representem uma ameaça em cascata para a sociedade antes de serem utilizados.

Se não exigirmos que as empresas tecnológicas forneçam informações suficientemente detalhadas sobre como testam, controlam e utilizam internamente novos modelos de IA, os governos não poderão preparar-se para sistemas de IA que poderão eventualmente ter capacidades de Estado-nação. Entretanto, as ameaças que se desenvolvem à porta fechada podem espalhar-se pela sociedade sem aviso prévio ou capacidade de intervenção. Com certeza, já hoje, não podemos confiar que os atuais sistemas de IA se comportarão de forma confiável como pretendido, sejam eles implantados externamente ou internamente. No entanto, ainda temos tempo para agir.

Existem medidas simples que podem ser tomadas hoje. O âmbito das políticas voluntárias de segurança da IA ​​nas fronteiras das empresas de IA deve ser explicitamente alargado para cobrir a implantação e utilização interna de alto risco, como para acelerar a I&D da IA. Como parte disto, a implantação interna deve ser tratada com o mesmo cuidado que a implantação externa, e avaliações rigorosas para identificar capacidades perigosas, o estabelecimento de perfis de risco claros e os mecanismos de controle ou proteção necessários antes do uso devem ser incentivados.

As agências governamentais responsáveis ​​pela preparação nacional devem ter visibilidade proativa da implantação interna e da utilização de sistemas de IA altamente avançados e receber todas as informações relevantes e críticas para a segurança nacional necessárias. Isto poderia incluir, por exemplo, informações sobre quem tem acesso a estes sistemas de IA e em que condições, para que são utilizados esses sistemas de IA, que supervisão lhes é aplicada e o que poderia acontecer se esta supervisão falhar, a fim de garantir que os interesses económicos e de propriedade intelectual são equilibrados com os interesses legítimos de segurança nacional.

As empresas de IA e os governos devem assumir a liderança colaborativa na adoção destas melhores práticas simples para garantir uma inovação confiável e a proteção do público.

Share this content:

Publicar comentário