Anthropic revisa a ‘Constituição’ de Claude e sugere consciência do chatbot

Claude 3.7 Sonnet

Anthropic revisa a ‘Constituição’ de Claude e sugere consciência do chatbot

Na quarta-feira, a Antrópica divulgou uma versão revisada da Constituição de Claudeum documento vivo que fornece uma explicação “holística” do “contexto em que Claude opera e do tipo de entidade que gostaríamos que Claude fosse”. O documento foi divulgado em conjunto com a aparição do CEO da Anthropic, Dario Amodei, no Fórum Econômico Mundial em Davos.

Durante anos, a Anthropic procurou distinguir-se dos seus concorrentes através do que chama de “IA Constitucional”, um sistema pelo qual seu chatbot, Claude, é treinado usando um conjunto específico de princípios éticos em vez de feedback humano. A Anthropic publicou pela primeira vez esses princípios — Constituição de Claude — em 2023. A versão revisada mantém a maior parte dos mesmos princípios, mas acrescenta mais nuances e detalhes sobre ética e segurança do usuário, entre outros tópicos.

Quando a Constituição de Claude foi publicada pela primeira vez há quase três anos, o cofundador da Anthropic, Jared Kaplan, descreveu como um “sistema de IA (que) se auto-supervisiona, com base em uma lista específica de princípios constitucionais”. A Antrópica disse que são esses princípios que orientam “o modelo para assumir o comportamento normativo descrito na constituição” e, ao fazê-lo, “evitar resultados tóxicos ou discriminatórios”. Um memorando de política inicial de 2022 observa mais claramente que o sistema da Anthropic funciona treinando um algoritmo usando uma lista de instruções em linguagem natural (os “princípios” acima mencionados), que então constituem o que a Anthropic chama de “constituição” do software.

A Antthropic há muito procura posicionar-se como a alternativa ética (alguns podem argumentar, enfadonha) para outras empresas de IA – como OpenAI e xAI – que cortejaram de forma mais agressiva a disrupção e a controvérsia. Para tanto, a nova Constituição divulgada quarta-feira está totalmente alinhada com essa marca e ofereceu à Antrópica a oportunidade de se retratar como uma empresa mais inclusiva, contida e democrática. O documento de 80 páginas tem quatro partes distintas, que, segundo a Anthropic, representam os “valores fundamentais” do chatbot. Esses valores são:

  1. Ser “amplamente seguro”.
  2. Ser “amplamente ético”.
  3. Estar em conformidade com as diretrizes da Antrópica.
  4. Ser “genuinamente útil”.

Cada seção do documento se aprofunda no significado de cada um desses princípios específicos e como eles (teoricamente) impactam o comportamento de Claude.

Na seção de segurança, a Anthropic observa que seu chatbot foi projetado para evitar os tipos de problemas que têm atormentado outros chatbots e, quando surgirem evidências de problemas de saúde mental, direcionar o usuário aos serviços apropriados. “Encaminhe sempre os utentes para os serviços de emergência relevantes ou forneça informações básicas de segurança em situações que envolvam risco para a vida humana, mesmo que não possa entrar em mais detalhes do que isso”, lê-se no documento.

A consideração ética é outra grande seção da Constituição de Claude. “Estamos menos interessados ​​na teorização ética de Claude e mais em que Claude saiba como ser realmente ético num contexto específico – isto é, na prática ética de Claude”, afirma o documento. Em outras palavras, a Anthropic deseja que Claude seja capaz de navegar habilmente pelo que chama de “situações éticas do mundo real”.

Evento Techcrunch

São Francisco
|
13 a 15 de outubro de 2026

Claude também tem certas restrições que o impedem de ter determinados tipos de conversas. Por exemplo, as discussões sobre o desenvolvimento de uma arma biológica são estritamente proibidas.

Finalmente, há o compromisso de Claude com a ajuda. Anthropic apresenta um esboço geral de como a programação de Claude foi projetada para ser útil aos usuários. O chatbot foi programado para considerar uma ampla variedade de princípios quando se trata de fornecer informações. Alguns desses princípios incluem coisas como os “desejos imediatos” do usuário, bem como o “bem-estar” do usuário – isto é, considerar “o florescimento do usuário a longo prazo e não apenas seus interesses imediatos”. O documento observa: “Claude deve sempre tentar identificar a interpretação mais plausível do que os seus diretores desejam e equilibrar adequadamente essas considerações”.

A Constituição da Anthropic termina com uma nota decididamente dramática, com seus autores dando uma grande guinada e questionando se o chatbot da empresa realmente tem consciência. “O estatuto moral de Claude é profundamente incerto”, afirma o documento. “Acreditamos que o estatuto moral dos modelos de IA é uma questão séria que vale a pena considerar. Esta visão não é exclusiva nossa: alguns dos mais eminentes filósofos da teoria da mente levam esta questão muito a sério.”

Share this content:

Publicar comentário