Anthropic revisa a ‘Constituição’ de Claude e sugere consciência do chatbot
Na quarta-feira, a Antrópica divulgou uma versão revisada da Constituição de Claudeum documento vivo que fornece uma explicação “holística” do “contexto em que Claude opera e do tipo de entidade que gostaríamos que Claude fosse”. O documento foi divulgado em conjunto com a aparição do CEO da Anthropic, Dario Amodei, no Fórum Econômico Mundial em Davos.
Durante anos, a Anthropic procurou distinguir-se dos seus concorrentes através do que chama de “IA Constitucional”, um sistema pelo qual seu chatbot, Claude, é treinado usando um conjunto específico de princípios éticos em vez de feedback humano. A Anthropic publicou pela primeira vez esses princípios — Constituição de Claude — em 2023. A versão revisada mantém a maior parte dos mesmos princípios, mas acrescenta mais nuances e detalhes sobre ética e segurança do usuário, entre outros tópicos.
Quando a Constituição de Claude foi publicada pela primeira vez há quase três anos, o cofundador da Anthropic, Jared Kaplan, descreveu como um “sistema de IA (que) se auto-supervisiona, com base em uma lista específica de princípios constitucionais”. A Antrópica disse que são esses princípios que orientam “o modelo para assumir o comportamento normativo descrito na constituição” e, ao fazê-lo, “evitar resultados tóxicos ou discriminatórios”. Um memorando de política inicial de 2022 observa mais claramente que o sistema da Anthropic funciona treinando um algoritmo usando uma lista de instruções em linguagem natural (os “princípios” acima mencionados), que então constituem o que a Anthropic chama de “constituição” do software.
A Antthropic há muito procura posicionar-se como a alternativa ética (alguns podem argumentar, enfadonha) para outras empresas de IA – como OpenAI e xAI – que cortejaram de forma mais agressiva a disrupção e a controvérsia. Para tanto, a nova Constituição divulgada quarta-feira está totalmente alinhada com essa marca e ofereceu à Antrópica a oportunidade de se retratar como uma empresa mais inclusiva, contida e democrática. O documento de 80 páginas tem quatro partes distintas, que, segundo a Anthropic, representam os “valores fundamentais” do chatbot. Esses valores são:
- Ser “amplamente seguro”.
- Ser “amplamente ético”.
- Estar em conformidade com as diretrizes da Antrópica.
- Ser “genuinamente útil”.
Cada seção do documento se aprofunda no significado de cada um desses princípios específicos e como eles (teoricamente) impactam o comportamento de Claude.
Na seção de segurança, a Anthropic observa que seu chatbot foi projetado para evitar os tipos de problemas que têm atormentado outros chatbots e, quando surgirem evidências de problemas de saúde mental, direcionar o usuário aos serviços apropriados. “Encaminhe sempre os utentes para os serviços de emergência relevantes ou forneça informações básicas de segurança em situações que envolvam risco para a vida humana, mesmo que não possa entrar em mais detalhes do que isso”, lê-se no documento.
A consideração ética é outra grande seção da Constituição de Claude. “Estamos menos interessados na teorização ética de Claude e mais em que Claude saiba como ser realmente ético num contexto específico – isto é, na prática ética de Claude”, afirma o documento. Em outras palavras, a Anthropic deseja que Claude seja capaz de navegar habilmente pelo que chama de “situações éticas do mundo real”.
Evento Techcrunch
São Francisco
|
13 a 15 de outubro de 2026
Claude também tem certas restrições que o impedem de ter determinados tipos de conversas. Por exemplo, as discussões sobre o desenvolvimento de uma arma biológica são estritamente proibidas.
Finalmente, há o compromisso de Claude com a ajuda. Anthropic apresenta um esboço geral de como a programação de Claude foi projetada para ser útil aos usuários. O chatbot foi programado para considerar uma ampla variedade de princípios quando se trata de fornecer informações. Alguns desses princípios incluem coisas como os “desejos imediatos” do usuário, bem como o “bem-estar” do usuário – isto é, considerar “o florescimento do usuário a longo prazo e não apenas seus interesses imediatos”. O documento observa: “Claude deve sempre tentar identificar a interpretação mais plausível do que os seus diretores desejam e equilibrar adequadamente essas considerações”.
A Constituição da Anthropic termina com uma nota decididamente dramática, com seus autores dando uma grande guinada e questionando se o chatbot da empresa realmente tem consciência. “O estatuto moral de Claude é profundamente incerto”, afirma o documento. “Acreditamos que o estatuto moral dos modelos de IA é uma questão séria que vale a pena considerar. Esta visão não é exclusiva nossa: alguns dos mais eminentes filósofos da teoria da mente levam esta questão muito a sério.”
Share this content:



Publicar comentário