Dona do Claude publica constituição com as regras usadas para treinar suas IAs
Por André Lourenti Magalhães • Editado por Bruno De Blasi | •

Criadora do chatbot Claude, a Anthropic publicou uma constituição própria com todas as regras usadas para treinar os modelos de inteligência artificial (IA) da empresa. O conjunto foca em alguns princípios essenciais para os LLMs, como manter uma abordagem ética e segura em toda as respostas.
- O que é system prompt? Entenda as 'regras' nas respostas das IAs
- Como funciona o Claude, IA da Anthropic que concorre com o ChatGPT e Gemini?
De acordo com a companhia, os modelos do Claude já eram desenvolvidos com base em conjuntos de regras, enquanto a nova constituição traz novos requisitos durante todo o processo.
O texto completo está disponível no site da Anthropic sob a licença Creative Commons CC 1.0, o que significa que qualquer pessoa pode usá-lo e adaptá-lo para treinar outras IAs, por exemplo. A empresa defende a necessidade de transparência num contexto em que a tecnologia assume papeis mais importantes na sociedade.
Quais são os pilares da Anthropic para os modelos do Claude?
O documento menciona quatro fatores essenciais para o desenvolvimento das IAs da Anthropic:
- Amplamente segura: não pode prejudicar mecanismos humanos para supervisionar a IA durante o desenvolvimento;
- Amplamente ética: precisa ser honesta e agir de acordo com “bons valores”, evitando ações que possam ser inapropriadas, perigosas ou prejudiciais a alguém;
- De acordo com as regras da Anthropic: agir sempre seguindo as diretrizes da Anthropic quando isso for necessário;
- Genuinamente útil: beneficiar quem interage com a IA.
Ao identificar um possível conflito, o modelo é instruído a priorizar cada pilar na ordem em que foram listados.
Como a constituição é usada?
A constituição é a autoridade final da Anthropic para regular o comportamento do Claude. O objetivo é explicar os valores e a base de conhecimento necessária para atuar de forma segura e benéfica em todos os casos.
A empresa explica que não usa regras muito restritivas e prioriza “bons valores” — no caso, uma combinação de motivação ética combinada com efeitos práticos de uso da IA em situações reais.
Vale destacar que o Claude surgiu como um chatbot “politicamente correto”, programado para evitar palavrões e outras linguagens impróprias, e por isso se tornou uma alternativa útil para cenários corporativos. Recentemente, a empresa liberou o Claude Cowork, uma espécie de “assistente de trabalho” capaz de realizar ações no computador.
O documento completo pode ser acessado no site da Anthropic (anthropic.com/constitution).
Leia também: