Publicidade

Dona do Claude publica constituição com as regras usadas para treinar suas IAs

Por  • Editado por Bruno De Blasi |  • 

Compartilhe:
Viviane França/Canaltech
Viviane França/Canaltech

Criadora do chatbot Claude, a Anthropic publicou uma constituição própria com todas as regras usadas para treinar os modelos de inteligência artificial (IA) da empresa. O conjunto foca em alguns princípios essenciais para os LLMs, como manter uma abordagem ética e segura em toda as respostas.

De acordo com a companhia, os modelos do Claude já eram desenvolvidos com base em conjuntos de regras, enquanto a nova constituição traz novos requisitos durante todo o processo. 

O texto completo está disponível no site da Anthropic sob a licença Creative Commons CC 1.0, o que significa que qualquer pessoa pode usá-lo e adaptá-lo para treinar outras IAs, por exemplo. A empresa defende a necessidade de transparência num contexto em que a tecnologia assume papeis mais importantes na sociedade.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Quais são os pilares da Anthropic para os modelos do Claude?

O documento menciona quatro fatores essenciais para o desenvolvimento das IAs da Anthropic:

  • Amplamente segura: não pode prejudicar mecanismos humanos para supervisionar a IA durante o desenvolvimento;
  • Amplamente ética: precisa ser honesta e agir de acordo com “bons valores”, evitando ações que possam ser inapropriadas, perigosas ou prejudiciais a alguém;
  • De acordo com as regras da Anthropic: agir sempre seguindo as diretrizes da Anthropic quando isso for necessário;
  • Genuinamente útil: beneficiar quem interage com a IA.

Ao identificar um possível conflito, o modelo é instruído a priorizar cada pilar na ordem em que foram listados.

Como a constituição é usada?

A constituição é a autoridade final da Anthropic para regular o comportamento do Claude. O objetivo é explicar os valores e a base de conhecimento necessária para atuar de forma segura e benéfica em todos os casos.

A empresa explica que não usa regras muito restritivas e prioriza “bons valores” — no caso, uma combinação de motivação ética combinada com efeitos práticos de uso da IA em situações reais. 

Vale destacar que o Claude surgiu como um chatbot “politicamente correto”, programado para evitar palavrões e outras linguagens impróprias, e por isso se tornou uma alternativa útil para cenários corporativos. Recentemente, a empresa liberou o Claude Cowork, uma espécie de “assistente de trabalho” capaz de realizar ações no computador.

Continua após a publicidade

O documento completo pode ser acessado no site da Anthropic (anthropic.com/constitution).

Leia também: