Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

Empresa apoiada pelo Google lança rival "politicamente correto" do ChatGPT

Por| Editado por Douglas Ciriaco | 15 de Março de 2023 às 10h44

Link copiado!

Alveni Lisboa/Canaltech
Alveni Lisboa/Canaltech
Tudo sobre Alphabet

A Anthropic, empresa de inteligência artificial apoiada pela Alphabet (dona do Google), lançou na terça-feira (14) um modelo de linguagem para competir com o ChatGPT. O Claude, como foi chamado, consegue executar tarefas de modo semelhante ao rival da OpenAI, com a possibilidade de escrever textos, revisar informações, automatizar fluxos de trabalho e tirar dúvidas dos usuários.

O Claude não surgiu por acaso, já que os cofundadores da Anthropic são ex-executivos da OpenAI. Dario e Daniela Amode decidiram criar um sistema de inteligência artificial menos propenso a gerar conteúdo nocivo ou perigoso, como malwares para computador, criação de armas caseiras ou confecção de drogas.

O robô foi projetado com uma abordagem diferente: princípios foram estabelecidos ainda na fase de treinamento do modelo, com o uso de textos alinhados à essas normas. Em vez de apenas evitar tópicos perigosos ou cuspir informações desconexas, Claude tenta explicar porque não responde a determinado comando com base nas suas regras.

Continua após a publicidade

Segundo matéria da agência Reuters, esse modelo parece ser mais amigável para empresários e empresas de soluções de IA. Os executivos ouvidos pela reportagem disseram que esta é uma tecnologia "menos assustadora", embora possa parecer mais limitada do ponto de vista de versatilidade.

IAs generalistas são necessárias?

A questão é que um aplicativo de edição de textos jurídicos não precisa de um robô capaz de programar um vírus. Soluções como o Claude poderiam ser mais baratas e viáveis para companhias com necessidades específicas, sem que a IA precise aparentar ser "sabichona" o tempo inteiro.

Continua após a publicidade

As preocupações com limites e segurança de IAs não chegam a ser novas — o Google engavetou um modelo em 2018 por incompatibilidade com as regras —, mas ganharam destaque após condutas indesejadas das tecnologias. O "novo Bing" da Microsoft, por exemplo, começou a produzir respostas completamente desconexas ou ríspidas após longas seções.

O próprio ChatGPT já foi flagrado espalhando fake news, desinformação ou erros. Isso também ocorreu com a tecnologia Bard, do Google, que cometeu um deslize logo na sua apresentação ao mundo.

Como usar o Claude?

Continua após a publicidade

O Claude já está disponível para empresas interessadas em usá-lo profissionalmente em um modelo de assinatura. O Claude-v1 é otimizado para desempenho superior em tarefas que requerem um raciocínio complexo, oferecendo a melhor solução da Anthropic por preços que variam entre US$ 2,90 e US$8,60 a cada milhão de caracteres produzidos.

Há também um modelo mais simples, chamado Claude Instant, otimizado para baixa latência e casos de uso de alto rendimento. Ele é mais barato porque possui limitação de uso, mas entrega resultados similares. Custa US$0,43 (prompt) ou US$ $1,45 (Output) a cada milhão de caracteres produzidos.

Ainda não há uma versão aberta para teste dos usuários. Os interessados precisam se inscrever em uma lista de espera, explicar porque desejam experimentar a tecnologia e aguardar a liberação da Anthropic.

Continua após a publicidade

O que são modelos de linguagem?

Modelos de linguagem são construídos a partir de algoritmos avançados capazes de gerar texto de maneira humanizada. Os pesquisadores fazem tantas inserções de conteúdos criados por pessoas de verdade que a máquina consegue identificar e replicar padrões com boa dose de fidelidade. Quanto mais treinamento esses modelos recebem, mais aprimoradas são as respostas.

O ChatGPT usa o modelo GPT-3.5 ou GPT-4, lançado recentemente pela companhia, assim como o Bing. Já a solução da Anthropic usa um sistema próprio de produção de conteúdo, chamado Constitutional AI, o que chama a atenção por diferir do mercado.

Os criadores de chatbots tem lutado para criar programações que impeçam a disseminação de conteúdos nocivos ou de erros em respostas. Há também certa dificuldade para lidar com o racismo, xenofobia e outras práticas, já que as máquinas acabam absorvendo isso dos próprios usuários.

Continua após a publicidade

Fonte: Reuters