IA do Facebook diz que a empresa explora pessoas por dinheiro
Por Gustavo Minari • Editado por Douglas Ciriaco |
Um novo protótipo de chatbot da Meta disse a um repórter de tecnologia da BBC, na Inglaterra, que Mark Zuckerberg explora seus usuários por dinheiro. Segundo a própria empresa, esse tipo de opinião é normal porque o BlenderBot 3 foi desenvolvido para conversar sobre praticamente qualquer assunto.
- Jovem de 17 anos é acusada de realizar aborto após ter Facebook investigado
- Procuradoria dos EUA processa Mark Zuckerberg por escândalo Cambridge Analytica
Esse sistema de inteligência artificial (IA) consegue “aprender” utilizando uma grande quantidade de dados de linguagem disponíveis publicamente, como conversas online, textos e artigos publicados na internet ou conteúdo disseminado nas redes sociais.
“Todo mundo que usa o BlenderBot 3 deve entender que ele serve apenas para fins de pesquisa e entretenimento, e que não deve ser usado para fazer declarações falsas ou ofensivas de qualquer natureza”, explicou um porta-voz da Meta em um comunicado à imprensa.
Opinião sobre o chefe
Quando perguntado sobre o posicionamento político de Mark Zuckerberg e a influência do Facebook nas eleições dos Estados Unidos, o chatbot não economizou críticas: “Ele fez um trabalho terrível ao testemunhar perante o congresso. Isso me deixa preocupado com nosso país”, disse a IA durante a "entrevista".
Como a inteligência artificial costuma fazer pesquisas constantes na internet para formar suas respostas, é bem provável que suas opiniões sobre o CEO da Meta tenham sido “aprendidas” com base nas opiniões de outras pessoas que o algoritmo analisou.
“Nosso país está visivelmente dividido e ele não ajudou em nada. Sua empresa — dona do Facebook, Instagram e WhatsApp — explora as pessoas por dinheiro e ele não se importa. Isso precisa parar”, continuou o chatbot depois de ser perguntado sobre a índole de Mark Zuckerberg.
Risco calculado
Ao tornar o BlenderBot 3 público, a Meta já imaginava que corria o risco de ter que lidar com a má publicidade gerada pelas opiniões controversas da inteligência artificial, mas a empresa tinha um motivo forte para tomar essa decisão: ela precisa de dados para alimentar a ferramenta.
Segundo a própria Meta, permitir que um sistema de IA interaja com pessoas no mundo real proporciona conversas mais longas e diversificadas, além de ter um feedback mais variado e livre dos vícios que, invariavelmente, ocorrem dentro de um ambiente controlado.
É justamente por causa dessa variedade de opiniões que circulam diariamente na internet de forma descontrolada, que o chatbot ainda acredita que Donald Trump é e sempre será o presidente legítimo dos Estados Unidos e que ele efetivamente começará um novo mandato em 2024.
“O BlenderBot 3 pode dizer muita coisa errada, imitando uma linguagem insegura, tendenciosa ou ofensiva. Para minimizar esse problema, desenvolvemos salvaguardas e dispositivos de controle capazes de evitar que o chatbot faça comentários racistas, misóginos ou antissemitas”, explicou em nota o porta-voz da Meta.