Bard é inútil e perigoso, criticam funcionários do Google
Por Guilherme Haas • Editado por Douglas Ciriaco |
A corrida para alcançar os avanços em inteligência artificial obtidos no mercado pelo ChatGPT está levando o Google a deixar os princípios éticos de lado. É o que revela uma reportagem da Bloomberg ao consultar funcionários da empresa, entre colaboradores ativos e desligados.
- ChatGPT e Bard podem facilitar a desinformação, revela estudo
- Funcionários do Google pedem suspensão do Bard; IA é treinada por humanos e erra
De acordo com a reportagem, as equipes responsáveis pela aplicação de princípios éticos em tecnologia de IA estão desmotivadas e sem apoio, enquanto críticas ao lançamento conturbado do Bard — a resposta do Google para rivalizar com a ferramenta da OpenAI — se avolumam dentro da companhia.
O alerta vermelho do Google
Segundo os relatos obtidos pela Bloomberg, o Google estava sendo cauteloso em integrar uma IA generativa aos seus produtos e mecanismo de busca, mas tudo mudou em dezembro, após o lançamento do ChatGPT, quando líderes da empresa acionaram um “alerta vermelho” e aceleraram o desenvolvimento do Bard.
A líder de governança em IA, Jen Gennai, convocou então uma reunião do grupo de inovação encarregado de defender os princípios de inteligência artificial da empresa e sugeriu que algumas concessões seriam necessárias para acelerar o ritmo de lançamento de produtos.
A empresa definiu uma métrica para determinar a prontidão de seus produtos para o lançamento ao público. Em alguns tópicos mais sensíveis, como biometria e segurança infantil, os engenheiros ainda precisam alcançar a pontuação máxima de perfeição, mas em outras categorias o nivelamento foi reduzido.
De acordo com os funcionários entrevistados pela Bloomberg, os líderes do Google decidiram que enquanto os novos produtos fossem classificados como "experimentos", os usuários perdoariam seus erros e defeitos. Assim, o Bard foi priorizado a toque de caixa.
O lançamento problemático do Bard
Isso não impediu a crítica de colaboradores a respeito do Bard. Em fevereiro, um funcionário publicou uma mensagem em um grupo interno dizendo que “o Bard é mais do que inútil, por favor não o lancem”. A nota foi visualizada por mais de 7 mil pessoas — e muitas delas concordaram que as respostas da IA eram contraditórias ou inverídicas.
Outros relatos coletados pela Bloomberg revelam que funcionários chamaram o Bard de um “mentiroso patológico” e com um potencial de gerar respostas que colocam os usuários em perigo. Em março, Gannei rejeitou uma avaliação de risco enviada por membros de sua equipe dizendo que o Bard poderia provocar danos. Logo em seguida, a ferramenta chegou ao público como um “experimento limitado”, seguindo as diretrizes dos líderes da companhia.
“A ética em IA ficou em segundo plano”, disse a presidente do Signal Foundation e ex-gerente no Google, Meredith Whittaker, à reportagem. “Se a ética não tiver precedência em relação a crescimento e lucro, ela não vai funcionar”. Já porta-voz do Google Brian Gabriel informou que a empresa “continua investindo nos times que trabalham para aplicar nossos princípios de IA em nossa tecnologia.”
Frente as iniciativas concorrentes em IA e o lançamento problemático do Bard, o Google anunciou recentemente uma revisão completa das novas ferramentas com inteligência artificial. No começo de abril, o CEO Sundar Pichai contou ao podcast do The New York Times que a companhia trabalha “com ousadia e responsabilidade” no que se refere à IA: “Acho importante que todos nós sejamos responsáveis com ela.”
Fonte: Bloomberg