Publicidade

Bard é inútil e perigoso, criticam funcionários do Google

Por  • Editado por Douglas Ciriaco | 

Compartilhe:
Mitchell Luo/Unsplash
Mitchell Luo/Unsplash
Tudo sobre Google

A corrida para alcançar os avanços em inteligência artificial obtidos no mercado pelo ChatGPT está levando o Google a deixar os princípios éticos de lado. É o que revela uma reportagem da Bloomberg ao consultar funcionários da empresa, entre colaboradores ativos e desligados.

De acordo com a reportagem, as equipes responsáveis pela aplicação de princípios éticos em tecnologia de IA estão desmotivadas e sem apoio, enquanto críticas ao lançamento conturbado do Bard — a resposta do Google para rivalizar com a ferramenta da OpenAI — se avolumam dentro da companhia.

O alerta vermelho do Google

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Segundo os relatos obtidos pela Bloomberg, o Google estava sendo cauteloso em integrar uma IA generativa aos seus produtos e mecanismo de busca, mas tudo mudou em dezembro, após o lançamento do ChatGPT, quando líderes da empresa acionaram um “alerta vermelho” e aceleraram o desenvolvimento do Bard.

A líder de governança em IA, Jen Gennai, convocou então uma reunião do grupo de inovação encarregado de defender os princípios de inteligência artificial da empresa e sugeriu que algumas concessões seriam necessárias para acelerar o ritmo de lançamento de produtos.

A empresa definiu uma métrica para determinar a prontidão de seus produtos para o lançamento ao público. Em alguns tópicos mais sensíveis, como biometria e segurança infantil, os engenheiros ainda precisam alcançar a pontuação máxima de perfeição, mas em outras categorias o nivelamento foi reduzido.

De acordo com os funcionários entrevistados pela Bloomberg, os líderes do Google decidiram que enquanto os novos produtos fossem classificados como "experimentos", os usuários perdoariam seus erros e defeitos. Assim, o Bard foi priorizado a toque de caixa.

O lançamento problemático do Bard

Isso não impediu a crítica de colaboradores a respeito do Bard. Em fevereiro, um funcionário publicou uma mensagem em um grupo interno dizendo que “o Bard é mais do que inútil, por favor não o lancem”. A nota foi visualizada por mais de 7 mil pessoas — e muitas delas concordaram que as respostas da IA eram contraditórias ou inverídicas.

Outros relatos coletados pela Bloomberg revelam que funcionários chamaram o Bard de um “mentiroso patológico” e com um potencial de gerar respostas que colocam os usuários em perigo. Em março, Gannei rejeitou uma avaliação de risco enviada por membros de sua equipe dizendo que o Bard poderia provocar danos. Logo em seguida, a ferramenta chegou ao público como um “experimento limitado”, seguindo as diretrizes dos líderes da companhia.

Continua após a publicidade

“A ética em IA ficou em segundo plano”, disse a presidente do Signal Foundation e ex-gerente no Google, Meredith Whittaker, à reportagem. “Se a ética não tiver precedência em relação a crescimento e lucro, ela não vai funcionar”. Já porta-voz do Google Brian Gabriel informou que a empresa “continua investindo nos times que trabalham para aplicar nossos princípios de IA em nossa tecnologia.”

Frente as iniciativas concorrentes em IA e o lançamento problemático do Bard, o Google anunciou recentemente uma revisão completa das novas ferramentas com inteligência artificial. No começo de abril, o CEO Sundar Pichai contou ao podcast do The New York Times que a companhia trabalha “com ousadia e responsabilidade” no que se refere à IA: “Acho importante que todos nós sejamos responsáveis com ela.”

Fonte: Bloomberg