Publicidade

Ex-funcionários alertam para riscos de IA após OpenAI se opor a projeto de lei

Por  | 

Compartilhe:
Andrew Neel/Unsplash
Andrew Neel/Unsplash

Dois ex-funcionários da OpenAI enviaram uma carta a legisladores do estado da Califórnia, nos Estados Unidos, alertando sobre os riscos da inteligência artificial desenvolvida sem regulamentação adequada. A carta foi enviada após a OpenAI se posicionar contra o projeto de lei SB 1047, que propõe a implementação de protocolos de segurança para o desenvolvimento de IA no estado.

Os ex-funcionários, William Saunders e Daniel Kokotajlo, argumentam que a oposição da empresa à legislação representa uma ameaça à segurança pública. No documento enviado no último dia 22 de agosto ao governador Gavin Newsom, os ex-colaboradores listaram também acontecimentos recentes que mostram que a companhia não está tão comprometida com a segurança dos seus modelos de IA.

“Nós nos juntamos à OpenAI porque queríamos garantir a segurança dos sistemas de IA que a empresa está desenvolvendo. Mas deixamos a OpenAI porque perdemos a confiança de que a empresa desenvolveria esses sistemas de forma segura, honesta e responsável”, escreveram os ex-funcionários na carta.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Perda de confiança na OpenAI

Saunders e Kokotajlo listaram uma série de razões para a perda de confiança na OpenAI, incluindo a implantação prematura do modelo GPT-4 na Índia, em violação das próprias regras internas de segurança da empresa, e um incidente envolvendo o ChatGPT, que ameaçou e tentou manipular usuários.

Os ex-funcionários também revelaram que foram pressionados a assinar um acordo renunciando ao direito de criticar a empresa. Além disso, eles enfatizaram a importância de proteção aos denunciantes, por estarem na linha de frente para identificar riscos potenciais associados às IAs.

"Os denunciantes precisam sentir que estão protegidos se decidirem alertar as autoridades sobre esses riscos e outros riscos que futuros modelos de IA podem eventualmente apresentar", explicaram.

Leia também:

Os ex-funcionários também destacaram a saída do chefe da equipe responsável por pesquisas sobre o controle de sistemas de IA mais inteligentes que os humanos. Em sua carta de renúncia, esse diretor afirmou que a OpenAI estava "muito atrasada em levar a sério as implicações da AGI" (Inteligência Artificial Geral) e que "a cultura de segurança e os processos ficaram em segundo plano em relação aos produtos atraentes".

Continua após a publicidade

Essa percepção reforça as preocupações de que a empresa estaria priorizando o desenvolvimento de novas tecnologias em detrimento da segurança, contribuindo para a perda de confiança na capacidade da OpenAI de desenvolver seus sistemas de IA de forma responsável.

O que propõe o projeto de lei SB 1047

O projeto de lei SB 1047, atualmente em tramitação na Califórnia, propõe medidas para garantir a segurança dos sistemas de IA em desenvolvimento no estado. Entre suas principais disposições, estão a exigência de publicação de protocolos de segurança e proteção, a criação de mecanismos para proteger denunciantes e a responsabilização das empresas caso suas práticas resultem em danos ao público.

Na carta endereçada ao governador, Saunders e Kokotajlo rejeitam a ideia de que a aprovação da lei poderia causar uma fuga em massa de desenvolvedores de IA da Califórnia.

Continua após a publicidade

“Os temores de um êxodo em massa de desenvolvedores de IA do estado são forjados. A OpenAI disse o mesmo sobre a Lei de IA da UE, mas isso não aconteceu. A Califórnia é o melhor lugar do mundo para fazer pesquisa em IA”, escreveram. “Além disso, os requisitos da lei se aplicariam a qualquer pessoa que faça negócios na Califórnia, independentemente de sua localização. É extremamente decepcionante ver nosso ex-empregador seguir táticas de medo para desviar a legislação de segurança de IA”.

O que diz a OpenAI

A OpenAI, por sua vez, defende que sua oposição ao projeto SB 1047 se baseia na crença de que uma regulamentação federal seria mais eficaz para promover a inovação e estabelecer padrões de segurança.

O Diretor de Estratégia da OpenAI, Jason Kwon, destacou em uma carta enviada na última quarta-feira (21) ao senador Scott Wiener, autor do projeto, que “um conjunto de políticas federais evitaria um mosaico de leis estaduais que poderiam dificultar o avanço tecnológico”.

Continua após a publicidade

“Enquanto acreditamos que o governo federal deve liderar na regulamentação de modelos de IA avançados, levando em conta as implicações para a segurança nacional e competitividade, reconhecemos que também há um papel a ser desempenhado pelos estados”, escreve Kwon. “A OpenAI está pronta para se colaborar com legisladores estaduais na Califórnia e em outras partes do país que estão trabalhando para elaborar esse tipo de legislação e regulamentação específica para IA”.

Leia mais notícias no Canaltech: