OpenAI dissolve equipe que monitorava IAs para evitar o apocalipse
Por Guilherme Haas • Editado por Douglas Ciriaco |
A OpenAI revelou que dissolveu a equipe que tinha como objetivo monitorar e controlar futuros sistemas de IA que poderiam ficar mais inteligentes do que as pessoas e, na pior das hipóteses, levar à extinção humana. O time foi criado em julho do ano passado para garantir que a evolução da inteligência artificial fosse benéfica para a humanidade e não provocasse um apocalipse.
- OpenAI | Tudo sobre a criadora do polêmico ChatGPT
- O que sabemos sobre o Q*, a possível super IA da OpenAI
Nesta semana, os dois líderes do grupo anunciaram a saída da companhia: o cofundador e cientista-chefe da OpenAI, Ilya Sutskever, e o diretor da equipe de controle, Jan Leike.
Tensão interna na OpenAI
Em vez de manter a chamada “equipe de superalinhamento” como uma entidade autônoma, a OpenAI informou à Bloomberg que vai integrar o restante do time nos seus trabalhos de pesquisa para atingir os objetivos de segurança.
Porém, uma sequência de publicações de Jan Leike na plataforma X (o antigo Twitter), nesta sexta-feira (17), revela um clima de tensão interna e desentendimentos entre o trabalho do time de controle e as iniciativas da companhia.
“Há algum tempo que discordo da liderança da OpenAI sobre as principais prioridades da empresa, até que finalmente chegamos a um ponto de ruptura”, escreveu Leike na rede social.
O agora ex-diretor de equipe diz que é necessária maior preparação para as próximas gerações de modelos de IA, especialmente em tópicos relacionados à segurança, monitoramento, confidencialidade e impacto social — mas os rumos internos vão na direção oposta.
“Nos últimos anos, a cultura e os processos de segurança ficaram em segundo plano em relação aos produtos brilhantes. Nos últimos meses, minha equipe navegou contra a maré”, acrescentou o executivo em seu desabafo.
Segundo Leike, “construir máquinas mais inteligentes que as humanas é uma tarefa inerentemente perigosa, e a OpenAI assume uma enorme responsabilidade em nome de toda a humanidade”.
No final da sequência de tuítes, o ex-diretor pede ao grupo de funcionários da OpenAI para agir com seriedade e conduzir a empresa à mudança cultural necessária. “Estou contando com vocês”, escreve Jan Leike.
A saída de Ilya Sutskever
Além da saída turbulenta de Leike nesta sexta-feira, a semana teve ainda a partida de Ilya Sutskever na quarta-feira (15). Além de ser um dos líderes da “equipe de superalinhamento”, Sutskever foi também um dos fundadores da OpenAI.
Em uma publicação na rede social X, o cofundador informou que tomou a decisão de deixar a companhia para focar em um projeto de “muito significado pessoal”, sem dar mais detalhes sobre o novo trabalho.
Sutskever também ficou conhecido pelo envolvimento na breve demissão do CEO da companhia, Sam Altman, em novembro do ano passado. Após funcionários da empresa ameaçarem pedir demissão se Altman não fosse reintegrado, Sutskever assinou uma carta em que afirmava ter se arrependido da ação, enquanto o CEO voltou ao cargo cinco dias após o imbróglio.
A dissolução do time de “superalinhamento” e controle dos sistemas de IA chega dias após a OpenAI revelar o modelo GPT-4o, com novos avanços em capacidade multimodal de processamento de informações e consultas à internet em tempo real para alimentar o ChatGPT.
Fonte: Bloomberg