Publicidade

Pesquisadores do MIT criam biblioteca com riscos associados à IA

Por  | 

Compartilhe:
Pexels/Tara Winstead
Pexels/Tara Winstead

Um grupo de pesquisadores do Instituto de Tecnologia de Massachusetts, EUA (MIT) criou um repositório para armazenar riscos associados a modelos de IA. O AI Risk Repository, como é chamado, analisa mais de 700 ameaças encontradas em 43 frameworks diferentes, incluindo possíveis problemas de privacidade, segurança e desinformação. 

Um dos objetivos do banco de dados é facilitar o trabalho de agentes reguladores que analisam possíveis riscos associados à tecnologia — cada artigo científico pode avaliar a segurança dos modelos individualmente, mas uma plataforma unificada com vários registros pode agilizar buscas e acelerar resultados.

Alguns dados dos pesquisadores, publicados pelo site TechCrunch, chamam a atenção sobre como as empresas de IA abordam os riscos em suas respectivas documentações: 70% dos frameworks analisados mencionam implicações de segurança e privacidade, enquanto 44% falam sobre desinformações. Por outro lado, somente 12% dos relatórios analisados falam sobre a possibilidade de gerar spams criados por IA e “poluir o ecossistema de informação”.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Riscos detalhados

O repositório pode ser exportado como uma planilha do Google Planilhas e contém todos os documentos analisados pelos pesquisadores do MIT. O arquivo divide os riscos entre categorias, níveis de ameaça e possíveis causas: é possível identificar se o problema é gerado pela IA ou pela ação humana, além de descobrir se o erro é intencional ou não.

As colunas finais dividem os problemas em 7 grandes categorias e 23 subcategorias, incluindo temas como desinformação, impacto socioeconômico ou ambiental e discriminação ou toxicidade.

O acervo pode ser acessado por qualquer pessoa em https://airisk.mit.edu/ e traz informações importantes para quem estuda os mecanismos de segurança no desenvolvimento de IA. Por outro lado, os pesquisadores reforçam que a base de dados não apresenta todas as ameaças possíveis: outros riscos que ainda não foram publicados ou que estão relacionados a domínios específicos não aparecem por lá. 

É importante reforçar que os problemas associados à IA não envolvem apenas respostas erradas e desinformação — também existe uma preocupação crescente sobre como a tecnologia pode afetar a sociedade como um todo, com influência em governos e na expansão de desigualgades, além de ameaças de segurança, e chamam a atenção de empresas do setor. Criadora do ChatGPT, a OpenAI já chegou até a criar uma equipe para evitar um apocalipse causado por IA, mas dissolveu a unidade no primeiro semestre deste ano.

Fonte: TechCrunch