Pesquisadores do MIT criam biblioteca com riscos associados à IA
Por André Lourenti Magalhães |

Um grupo de pesquisadores do Instituto de Tecnologia de Massachusetts, EUA (MIT) criou um repositório para armazenar riscos associados a modelos de IA. O AI Risk Repository, como é chamado, analisa mais de 700 ameaças encontradas em 43 frameworks diferentes, incluindo possíveis problemas de privacidade, segurança e desinformação.
- Clique e siga o Canaltech no WhatsApp
- Sites que criam nudes falsos com IA são processados nos EUA
- ChatGPT | OpenAI revela riscos e respostas inesperadas do GPT-4o
Um dos objetivos do banco de dados é facilitar o trabalho de agentes reguladores que analisam possíveis riscos associados à tecnologia — cada artigo científico pode avaliar a segurança dos modelos individualmente, mas uma plataforma unificada com vários registros pode agilizar buscas e acelerar resultados.
Alguns dados dos pesquisadores, publicados pelo site TechCrunch, chamam a atenção sobre como as empresas de IA abordam os riscos em suas respectivas documentações: 70% dos frameworks analisados mencionam implicações de segurança e privacidade, enquanto 44% falam sobre desinformações. Por outro lado, somente 12% dos relatórios analisados falam sobre a possibilidade de gerar spams criados por IA e “poluir o ecossistema de informação”.
Riscos detalhados
O repositório pode ser exportado como uma planilha do Google Planilhas e contém todos os documentos analisados pelos pesquisadores do MIT. O arquivo divide os riscos entre categorias, níveis de ameaça e possíveis causas: é possível identificar se o problema é gerado pela IA ou pela ação humana, além de descobrir se o erro é intencional ou não.
As colunas finais dividem os problemas em 7 grandes categorias e 23 subcategorias, incluindo temas como desinformação, impacto socioeconômico ou ambiental e discriminação ou toxicidade.
O acervo pode ser acessado por qualquer pessoa em https://airisk.mit.edu/ e traz informações importantes para quem estuda os mecanismos de segurança no desenvolvimento de IA. Por outro lado, os pesquisadores reforçam que a base de dados não apresenta todas as ameaças possíveis: outros riscos que ainda não foram publicados ou que estão relacionados a domínios específicos não aparecem por lá.
É importante reforçar que os problemas associados à IA não envolvem apenas respostas erradas e desinformação — também existe uma preocupação crescente sobre como a tecnologia pode afetar a sociedade como um todo, com influência em governos e na expansão de desigualgades, além de ameaças de segurança, e chamam a atenção de empresas do setor. Criadora do ChatGPT, a OpenAI já chegou até a criar uma equipe para evitar um apocalipse causado por IA, mas dissolveu a unidade no primeiro semestre deste ano.
Fonte: TechCrunch