Google, Microsoft e OpenAI criam fórum para discutir riscos da IA
Por Igor Almenara • Editado por Douglas Ciriaco | •

Quatro grandes companhias do mercado de inteligência artificial criaram um grupo de pesquisa para entender riscos e estabelecer boas práticas no desenvolvimento da tecnologia. A união chamada Frontier Model Forum é composta por Google, Microsoft, Anthropic e OpenAI e foi anunciada nesta quarta-feira (26).
- Projeto de lei quer regular uso de IA para "reviver" pessoas falecidas
- Células do cérebro humano podem ser cultivadas em chips de silício
De acordo com o anúncio do Google, o grupo "aproveitará a experiência técnica e operacional de suas empresas membros para beneficiar todo o ecossistema de IA". O fórum vai usar benchmarks técnicos avançados o desenvolvimento de uma biblioteca pública de soluções para ditar as melhores práticas para o setor.
O Frontier Model Forum anuncia ter quatro objetivos:
- Avançar na pesquisa sobre o desenvolvimento de inteligência artificial;
- Traçar boas práticas para desenvolvimento e lançamentos responsáveis de modelos avançados;
- Colaborar com autoridades, acadêmicos, sociedade civil e outras companhias sobre o conhecimento e os riscos de inteligência artificial;
- Apoiar esforços para desenvolver aplicações que podem suprir as principais demandas da sociedade.
Nos próximos meses, o fórum será responsável por estabelecer um Conselho Consultivo para guiar as próprias estratégias e prioridades e representar o contexto das companhias dentro. A partir disso, as empresas envolvidas vão estabelecer arranjos institucionais para atender as demandas do grupo de pesquisa.
Responsabilidade sobre IA
Os riscos do desenvolvimento de inteligências artificias avançadas são de preocupação de companhias, governos e até do Papa Francisco. O próprio Google, uma das maiores empresas envolvidas no setor, é cautelosa ao lançar ferramentas com a tecnologia, mesmo que isso a coloque para trás na disputa.
Em abril, o CEO do Google, Sundar Pichai, disse que a empresa seria ousada na construção de modelos avançados, mas teria responsabilidade. “Eu penso sobre IA há muito tempo, e definitivamente estamos trabalhando com uma tecnologia que será incrivelmente benéfica, mas que claramente tem o potencial de causar danos profundos. Portanto, acho importante que todos nós sejamos responsáveis com ela”, comentou.
O bilionário Elon Musk e um grupo de especialistas e empresários também manifestaram preocupações sobre a corrida desenfreada de IA. Além disso, recentemente, a ONU se reuniu pela primeira vez para discutir os perigos de IA.
Fórum será um "freio corporativo"
No que tange inteligência artificial, governos entendem que é importante estabelecer freios para minimizar os riscos dos projetos. O fórum tenta exercer o papel de intermediário entre as demandas públicas e a perspectiva corporativa, servindo, em suas próprias palavras, como um "veículo para discussões e ações interorganizacionais sobre segurança e responsabilidade de IA".