Big Techs prometem "puxar a tomada" da IA se riscos forem grandes demais
Por Ricardo Syozi • Editado por Douglas Ciriaco |
Durante o evento AI Seoul Summit, que ocorreu na Coreia do Sul no mês de maio, Big Techs como OpenAI, Microsoft, Google, Meta e Amazon entraram em um acordo voluntário para tentar dar mais segurança no desenvolvimento a inteligência artificial. Isso inclui a existência de medidas de proteção para desligar os sistemas de IA se as empresas não conseguirem controlar os riscos mais extremos da tecnologia.
- O que é alucinação de IA?
- O que é singularidade tecnológica e o que isso tem a ver com IA
- IA do Google sugere cola na pizza, comer pedra e outras bizarrices
Ao que tudo indica, o objetivo do acordo seria garantir a segurança no desenvolvimento de modelos de IA, já que há a possibilidade de criminosos fazerem uso da tecnologia para aplicar golpes diversos. Sendo assim, companhias que trabalham com inteligência artificial assumiram o compromisso de divulgar protocolos e prometeram definir perigos “intoleráveis” que as obrigariam a “puxar a tomada” na inteligência artificial.
Além disso, o documento aponta a importância do trabalho conjunto. "Reconhecemos a importância da interoperabilidade entre os quadros de governação da IA, em linha com uma abordagem baseada no risco, para maximizar os benefícios e abordar a ampla gama de riscos da IA, para garantir a segurança, o desenvolvimento, a implantação e a utilização seguros e fiáveis de Al", diz o texto.
A conferência teve a presença de líderes de dez países e da União Europeia, além de vários representantes das empresas que trabalham com IA. Tanto o Primeiro Ministro do Reino Unido, Rishi Sunak, quanto o presidente da Coreia do Sul, Yoon Suk Yeol, afirmaram em um artigo conjunto que "o ritmo da mudança continuará a acelerar, por isso o nosso trabalho também deve acelerar".
Já um porta-voz do Reino Unido destacou que "os países envolvidos vão forjar um entendimento comum sobre a segurança da IA e alinhar o seu trabalho na investigação da inteligência artificial”.
Países já se mexem para regular a IA
Mesmo que a tecnologia de inteligência artificial possa ser bastante útil, ainda há a necessidade de criar uma forma de regulamento para ela. É o que acreditam regiões como o Brasil e a Europa.
Em 2023, uma comissão de juristas brasileiros se juntou para elaborar uma proposta para um projeto de lei para regulamentar a criação de IA no país, que ainda está em andamento. Já em maio deste ano, a União Europeia aprovou o texto com regras relacionadas à tecnologia, que foca em uma abordagem baseada em riscos e é considerada a primeira do tipo no mundo.