Meta pode retomar treinamento de IA com dados pessoais no Brasil, decide ANPD
Por Bruno De Blasi |
A Meta pode retomar o uso de dados pessoais para treinar modelos de inteligência artificial (IA) no Brasil, desde que com o consentimento do usuário. A liberação ocorre após a suspensão do veto imposto à empresa pela Autoridade Nacional de Proteção de Dados (ANPD), anunciada pela agência nesta sexta-feira (30).
IA da Meta já pode ser liberada no Brasil
Com a aprovação do plano de conformidade da Meta, a empresa pode liberar o seu chatbot no Brasil, desde que siga o acordo com a autoridade nacional. É o que explica o professor da FGV Direito Rio, Filipe Medon, em entrevista ao Canaltech.
“Vamos poder começar a usar essas ferramentas da Meta porque a empresa vai se comprometer, segundo esse acordo que fez com a ANPD, a cumprir algumas determinações”, conclui.
Essa liberação torna-se possível devido às definições acordadas com a agência, como a adoção de um procedimento mais simples para o usuário vetar o uso de seus dados pessoais para treinamento e a proibição preliminar do uso de informações de crianças e adolescentes.
“O que eu acho que é importante é que houve um acordo, principalmente para que os usuários consigam realizar esse direito de oposição com mais facilidade, porque antes era algo muito burocrático, e as pessoas não eram tão avisadas”, complementa.
Contudo, o professor destaca alguns pontos de atenção ao considerar os detalhes técnicos do plano de conformidade. Entre eles, a forma como a empresa vai garantir que as informações de jovens não sejam usadas para o treinamento dos modelos.
A DPO (Data Protection Officer) do escritório Viseu Advogados, Antonielle Freitas, também reforça a importância do acordo para garantir mais transparência e tratamento responsável de dados pessoais.
“Essa decisão é um exemplo claro de como a regulação pode equilibrar a inovação tecnológica com a proteção dos direitos dos cidadãos, promovendo uma cultura de transparência e responsabilidade no tratamento de dados pessoais”, afirmou à reportagem.
Já o sócio da área de Proteção de Dados e IA do Opice Blum Advogados, Henrique Fabretti, vê a decisão do conselho como um marco importante para viabilizar o desenvolvimento da tecnologia no Brasil.
“Esperamos que este entendimento prevaleça no decorrer deste processo de fiscalização, caso contrário, diversas organizações terão que rever suas práticas de uso de dados para esta finalidade”, ressaltou ao CT.
VÍDEO: Todo mundo ODEIA a Inteligência Artificial