Facebook já usa inteligência artificial para prevenir suicídios entre usuários
Por Patricia Gnipper | 27 de Novembro de 2017 às 16h00
Entre as atividades das pessoas que atuam como moderadoras de conteúdo no Facebook, está a busca por ameaças de suicídio e comportamentos que possam levar a tal. Agora, a rede social está planejando contar com a inteligência artificial para detectar padrões comportamentais em usuários potencialmente suicidas, a fim de prevenir uma fatalidade.
Testes já estão sendo conduzidos nos Estados Unidos, com sucesso. O software com IA começou a rodar em março, quando a empresa decidiu analisar publicações no Facebook e comentários que poderiam indicar uma tentativa de suicídio próxima.
A companhia de Mark Zuckerberg não descreveu com detalhes como o software funciona, mas disse que o programa pesquisa por determinadas frases que podem dar dicas do comportamento suicida, incluindo em comentários, como, por exemplo, "você está bem?" e "como posso ajudar?".
Então, quando a IA identifica um potencial suicida, a equipe do Facebook é alertada para que lide com a situação, contando com as autoridades quando necessário. O sistema sugere para o usuário uma central de atendimento que possa auxiliá-lo, bem como pode alertar seus amigos e parentes.
De acordo com Guy Rosen, vice-presidente de produtos do Facebook, o sistema já começou a ser testado fora dos EUA no mês passado, sendo que sua equipe já acompanhou mais de 100 casos depois que a IA da rede social detectou intenções suicidas.
Agora, o Facebook começará a expandir esse novo sistema para novos países, esperando atingir todo o globo em breve. Ainda, a IA também será usada para detectar e prevenir outros problemas, como pedofilia, por exemplo, descobrindo interações entre crianças e adolescentes com adultos.
Fonte: Reuters