Publicidade

Twitter vai estudar seus próprios algoritmos para descobrir se eles são nocivos

Por  • Editado por Claudio Yuge | 

Compartilhe:
Reprodução/Ravi Sharma (Unsplash)
Reprodução/Ravi Sharma (Unsplash)
Tudo sobre Twitter

Não é de hoje que o Twitter vem sendo amplamente criticado por conta de seus algoritmos supostamente tóxicos — em um dos episódios mais emblemáticos, o sistema de recorte de fotos da plataforma foi chamado de racista por priorizar pessoas de pele branca caso elas aparecessem junto com indivíduos de pele negra. Por conta dessas e outras alegações, a companhia anunciou, nesta quinta-feira, a Iniciativa Responsável de Machine Learning (que, para facilitar, vamos referenciar aqui como IRML).

A ideia é simples: reunir cientistas de dados e engenheiros da companhia para que eles possam, em conjunto, estudar os algoritmos de inteligência artificial do serviço e descobrir se eles realmente são “nocivos de forma não-intencional”, publicando suas descobertas para todos os internautas. Isso inclui a já citada preferência do sistema por pessoas de pele clara e recomendações inapropriadas de publicações prejudiciais, especialmente aquelas que podem causar disputas políticas.

“Quando o Twitter usa machine learning, ele pode impactar centenas de milhões de tweets por dia e, às vezes, a maneira como um sistema foi projetado para ajudar pode começar a se comportar de maneira diferente do que se pretendia. Essas mudanças sutis podem estar começando a impactar as pessoas que usam o Twitter e queremos ter certeza de que estamos estudando essas mudanças e usando-as para construir um produto melhor”, explicou a companhia.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

A plataforma ressalta que as pesquisas não serão inúteis — elas guiarão a rede social a ajustar seus algoritmos e melhorar sua aprendizagem de máquina, removendo eventuais algoritmos perigosos e até mesmo dando mais controle aos usuários sobre quais sistemas automatizados eles querem usar. “Os resultados desse trabalho nem sempre se traduzem em mudanças visíveis no produto, mas levam a uma maior conscientização e discussões importantes sobre a maneira como construímos e aplicamos o machine learning”, finaliza.

Fonte: Twitter