Twitter vai estudar seus próprios algoritmos para descobrir se eles são nocivos
Por Ramon de Souza • Editado por Claudio Yuge |
Não é de hoje que o Twitter vem sendo amplamente criticado por conta de seus algoritmos supostamente tóxicos — em um dos episódios mais emblemáticos, o sistema de recorte de fotos da plataforma foi chamado de racista por priorizar pessoas de pele branca caso elas aparecessem junto com indivíduos de pele negra. Por conta dessas e outras alegações, a companhia anunciou, nesta quinta-feira, a Iniciativa Responsável de Machine Learning (que, para facilitar, vamos referenciar aqui como IRML).
- CEO do Twitter pensa em criar uma "loja de algoritmos" para redes sociais
- Algoritmo de fotos do Twitter é racista e nem a rede social sabe o porquê
- Algoritmo racista: Twitter anuncia mudança na ferramenta de recorte de imagem
A ideia é simples: reunir cientistas de dados e engenheiros da companhia para que eles possam, em conjunto, estudar os algoritmos de inteligência artificial do serviço e descobrir se eles realmente são “nocivos de forma não-intencional”, publicando suas descobertas para todos os internautas. Isso inclui a já citada preferência do sistema por pessoas de pele clara e recomendações inapropriadas de publicações prejudiciais, especialmente aquelas que podem causar disputas políticas.
“Quando o Twitter usa machine learning, ele pode impactar centenas de milhões de tweets por dia e, às vezes, a maneira como um sistema foi projetado para ajudar pode começar a se comportar de maneira diferente do que se pretendia. Essas mudanças sutis podem estar começando a impactar as pessoas que usam o Twitter e queremos ter certeza de que estamos estudando essas mudanças e usando-as para construir um produto melhor”, explicou a companhia.
A plataforma ressalta que as pesquisas não serão inúteis — elas guiarão a rede social a ajustar seus algoritmos e melhorar sua aprendizagem de máquina, removendo eventuais algoritmos perigosos e até mesmo dando mais controle aos usuários sobre quais sistemas automatizados eles querem usar. “Os resultados desse trabalho nem sempre se traduzem em mudanças visíveis no produto, mas levam a uma maior conscientização e discussões importantes sobre a maneira como construímos e aplicamos o machine learning”, finaliza.
Fonte: Twitter