YouTube anuncia contratação de 10 mil funcionários para moderar conteúdo

Por Redação | 05 de Dezembro de 2017 às 13h06
Tudo sobre

YouTube

A CEO do YouTube revelou nesta terça-feira (05), em nota oficial, novas medida para proteger sua comunidade contra conteúdos que, de alguma forma, transmitam violência, extremismos e intolerância.

O longo post no blog oficial do Google conta que novos sistemas foram testados no último ano como forma de combater ameaças existentes, e que possam surgir, aumentando as equipes de fiscalização e focando em tecnologias de aprendizado de máquina (machine learning).

De acordo com Susan Wojcicki, as lições aprendidas com problemas passados finalmente estão prontas para serem colocadas em prática.

Participe do nosso GRUPO CANALTECH DE DESCONTOS do Whatsapp e do Facebook e garanta sempre o menor preço em suas compras de produtos de tecnologia.

Reforço na revisão de conteúdo

Para a Google, o julgamento humano é mais crítico na hora de tomar decisões sobre o conteúdo avaliado e, desde o mês de junho, equipes de segurança vêm revisando milhões de vídeos de forma manual para treinar a tecnologia de aprendizado de máquina. Assim, será mais fácil fazer que os robôs executem bem a função no futuro, sem depender de um ser humano.

Como já foi anunciado anteriormente, a companhia passou a tomar medidas mais agressivas na hora de moderar os comentários.

Ainda de acordo com a nota, centenas de contas e centenas de milhares de comentários foram retirados do ar, numa medida que também denunciou comportamentos predatórios aos órgãos responsáveis.

"Nós vamos manter o aumento significativo das nossas equipes no próximo ano, com o objetivo de elevar para mais de 10.000 o número de pessoas em toda a Google trabalhando para encontrar conteúdos que possam violar nossas políticas em 2018", conta Wojcicki.

Resultados

Desde junho de 2017 até a data presente, o YouTube conquistou um enorme progresso com o uso da tecnologia e de moderadores humanos trabalhando em conjunto com robôs.

Foram mais de 150 mil vídeos de conteúdo extremista violento retirados do ar, sendo 98% deles identificados com os algoritmos da tecnologia do aprendizado de máquina.

Os robôs estão ajudando moderadores humanos a retirarem cinco vezes mais vídeos do que era feito antes, sendo um volume equivalente aos esforços de 180 mil pessoas trabalhando por 40 horas semanais.

Nova abordagem de anúncio

A companhia também anunciou uma nova forma de abordagem de anúncios, pois muitas empresas acabaram tendo a sua marca veiculada em vídeos de conteúdo impróprio.

A CEO conta que serão aplicados critérios rígidos, com foco na curadoria manual, aumentando de forma relevante a equipe de revisores.

Fonte: Blog Google

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.