Sistema do Facebook para remover discurso de ódio não funciona, diz jornal

Nos últimos anos, o Facebook repetiu o discurso de que seus sistemas de inteligência artificial (IA) ajudaram a reduzir drasticamente o volume de discurso de ódio visualizado por seus usuários. Uma nova reportagem publicada pelo jornal The Wall Street Journal publicada no domingo, 17, porém, mostra que, em documentos internos, os próprios funcionários da empresa duvidam da efetividade do sistema.

Imagem: Facebook/Divulgação

O jornal tem feito uma série de reportagens, baseados em documentos vazados, que indicam as falhas graves da empresa. Até aqui, já havia sido revelado o aumento do alcance de publicações de ódio, a permissão para a circulação de conteúdos sobre tráfico humano e de drogas, o tratamento diferenciado para celebridades e políticos e nível inferior de moderação em países fora dos Estados Unidos.

Os documentos também mostraram detalhes sobre o impacto do Instagram na saúde mental de crianças e adolescentes: os estudos mostram que 1 em cada 3 meninas que se sentiam mal com o próprio corpo ficavam ainda pior ao acessar o Instagram. Tudo isso levou a delatora Frances Haugen a uma audiência no Senado dos EUA, onde ela disse que a empresa priorizou o crescimento em sacrifício da segurança.

Neste domingo, o WSJ diz que, em março deste ano, um pesquisador do Facebook fez um alerta de que os sistemas de IA conseguiam remover de 3% a 5% de conteúdo de ódio que poderia ser visualizado pelos usuários e apenas 0,6% de todo conteúdo que viola as regras da rede social. Um outro pesquisador, cujas estimativas eram ainda mais baixas (2%), afirma que se o Facebook não mudar de estratégia, a IA teria índice de sucesso de no máximo 20% do no médio prazo.

A reportagem afirma também que, há dois anos, o Facebook reduziu o trabalho de moderadores humanos em reclamações referentes a discurso de ódio – além disso, a empresa teria feita outras mudanças que teriam reduzido o número geral de reclamações. Isso teria aumentado a dependência do Facebook nos seus sistemas de IA e inflado a aparente taxa de sucesso do sistema.

Os sistemas de IA também teria falhas para detectar vídeos em primeira pessoa de pessoas atirando em outras, falas racistas e ameaças transfóbicas. O sistema também teria sido incapaz de distinguir uma rinha de galo e acidentes de carros.

Facebook responde
Guy Rosen, vice-presidente de integridade do Facebook, respondeu à reportagem em um post no blog da companhia. Ele disse que a prevalência de discurso de ódio caiu 50% nos últimos três anos e que é falsa a narrativa de que a tecnologia de remoção é inadequada. “Não queremos ver discurso de ódio em nossa plataforma, nem os nossos anunciantes, e somos transparentes sobre o nosso trabalho para removê-lo. O que esses documentos demonstram é que nosso trabalho de integridade é uma jornada de muitos anos”, escreveu.
Ele disse também que a cada 10 mil conteúdos de conteúdo no Facebook, apenas cinco são de discurso de ódio.

O Facebook diz que, desde 2016, o Facebook gastou US$ 13 bilhões em segurança e privacidade.

A nova reportagem, porém, abala um dos pilares do discurso da empresa nos últimos anos. Em 2018, na esteira do escândalo de violação de dados da Cambridge Analytica, Mark Zuckerberg repetiu diversas vezes a sua confiança e esforço para que, num prazo de 10 anos, os sistemas de IA da empresa removeriam a maior parte do conteúdo que viola as regras da plataforma.

 

Agência Estadão

COMPARTILHAR:

Participe do grupo e receba as principais notícias de Campinas e região na palma da sua mão.

Ao entrar você está ciente e de acordo com os termos de uso e privacidade do WhatsApp.

NOTÍCIAS RELACIONADAS