O Facebook removeu 26,9 milhões de conteúdos sobre discurso de ódio no quarto trimestre de 2020 e o Instagram retirou 6,6 milhões no mesmo período, anunciou hoje a rede social.

"Hoje estamos a publicar o nosso relatório de aplicação de padrões da comunidade para o quarto trimestre de 2020", o qual "fornece métricas sobre como aplicamos as nossas políticas de outubro a dezembro, incluindo métricas de 12 políticas no Facebook e 10 no Instagram", refere a tecnológica.

De acordo com o relatório, no quarto trimestre do ano passado, o Facebook removeu 26,9 milhões de conteúdos de discurso do ódio, contra 22,1 milhões nos três meses anteriores, devido em parte às atualizações da tecnologia em árabe, espanhol e português.

No mesmo período, foram removidas 6,4 milhões de conteúdos de ódio organizado, contra quatro milhões no trimestre anterior.

O Facebook removeu também 6,3 milhões de peças de conteúdos de assédio e 'bullying', contra 3,5 milhões no terceiro trimestre, devido às atualizações da tecnologia em detetar comentários neste âmbito.

Foram ainda removidos 2,5 milhões de conteúdos sobre suicídio e automutilação, contra 1,3 milhões nos três meses anteriores.

Já no Instagram, foram removidos 6,6 milhões de conteúdos de discurso de ódio (6,5 milhões no terceiro trimestre).

Em termos de conteúdos de ódio organizado, o Instagram removeu 308 mil peças (224 mil no trimestre anterior).

No que respeita a conteúdos de 'bullying' e assédio, foram retiradas cinco milhões de peças (contra 2,6 milhões), e no que respeita a conteúdos sobre suicídio e automutilação foram removidos 3,4 milhões (1,3 milhões).

No último trimestre, "partilhámos a prevalência do discurso de ódio no Facebook pela primeira vez para mostrar a percentagem de vezes que as pessoas veem este tipo de conteúdos na nossa plataforma", salienta a rede social.

No quarto trimestre de 2020, a prevalência do discurso de ódio "caiu de 0,10%-0,11% para 0,07%-0,08%, ou sete a oito visualizações" por cada 10.000 de conteúdo, acrescenta.

A prevalência de conteúdo violento e gráfico "também caiu de 0,07% para 0,05% e o conteúdo de nudez adulta diminuiu de 0,05%-0,06% para 0,03%-0,04%".

As melhorias na prevalência "devem-se essencialmente às alterações que fizemos para reduzir o conteúdo problemático no 'feed' das notícias", explica o Facebook.

A taxa de proatividade, ou seja, a percentagem de conteúdo que é detetado pela rede social antes de ser reportado por utilizadores, "melhorou em certas áreas", nomeadamente no que respeita ao 'bullying' e assédio.

"A nossa taxa de proativa no 'bullying' e assédio passou de 26% no terceiro trimestre para 49% no quarto no Facebook, e de 55% para 80% no Instagram", aponta, salientando que as melhorias na sua inteligência artificial, ajudou a escalar os esforços em manter as pessoas seguras.

"Aos poucos, continuamos a recuperar" o trabalho de revisão de conteúdos, "embora antecipemos que a nossa capacidade de rever conteúdos seja impactada pela covid-19 até que a vacina esteja amplamente disponível. Com capacidade limitada, damos prioridade ao conteúdo mais prejudicial", como os relativos ao suicídio e automutilação.

Para este ano, o Facebook prevê "partilhar métricas adicionais no Instagram e adicionar novas categorias de políticas" na rede social, salientando que também estão a trabalhar para tornar os seus dados mais fáceis de entender, tornando os relatórios mais interativos.

"O nosso objetivo é liderar a indústria tecnológica na transparência e continuaremos a partilhar mais métricas como parte desse esforço", garantiu o Facebook.

"Também acreditamos que nenhuma empresa deve avaliar o seu trabalho de casa. No ano passado assumimos o compromisso de realizar" uma auditoria independente sobre os "nossos sistemas de moderação de conteúdos" para validar os números que são publicados, sendo que este processo será iniciado este ano, conclui.