Facebook usa inteligência artificial para controlar conteúdo impróprio

Facebook usa inteligência artificial para controlar conteúdo impróprio

Rede social pode, sobretudo, decifrar melhor o sentido de imagens que contêm uma mensagem de ódio ou discriminação

AFP

Facebook reduziu nos últimos meses a difusão de conteúdos violentos, sexuais e de ódio

publicidade

O Facebook reduziu nos últimos meses a difusão de conteúdos violentos, sexuais e de ódio graças ao uso de um programa baseado em inteligência artificial capaz de estabelecer conexões entre mensagens, imagens e comentários. Até então, o sistema de detecção da rede social só permitia a análise de um conteúdo de cada vez, não sendo possível cruzar os sinais de uma foto e de uma mensagem, por exemplo.

Com o novo algoritmo, que começou a ser utilizado em 2020, o Facebook agora pode ter "uma visão geral", explicou Mike Schroepfer, responsável técnico da plataforma, em uma videoconferência nesta quarta-feira. A rede social pode, sobretudo, decifrar melhor o sentido de "memes", desenhos e imagens em geral com finalidade humorística, que muitas vezes contêm uma mensagem de ódio ou discriminação compreensível apenas por meio da associação do texto à imagem. 

"É preciso entender todo o contexto" para analisar e eventualmente descartar uma publicação, ressaltou Schroepfer, que disse ainda que o software é capaz de cruzar conteúdos em vários idiomas. Além disso, a ferramenta evita a remoção de algumas postagens que anteriormente acionariam um alerta por conta de uma palavra ou imagem interpretada de forma muito literal.

O Facebook atribui em parte a esse sistema a queda na disseminação de conteúdo impróprio em seu site. Os indicadores trimestrais divulgados nesta quarta se referem ao número de vezes que esse conteúdo é visualizado, e não sua quantidade. 

No primeiro trimestre deste ano, entre 0,05% e 0,06% dos conteúdos vistos pelos usuários da plataforma foram considerados discurso de ódio, contra 0,07% a 0,08% no quarto trimestre de 2020 e 0,10% a 0,11% no terceiro trimestre do mesmo ano.

A rede social também interveio em 34,3 milhões de publicações violentas ou chocantes, em comparação com 15,9 milhões no quarto trimestre de 2020. O Facebook tem sido regularmente acusado de não fazer o suficiente para moderar o conteúdo que circula no site.

Desde maio de 2018, a empresa publica indicadores trimestrais que ilustram sua política de controle de conteúdos odiosos, violentos, sexuais, de "propaganda terrorista" e oriundos de contas falsas.


publicidade

publicidade

Correio do Povo
DESDE 1º DE OUTUBRO 1895