Falando em um evento no AI Research Lab do Facebook em Paris na semana passada, LeCun disse que o Facebook estava a anos de distância do uso de AI para moderar vídeos ao vivo feitos em sua plataforma.
"Esse problema está muito longe de ser resolvido", disse LeCun, que recentemente recebeu o Prêmio Turing, conhecido como o Prêmio Nobel da computação, juntamente com outros astros de Inteligência Artificial.
A exibição de vídeos ao vivo é uma questão que deve ser tratada com muita atenção, uma vez que não há restrição para acessar a rede social e usar os seus serviços, qualquer pessoa mal intencionada pode criar conteúdos duvidosos e lançá-los no Facebook.
Depois da tragédia Christchurch na Nova Zelândia, onde terroristas armados cometem atrocidades, matando dezenas de pessoas, a afirmação passou a ser mais firme. Os algoritmos precisão de ajuda para moderar os vídeos distribuídos nas redes sociais.
O ataque transmitido ao vivo no Facebook foi visto por menos de 200 pessoas, afirma a empresa, permitiu que pessoas compartilhassem e salvassem os vídeos e ainda enviassem para outras fora do Facebook. Parece desculpa de colegial, não importa o número inicial de pessoas que assistiram o terrível ato, todos sabemos que quando um conteúdo cai na internet, é quase impossível removê-lo.
A incapacidade de sistemas automatizados de entender e bloquear conteúdo como este não é novidade para especialistas em IA como o LeCun. Eles há muito tempo alertam que o aprendizado de máquina não é capaz de entender a variedade e as nuances desses vídeos.
Sistemas automatizados são muito bons em remover conteúdos que já foram identificados por humanos como indesejados (o Facebook diz que bloqueia automaticamente 99 por cento do conteúdo terrorista da Al-Qaeda, por exemplo), mas identificar exemplos inéditos é uma tarefa muito mais difícil.
Um problema que LeCun observou em Paris é a falta de dados de treinamento. "Felizmente, não temos muitos exemplos de pessoas reais atirando em outras pessoas", disse o cientista. É possível treinar sistemas para reconhecer a violência usando imagens de filmes, acrescentou ele, mas o conteúdo contendo violência simulada seria inadvertidamente removido junto com a realidade.
Em vez disso, empresas como o Facebook estão se concentrando no uso de sistemas automatizados como assistentes para moderadores humanos. A IA sinaliza conteúdo perturbador, e os humanos o examinam manualmente. Naturalmente, o sistema de moderação humana também tem seus próprios problemas.
😕 Poxa, o que podemos melhorar?
😃 Boa, seu feedback foi enviado!
✋ Você já nos enviou um feedback para este texto.