BFM Business
Services

Les techniques de Facebook pour traquer le terrorisme sur son réseau

Facebook fait face à des pressions régulières des gouvernements qui lui demandent de lutter plus efficacement contre ce genre de contenus.

Facebook fait face à des pressions régulières des gouvernements qui lui demandent de lutter plus efficacement contre ce genre de contenus. - Justin Tallis-AFP

Facebook a détaillé les moyens mis en oeuvre pour lutter contre les publications faisant l'apologie du terrorisme. Ses outils automatisés à base d'intelligence artificielle détectent les contenus répréhensibles, mais ce sont ses équipes qui décident toujours de les ôter.

Souvent accusé de ne pas assez lutter contre la propagande jihadiste, Facebook a détaillé sur son blog les moyens techniques qu'il met en oeuvre dans un billet intitulé "comment nous luttons contre le terrorisme".

Fort de 1,94 milliard de membres, le premier réseau social mondial fait face, comme d'autres géants d'internet, à des pressions régulières des gouvernements qui lui demandent de lutter plus efficacement contre ce genre de contenus. Fin mai, les dirigeants du G7 ont encore accentué leur pression sur les grands groupes internet. De même, Paris et Londres ont présenté, mardi 13 juin, un plan d’action conjoint contre la propagande terroriste en ligne.

"Nous retirons les publications (à caractère) terroriste ou faisant l'apologie du terrorisme dès que nous en avons connaissance. Mais nous savons que nous pouvons faire mieux dans l'utilisation de la technologie - en particulier de l'intelligence artificielle - pour endiguer la diffusion de contenu terroriste sur Facebook", poursuit le groupe, qui affirme se concentrer pour le moment sur le groupe État islamique et Al-Qaïda.

Les outils ne remplacent pas les équipes de modération

Ces outils permettent ainsi de mieux repérer des images répréhensibles. "Quand quelqu'un tente de télécharger une photo ou vidéo (à caractère) terroriste, nos systèmes déterminent si ces images sont identiques" à des images notoirement "terroristes". Si c'est le cas, le téléchargement est bloqué, poursuit Facebook.

Mais le recours aux outils automatisés recèle aussi ses limites. "Dans certains cas, nous supprimons automatiquement les contenus, comme les vidéos de décapitation. Dans d’autres cas, le contexte est important: une photo du drapeau de Daesh peut être utilisée pour de la propagande, mais elle peut aussi illustrer un article de presse. Dans ces cas où le contexte compte, ces outils servent à prioriser ces contenus pour nos équipes de modération" explique Brian Fishman, chargé de la lutte contre le terrorisme sur le réseau social, dans un entretien au quotidien Le Monde.

Facebook utilise des outils de compréhension du langage naturel

Le groupe utilise aussi l'intelligence artificielle pour repérer des textes qui feraient l'apologie du terrorisme. Pour mettre au point les algorithmes, Facebook utilise des textes de propagande de groupes jihadistes pour apprendre à ses systèmes à mieux les repérer, explique le groupe, précisant en être encore aux "expérimentations".

"Nous utilisons des outils de compréhension du langage naturel pour détecter de potentielles violations, qui sont transmises à nos équipes de modération. Mais nous n’avons pas assez confiance dans cette technologie pour l’autoriser à prendre une décision sans humain dans la boucle" précise Brian Fishman.

Facebook précise que ses efforts concernent ses autres plateformes internet, notamment Instagram. Le nombre de ses employés chargés de la gestion des contenus augmentera de 3.000 personnes d'ici l'an prochain, pour passer à 7.500.

Frédéric Bergé