Terrorisme : Facebook va restreindre l'usage des Live

Facebook a annoncé ce mercredi son intention de restreindre l'usage de sa plateforme de vidéo en direct, dont s'est servi le tueur de Christchurch en Nouvelle-Zélande pour diffuser le massacre de 51 personnes dans des mosquées mi-mars.

Par

La CNDP est chargée de vérifier que les traitements des données personnelles sont licites, légaux et qu’ils ne portent pas atteinte à la vie privée, aux libertés et droits fondamentaux. Crédit: Christophe Simon/AFP

Le réseau social avait été très critiqué pour avoir tardé à interrompre la vidéo, dont des images s’étaient très rapidement répandues sur internet. Le groupe avait alors promis de revoir les conditions d’usage de Live mais sans prévoir de différer les diffusions. Désormais, les utilisateurs enfreignant les règles d’utilisation du réseau social, notamment celles proscrivant les “organisations et individus dangereux”, n’y auront plus accès pendant un certain temps, et ce dès la première infraction. La Première ministre néo-zélandaise Jacinda Ardern a estimé qu’il s’agissait d’un “bon premier pas”.

Contrer la propagation de la haine

L’attentat terroriste du 15 mars a mis en lumière la façon dont la diffusion en direct d’images en streaming peut être mal utilisée pour propager de la haine. Facebook a fait un premier pas tangible pour arrêter cette tactique répétée sur leur plateforme”, a détaillée Mme Ardern.

Jusqu’à aujourd’hui, si des personnes publiaient du contenu contraire à nos standards – sur Facebook Live ou ailleurs sur notre plateforme– nous supprimions leur contenu”, a écrit Guy Rosen, un haut responsable du groupe sur un blog où il a expliqué la nouvelle politique de tolérance zéro.

S’ils continuaient de publier du contenu enfreignant nos standards, nous les empêchions d’utiliser Facebook pendant un certain temps, leur retirant ainsi la possibilité d’utiliser Facebook Live”, a-t-il ajouté. “Et, dans certains cas, nous les excluions de notre plateforme, en raison de violations mineures répétées ou, dans des cas plus rares, à cause d’une unique violation flagrante (comme par exemple l’utilisation d’une image de propagande terroriste comme photo de profil ou le partage d’images d’exploitation infantile)”, a-t-il rappelé.

7,5 millions de dollars pour renforcer la vigilance

A partir de ce mercredi, toute personne ne respectant pas les règles relatives aux contenus extrémistes se verra interdire dès sa première infraction l’utilisation de Facebook Live pour une période déterminée, par exemple 30 jours. M. Rosen a en outre cité l’exemple d’une personne partageant un lien vers un communiqué d’un groupe terroriste sans élément de contexte. Dans ce cas, Facebook prévoit dans les semaines à venir d’empêcher ces contrevenants de diffuser des publicités sur le réseau.

De plus, le groupe a répété qu’il avait été confronté, dans le cas de Christchurch, à un défi technique : ses systèmes ont eu du mal à identifier les différentes versions et montages des images issues de la vidéo originale. Il annonce donc investir 7,5 millions de dollars dans des partenariats avec trois universités pour améliorer l’analyse d’images fixes et de vidéos.

Ces annonces coïncident avec le lancement mercredi à Paris d’un “appel de Christchurch” contre l’extrémisme en ligne, par le président français Emmanuel Macron et Jacinda Ardern, la Première ministre néo-zélandaise, en présence d’autres dirigeants, chefs d’Etat et patrons du numérique.