RomainSchué
Diffusée endirect sur Facebook Live durant de longues minutes, l'attaque de Christchurch,en Nouvelle-Zélande, a pu être visionnée par des milliers d'internautes, avantd'être reprise sur différentes plateformes numériques, comme YouTube, Instagramet Twitter. Comment Facebook a-t-il pu laisser cette vidéo en ligne tout aulong de ce carnage ?
«C’est undérapage de leur outil de filtrage de contenu », explique BrunoGuglielminetti, spécialiste des médias numériques.
Durant prèsde 17 minutes, l’auteur de cette attaque a pu diffuser, en direct, ses actesperpétrés dans deux mosquées de Nouvelle-Zélande. Dans cette vidéo, filmée avecune petite caméra GoPro fixée sur le corps, on y voit le tireur, arme à lamain, rentrer dans l’édifice et abattre des fidèles.
Normalement,assurent des experts interrogés par Radio-Canada, un algorithme de modérationaurait dû être capable de stopper cette diffusion, en repérant ces imagesinappropriées à l’usage de ce réseau.
«Il y ahabituellement une analyse des images et des mots qui décrivent la vidéo. Quandc'est clairement de la violence, c'est retiré. Là, on entend des larmes, descoups de feu. Tout était présent pour que le système mis en place par Facebookfonctionne afin d'arrêter la diffusion», reprend Bruno Guglielminetti.
« [Cetalgorithme] est plus que fiable, juge Jean-Hugues Roy, professeur à l’École desmédias de l’UQAM. Avec les avancées technologiques, en quelques secondes, la diffusionaurait dû être arrêtée.»
‘’Cen’était pas un clip de 30 secondes où il aurait pu y avoir une confusion avecun jeu vidéo. Ça démontre que Facebook ne contrôle pas complètement sonenvironnement et que leur système a un problème.’’
Bruno Guglielminetti, expert enmédias numériques
Rien neremplace le jugement humain, certifie de son côté Olivier Gadeau, coordonnateurdu Laboratoire sur la communication et le numérique. «Ce n’est pas unalgorithme qui peut traiter l’éthique, la déontologie et la morale»,soutient-il.
«Ça endit long sur les limites de ces outils, fondés sur l’intelligence artificielle.Ils sont prometteurs, mais il reste encore beaucoup de travail», affirmequant à lui Pierre Trudel, professeur spécialisé en droit de l’information àl’Université de Montréal.
Unemodération a posteriori décriée
Ce dernierse montre guère surpris par ce tragique événement. «On pourrait dire, defaçon cynique, que ce n’était qu’une question de temps. Toute la technologieétait là, avec des caméras connectées en direct, depuis plusieurs années»,avance-t-il.
Le problème,poursuit-il, se situe sur les bases mêmes de l’existence de ces plateformes.Lesréseaux sociaux ont été configurés pour échanger et partager des informations.Ils n’ont pas été conçus pour filtrer et supprimer rapidement les messageshaineux.
Lamodération se fait a posteriori, avec le signalement des usagers. Il y a trèspeu d’analyse avant la mise en ligne. C'est un phénomène qui montre qu'il y aun risque et que Facebook doit en faire plus.
Pierre Trudel, professeur à l'Université deMontréal
«Facebookattend qu’il y ait des plaintes avant de réagir. Il ne juge pas le message. Dessous-traitants regardent ensuite les images», précise Olivier Gadeau.
Déjà desprécédents
Ce n’est pasla première fois que Facebook est aux prises avec cet enjeu, même si aucundrame de cette ampleur n'avait encore été répertorié. À de nombreuses reprises,ces dernières années, des meurtres ont été filmés en direct. La famille d’unhomme tué à Cleveland en 2017, dont les images avaient été partagées surFacebook, a même poursuivi la firme californienne. La justice avait néanmoinsstatué que Facebook ne pouvait être tenu responsable de ce meurtre.L’entreprise avait cependant reconnu devoir s’améliorer pour éviter ladiffusion de nouveaux drames.
Un risquede poursuites judiciaires
Bien quel’entreprise américaine ait annoncé avoir supprimé «rapidement» cettevidéo tout comme les comptes Facebook et Instagram du tireur, Radio-Canada a puconstater qu’il reste facile de retrouver les images de cette attaque surYouTube.
Seul unsimple avertissement disant que cette vidéo «peut être inappropriée pourcertains utilisateurs» est présent. Cet extrait a beau être retiré quelquesminutes plus tard, il réapparaît par la suite sous un autre titre.
«C’estclair que Facebook et Google sont pris de court. Ça démontre à quel point ilest complexe de vérifier tout ce qui est diffusé», souligne BrunoGuglielminetti.
Selon cedernier, Facebook s’expose désormais à des poursuites judiciaires. «Ils ontune responsabilité et ils devront répondre à des questions. Commentpourront-ils expliquer à un juge que pendant 17 minutes, leur système n’a paspu voir les signes d’un attentat», se questionne ce spécialiste.
«Facebooka une responsabilité qu’ils tardent à prendre. Ils ont eu un réveil, notammentaprès la présidentielle américaine avec une propagation de désinformations,mais c’est encore grossièrement insuffisant», estime Jean-Hugues Roy.
‘’Facebookagit comme un média, mais sans avoir une réflexion pour savoir si une imagedoit être diffusée. Ils peuvent raconter ce qu'ils veulent, ils peuvent avoirdes robots extraordinaires, il faut des humains’’.
Olivier Gadeau, coordonnateur du Laboratoiresur la communication et le numérique
Désormais,les gouvernements vont devoir hausser davantage la voix contre Facebook afin depousser l'entreprise à s'ajuster, martèle Pierre Trudel, en évoquant «unepression mondiale».«Il va falloir que les pressions augmentent desautorités publiques pour que Facebook se donne les moyens, pour qu'ils sedotent d'outils efficaces», mentionne-t-il, tout en rappelant les récentesmenaces émises par l'Union européenne.
Au printempsdernier, Mark Zuckerberg, le patron de Facebook, avait déjà dû s’expliquerdevant les élus américains au printemps passé. Il aura à nouveau «descomptes à rendre», estime Bruno Guglielminetti.