La politique de modération de YouTube

Dans le cadre de sa lutte contre les contenus terroristes, YouTube a supprimé plusieurs vidéos illustrant les crimes de guerre commis en Syrie. Des journalistes et chercheurs s'estiment lésés par cette initiative.

YouTube se trompe de cible. Dans le cadre de sa politique de modération des contenus faisant l'apologie du terrorisme, une intelligence artificielle créée par Google a supprimé plusieurs vidéos informatives concernant les crimes de guerre commis en Syrie. Plusieurs vidéos du média d'investigation Bellingcat, du site d'informations Orient News, assimilé à l'opposition, ou de l'organisation Airwars, qui suit de près les conflits en Irak, en Syrie et en Libye, ont ainsi été retirées.

Le chercheur et spécialiste de la question syrienne Eliot Higgins, par ailleurs fondateur de Bellingcat, s'en est étonné dans une série de tweets. Son compte personnel a lui aussi été supprimé, avant d'être rendu à nouveau accessible.

«YouTube a supprimé mon compte en raison de vidéos sur la Syrie mises en ligne il y a deux ou trois ans», a-t-il indiqué, avant de détailler les raisons et les conséquences de cette initiative. «Ironiquement, en supprimant des chaînes de l'opposition vieilles de plusieurs années, YouTube cause plus de tort à l'histoire syrienne que ce que l'État islamique aurait pu espérer», a-t-il ajouté.
Les journalistes et chercheurs font les frais de cette politique de modération. Contacté par Le Figaro, YouTube n'a à ce jour pas formulé de position à ce sujet.
L'intelligence artificielle comme modérateur

Début août, dans un post de blog, YouTube s'est félicité des progrès réalisés dans la suppression automatique de vidéos djihadistes. Basé sur le «machine learning», un champ de l'intelligence artificielle, ce procédé ne nécessite plus d'intervention humaine et contribue à «une meilleure détection» ainsi qu'à un «retrait plus rapide» des contenus à connotation terroriste, selon YouTube.«Bien que ces outils ne soient pas encore parfaits, nos systèmes se sont avérés à plusieurs reprises plus précis que certains humains pour détecter les vidéos qui devaient être supprimées», est-il précisé. YouTube assure que plus de 75 % des vidéos supprimées en juillet pour «extrémisme violent» l'ont été avant d'être signalées par des humains.
Victime de cette innovation, le site d'informations Middle East Eye s'est montré critique à l'égard de l'intelligence artificielle mise à profit par YouTube