YouTube avait été sommée de réagir après plusieurs polémiques concernant la présence sur sa plate-forme de vidéos dans lesquelles des enfants étaient maltraités ou d'autres, tout à fait innocentes, mais qui suscitaient des commentaires à caractère pédophile.
Ces révélations avaient entraîné la fuite de nombreux annonceurs. A la fin de l'année, la filiale de Google avait dès lors promis de s'attaquer plus fermement au problème, notamment en investissant dans des algorithmes capables de détecter ces contenus.
Un tiers des vidéos retirées présentaient un caractère sexuel
Outre les 6,7 millions de vidéos supprimées grâce à cette technologie - dont 76% avant même qu'elles aient pu être vues -, 1,1 million l'ont été à la suite de signalements d'usagers et 400.000 après une dénonciation d'un membre de la communauté, ressort-il du rapport.
Près d'un tiers (30%) des vidéos retirées présentaient un caractère sexuel. Suivent les spams (27%), les contenus haineux (16%) et les violents (14%). Les vidéos pouvant mettre en danger des enfants représentent 5% des suppressions, celles faisant la promotion du terrorisme 2%.
D'après le rapport, les pays avec le plus de contenus signalés étaient, dans l'ordre, l'Inde, les États-Unis, le Brésil, la Russie et l'Allemagne.
De son côté, Facebook indique sur son blog avoir "entrepris des actions" à l'encontre de 1,9 million de messages de propagande de l'Etat islamique ou d'Al-Qaïda lors des trois premiers mois de l'année. Ces actions peuvent aller jusqu'à la suppression du contenu, mais elles se limitent parfois à l'ajout d'un avertissement. Le réseau social, qui a lui aussi un blason à redorer depuis les révélations du scandale d'utilisation des données de ses utilisateurs lié à la société Cambridge Analytica, affirme que 99% des messages de haine ont été mis au jour grâce à ses propres outils.