En l’espace de trois petits mois, Google a supprimé pas moins de 8 millions de vidéos sur la plateforme Youtube.

Google fait le ménage (aussi) dans Youtube

Il y a quelques mois, Google annonçait avoir retiré pas moins de 700 000 applications de son PlayStore en 2017, soit 70% de plus qu’en 2016. Le géant américain indiquait alors avoir non seulement retiré ces mauvaises applications de sa boutique, tout en parvenant à les identifier assez rapidement pour éviter tout souci chez l’utilisateur. A tel point que 99% des applications non conformes ont été retirées avant même que quiconque ne les installe sur son smartphone. Cela a été rendu possible grâce aux améliorations apportées par Google en terme de détection de malwares et autres contenus inappropriés.

Une chasse aux contenus indésirables que Google mène également sur une autre plateforme : YouTube. Ainsi, le groupe américain indique fièrement avoir retiré pas moins de 8,2 millions de vidéos de sa plateforme en fin d’année dernière, en l’espace de trois mois seulement. Comme l’avait annoncé Google en décembre, la nouvelle politique va consister à s’appuyer sur du machine learning, mais aussi sur une assistance humaine, avec une équipe de modération, mais aussi des utilisateurs sélectionnés en amont (Trusted Flagger) qui peuvent signaler un contenu jugé néfaste. A cela s’ajoute la possibilité pour les utilisateurs de signaler une vidéo à retirer.

De cette manière, Google a été en mesure de retirer pas moins de 6,6 millions de vidéos sur la simple base du machine learning. A l’instar de ce qu’annonçait Google pour le PlayStore, la vitesse de repérage est telle que 76% des vidéos retirées via ces outils automatisés n’ont été visionnées par aucun utilisateur. Pour assister le logiciel, Google compte également sur des modérateurs « humains », avec la ferme volonté de disposer de 10 000 modérateurs d’ici la fin de l’année 2018.

Selon Youtube : « La majeure partie de ces 8 millions de vidéos était principalement composée de spams ou de personnes qui tentaient de télécharger des contenus pour adultes. » Les vidéos à caractère sexuel sont donc particulièrement visés par Youtube, suivies de près par les vidéos en lien avec du spam, sans oublier les contenus haineux, violents ou encore les vidéos « dangereuses ». Chaque trimestre, Google publiera un rapport pour montrer toute la transparence de ce nouveau système.

LAISSER UN COMMENTAIRE

Please enter your comment!
Please enter your name here