Comment l'algorithme de YouTube facilite l'exploitation des enfants - SoftMaroc - Toutes les actualités informatique et Hi-Tech
Tendance
6 mars 2019

Comment l'algorithme de YouTube facilite l'exploitation des enfants


YouTube et la modération de contenus sont deux concepts que l'on aimerait bien voir enfin s'accorder. Le service de partage de vidéos est souvent lent à réagir lors de la publicitation de contenus obscènes et inappropriés, même lorsque les vidéos en question étaient destinées aux enfants.

Vous avez probablement déjà entendu parler du scandale d'ElsaGate ou de la vidéo de Logan Paul sur le suicide dans la forêt qui illustrent bien le problème. Pourtant, ni l'un ni l'autre ne sont aussi choquants que le fait que l'algorithme vidéo de YouTube a été trouvé pour faciliter l'exploitation sexuelle des mineurs.

Cette histoire a été découverte par le YouTuber MattWhatItIs (Matt Watson). Dans une vidéo, il montre comment un terme de recherche relativement inoffensif comme " bikini haul " suivi de quelques clics sur des vidéos connexes peut vous mener à ce qu'il décrit comme un " vortex " de pédophilie.

 Il a utilisé un tout nouveau compte YouTube et un VPN, de sorte qu'aucune recherche antérieure n'a pu affecter les recommandations. Résultat : la barre latérale et la page d'accueil étaient remplies de vidéos de mineurs, certaines de ces vidéos montraient même des mineurs se déshabiller.

Nous avons décidé de ne pas intégrer directement la vidéo dans cet article. Attention : si vous décidez de le regarder, vous pouvez le faire ici, mais vous devez savoir qu'elle contient du contenu inapproprié. Néanmoins, elle démontre très clairement comment l'algorithme YouTube fonctionne en faveur des pédophiles.

L'expérience de Watson est très facile à reproduire et j'ai eu une expérience très similaire en essayant ce qu'il a décrit dans la vidéo. Quelle en est la cause ? Le coupable évident est l'algorithme de YouTube. Si vous avez déjà cliqué sur une vidéo en tête de liste, vous savez probablement à quel point elle peut devenir agressive en recommandant le même type de contenu encore et encore.

Bien qu'il ne s'agisse que de spéculation, il est possible qu'il ait été conçu de cette façon pour encourager le "binge watching" et ainsi générer plus de revenus pour la plateforme grâce à la publicité. Cependant, il n'a peut-être pas été prévu pour rendre les choses comme elles le sont aujourd'hui.


Quoi qu'il en soit, YouTube devrait être conscient de la facilité avec laquelle l'algorithme peut être exploité. L'expérience de Matt Watson a également révélé qu'il y avait beaucoup de vidéos innocentes (des enfants faisant de la gymnastique, parlant devant la caméra, etc) qui ont été piratées par un réseau pédophile.

Les prédateurs affichaient des commentaires sexuels dégoûtants, ou recommandaient de visionner une minute précise de la vidéo montrant les enfants dans des positions compromettantes ou suggestives. Et ce n'est pas tout, souvent, les vidéos qui figuraient dans ces recommandations ont été téléchargées de nouveau, et beaucoup d'entre elles ont été monétisées.

Quelles sont les mesures prises par YouTube ?


Cela arrive malgré les promesses de YouTube de modérer fortement tout contenu destiné aux enfants ou impliquant des enfants. L'an dernier, la plateforme de partage de vidéos a décidé de désactiver complètement les commentaires dans les vidéos pour enfants si des commentaires inappropriés étaient repérés.

À l'époque, l'entreprise a également retiré les publicités de plus de 2 millions de vidéos et de 50 000 chaînes se faisant passer pour des divertissements familiaux. Pourtant, comme nous pouvons le constater grâce à Matt Watson, le système n'est toujours pas au point.

Même lorsque YouTube tente de prendre les choses en main, de nombreux créateurs de contenu innocents sont pris entre deux feux. Il y a quelques jours à peine, l'algorithme YouTube a faussement mis fin à plusieurs chaines populaires de Pokémon GO parce qu'il comprenait l'abréviation CP (points de combat) pour quelque chose de beaucoup plus sinistre.

In case anyone at @TeamYouTube is taking notes on today's mishap, CP stands for Combat Points. I'm on board with fighting back against inappropriate content, but your algorithm needs a lesson in CONTEXT.

Also, just to reiterate, MANUAL REVIEW BY A HUMAN BEFORE TERMINATION pic.twitter.com/qHLP5GGe9J
— Nick // Trainer Tips (@trnrtips) February 17, 2019

Cela ne fait que souligner les limites des algorithmes et de l'intelligence artificielle. Que peut faire YouTube ou Google à ce sujet ? 400 heures de vidéo sont téléchargées sur le site web chaque minute.

YouTube est devenu un tel poids lourd sur le marché de la vidéo en ligne qu'il est impossible de contrôler tout le contenu rapidement et avec précision. Cependant, limiter le nombre de vidéos qui peuvent être téléchargées pourrait paralyser complètement la plate-forme, étant donné que Google perd déjà de l'argent avec YouTube.

L'embauche d'un plus grand nombre de personnes est-elle la solution au problème ? Il s'agit d'une étape que l'entreprise a déjà franchie en 2017 en embarquant 10 000 personnes dans le but d'assainir YouTube.

Selon The Telegraph, le site Web de partage de vidéos fonctionne également avec une communauté "Trusted Flagger", composée d'organismes d'application de la loi et d'organismes de protection de l'enfance. Toutefois, au cours d'une période de 60 jours, la collectivité a soulevé des préoccupations dans 526 cas, mais n'a reçu de réponses qu'à 15 de ses rapports.

Source : Cette information et actualité qui a suscité notre intérêt, a été publiée par Suzana Dalul sur le site androidpit.fr que nous remercions. il nous a semblé pertinent de vous en faire profiter.
Comment l'algorithme de YouTube facilite l'exploitation des enfants Reviewed by Softciel on mars 06, 2019 Rating: 5 YouTube et la modération de contenus sont deux concepts que l'on aimerait bien voir enfin s'accorder. Le service de partage de vi...