Credits image : Victor (@vichat_)
Progress

Clôture : comment les algorithmes nous radicalisent

Les plateformes sociales du web nous observent. Mais, quand on se sait observé, on peut en jouer pour influencer celui ou celle qui nous scrute. Ça, un seul courant politique l’a compris et en use : l’extrême droite.

L’engagement politique, sur YouTube

L’engagement, c’est le fait d’agir, ou plutôt ici de réagir. C’est-à-dire de réaliser une action, suite à la consultation d’un contenu web. Je like. Je commente. Je partage.

Si on veut mesurer l’engagement, il faut donc comparer le nombre d’actions produites par des utilisateurs et utilisatrices, au nombre de vues. On peut, par exemple, commencer par observer le nombre de likes par rapport au nombre de vues. Ce qui donne ça :

nuage de points : nombre de likes en fonction du nombre de vues par courant politique (premier trimestre 2022)

En l’état, le graphique semble dire peu de choses, même si une tendance se dessine. C’est à cause de quelques vidéos, aux performances exceptionnelles, qui imposent une échelle de valeur bien trop grande. L’axe des abscisses s’étend jusqu’à 2.5 millions de vues, alors que la majorité des vidéos en fait moins de 25 mille.


On a donc zoomé sur les 75% de vidéos les moins vues, pour avoir plus de visibilité sur la répartition globale, et on a tracé la fonction f(x) = 0.1*x, pour obtenir le graphique suivant :

zoom sur les 75% de vidéos les moins vues du dataset de la figure précédente

Les points bleu foncé sont au dessus de tous les autres. Ce sont d'ailleurs les seuls, ou presque, au dessus de la droite rouge.


Or, f(x) = 0.1*x trace la droite qui définit un engagement de 10 %. Ceci signifie que toutes les vidéos en dessous ont généré moins de 10 % d’engagement et toutes celles au-dessus, plus de 10 %.


On peut ainsi déduire que seule l’extrême droite, à quelques exceptions près, est en mesure de produire plus de 10 % d’engagement.


Une autre manière de mettre en valeur cette particularité serait de réaliser une régression linéaire par courant. C’est-à-dire que nous allons créer un modèle prédictif linéaire qui, par courant, pour un nombre de vues donné, estime le nombre de likes associés.

La droite bleue foncé est toujours au dessus des autres et sa pente, son inclinaison, est la seule à deux chiffres. Sur notre échantillon de données, pour une vidéo d’extrême droite donnée, en moyenne, 13 % des vues sont transformées en likes, contre seulement 8 % pour l’extrême gauche et 2 % pour les verts.


Pour approfondir notre analyse, nous avons associé à chaque vidéo un indicateur donnant la valeur du rapport : nombre de likes sur nombre de vues. Puis, nous avons représenté « la densité du dataset », par courant, pour cet indicateur. C’est-dire qu’on a produit une représentation visuelle de la répartition des valeurs d’engagement des différentes vidéos, par courant, parmi tout notre échantillon. Cela paraît complexe, mais l’image et l’explication qui suivent devraient tout clarifier :

densité du dataset, premier trimestre 2022, repartissant le taux d'engagement des vidéos des différents courants

Plusieurs choses peuvent être notées : la droite est le courant qui produit le moins d’engagement. Son pic se dresse très tôt sur l’axe des abscisses. A l'inverse, la courbe de l’extrême droite présente les deux pics les plus avancés du graphique. L’extrême droite est donc le courant qui a « les modes » les plus élevés. Le mode, en statistique, est une mesure de tendance centrale, au même titre que la médiane et la moyenne. C’est la valeur que l’on avoisine « la plupart du temps ». En clair, l’extrême droite publie un nombre immense de vidéos et pour chacune d’elles, une grande part de l'audience (12,6%) veille a liker. C’est exceptionnel. La moyenne de l’engagement sur YouTube en 2022, est de 1.7 % (source). L’audience d’extrême droite s’engage plus de six fois plus que la norme.

C’est un sujet qu’on entrevoyait déjà dans notre article du 19 mars 2022 (paragraphe 2.2, ici), où on s’étonnait que le nombre de vues d’Eric Zemmour pouvait changer du simple au triple, son nombre de likes stagnait, ou presque. Comme si une base de fidèles disciplinés s’évertuait à systématiquement liker.

Pour vérifier que ce n’était pas du à notre échantillon de données, nous avons refait les mêmes calculs sur toutes les vidéos de 2021, requêtées le 4 janvier 2022, et sur un plus grand nombre de chaînes par courant (celles qui nous avaient servis a réaliser les études 1 a 4, ici). On obtient le graphique suivant :

densité du taux d'engagement par courant sur notre dataset YouTube 2021

La différence entre l’engagement des vidéos d’extrême droite et celui de tous les autres courants est encore plus flagrante. On peut conclure que l’audience d’extrême droite se démarque de toutes les autres dans sa participation active à la promotion du message de leurs candidat·es. L’engagement de ces militants s’étend jusque sur les plateformes sociales du web.

Mesure d’influence des « algorithmes intelligents »

Imaginons maintenant que vous souhaitiez créer une plateforme de streaming, qui disposerait de toutes les vidéos de notre dataset 2022. Sur la page d’accueil de l’utilisateur, vous voulez proposer un nombre fini de vidéos parmi toutes celles dont vous disposez. Ainsi, quand un utilisateur ou une utilisatrice se connecte à votre plateforme, il y a toujours de nouvelles choses à regarder.

Vous pourriez commencer par sélectionner cent vidéos de manière aléatoire. Si vous faisiez cela, 40.3 % des contenus seraient d’extrême droite, contre 21.5 % d’extrême gauche et seulement 15 % de verts. Simplement parce que l’extrême droite poste beaucoup plus de vidéos que les autres courants.


Maintenant, vous vous dites que, proposer 100 vidéos, c’est trop. Un utilisateur ne scrolle jamais bien bas. Il faut donc lui proposer un contenu bien choisi, qui plaît, pour lui donner envie de revenir. Sur la page d’accueil, vous ne proposerez donc plus que 10  vidéos, choisies parmi l’échantillon global, en fonction d’une mesure d’engagement seuil associée au contenu.

Et bien, plus l’engagement minimum souhaité sera grand, plus les chances de proposer un contenu d’extrême droite vont augmenter, comme l’illustre le graphique ci-dessous.

Evolution de la probabilité d'afficher un contenu d'extrême droite en fonction de la valeur de l'engagement seuil

Par exemple, si vous vouliez proposer une vidéo qui produit minimum 5% d’engagement, il y aurait environ 48% de chance que vous affichiez un contenu d’extrême droite. Si vous souhaitiez 7 % d’engagement minimum, il y aurait 58 % de chance que les vidéos proposées soient d’extrême droite (tous nos calculs et les données associées sont accessibles ici). Nous ne sommes plus à 40 %, comme précédemment, quand on choisissait les vidéos de manière aléatoire. En prenant en compte l’opinion la plus majoritairement exprimée, l’algorithme a induit son propre biais d’opinion : il favorise la diffusion d’un contenu d’extrême droite. Le courant aura pris 18 points grâce - ou à cause - de notre « algorithme intelligent », censé proposer des vidéos qui plaisent.  On commence à comprendre comment une plateforme sociale pourrait en venir à promouvoir un message d’extrême droite...

Le problème YouTube

Aujourd’hui, nous ne sommes pas en mesure de savoir avec précision comment YouTube affecte le débat public avec ses algorithmes. Car personne, sauf YouTube, donc Google, ne les connaît. Mais son influence est inévitable, au même titre que celle des autres médias comme la radio ou la télévision.

La différence, c’est que YouTube n’est pas régulée par une autorité comme le CSA, devenu l’ARCOM, et que sa programmation n’est pas publique. Cela peut se comprendre, puisque cette programmation est personnalisée pour chaque utilisateur. L’objectif n’est pas d’avoir le détail, pour chaque utilisateur, des vidéos proposées, mais seulement de savoir comment cette personnalisation est réalisée. Comment la plateforme a-t-elle été développée ? Dans quelle mesure les algorithmes qui la régissent influent-ils sur l’équité des représentations politiques ?

C’est pourquoi il est important de militer pour une plus grande transparence des algorithmes, ou même pour l’ouverture des codes sources. Mais, pour qu’une multinationale, financièrement aussi puissante qu’un État, accepte de dévoiler ses secrets industriels, il faudra batailler. Peut-être même serons-nous déjà éteints, avant d’y parvenir. Donc, chez 810, nous serions plutôt tentés de vous proposer une autre alternative.

Engagez-vous ! Mais pas bêtement…

Les plateformes sociales du web 2.0 ont induit une forme de classement, imposée par des algorithmes de sélection. Un contenu qui ne retient pas son audience ou qui ne la fait pas réagir, c’est un message qu’on invisibilise. Ça, l’extrême droite l’a compris. C’est pourquoi ses militants veillent à toujours réagir. Car ils biaisent ainsi le système.

En tant qu’utilisateurs et utilisatrices de ces plateformes, on porte une forme de responsabilité. Là-bas, nous sommes scrutés. Cette observation systémique sert un ajustement continuel des algorithmes. Notre simple présence au sein de l’environnement numérique le transforme. Nos actions sont enregistrées, mais notre inaction aussi. En vous rendant sur ces plateformes, surtout si vous lisez nos articles, vous savez qu’il en est ainsi. Et si vous savez, vous pouvez. Vous pouvez agir. Ou plutôt réagir. Si le message d’une vidéo vous plaît, likez. Laissez un commentaire, même si ce n'est qu'un émoji feu 🔥, car alors vous influez sur les chiffres, donc sur l’environnement. C’est presque un geste militant, pour assurer que les messages que vous jugez importants ou pertinents ne soient pas écrasés sous ceux qui le seraient moins. Choisissez un mode d’action positif, où vous ne commentez plus pour critiquer, mais seulement pour louer. Car un commentaire de critique, c’est un avantage numérique qu’on donne au contenu qu’on rejette. Ne soyez pas avare en cœurs et pouces en l’air, car quand on aime on ne compte pas !


Mais,gardez à l’esprit que ce mode d’action a un risque. Il a pour décor les produits de l'économie de la surveillance : ces plateformes sociales qui nous observent, pour nous proposer des contenus personnalisés. Quand vous êtes sur Google, Facebook, Youtube, Instagram, sur des sites qui utilisent Google Analytics, sur WhatsApp, Gmail, Messenger, Tiktok, etc. Non seulement on vous observe, mais on vous croque. On vous profile. Donc, avant de vous lancer dans l’expression de votre amour sans limite, il faut que vous appreniez à maîtriser vos données, à savoir à tout moment qui a accès à quoi, et qui peut connaître quoi de vous.


C’est pourquoi, pour notre saison 2, nous vous proposerons une série de tuto vidéo, pour apprendre à protéger votre vie privée, a l’ère du numérique (🙏 RGPD).


Pour recevoir un e-mail à la publication de notre nouvelle saison,abonnez-vous à notre newsletter.


Et si ce contenu vous a plu et que vous pensez qu’il pourrait plaire à d’autres, partagez-le ! Il est temps d’agir, mais vous pouvez le faire depuis votre canapé.