algorithme

Les médias à l’âge des algorithmes

L’élection présidentielle américaine qui vient d’amener Trump au pouvoir a été une des plus violentes de son histoire. Mais aussi une des plus instructives sur les nouvelles stratégies de communication centrées sur les médias et réseaux sociaux au détriment des médias traditionnels. Pouvait-il en être autrement de manière strictement opportuniste quand la majorité des américains, et bientôt des européens, s’informent en premier lieu via Facebook ? Certains ont critiqué les plateformes, à commencer par Facebook dont les algorithmes liés au News Feed auraient joué un rôle majeur dans la diffusion de fausses informations. Je pense de mon côté que véhiculer cette idée, comme  la majorité des analyses l’ont faite, est une erreur fondamentale de compréhension du phénomène médiatique à l’âge des algorithmes.

Faut-il comparer les médias aux médias sociaux ?

Face aux manipulations des informations qui circulent sur les médias et réseaux sociaux, de nombreux acteurs, pour certains journalistes, souhaiteraient que les propriétaires des plateformes interviennent et prennent la responsabilité de filtrer ou vérifier les informations qui y circulent. Je vois à cela deux obstacles.

Le premier est que ces plateformes sont avant tout des intermédiaires et non des organes de presse. Si les médias sociaux font la désintermédiation de la diffusion d’informations, il ne faut pas oublier qu’ils ne sont pas éditeur ou producteur des contenus. Ils ont généralement a minima mis en place des systèmes de lutte contre les contenus condamnables, à commencer pour protéger les intérêts des ayants droits d’oeuvres copiées ou piratées. Mais leur implication s’arrête là. Elles ne se jugent pas responsable des contenus qui y sont diffusés, la responsabilité incombant aux utilisateurs selon les conditions générales d’utilisation et les lois en vigueur sur leur territoire. En résumé, Facebook, Twitter ou YouTube se défaussent de toute responsabilité alors même qu’ils mettent à disposition des individus des moyens colossaux de diffusion à l’échelle planétaire et qu’ils leur confèrent le pouvoir immense de décider en toute subjectivité de ce qui est vrai ou faux, inexact ou incomplet, de ce qu’il est bon ou non de partager.

Le second est que la présence de ces plateformes sur l’ensemble de la planète rend plus complexe l’identification de contenus véhiculants de fausses informations. Cela nécessite de bénéficier des attributs d’un média et des compétences de journalistes à même de croiser les informations, vérifier les sources et mettre en perspective. Les plateformes sociales pourraient, sur le modèle de Wikipédia, recourir à la vérification des membres selon le traditionnel argument de la sagesse des foules. Mais contrairement à Wikipédia qui demande à ce que les contenus mis en ligne soient sourcés, la production de contenus sur Facebook ou Twitter n’est pas concentrée sur des pages thématiques concentrant les divergences d’opinion ou d’analyse et aucun sourcing n’est imposé. Chacun des 1 milliard 700 millions d’inscrits sur Facebook est à la fois producteur, diffuseur et source d’information, sans qu’aucun filtre ne puisse évaluer la véracité du propos ni le vérifier. Comment Facebook ou Twitter pourraient-ils déterminer le vrai du faux pays après pays, continent après continent ?

Facebook, Twitter, Google ont fait un choix : la pertinence et la popularité plutôt que la véracité des informations

Le succès de Facebook repose en partie sur ses algorithmes. Leur rôle : définir quels seront les contenus les plus intéressants ou attractifs pour chacun de leurs utilisateurs. Il n’est nulle question ici de véracité mais de pertinence et de popularité. Après tout, la vérité est par essence subjective. C’est là un point commun avec Google que peu d’internautes perçoivent. Les résultats du moteur de recherche Google sont loin d’être neutres et il ne confère aucune crédibilité aux informations qu’il y présente, pas plus que Facebook ou Twitter. Les algorithmes déterminent pour chaque internaute les contenus les plus pertinents compte tenu de leur comportement sur Internet. Seuls les contenus accessibles à ses robots, les googlebots, peuvent y apparaître, et la majorité des contenus présents sur les plateformes sociales où se partage la majorité des opinions individuelles en est absente.

Pourquoi ? Parce que toutes les pages web dont les contenus ne sont consultables qu’après une connexion de l’utilisateur, avec un identifiant et un mot de passe, sont inaccessibles à ces robots (à l’exception près des contenus rendus volontairement publics lors de leur publication). Les médias et les plateformes sociales appellent cela des « wall garden », ou jardins clos, le système de connection faisant office de rempart contre les robots des moteurs de recherche. Les médias, en cherchant à monétiser leur audience en les rendant captives par une offre d’abonnement pour consulter l’intégralité des articles par ce biais, ont involontairement sapé leur capacité à concurrencer Google et les plateformes sociales. Ce qui est bon pour leur business ne l’est pas forcément pour la diversité d’opinion, l’esprit critique et la démocratie.

Qu’est-ce qu’une « bonne » information ?

Google comme Facebook l’ont compris depuis longtemps. La curation (sélection et agrégation) de contenus dans un monde de profusion d’informations et de rareté de l’attention demande la mise en place d’algorithmes. Confronté chaque jour à déterminer quels contenus seront les plus pertinents parmi des milliers à chaque seconde, et quel ordre leur donner dans la page de résultats (ou SERP), Google a mis en place un système algorithmique reposant sur des critères de vote. Chaque lien fait vers la page d’un site est considéré comme un vote en faveur de l’information qui s’y trouve, puisque un internaute ou un média se donne la peine de l’intégrer dans son propre contenu. Plus ces liens proviennent se sites Web anciens, constamment actualisés avec de nombreux contenus, et visités par des internautes, des sites référents en somme, plus Google les considère comme fiables. Plus le site faisant le lien est jugé fiable, plus le vote a de poids et bénéficie à la page de destination. Lorsque les plateformes sociales se sont développées dans les années 2000 jusqu’à devenir prépondérantes dans le quotidien des internautes pour consulter ou partager des informations, Google a fait évoluer ses algorithmes afin de prendre en compte la dimension sociale et les signaux qu’elle envoie. Plus un lien est partagé, commenté, liké, plus il est jugé populaire et par conséquence pertinent. Le système de votes devient alors plus complexe et Google, d’un moteur de recherche, devient un moteur de réponses personnalisées en fonction du comportement de l’internaute. Une « bonne » information pour Google est donc à la fois qualitative (promue par un site de référence et respectant les critères SEO de Google), pertinente pour chaque internaute (personnalisée), et populaire (signaux sociaux).

Google comme Facebook font évoluer leurs algorithmes pour satisfaire ce sentiment de pertinence individuelle. Si vous même et votre entourage véhiculez des idées de gauche ou de droite, jusqu’aux extrêmes, Facebook, Twitter, YouTube, et dans une moindre mesure Google, favoriseront la visibilité des contenus susceptibles de vous plaire à partir de votre comportement et celui de votre entourage : les sites et contenus que vous consultez, les likes que vous leur attribuez, vos partages, les pages ou groupes dont vous êtes fans ou followers, etc. Dans ce contexte, une « bonne » information n’est pas une information vérifiée, fruit d’une action humaine en fonction de contingences et législations nationales, une « bonne » information est une information contextualisée par rapport à son lecteur. La conception d’un algorithme ne repose pas sur la résolution d’une problématique dont toutes les dysfonctionnements auraient été pris en compte, mais à tenir compte de ces facteurs pour fournir un résultat viable. Ces algorithmes de curation de contenus ne sont donc pas conçus pour proposer ou présenter une information fiable en filtrant les fausses informations ou erreur, mais à fournir à chaque internaute son information compte tenu de son comportement.

Voici la réponse que Facebook a fait à Timothy Lee suite à sa critique à leur encontre dans Vox :

Nous croyons à la communication authentique, et nous sommes constamment à l’écoute de ceux qui utilisent Facebook et ne souhaite pas y voir de fausses informations. Dans le News Feed, nous utilisons différents signaux fondés sur les retours de nos communautés afin de déterminer quels posts sont susceptibles de contenir des informations incorrectes, et limiter leur diffusion. Dans les Tendances, nous surveillons différents signaux qui nous aident à vérifier que les sujets présentés sont réels, et que nous prenons des mesures pour empêcher l’apparition de contenus faux ou douteux.

Malgré ces efforts, nous comprenons que nous devrions faire beaucoup plus, et c’est pour cela que nous pensons important de continuer à  améliorer notre capacité à détecter les fausses informations. Nous sommes décidés à continuer cet effort et à améliorer les expériences de nos utilisateurs sur notre plateforme.

Il faut espérer que Facebook ne se contentera pas de se reposer sur des journalistes pour séparer le vrai du faux, mais qu’il sera capable de mettre tous ses effort dans la création d’algorithmes susceptibles de prendre autant en compte la véracité de l’information que sa popularité. Tout dépendra de sa capacité à privilégier le business ou d’assumer son pouvoir démocratique.

Author: Nicolas Bariteau Fondateur de The ThinkLab #Bordeaux #Paris Conseil/formation transformation digitale #stratégies Internet #webmarketing #businessmodel #communication www.thethinklab.fr