philippevionduryGrand entretien avec PHILIPPE VION-DURY

Journaliste pigiste formé au CFJ, il est passé par Rue89 et Socialter avant d’écrire « La Nouvelle Servitude Volontaire », paru en octobre 2016. Un essai journalistico-politique qui s’intéresse aux grandes entreprises de la Silicon Valley et à la façon dont celles-ci, via les technologies, essaient de contrôler nos comportements, les prédire pour mieux capitaliser dessus et nous influencer de manière à nous faire rentrer dans la norme.

Dans votre livre, vous critiquez fortement les grandes entreprises qui ont recours aux algorithmes dans une démarche mercantile. Est-ce que les algorithmes se réduisent à ça ?

Le produit n’est pas vendu comme ça mais comme quelque chose conçu pour nous aider, nous suggérer des amis, une rencontre, un « match » sur Tinder le soir, etc. Mais en creusant un peu, on s’aperçoit qu’il n’y a pas que nos intérêts qui sont servis mais aussi ceux des entreprises qui utilisent les algorithmes pour capter notre attention. Souvent les outils qu’on utilise ont deux objectifs : un pour l’utilisateur et un pour le fournisseur.

Les algorithmes permettent donc d’amasser des données sur les utilisateurs ?

Après, les données ne sont qu’un moyen pour une fin. Ce qui compte, c’est ce que les entreprises arrivent à en faire. Ce dont on parle là, Facebook, Google, etc, ce sont des modèles prédictifs. C’est-à-dire qu’ils vont faire des corrélations de données et vont essayer de tirer des conclusions sur tes intentions, tes désirs ou tes futurs comportements.

Par exemple, si d’un coup une personne arrête de boire du vin et regarde des pubs pour des couches, ils peuvent en déduire qu’elle est enceinte. Cette information pourra ensuite intéresser un supermarché qui veut absolument attirer les futurs parents.

Quelle est la place des algorithmes dans la manière de s’informer aujourd’hui ?

Déjà, il y a deux manières de s’informer : les réseaux et la presse traditionnelle. L’algorithme a plusieurs actions. Une au niveau de l’accès à l’information et une autre au niveau de la production de l’information pour un journaliste.

Les techniques dont on se servait dans le ciblage publicitaire arrivent aujourd’hui dans le secteur de l’information pour connaître les goûts des lecteurs. C’est pour ça que depuis un an ou deux, des journaux développent des formules technologiques en interne leur permettant d’analyser les goûts de leurs lecteurs et de leur proposer une page d’accueil personnalisée. Le Washington Post fait ça avec Trove, le New York Times aussi avec News.me. Rien que le nom veut tout dire. Déjà, Nicholas Negroponte, un informaticien très connu du MIT (Massachusetts Institute of Technology), avait, à la fin des années quatre-vingt-dix, théorisé le DailyMe, un journal entièrement personnalisé.

Le deuxième changement, c’est la confection même de l’information. On parle de plus en plus d’avoir des rédacteurs en chef « algorithmes » qui seraient capables de repérer automatiquement les sujets « trendy », ceux qui sont promis à un avenir très viral.

Ça pose le problème de qui gère la hiérarchie de l’information. Ça a toujours été fait par un organe de presse, donc la question de la rentabilité existait déjà, mais elle était contrebalancée par des considérations et des déterminants éthiques, politiques, etc. Tout ça est un peu balayé par la logique des algorithmes qui se concentre uniquement sur « combien de gens vont être touchés ? », « combien vont lire ? » et « combien d’argent ça va faire dans les caisses à la fin grâce à la publicité ? ».

Est-ce qu’aujourd’hui on peut déjà parler d’algorithmes « rédacteurs en chef ultimes » ? Et donc demain encore d’avantage ?

Un rédacteur en chef, à la base, c’est quelqu’un qui écrit, qui a une vision pour son journal et sa rédaction, qui manage des hommes, etc. Pour ça, je pense que l’algorithme ne sera jamais un rédacteur en chef à part entière.

Néanmoins, quand on a travaillé en rédaction à l’heure du web, on voit que les rédacteurs en chef passent énormément de temps sur les réseaux sociaux, sur les sites des concurrents pour flairer les sujets un peu « trendy » qui peuvent intéresser un public large. Et effectivement, ça, les algorithmes peuvent complètement le faire à leur place.

Évidemment, demain si on dit à des actionnaires d’un grand journal : « On peut remplacer vos rédacteurs en chef à moindre coût moyennant un truc automatisé », c’est intéressant pour leur logique économique.

Maintenant, est-ce que ça passera ? Un journal c’est aussi un rapport de force social. Est-ce que les journalistes et les gens de terrain voudront se faire imposer des sujets par un algorithme automatisé ? C’est un peu moins sûr.

Et du coup, dans le pire des cas, on irait vers une forme de dépossession des journalistes ?

Tous les algorithmes généralement répondent à une logique d’optimisation. Et l’idée, c’est que l’humain est faillible et arbitraire. On met en avant que ça va optimiser les capacités de décision, qu’il y aura moins d’erreurs puisque c’est supposément « rationnel ». Mais quand on fait ça, on se démet d’un pouvoir de décision : c’est un dispositif automatisé, fait par des ingénieurs et qui va balayer tout ce qui est de l’ordre de l’éthique, de la concertation entre journalistes, entre êtres humains. Le tout sous un capot de rationalité, de mathématiques, qui coupent encore plus le débat.

Donc oui, on est dépossédés. Mais est-ce le rôle d’un journal de ne jamais faire d’erreur ? De toujours prendre des sujets qui marchent ? Non. Un journal c’est des erreurs, des choix qui relèvent d’engagements, d’une équipe professionnelle. Ce n’est pas du tout la logique du parfait, du rentable ou de l’optimisé.

Ça c’est du point de vue des journalistes. Mais quels sont les changements à attendre pour les lecteurs ?

A priori, le lecteur lit un journal pour être surpris, pour découvrir quelque chose qu’il ne connaît pas, pour s’informer. Et justement, la logique d’un algorithme est tout le contraire : elle consiste à vous enfermer dans le « qu’est-ce qui va les intéresser à coup sûr ? ».

À ce sujet, Eli Pariser, le co-fondateur de Avaaz a théorisé le concept de « bulle filtrante ». Il s’est rendu compte qu’à force de vouloir enfermer les utilisateurs dans un cadre précis, délimité et idéologique, les réseaux sociaux, Facebook en particulier, ont créé des « chambres d’écho ». Les libéraux parlent entre libéraux, les conservateurs entre conservateurs, etc. En voulant que les gens se sentent bien sur leur réseau, à l’aise parmi « les leurs », ils les ont isolé.

Et on voit que c’est un problème qui est extensible au journal : est-ce que le rôle d’un journal c’est de nous enfermer dans une bulle de confort ? Non, mais c’est un risque que comportent les algorithmes.

En quoi la démocratie et la cohésion sociale sont-elles atteintes ?

Je dirais que cela va au-delà de l’information, c’est la logique de la « personnalisation ». Aujourd’hui, un mec bien connecté utilise Spotify pour ses playlists personnalisées, va sur YouTube qui lui suggère les vidéos à regarder, sur Netflix où 75% des vidéos sont visionnées après avoir été recommandées par un algorithme, tout comme son newsfeed sur Facebook. On voit bien que notre accès à ce qu’il se passe dans le collectif est de plus en plus soumis à cette logique.

On est ramenés à des schémas de goûts, d’intentions, d’achats préférentiels qui sont toujours les mêmes. Parce que les entreprises qui sont derrière ont tout intérêt à ce qu’on ne change pas, à nous enfermer, en fait. Et c’est pas du tout un truc complotiste, c’est juste une logique : celle de la rentabilité. Quelqu’un de prévisible est rentable.

Jusqu’ici on était plutôt dans un monde copernicien : la société était le soleil et tout le monde gravitait autour. Et là, on entre de plus en plus dans un monde ptoléméen, c’est à dire que chacun devient le centre de son univers et tout l’univers social et culturel se met en mouvement autour de nous, de nos préférences, de nos envies et de nos désirs. Or ça, je ne vois pas comment ça peut être générateur de lien social.

Est-ce que vous pensez que dans cinquante ans on sera au « tout algorithmes » ?

Si on prend la logique des choses telle qu’elle est aujourd’hui, et qu’on la poursuit sans interruption, la réponse est oui. Néanmoins, je pense que d’ici cinquante ans on aura largement le temps de voir ce système rentrer en crise et s’effondrer, du fait de ses propres contradictions. Je ne crois pas que les gens puissent se laisser embarquer dans un truc aussi automatisé et déshumanisé.

Propos recueillis par Jaël Galichet et Maïder Gérard.