Le capitalisme a développé une nouvelle façon de créer de la valeur. Ce nouveau mode, basé sur les algorithmes, vient bouleverser le monde du travail, la vie domestique, les pouvoirs politiques et même notre expérience du temps. Ce « capital algorithmique », loin d’être simplement « virtuel », fonctionne comme une industrie extractive, exploitant les ressources naturelles, les travailleur·euses et aussi les utilisateur·trices. Nous avons grand besoin d’une sobriété technologique au service du bien commun, plaident les auteurs du livre Le Capital algorithmique.
Pivot s’est entretenu avec Jonathan Martineau, co-auteur du livre, politologue et professeur à l’Université Concordia.
Le capital algorithmique : accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle.
Jonathan Durand Folco et Jonathan Martineau, Écosociété, 2023, 492 pages
Vous parlez de « capital algorithmique », mais pourquoi avoir utilisé ce terme de « capital » ? Que veut-il dire ?
Jonathan Martineau : C’est un concept qui est présent chez Marx et dans la tradition des théories critiques et c’est un terme qui a plusieurs facettes, plusieurs aspects.
[Un de ces aspects], c’est qu’on voit le capital comme une logique d’accumulation, comme un processus de mise en valeur des actifs. Il y a de nouveaux modes d’accumulation du capital qui sont assez différents des modes d’accumulation classiques.
[Dans ces modes classiques], on a des moyens de production et on a du travail. On met les deux ensembles et on produit de la valeur, qu’on distribue ensuite sur le marché.
Or, la valeur chez les GAFAM (Google, Amazon, Facebook, Apple et Microsoft) et chez les compagnies algorithmiques [n’est pas uniquement produite comme ça] : elle est également produite par l’extraction massive de données auprès de gens qui ne sont pas des employé·es de la compagnie, qui ne sont pas rémunéré·es, qui sont souvent des utilisateur·trices des applications.
Avec la nouvelle économie algorithmique, il y a tout un pan du temps de loisirs qui est passé en ligne, qui participe à la production de valeur économique, mais qui n’est pas rémunéré.
Cette extraction massive de données est monétisée par la suite. Les données peuvent être vendues. Elles peuvent aussi être transformées en produits pour prédire [des comportements de consommateur·trices ou d’électeur·trices], qui sont ensuite vendus à des annonceurs.
Il y a donc une nouvelle logique d’accumulation.

Ce n’est pas que la façon classique du capitalisme d’accumuler est caduque, pas du tout. C’est qu’elle a été supplémentée par une nouvelle logique qui reconfigure certains des rapports de base de la société capitaliste.
Qu’est-ce qui vous fait dire que cela représente un véritable changement de phase du capital ?
Jonathan Martineau : Ce n’est pas seulement qu’il y a une nouvelle forme de capital qui est algorithmique, avec les GAFAM, et puis qu’il y a le reste de l’économie à côté qui continue à fonctionner comme avant.
Il y a vraiment une transition historique [de toute l’économie]. On était dans un mode de capitalisme qui était appelé néolibéral, financiarisé ou mondialisé, et nous on croit que ce stade-là a été dépassé [par le capital algorithmique].
Par exemple, si on fait un classement des plus grandes compagnies au monde en 2007, juste avant la crise économique, ce sont surtout des compagnies financières et des compagnies d’extraction de ressources naturelles qui sont dans le top dix. Si on regarde le classement en 2019, on voit que ce sont maintenant les GAFAM et leurs équivalents chinois qui dominent le classement.
Ce nouveau pôle d’accumulation capitaliste a aussi commencé dans les dernières années à « recoloniser » les autres secteurs de l’économie.
Il y a par exemple le secteur industriel, où on voit que la production manufacturière produit de plus en plus des objets connectés, avec des senseurs ou avec des façons de capter des données. Ça affecte le domaine minier, l’agriculture, l’industrie des énergies fossiles. C’est difficile aujourd’hui de trouver un secteur économique qui n’est pas révolutionné par les données massives, par les algorithmes, par ces façons de produire de la valeur.
On entend parfois que l’intelligence artificielle (IA) va venir automatiser les emplois et tou·tes nous mettre au chômage. Partagez-vous cette idée ?
Jonathan Martineau : L’idée de la « société des loisirs », une espèce de vie rêvée où des machines s’occupent des tâches ingrates et où les humains ont le temps de socialiser, de se reposer, de créer de l’art, cette idée date du dix-neuvième siècle. Il y avait des économistes qui se demandaient : « est-ce que le déploiement des machines va réussir à libérer le temps pour que les humains puissent faire d’autres choses » ?
Ce qu’on voit tout au long du développement du capitalisme, c’est que non, pas vraiment.
Ce dont on se rend compte dans l’histoire du capitalisme, c’est que lorsque de nouvelles machines sont introduites, ça ne libère pas le temps de travail. Au contraire, ça l’intensifie, ça le pressurise, ça le précarise. On voit exactement la même logique qui se déploie de nos jours avec le déploiement des technologies algorithmiques dans le monde du travail.
« Au lieu d’automatiser les choses plates qu’on n’a pas envie de faire, on automatise la poésie, l’art, l’illustration, ce qui devrait être le fun et nous on se ramasse avec les tâches monotones. »
Il y a eu un premier « hype » autour des années 2010 autour l’arrivée des véhicules autonomes, avec l’idée qu’il n’y aurait plus de chauffeur·euses de camion. Cela s’est estompé rapidement.
Ce qu’on voit maintenant, surtout avec l’arrivée de ChatGPT, c’est [le même discours] sur le plan du travail cognitif : « On n’aura plus besoin d’auteur·es, d’écrivain·es. On n’aura plus besoin d’artistes. On fait tout ça machinalement, maintenant. »
Mais, quand on regarde les types d’emplois qui sont affectés par les technologies algorithmiques, ce dont on se rend compte, c’est qu’ils ne disparaissent pas nécessairement, mais ils sont reconfigurés, les tâches associées à ces emplois-là changent.
Oui, il y a des pertes d’emplois. Oui, il y a des secteurs qui sont fortement touchés. Oui, il y a des gens qui craignent pour leur emploi, et avec raison. Mais ce qu’on voit surtout, c’est que ces emplois-là changent de nature et deviennent des emplois d’assistance aux algorithmes. En ce moment avec ChatGPT, plutôt que d’avoir des tâches créatives, on va devoir éditer ce que ChatGPT produit.
Les tâches monotones sont maintenant les tâches dont les humain·es héritent. Pour revenir au mythe de la société des loisirs, au lieu d’automatiser les choses plates qu’on n’a pas envie de faire, on automatise la poésie, l’art, l’illustration, ce qui devrait être le fun et nous on se ramasse avec les tâches monotones. Il y a donc un renversement qui est un peu inquiétant.
Y a-t-il un usage positif qu’on pourrait tirer de ces technologies ? Le rêve socialiste de la planification de l’économie a été un échec jusqu’à présent. Est-ce que ces algorithmes pourraient être la solution ?
Jonathan Martineau : C’est une excellente question. Avec le déploiement des algorithmes dans les dernières années, on a vu Amazon, par exemple, qui est capable de coordonner un réseau planétaire de distribution. Ce réseau qui fait que tu cliques et puis il y a quelque chose devant ta porte quelques heures plus tard. C’est quand même assez impressionnant !
Ce n’est pas juste la loi du marché, ce n’est pas juste l’offre et la demande : c’est une organisation algorithmique de la production, de la distribution des biens.
Évidemment, il y a beaucoup de socialistes et de gens à gauche qui se demandent si on peut utiliser des algorithmes pour planifier l’économie de façon centralisée ou décentralisée, et quelles seraient les limites de cela.
Dans le livre, on défend que les algorithmes peuvent avoir des fonctions positives de planification. Mais il y a aussi des problèmes qui font en sorte qu’on ne peut pas simplement les développer de façon effrénée.
Selon certains, on développe les algorithmes au maximum, on développe l’IA au maximum, on développe des robots pour aller miner des ressources sur les astéroïdes et on se débarrasse des capitalistes entretemps. Et là, on aurait une société des loisirs où les besoins primaires de la population et même les besoins de luxe seraient satisfaits.
Nous, on pense qu’en fait, il y a des limites importantes sur le plan de la technologie algorithmique elle-même.
C’est très difficile pour les observateur·trices humain·es de comprendre les raisons qui amènent un algorithme à prendre telle ou telle décision. C’est ce qu’on appelle le problème du « black box » [boîte noire, terme venant du fait que l’on ne voit pas ce qu’il y a à l’intérieur] et dans la littérature scientifique, ça s’appelle le problème de l’« explicabilité ».
« Donc la planification [de l’économie] est possible, mais ça crée un problème sur le plan de la démocratie. »
Nous, on pense que ça, c’est une limite importante sur le plan de la démocratie. Si on veut garder le contrôle politique du côté de la démocratie, de la délibération démocratique, mais qu’on a des processus et des décisions qui sont rendues [par les algorithmes] et qu’on n’est pas capable d’expliquer pourquoi, ça devient difficile de donner une validation démocratique ou d’en débattre.
Donc la planification est possible, mais ça crée un problème sur le plan de la démocratie.
Et on risque de se retrouver avec une centralisation autour d’une technocratie très particulière, une petite clique de programmeurs qui comprennent comment le tout marche. Ça peut développer de nouveaux rapports de pouvoir qui pourraient être problématiques.
Vous rappelez que le monde supposément virtuel des algorithmes a en fait un poids écologique important et vous lancez un appel à la « techno-sobriété ». Qu’est-ce que ça veut dire ?
Le problème le plus important à mon avis, c’est le poids environnemental du développement des technologies dans un contexte de crise climatique et de crise environnementale.
« Il faut penser à un rétrécissement du monde algorithmique, il faut penser à des espaces et des temps qui ne sont pas « algorithmisés ». Sinon, la prolifération des algorithmes nous pousse tout droit vers une accélération de la crise climatique. »
Souvent, la façon dont les technologies algorithmiques et l’IA sont présentées, c’est comme une technologie « nuagique », qui flotte dans l’air, déconnectée du plancher des vaches, déconnectée des processus d’extraction [des ressources naturelles].
Dans le livre, on présente l’intelligence artificielle comme une industrie extractive, c’est-à-dire qu’il y a une infrastructure matérielle qui supporte les algorithmes, l’IA et la technologie en général.
Donc là, on se retrouve devant une espèce de mur. Si on veut continuer à développer des algorithmes, il y a des enjeux environnementaux : sur le plan de l’empreinte carbone, du réchauffement climatique, de l’utilisation de l’eau, de l’extraction de métaux rares, de la dégradation des sols, etc.
Oui, on pourra utiliser des algorithmes pour planifier l’économie, mais en même temps, il faut penser à un rétrécissement du monde algorithmique, il faut penser à des espaces et des temps qui ne sont pas « algorithmisés ». Sinon, la prolifération des algorithmes nous pousse tout droit vers une accélération de la crise climatique.
On utilise le terme « techno-sobre », on espère un monde post-capitaliste et techno-sobre.
Dans ce monde, on déploie les technologies non pas pour faire des profits, mais pour le bien commun. On rétrécit le monde numérique et le monde des algorithmes à des usages qui ont été décidés démocratiquement, des usages qui respectent les principes de justice sociale et les principes de justice environnementale.