Ne régulez pas l’intelligence artificielle : régulez sa production

À l’aube de l’adoption d’une première loi sur l’intelligence artificielle (IA), l’État devrait penser à mobiliser sa position centrale dans l’écosystème d’innovation. Instaurer en amont des modèles démocratiques de production pourrait servir à faire face à la complexité des contextes d’usage de l’IA.

En 2019, mes collègues Lisiane Lomazzi, Joëlle Gélinas et moi avons publié l’une des premières critiques des politiques économiques de l’IA au Québec. Nous déplorions alors que l’encadrement éthique de l’IA n’ait pas de réel pouvoir sur l’industrie.

Depuis, le renvoi par Microsoft de l’entièreté de son équipe éthique a confirmé les limites d’une approche basée sur la bonne volonté des entreprises qui développent l’IA sans cadre contraignant pour les orienter.

Devrions-nous désormais nous réjouir de la pression exercée sur le gouvernement fédéral par les acteurs scientifiques et commerciaux du milieu qui le pressent d’adopter le plus rapidement possible le projet de loi sur l’intelligence artificielle et les données (C-27) déposé l’an passé? Plus restrictive que n’importe quel cadre éthique, la loi évitera probablement les préjudices les plus graves et les plus évidents.

Imprécisions et insuffisances

Depuis son dépôt, des voix discordantes se sont élevées envers le projet de loi C-27. Plusieurs critiquent son imprécision, notamment sur l’absence d’indications quant aux moyens mis en place pour évaluer et contrôler la dangerosité des systèmes d’IA.

Certaines, plus radicales, s’inquiètent de sa capacité à répondre à des problèmes qui dépassent le design de l’IA et ses usages socialement acceptables. Les problèmes de l’IA dépassent la technologie elle-même et dépendent souvent du contexte socio-politique dans lequel elle est introduite.

Les enjeux politiques de l’intelligence artificielle seront le sujet d’un atelier lors de la conférence La Grande Transition.

L’événement international La Grande transition est de retour à Montréal du 18 au 21 mai 2023 et présentera plus de 150 conférences à l’Université Concordia. Cet événement majeur rassemblera des expert·es en développement durable, des entrepreneur·es et des citoyen·nes engagé·es pour discuter et réfléchir à la transition hors du capitalisme, pour une alternative sociale et économique qui soit écologique, féministe, égalitaire et démocratique.

Pour en savoir plus : lagrandetransition.net

Dans le secteur de la santé, par exemple, ce type de législation devrait faciliter l’encadrement de la vie privée des patient·es. Cependant, la loi n’offrira aucune garantie quant aux risques que posent des technologies intégrant des systèmes d’IA relativement à l’accès et à la qualité des services publics.

L’exemple des plateformes numériques dans le secteur des soins à domicile – des genres d’« Uber des soins » – permet d’envisager des pistes de régulation plus adaptées aux multitudes et à la subtilité des problèmes qui émergeront.

Réguler l’ubérisation des services à domicile

En ce moment, au Québec, l’organisation des soins à domicile subit des transformations majeures qui exacerbent un modèle de travail précaire favorable à l’économie de plateforme. Le gouvernement a entrepris de réduire le coût des soins à domicile, auparavant intégrés au système public, en transférant leur responsabilité vers les bénéficiaires, qui doivent engager et gérer des travailleur·euses autonomes rémunéré·es par l’argent public.

Étrangement, les bénéficiaires sont légalement devenus des employeurs, même s’ils n’ont pas de contrôle sur l’offre de services. Les heures de soins remboursées sont non seulement insuffisantes pour satisfaire les besoins des bénéficiaires, mais le recrutement est difficile, car les conditions de travail sont mauvaises (bas salaire, aucune garantie d’emploi et risque de blessure). Les bénéficiaires et les travailleur·euses ont écopé de cette privatisation qui rend les services insuffisants et l’organisation inefficace.

Ce contexte représente une occasion d’affaires prometteuse pour les plateformes qui intègrent des systèmes d’IA dans leur fonctionnement. En effet, des plateformes comme Staffy ou Alayacare mettent travailleur·euses et employeurs en contact. Elles disent intégrer de l’IA et reçoivent du financement public pour perfectionner leurs technologies. À la façon d’Uber, elles distribuent le travail selon des critères géographiques, d’horaire, d’expérience et de besoins.

Face à la probable dissémination de ces plateformes dans notre système public de soins, il faut se demander comment et qui fixera les balises qui serviront à la répartition des ressources.

Les problèmes de l’IA dépassent la technologie elle-même et dépendent souvent du contexte socio-politique dans lequel elle est introduite.

Ces plateformes pourraient améliorer l’efficacité de la distribution du travail de soins à domicile. Mais dans un contexte où les salaires sont fixés par l’État, les plateformes seront-elles responsables de s’assurer qu’aucun bénéficiaire n’est laissé pour compte parce qu’il est trop éloigné, nécessite des soins trop spécialisés ou n’a pas suffisamment d’heures de travail hebdomadaires à offrir? Les préjudices élevés d’un manque de services relèveront-ils du fonctionnement de la machine ou des faibles conditions de travail?

Dans les conditions actuelles de l’intégration des technologies, les personnes âgées et les personnes handicapées ne bénéficieront pas équitablement des capacités de l’IA tant qu’elle ne vise pas une amélioration des services et n’intègre pas des critères qui visent l’atteinte d’une égalité de l’accès et de la qualité. Il faut donc trouver des moyens pour que ces exigences soient intégrées.

Réguler le support étatique à l’industrie

Considérer la multitude des lieux d’insertion de l’IA dans nos vies, cela force à imaginer des pistes de régulation qui viseront les conditions de production de l’IA. Plutôt que de seulement empêcher certains types d’IA d’être créées, comme le projet de loi C-27 le propose, il faut se donner les moyens de réguler le type de technologies désirables socialement.

À l’heure actuelle, la balle est dans le camp de l’État qui garde encore une position influente dans la course à l’innovation. Contre vents et marées, les résultats technologiques impressionnants auxquels nous faisons face aujourd’hui sont le résultat de plus de 80 ans de financement public dans la recherche fondamentale.

Et maintenant que les systèmes d’IA fonctionnent, le secteur privé n’assume toujours pas seul les risques qui accompagnent l’innovation. Plusieurs recherches ont documenté les formes et l’ampleur du soutien gouvernemental à la commercialisation de la recherche.

L’innovation technologique requiert désormais des innovations politiques et sociales.

Cette position centrale de l’État dans l’écosystème de l’IA pourrait aussi servir à tester de nouvelles formes démocratiques de développement technologique, où les entreprises ne contrôlent pas entièrement les produits finaux.

Cette occasion doit être saisie avant que les bénéfices des technologies soient encaissés par des groupes qui ne seront pas tenus responsables de leurs conséquences.

Dans le secteur des soins à domicile, les entreprises qui développent des systèmes utilisant l’IA profitent fortement du financement et des partenariats publics. Ce soutien public pourrait s’accompagner d’un contrôle plus restrictif qui impliquerait au moins des usager·ères, des préposé·es aux bénéficiaires et des proches aidant·es dans le design ainsi que dans l’évaluation des technologies. Une telle structure pourrait donner la chance de prévenir plutôt que de guérir des préjudices potentiels.

Il est impératif d’imaginer des balises pouvant prévenir des drames quotidiens et pas seulement éviter des catastrophes grandioses.

L’innovation technologique requiert désormais des innovations politiques et sociales.

Myriam Lavoie-Moore est postdoctorante à l’Australian National University, membre du Groupe de recherche sur l’information et la surveillance au quotidien (GRISQ) ainsi que du Centre de recherche interuniversitaire : communication, information, société (CRICIS).