UNIR pour désunir

Michel Fortier
Les derniers articles par Michel Fortier (tout voir)

Quand l’État abdique… et se trompe d’usage

Michel Fortier– Le récent reportage de l’émission Enquête sur le système UNIR soulève une question qui dépasse largement la seule gestion de l’aide sociale : jusqu’où l’État peut-il déléguer ses responsabilités à des systèmes automatisés1,2,3 ?

Déployé discrètement il y a un an au sein du ministère de l’Emploi et de la Solidarité sociale (MESS), UNIR devait moderniser et simplifier le traitement des dossiers. Il s’agit en fait d’un système informatique qui permet de gérer électroniquement les dossiers d’aide sociale et de les rendre accessibles à tous les agents du MESS. Il centralise les dossiers, élimine l’agent attitré et attribue automatiquement les tâches grâce à un algorithme. Il devait moderniser les services d’assistance sociale, réduire les délais de traitement, uniformiser la gestion des dossiers et remplacer des systèmes informatiques vieillissants. Le MESS n’a pas divulgué publiquement le nom du développeur ou du fournisseur informatique. Le projet est interne au gouvernement du Québec et aurait coûté environ 31 à 32 millions de dollars.

La véritable question

Il y a, dans le déploiement du système UNIR, quelque chose de plus grave qu’un simple raté administratif. Ce que révèle le reportage de l’émission Enquête1, ce n’est pas seulement un bogue informatique. C’est un basculement. Un basculement silencieux, mais profond : celui d’un État qui commence à déléguer ses responsabilités fondamentales à des systèmes automatisés et, ce faisant, qui se trompe peut-être de cible.

Car la question n’est pas de savoir s’il faut utiliser l’intelligence artificielle. Elle est déjà là, et elle peut être utile. La véritable question est plutôt : à qui et comment doit-elle servir ?

Dans le cas d’UNIR, tout se passe comme si l’on avait choisi de remplacer, plutôt que d’accompagner.

Pourtant, l’intelligence artificielle aurait pu jouer un tout autre rôle. Elle aurait pu soutenir les fonctionnaires :

  • en accélérant le traitement de l’information
  • en signalant les incohérences dans les dossiers
  • en facilitant le suivi des demandes

Bref, elle aurait pu devenir un levier d’efficacité au service du jugement humain. Au lieu de cela, elle tend à s’y substituer. Et c’est là que le problème prend toute son ampleur.

L’aide sociale n’est pas un service comme les autres. Elle s’adresse à des personnes dont les parcours sont souvent marqués par la fragilité, l’imprévu, la rupture. Vouloir traiter ces réalités à coups de règles automatisées, c’est supposer que la vulnérabilité peut se standardiser. Or, elle ne le peut pas.

Ce que dénoncent les organismes, ce sont des erreurs, des délais, des décisions incompréhensibles. Mais plus profondément, ce qu’ils décrivent, c’est une disparition : celle de l’interlocuteur. Quand le système bloque ou dérape, il n’y a plus personne, plus de regard, plus de jugement, plus de responsabilité identifiable. 

L’État devient une procédure. Et dans cette transformation, quelque chose se perd, quelque chose d’essentiel. Car gouverner, ce n’est pas seulement administrer des dossiers. C’est assumer des décisions, répondre de leurs conséquences, reconnaître les situations particulières. 

Un algorithme qui ne répond pas

Ce déplacement de responsabilité n’est pas anodin. Il s’inscrit dans une logique plus large, celle d’une gestion publique qui emprunte au secteur privé ses réflexes d’optimisation et de contrôle. L’humain y devient une variable à gérer, une exception à encadrer, parfois même un problème à corriger.

Mais en cherchant à gagner en efficacité, on risque ici de perdre en intelligence, au sens le plus humain du terme. Car la véritable modernité ne consiste pas à remplacer l’humain par la machine, mais à outiller et assister l’humain pour qu’il décide mieux.

À l’heure où l’IA Claude, développé par Anhtropic, refuse de céder au gouvernement américain des algorithmes susceptibles de tuer des êtres humains sans responsabilité humaine, on peut penser qu’il est irresponsable de la part de notre gouvernement de laisser des algorithmes prendre des décisions par-dessus la tête des fonctionnaires. Et là-dessus vous me permettrez cette analogie; il serait heureux qu’on se souvienne des trois lois de la robotique de Isaac Asimov, afin de ne pas dépendre de systèmes qui peuvent devenir une menace pour l’humain. 

Les trois lois de la robotique d’Asimov

  • Première loi : un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu’un être humain soit exposé au danger.
  • Deuxième loi : un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi.
  • Troisième loi : un robot doit protéger son existence tant que cette protection n’entre pas en contradiction avec la première ou la deuxième loi.

UNIR semble avoir pris le chemin inverse

Il ne s’agit pas de refuser la technologie. Elle est nécessaire, inévitable même. Mais elle ne peut devenir un écran derrière lequel l’État se retire, ni un mécanisme qui réduit la capacité d’intervention de ceux qui sont en première ligne. Car au bout du compte, une question demeure, simple et fondamentale : quand une décision cause du tort, qui en répond ? Si la réponse devient floue, alors ce n’est pas seulement un système qui est en défaut. C’est le contrat social lui-même qui commence à s’effriter.

Dans ce contexte, la conférence proposée par l’OBVIA4 arrive à point nommé. En plaçant les enjeux sociaux, juridiques et humains au cœur de la réflexion sur l’intelligence artificielle, elle rappelle une évidence trop souvent oubliée : ces outils doivent être conçus et utilisés au service des personnes, et non à leur place.

La conférence consacrée à UNIR ne portera donc pas seulement sur un logiciel, mais sur un choix de société. Elle offre l’occasion de mieux comprendre les dérives possibles d’un système déployé sans garde-fous suffisants, et surtout, de réaffirmer que l’innovation publique ne peut se faire au détriment de la responsabilité humaine.

Références : 

Le deuxième segment de FIFA la machine à sous : https://ici.radio-canada.ca/tele/enquete/site/episodes/1158856/fifa-la-machine-a-sous

Article du Devoir : https://www.ledevoir.com/politique/quebec/966938/ministre-rouleau-fait-fi-rates-virage-numerique-aide-sociale?

Article de Radio-Canada : https://ici.radio-canada.ca/nouvelle/2242101/virage-numerique-aide-sociale-quebec-critiques ?

OBVIA : Confier l’aide sociale à un algorithme : regard sur le programme UNIR. Une conférence qui se tiendra le 17 avril https://www.obvia.ca/evenements/confier-laide-sociale-a-un-algorithme-regard-sur-le-programme-unir

print