top of page

Article rédigé par :

Fabrice Epelboin

Gouvernements et IA sont dans un bateau. Qui tombe à l’eau?

ia
© Canva

Il fut un temps, pas si lointain, où les décisions politiques étaient prises au cours d’un repas raffiné dans des salons lambrissés, entre deux intrigues, au rythme des alliances et des improvisations lyriques. Puis vinrent les think tanks, les consultants et les lobbies, leurs enveloppes remplies de billets et leurs postes grassement rémunérés promettant un pantouflage en guise de retraite anticipée. Mais voilà qu’en 2025 arrive l’intelligence artificielle, qui se propose comme nouveau conseiller du prince. Fini Machiavel, bonjour ChatGPT. L’avenir appartient peut-être aux machines — ou du moins à ceux qui savent s’en servir pour gouverner, administrer et... prendre le pouvoir, ou le conserver.


Le phénomène n’est pas de l’ordre de la science-fiction, c'est bel et bien une expérimentation grandeur nature qui a lieu depuis peu de temps. Une poignée de gouvernements ont décidé de confier des responsabilités bien réelles à des lignes de code et du silicium. Les IA, ces adjoints zélés, s’invitent désormais à la table des politiques avec leurs corrélations, leurs prédictions, leur logique froide faite de statistiques et la crainte de voir une myriade de dystopies hollywoodiennes se rapprocher encore un peu plus de nous.


Prenons Singapour, cette ville-État à mi-chemin entre la Silicon Valley et un parc à thème autoritaire. Là-bas, un système sobrement nommé GreenMind — l’esprit vert, rien que ça — s’est vu confier la délicate tâche d’optimiser les politiques environnementales. Elle scrute les particules fines, les flux de circulation ou la consommation énergétique des citadins pour ensuite leur dicter les moments opportuns où ils pourront encore rouler dans leur berline polluante ou profiter d’une réduction fiscale pour améliorer la performance énergétique de leur habitat. Le résultat laisse pantois: une baisse qui peut aller jusqu’à 12% des émissions de CO2 dans certains quartiers. Bravo, l’IA. Moins d’asthmes pour les enfants, plus de bonus pour les entreprises vertes. Quand on pense à la France et ses ZFE qui excluent des villes les populations pauvres et dont la justification s'appuie sur des études scientifiques dont la rigueur ferait sourire un bachelier, on est en droit de pouffer de rire. Tant qu’à faire dans l’autoritaire, autant le faire sérieusement.


«Personne ne sait vraiment comment GreenMind décide ce qui est bon pour l’atmosphère»

Mais derrière cette prouesse écologique se cache une autre histoire: celle d’un urbanisme piloté par une boîte noire algorithmique. Personne ne sait vraiment comment GreenMind décide ce qui est bon pour l’atmosphère, comme tous les algorithmes d’IA, celui de GreenMind n'est pas déterministe, entendez par là qu’il est impossible d’expliquer un résultat en regardant son code. Ce n’est pas tout à fait de la magie, mais ça y ressemble fort. Les citoyens, eux, doivent se contenter de respirer en silence, pendant que les serveurs moulinent des exaoctets de données. Ils obéissent à une intelligence qu’ils ne comprennent pas, mais qui, paraît-il, sait ce qu’elle fait. Dans un régime autoritaire, ça marche.


Changement de décor, jetons un œil au Canada, ce grand pays qui flambe — au sens propre du terme — chaque été. En 2025, les incendies de forêt ont atteint une ampleur spectaculaire. Afin d’éviter que le pays entier ne devienne un brasier, les autorités ont sorti l’artillerie lourde: une IA baptisée FireShield. Le bouclier du feu. Là aussi, tout est dans le nom. Cette créature numérique ingère des images satellites, des données météorologiques ou encore des rapports de terrain, et en sort des instructions: qui évacuer, quand, où concentrer les camions de pompiers, quels axes routiers fermer, etc.


Il faut reconnaître que FireShield a fait preuve d’une certaine efficacité. Vingt mille personnes ont été évacuées plus vite que l’éclair — plus vite que ne l'aurait permis une armée de fonctionnaires. Sauf que, dans son élan, l’IA a un peu paniqué. On appelle ça des hallucinations. Certaines zones ont été vidées de leurs habitants sans réelle nécessité. Des gens ont quitté leurs maisons pour rien, parfois dans la confusion et la panique. Une performance algorithmique légèrement trop enthousiaste. Une IA trop prudente, ou trop mal calibrée, on ne sait pas.


«Qui est responsable quand une machine se trompe?»

Car le fond du problème est bien là, qui est responsable quand une machine se trompe? L’algorithme? Le ministère? Le type qui a écrit le code? Mystère. En attendant, le citoyen, lui, reste évacué. Et dans le doute, il obéit — surtout au Canada qui a basculé dans l’autoritarisme avec le Covid. Rares sont ceux qui sont prêts à se faire radier du système bancaire ou incarcérer pour faire valoir leurs libertés individuelles dans les moments de crise.


Pas loin de là, à Wilmington dans le Delaware, une petite ville américaine qui n’est pas vraiment l’endroit où l’on s’attend à voir des expérimentations futuristes, c’est une IA qui a permis de récupérer plus d’un million de dollars de factures d’eau impayées. Comment? En ciblant les habitants via des publicités personnalisées. Vous devez de l’argent? L’IA le sait. Elle vous le rappellera avec des images bien choisies sur vos sites préférés. C’est propre, silencieux, efficace — et sans un seul agent de recouvrement à l’horizon. Et ça marche.


Plus près de nous, au Royaume-Uni, le gouvernement a adopté l’IA avec la même ferveur, en particulier pour améliorer les services aux citoyens et faciliter les décisions liées au commerce. On parle ici de recommandations automatiques sur les exportations, d’allocations de subventions modulées par des algorithmes. Là encore, c’est propre, rapide, et un peu inquiétant. Les modèles sont rarement transparents, les recours juridiques inexistants. Mais tant que ça «marche»...


L’Allemagne, elle, a choisi de confier une partie de sa justice aux machines. Le bot OLGA, développé avec IBM, aide à trier les affaires judiciaires et à accélérer le traitement des dossiers liés au scandale du DieselGate. C’est un outil de désengorgement, censé fluidifier une machine judiciaire lente. La Justice s’en trouve accélérée, certes, mais pas autant qu’en France où, au final, on a étouffé l’affaire sous le regard bienveillant d’une presse complice. Les politiciens français, si prompts, avec les ZFE, à enfoncer encore plus dans la misère les zones périurbaines et leurs vieilles voitures diesel au nom des particules fines et de leur impact sur la santé, sont plus coulants quand il s’agit de sanctionner un géant industriel.


«Le pouvoir algorithmique, en Chine, ne conseille plus. Il juge. Il sanctionne»

Comment, enfin, ne pas évoquer la Chine, qui sans surprise va bien plus loin. L’IA y alimente le célèbre système de crédit social que tout le monde redoute en Europe, notamment à travers un Euro numérique qui fait l’unanimité face à lui. Dans l’empire du milieu, l’IA observe les comportements — consommation, lectures sur internet, publications en ligne ou déplacement dans l’espace urbain — et en déduit une note pour chaque citoyen. Un mauvais score, et vous voilà interdit de vol intérieur, privé de prêt bancaire, voire rayé des listes d’emplois publics. C’est Orwell sous stéroïdes. Le pouvoir algorithmique, ici, ne conseille plus. Il juge. Il sanctionne.


C’est là que les questions sérieuses commencent à se poser. Car une IA peut être rapide, précise, infatigable. Elle peut analyser dix ans de données climatiques pendant que vous cherchez encore vos lunettes. Elle peut vous proposer des allocations budgétaires optimales, identifier des inefficacités, traquer les doublons comme les criminels. Elle peut même, dit-on, être neutre — une affirmation qui fait rire tous les spécialistes. Mais elle n’est pas responsable. Elle ne rend pas de comptes. Elle ne se présente pas aux élections.


Mais surtout, l’IA forge ses décisions à partir de données qui, elles, sont profondément humaines — donc biaisées, fragmentaires, ancrées dans des passés parfois douteux. Une IA nourrie aux statistiques néocoloniales vous reproduira les logiques néocoloniales, avec efficacité et politesse. Une IA formée sur des décennies d’inégalités sociales n’aura aucun scrupule à les perpétuer, tant que les chiffres sont bons. Une IA se basant sur les mesures d'un pays qui s’effondre, comme la France ou l’Angleterre, ne fera qu'améliorer le processus. Le problème n’est pas que l’IA pense mal — c’est qu’elle pense comme ce qu’on lui a donné à manger.


La transparence? Un concept qui n’a plus vraiment de sens au vu de la nature même des algorithmes propres à l’IA, et qui défie la logique des décideurs politiques dont la formation intellectuelle est tellement loin des mathématiques qu’ils ont une compréhension du code à peine plus sophistiquée qu’un élève de primaire, et encore, elle est, le plus souvent, construite à partir de discours marketing soufflés par de généreux lobbies. Polarisation de l’opinion oblige, les associations et les ONG qui, hier encore, faisaient office de contrepouvoir et qui étaient peuplées de sachants en matière de technologies, se sont transformées avec le temps en néoluddites radicaux parfaitement inaudibles.


«L’IA ne connaît pas le compromis, ni le courage, ni la honte ou la morale»

Faut-il alors refuser ces technologies, les bannir de la sphère politique? Ce serait sans doute aussi absurde que de proposer de gouverner sans téléphone ni ordinateur. L’intelligence artificielle est déjà là, et elle est indéniablement utile. Elle sauve du temps, elle évite des erreurs, elle structure le chaos. Mais il est urgent de rappeler une évidence: elle ne pense pas. Elle calcule. Elle propose. Elle extrapole. Mais elle n’a ni vision politique, ni attachement aux valeurs, ni sens de la nuance, ni éthique. L’IA ne connaît pas le compromis, ni le courage, ni la honte ou la morale. Elle ne connaît que les pondérations statistiques et les priorités que l’on programme en elle.


Pour penser l’éthique à l’ère de l’IA, à l’heure de ces algorithmes qui sont fondamentalement différents de ceux qu’on touche du doigt à l’occasion d’une découverte de la programmation informatique au collège, il faut partir du code et des mathématiques et il faut repenser la façon de penser l’éthique, ce qui demande une double compétence des plus rares.


Étonnamment vous noterez l’arrogance toute française de cet adverbe c’est en Suisse qu’on trouve des mathématiciens spécialistes de l’IA qui maîtrisent cet exercice. Lê Nguyên Hoang (aka Science4all) et El Mahdi El Mhamdi proposent dans leur dernier livre, Le fabuleux chantier, une réflexion salvatrice sur la façon dont nous pourrions construire, demain, des IA qui intègrent quelques chose qui, pour le code, s’apparente à ce que l’éthique est aux humains, afin d'éviter les dystopies qui pointent à l’horizon.


Un livre à mettre d’urgence dans les mains des politiques qui sont en train de façonner un futur avec des technologies auxquelles ils ne comprennent pas grand chose.



Comments


Pop Up Trigger
L'Impertinent LOGO 24.jpg

Inscrivez-vous aux alertes de publication :

Merci pour votre envoi !

Faire un don

IBAN : CH52 0900 0000 1555 3871 0

Lausanne, VD

© 2020 L'Impertinent - L'information au service du public - Politique de confidentialité

bottom of page