Enquête - Intelligence artificielle et politique: la complexe question de l’éthique

Enquête - Intelligence artificielle et politique: la complexe question de l’éthique

L’intelligence artificielle ne se présente peut-être pas à nous sous les traits qu’on attendait, mais elle ne relève plus de la science-fiction. Les progrès fulgurants réalisés ces dernières années dans ce domaine amènent à se demander quelle intelligence artificielle nous voulons pour notre futur, a fortiori lorsque les algorithmes se mettent à bousculer le monde politique, promettant de bouleverser le contrat social… pour le meilleur comme pour le pire.

Ava, la femme androïde*, s’approche. Recouverte de métal, de plastique et de silicone, elle a une beauté étrange et un peu glaçante. Elle toise sans émotion Nathan, un homme en chair et en os, son créateur. « Arrête. Arrête ! » lui ordonne-t-il. Mais elle ne lui obéit plus. Elle le poignarde.

Il ne s’agit bien sûr que d’un film de science-fiction : le dénouement d’Ex Machina (2015). Mais il témoigne de ce que nous évoque l’intelligence artificielle – ou IA – de prime abord : un mélange de fascination et de peur. Elon Musk, le patron de Tesla (constructeur de voitures électriques qui sont déjà capables de se conduire toutes seules sur l’autoroute), est l’un des fers de lance de ceux qui réclament un moratoire sur l’usage de l’IA. « Avec l'intelligence artificielle, on invoque le démon », déclare-t-il en 2014 face à un parterre de scientifiques du MIT. Il nous enjoint à ne pas jouer les apprentis sorciers et prophétise « un réel danger » lié à l’IA, à prévoir à l’horizon 2024.

Soit. Mais le « mythe des robots* tueurs », comme le décrit Jean-Gabriel Ganascia, chercheur en intelligence artificielle, n’est pourtant qu’un mythe. La réalité sonne l’hallali de cette vision futuriste cyberpunk. Pourquoi ? Parce que l’intelligence artificielle est déjà là, parmi nous. Par petites touches, elle se répand dans tous les domaines, souvent de manière invisible ou anodine. Aujourd'hui, ce sont les voitures semi-autonomes : demain, ce sera le tour des camions intelligents autopilotés. Et ce n’est qu’un début. Le monde de l’intelligence artificielle entre dans une phase de transition : de la révolution en marche à l’amélioration continue.

Les algorithmes* et l’IA ont déjà investi la vie de tous les jours. Vous faites appel à eux lorsque vous planifiez un trajet grâce à l’application Waze, lorsque vous commandez un Uber pour réserver un chauffeur, lorsque vous utilisez Shazam pour identifier une musique dont le nom vous échappe, lorsque vous commandez un article sur Amazon, lorsque vous cherchez une information sur Google, lorsque vous dialoguez avec Siri, lorsque vous achetez des billets d’avion sur Expedia, lorsque vous regardez un film recommandé par Netflix, lorsque vous validez un profil amoureux proposé par Tinder. Même la ligne 1 du métro parisien, tout automatisée, n’y échappe pas. Monsieur Jourdain faisait de la prose sans le savoir ; nous utilisons de l’intelligence artificielle, au quotidien, sans nous en rendre compte.

Un second souffle

L’intelligence artificielle n’en plus à ses débuts. Alan Turing (1912-1954) en est le père fondateur, même s’il ne la nomme pas encore ainsi, lorsqu’il esquisse en 1950 son test de Turing*. En 1956, deux mathématiciens du MIT, John McCarthy et Marvin Minsky, et un troisième de Carnegie Mellon University, Herbert Simon, ont pour idée d’étudier l’intelligence humaine avec des machines. Jean-Gabriel Ganascia explique qu’à ce stade, « l’intelligence artificielle n’est pas une intelligence construite artificiellement, mais l’inverse : c’est l’étude de l’intelligence avec les moyens de l’artificiel, pour ensuite résoudre des problèmes pratiques ». Les bases de l’IA sont ainsi théorisées et l’avenir semble radieux : en 1959, pour la première fois, un programme informatique bat un humain aux dames.

Cette vision mécaniste de l’esprit amène Herbert Simon à s’avancer un peu trop vite en 1965 lorsqu’il affirme : « En l'espace de vingt ans, les machines seront capables d'effectuer toutes les tâches que peuvent effectuer les hommes, quelles qu'elles soient. » Mais la recherche patine. Les décennies suivantes n’apporteront aucune innovation majeure. Il faudra attendre les années 1980 pour qu’un nouveau pas soit franchi avec l’apparition du deep learning* : la recherche s’oriente vers les réseaux de « neurones formels », dont l’objectif est de répliquer de manière artificielle les réseaux de neurones du cerveau humain. C’est le début d’une nouvelle ère : celle des sciences cognitives et du « connexionnisme ». Pour l’ingénieur Jean-Pierre Dupuy, « les réseaux sont capables "d'apprendre", de "reconnaître" des formes, de "mémoriser" par association. Tant et si bien que le connexionnisme se pose en principal rival de l’intelligence artificielle orthodoxe, laquelle s’est entre-temps considérablement essoufflée, comme si elle avait atteint son seuil de compétence ».

Mais les nouveaux réseaux de neurones se heurtent à deux problèmes : les ordinateurs de l’époque ne sont pas encore assez puissants, et le big data*, ces gigantesques bases de données qui permettent aux « neurones formels » d’être pleinement efficaces, n’existe pas encore. Antoine Bordes, ancien chercheur au CNRS qui travaille désormais dans le groupe de recherche sur l’intelligence artificielle chez Facebook, donne un ordre de grandeur de ce qui nourrit les machines : « On donnait aux machines des dizaines ou des centaines d’exemples dans les années 1990. Maintenant, on est dans l’ordre du million ou milliard d’exemples. »

C’est que la puissance de calcul et la quantité de données qui circulent explosent depuis la fin des années 2000. Toutes les pièces du puzzle sont alors en place pour que l’IA développe tout son potentiel. Mais il reste encore difficile de déterminer avec netteté les contours de l’IA : comment définir une pratique qui relève de l’informatique pure, des sciences cognitives, de l’intelligence neuronale et de l’interprétation même que nous nous faisons de l’intelligence ? Même si les spécialistes eux-mêmes ne parlent pas d’une seule voix à ce sujet, on peut s’accorder à dire que l’IA « permet d’identifier des tâches et de les résoudre avec un processus intelligent », comme l’explique Antoine Bordes. Mais définir l’IA n’a rien d’anecdotique : impossible de l’encadrer, éthiquement et législativement, sans une définition claire et sans ambiguïté.

AI.png

À l'horizon 2020, le gouvernement de Pékin souhaite finaliser la mise en place d'un «score citoyen» qui attribue une note à chaque citoyen

L’algorithme politique

Les pays asiatiques n’ont d’ailleurs pas attendu son explosion pour réguler l’IA. La Corée du Sud, dont la quasi-intégralité de la population est désormais reliée au haut débit (99,2 % en 2017, tandis qu’Emmanuel Macron souhaite un chiffre similaire en France pour 2020), a préféré légiférer. En 2007, elle a élaboré une « charte éthique » des robots, en s’inspirant directement des lois d’Asimov*.

La Chine, elle, veut aller beaucoup plus loin, quoique dans une direction opposée. À l’horizon 2020, le gouvernement de Pékin souhaite finaliser la mise en place du « Score citoyen », un système qui attribue une note à chaque citoyen chinois – entre 350 et 950 points – et qui régentera sa vie en profondeur. C’est ce score, calculé par un algorithme, qui décidera dans quelles conditions un citoyen chinois aura accès à du travail, à des prêts, à des visas. Les comportements dits « déviants » seront sanctionnés, par une liste déjà établie et consultable sur internet, qui comprend, entre autres, des restrictions bancaires, l’interdiction de voyager à l’étranger, voire de placer ses enfants dans les meilleures écoles du pays. Le système est déjà en cours de test à grande échelle, et une dizaine d’entreprises privées y participent également.

Un tel système vous paraît inenvisageable en France ? Pourtant, lorsque vous commandez votre Uber, vous avez également une « note client », discrètement cachée dans un sous-menu, qui détermine si vous serez mis en relation avec les meilleurs chauffeurs, aux évaluations les plus favorables. Si votre « note client » devient trop faible – bien que le barème de notation ne soit pas clairement explicité – aucun chauffeur n’acceptera de vous prendre pour une course. Et ces algorithmes qui décident à la place d’humains sont souvent le fait de sociétés américaines (les GAFA*) ou chinoises (Xiaomi, fabricant de smartphones, ou DJI, fabricant de drones), à la force de frappe imbattable, qui injectent des milliards de dollars dans la recherche et qui s’appuient, entre autres, sur des réseaux sociaux massifs qu’elles ont elles-mêmes créés.

Notre participation à ces réseaux sociaux nourrit l’IA. À la manière d’une fourmilière qui gagne en puissance au fur et à mesure qu’elle grossit, chaque nouvel utilisateur d’un réseau social accroît son utilité. Robert Metcalfe, l’inventeur de l’Ethernet, l’a théorisé dans sa « loi de Metcalfe » : l’utilité du réseau est égale au carré du nombre de ses utilisateurs. En d’autres termes, plus il y a de gens en réseau, plus l'utilité ou la puissance du réseau augmente. Face à ce tsunami, Laurent Alexandre, expert en IA et en transhumanisme, s’était montré inquiet en déclarant dans Challenges en octobre 2017 : « Les États-Unis ont les GAFA, nous avons la Cnil et des nains numériques. » Et bien que le big data n’en soit qu’à ses débuts, la Cnil paraît bien mal armée face aux quantités de données brassées mondialement : d’après la très sérieuse revue Scientific American, l’humanité a produit autant de data en 2016 que depuis le début de l’humanité jusqu’à 2015.

Si cette statistique donne le tournis, il n’y a pourtant pas de fatalité à ce que le marché de l’intelligence artificielle soit trusté par les seules GAFA et exploité par des pays aux tentations autocratiques. Le politique est moins démuni qu'on ne pourrait le penser. Par sa force démographique et son arsenal législatif, l'Union européenne a, dans le passé, déjà fait ses preuves dans le domaine de la régulation des nouvelles technologies. En 2014, déjà, le droit à l'oubli, voté par le Parlement européen, limite les données que les moteurs de recherche accumulent en masse pour nourrir leur big data. En France, également, la loi fourbit ses armes (cf. notre interview de Cédric Villani, mathématicien et député LREM de l’Essonne). Mais elle ne peut pas tout face au bouleversement de l’IA.

Des machines responsables

Prenez l’exemple d’une Tesla autonome. Imaginez qu’en pilotage automatique, elle percute une autre voiture. Difficile de déterminer qui va porter la responsabilité de l’accident. En l’absence d’une réponse claire, la circulation des véhicules autonomes de niveau 4 (c’est-à-dire capable d’une conduite autonome complète) est pour l’instant interdite en Union européenne. Cédric Villani s’interroge sur la position juridique à adopter : « Qui est responsable ? Est-ce que c’est le programmeur, ou la personne qui a fourni le big data ? » C’est qu’il ne faut pas oublier que derrière l’IA et derrière les algorithmes, il y a encore et toujours des hommes qui les créent et les programment.

Pour Quentin Chéreau, ingénieur chez Capgemini (entreprise de services du numérique qui crée, entre autres, des algorithmes), les développeurs restent souvent de simples « ouvriers de l’informatique ». Et s’il lui était demandé de réaliser un algorithme comparable au « Score citoyen » chinois ? Face à ce dilemme moral, l’ingénieur s’interroge. « Est-ce l’ouvrier qui a fabriqué une bombe qui est responsable de ce qu’elle cause ? » Pour autant, « ajouter de la moralité dans l’informatique, cela a du sens », précise-t-il. De la moralité, c’est sans doute ce qui a le plus manqué à la plateforme d’admission post-bac, tant décriée : d’où le sentiment d’arbitraire de cet algorithme, caché dans une boîte noire, qui décide de la future vie étudiante d’un lycéen. Face à ces boîtes noires, Yann Padova, avocat spécialisé en droit numérique chez Baker McKenzie Paris et ancien secrétaire général de la Cnil, se montre soucieux. « Comment réguler quelque chose qu'on ne comprend pas ? Les créateurs eux-même d'algorithmes apprenants ne les comprennent plus: ils peuvent expliquer pourquoi le résultat final est ainsi, mais plus comment l'algorithme y parvient. »

En 2000 déjà, le juriste Lawrence Lessig avait jeté un pavé dans la mare en publiant dans Harvard Magazine un article au titre choc : « Code is law » (le code fait loi). Et ceux qui régulent le code sont les codeurs eux-mêmes : « La seule question est de savoir si nous aurons collectivement un rôle dans leur choix, ou si nous laisserons aux codeurs le soin de choisir nos valeurs à notre place. Car c’est une évidence : quand l’État se retire, la place ne reste pas vide », prévient-il. Malgré un retard à l’allumage, l’Union européenne s’est finalement décidée à légiférer. Le GDPR (General Data Protection Regulation), qui sera mis en œuvre en mai 2018, harmonise et renforce la protection des données personnelles, qui priment sur le big data. Mais il est possible d’aller plus loin, peut-être pays par pays. Il serait envisageable d’avoir des labels d’éthique : Jean-Gabriel Ganascia imagine « des labels qui accréditent des sociétés », des sortes d’Écocert de l’IA, qui garantiraient des algorithmes respectueux de la vie privée et de l’éthique. Mais ce processus ne pourra être mis en place en un jour : « C’est un chemin assez long », reconnaît-il.

Car rien n’oblige à se soumettre aux oukases de l’IA, où ce serait l’algorithme qui aurait le dernier mot. « Savoir qui décide, c’est un choix de société », affirme Cédric Villani. « Et la société va choisir un modèle où c’est l’humain qui décide. » Peut-être par peur de tomber dans une dystopie à la Minority Report (2002), où des agents de « Précrime » arrêtent les criminels avant même qu’ils ne commettent leurs méfaits. Pourtant, il serait possible, voire techniquement réalisable, d’imaginer une justice prédictive rendue par une machine, nourrie de big data jurisprudentielle et sociologique, que l’on sait statistiquement moins biaisée qu’un humain. Mais serions-nous prêts à abdiquer notre pouvoir de décision en le confiant entre les mains d’une machine ? Probablement pas, dès lors qu’un dilemme moral est en jeu. Car notre crainte la plus profonde n’est peut-être pas que l’intelligence artificielle devienne humaine ; c’est plutôt qu’elle nous déshumanise.


Glossaire de l’IA

Le jargon technologique lié à l’intelligence artificielle, à mi-chemin entre vocabulaire mathématique et argot informatique, peut sembler abscons de prime abord. Décodage.

Algorithme Suite de règles nécessaires permettant de résoudre des classes de problèmes semblables. Une recette de cuisine est un algorithme appliquée à l’être humain.

Androïde Automate à forme humaine.

Big data Ensemble de données en quantité massive destiné à être exploité par un traitement algorithmique. Pour reconnaître le sexe d’un individu grâce à une photo, un algorithme la comparera à des millions de photos existantes (ces millions de photos forment le big data).

Deep learning Processus permettant à une machine d’apprendre de manière autonome grâce à du data ou du big data, sans qu’il soit nécessaire de modifier ses algorithmes.

GAFA Acronyme de Google, Apple, Facebook, Amazon, désignant les géants américains du numérique.

Lois d’Asimov L’écrivain de science-fiction américain Isaac Asimov (1920-1992) a exposé les trois lois de la robotique dans sa nouvelle Cercle vicieux (1942) :
1. Un robot ne peut porter atteinte à un humain, ou, par passivité, laisser un humain en danger.
2. Un robot doit obéir aux ordres qui lui sont donnés par des humains, sauf si de tels ordres entrent en conflit avec la première loi.
3. Un robot doit protéger sa propre existence tant qu'une telle protection n'entre pas en conflit avec la première ou la seconde loi.

Robot Terme inventé par un dramaturge tchèque, Karel Čapek (1890-1938), qui désignait à l’origine un petit travailleur artificiel créé pour décharger l’homme de certaines tâches répétitives. Aujourd’hui, toute machine dotée d’une autonomie propre, sans nécessairement être douée d’une intelligence artificielle.

Test de Turing Du nom du pionnier de l’intelligence artificielle Alan Turing (1912-1954), ce test élaboré en 1950 permet d’établir qu’une machine se comporte d’une manière suffisamment intelligente pour qu’on puisse la prendre pour un humain. Une intelligence artificielle créée par Vladimir Veselov et Eugene Demchenko, simulant un adolescent de treize ans, a passé avec succès le test de Turing en 2014.


Macron en Chine : "Pour les dirigeants français, la question économique est absolument majeure, le business avant tout"

Macron en Chine : "Pour les dirigeants français, la question économique est absolument majeure, le business avant tout"

Tribune - Jean-Gabriel Ganascia: Faut-il avoir peur de l’intelligence artificielle ?

Tribune - Jean-Gabriel Ganascia: Faut-il avoir peur de l’intelligence artificielle ?