Cédric Villani : "La loi pour la république numérique a marqué le réveil du politique"

Cédric Villani : "La loi pour la république numérique a marqué le réveil du politique"

Lauréat de la médaille Fields (le Nobel des maths), le député LREM de l’Essonne, Cédric Villani, a été chargé par le gouvernement d’une mission sur l’intelligence artificielle, qui fait suite au plan « France IA » du gouvernement précédent. Il répond aux questions d’Émile.

Propos recueillis par Laurence Bekk-Day

 Cédric Villani ( Crédit photo Ecole Polytechnique - J.Barande)

Cédric Villani (Crédit photo Ecole Polytechnique - J.Barande)

En nous cernant avec une efficacité de plus en plus grande, l’intelligence artificielle et les algorithmes ne risquent-ils pas de redéfinir la notion même de lien social ?

 C’est l’un des écueils de long terme, sérieux, de l’intelligence artificielle : la possibilité de personnalisation trop forte, qui risque de mener à une société où chacun voit l’information qui lui convient, qu’il veut voir, qui lui correspond exactement, qui renforce ses propres certitudes encore plus que maintenant. Un système où, lorsque vous prenez votre assurance, on vous assure pour votre risque et pas celui du voisin. Où les communications n’existent qu’avec les amis qui sont sélectionnés, qui filtre uniquement les appels que vous avez envie de recevoir. Et ainsi de suite. Tout cela existe déjà sous une certaine forme, mais l’IA est redoutable pour le faire aller encore plus loin. Une dose de personnalisation est certainement utile, mais un abus de personnalisation est dangereux. Cela vaut pour tous les secteurs quand il s’agit de la société. Parce que la société, c’est aussi avoir des références culturelles communes, des projets en commun.

L’intelligence artificielle prendra-t-elle un jour le pouvoir en politique ?

 C’est une vraie question ! L’un des cauchemars de la démocratie serait un monde où l’homme ou la femme politique réussira à faire un discours qui sera personnalisé ; dans chaque foyer, chacun entendra le discours qu’il voudra entendre. Aux uns, une nouvelle ligne de métro enterrée, aux autres une ligne aérienne… On a longtemps raillé les hommes politiques pour leur capacité à avoir un discours différent en fonction des auditeurs. Mais c’était artisanal : cela se voyait. L’IA permettra de le faire systématiquement un jour. Cela pose la question du profilage, dans un but politique, publicitaire, informationnel, en bref pour tout ce qui est une interaction. Entre un service centralisé et un public, on peut, avec des outils perfectionnés, s’intercaler entre les deux pour personnaliser toute l’affaire, sans qu’il y ait de règles établies.

Les algorithmes sont souvent créés par des sociétés privées qui agissent en toute opacité, et investissent des milliards dans l’intelligence artificielle. Faudra-t-il légiférer pour éviter leur toute-puissance ?

 La loi pour la république numérique [promulguée le 7 octobre 2016, nd] avait déjà mis en avant le concept de « plateforme sincère », qui n’avantage pas tel ou tel acteur. C’est un début. Mais ne nous enthousiasmons pas trop vite : la moitié des décrets d’applications ne sont toujours pas parus. Et certains articles de loi sont déjà en train d’être remis en cause avant même d’avoir été appliqués. Ce n’est donc pas encore gagné. Mais cette loi pour la république numérique a marqué le réveil du politique. Avant, on était dans une situation qui était caricaturale : ce n’était que du répressif. On créait Hadopi pour punir les nouveaux comportements permis par la technologie. Aujourd’hui, il y a vraiment eu une tentative de vouloir faire évoluer les choses.

Pensez-vous que, malgré toutes ces précautions, l’algorithme décidera et choisira à la place des hommes, voire malgré eux ?

 C’est une attitude de dire que c’est l’algorithme qui décide : c’est un choix que nous ferions. Mais c’est un choix qui n’est pas acceptable. La recommandation numéro un de toutes les auditions que je suis en train de mener, de la part de tous les acteurs, est de dire qu’il faut évoluer vers plus de transparence et d’explication de l’algorithme. Il ne faut pas se retrancher derrière la boîte noire, mais que l’algorithme puisse lui-même expliquer quels paramètres ont abouti à son choix.

Crédit photos : Marie-Lan Nguyen et Ecole polytechnique - J.Barande


Fanny Herrero, la Sciences Po tête pensante de Dix pour cent

Fanny Herrero, la Sciences Po tête pensante de Dix pour cent

"Emmanuel Macron, c'est comme une boule de Noël qui tourne au plafond"

"Emmanuel Macron, c'est comme une boule de Noël qui tourne au plafond"