Laura Sibony : « Il manque une réflexion sur ceux qui subiront ou utiliseront l’IA »
Laura Sibony (promo 16), journaliste, auteure et experte sur le sujet, a couvert le sommet pour l’action sur l’IA à Paris pour France Télévisions. Elle décrypte pour Émile les enjeux actuels de cette technologie et souligne l’urgence d’un débat collectif éclairé.
Propos recueillis par Alessandra Martinez
Vous avez une double expertise en intelligence artificielle et en communication. Selon vous, quel est le plus grand malentendu autour de l’IA aujourd’hui ?
En 2017, lorsque je travaillais chez Google et que je parlais d’IA, le public imaginait des Terminator ou des Hal2000 et s’interrogeait sur une possible destruction sanglante de l’humanité. J’entendais des questions comme : « L’IA remplace-t-elle Dieu ? » ou « Comment empêcher les machines de remplacer l’humanité ? » Aujourd’hui, on est dans l’excès inverse : on assimile l’IA aux modèles de langage, qui ne sont qu’une partie de l’IA générative, elle-même partie de l’apprentissage profond. C’est oublier toutes les autres IA, qui contribuent à l’imagerie médicale, à la curation de contenus, à la recommandation culturelle... Je voyais France Info titrer, au lendemain du sommet : « L’IA entraîne un déclin cognitif. » Il serait plus juste de dire « Un usage trop systématique de l’IA générative en lieu et place d’une réflexion entraîne un déclin cognitif » –comme tout ce qui remplace la pensée indépendante et critique.
“C’est en cherchant des connexions entre des tableaux que j’ai compris les principaux modèles d’IA et que sont apparus quelques enjeux, comme les biais ethniques, les questions de droit de la propriété intellectuelle...”
L’autre malentendu concerne ceux qui voient l’IA comme « de l’informatique en plus compliqué ». Ma grand-mère n’a jamais lu mon livre, au prétexte que « l’IA ce n’est pas pour moi, je n’utilise déjà pas d’ordinateur. » Ma grand-mère ne s’intéresse pas à l’IA, mais l’IA s’intéresse à elle. Même sans portable ni réseaux sociaux, si elle tire toutes ses informations de discussions avec des amies abreuvées de contenus sélectionnés pour elles par les réseaux sociaux qui les enferment dans des bulles de filtre, elle finira tout aussi complotiste. L’IA n’est pas « de l’informatique en plus compliqué » : c’est une autre approche de la donnée, qui repose moins sur des règles procédurales et plus sur des régularités statistiques. « Des probabilités sous stéroïdes », résumait un data scientist.
Vous utilisez des récits et des fables pour expliquer l’IA. Pourquoi ce choix narratif, en quoi aide-t-il à mieux comprendre les enjeux de ces technologies?
Mon livre Fantasia est sous-titré Contes et légendes de l’intelligence artificielle. Ce sont des récits courts pour montrer ce qu’est et ce que n’est pas l’IA. Ce choix narratif s’est rapidement imposé pour parler d’un ensemble de technologies et d’usages aussi variés, aux si multiples facettes. J’ai moi-même découvert l’IA par la pratique, en travaillant à Google Arts & Culture, avec une fantastique base de huit millions de chefs-d’œuvre numérisés qu’il s’agissait de valoriser grâce à l’IA. C’est en cherchant des connexions entre des tableaux que j’ai compris les principaux modèles d’IA et que sont apparus quelques enjeux, comme les biais ethniques, les questions de droit de la propriété intellectuelle...
En février, vous avez couvert le Sommet pour l’action sur l’IA. Quelles tendances ou prises de position vous ont le plus marquée à cette occasion?
Je n’ai pas pu m’empêcher de m’étonner du retour sur la scène géopolitique d’une logique de blocs, avec des stratégies rivales et de confrontation plutôt que de coopération. La France se positionne comme leader des « non-alignés », face aux États-Unis et à la Chine. Il y a de quoi s’en étonner, quand la donnée a si peu de frontières et que les enjeux de l’IA forcent à tellement d’interconnexions. Construire d’immenses data centers en France, c’est impressionnant, mais si l’on utilise des métaux rares venus de Chine, des microprocesseurs américains et des fonds émiratis au profit de DeepSeek, Google ou OpenAI, peut-on vraiment parler de souveraineté de l’IA ?
Et à côté de ce qui a été annoncé, il y a ce qui n’a pas été dit. On parle de milliards d’euros, mais on oublie les milliards de personnes qui n’ont pas une compréhension très précise de ce qu’est l’IA et qui seront pourtant affectées par ses développements. On a beaucoup vu et entendu ceux qui conçoivent et ceux qui financent l’IA. Il manque une réflexion sur ceux qui la subiront ou qui l’utiliseront.
Avez-vous observé un clivage entre les approches des acteurs publics et privés?
Oui, dans la manière de communiquer. Côté acteurs privés, surtout les plus médiatisés – comme Elon Musk et Sam Altman –, le discours oscille entre ambition démesurée et provocation. Ils dirigent des entreprises riches et exposées, qui avancent vite, sans attendre un cadre réglementaire clair, et donc ce sont eux qui structurent le débat et imposent leur rythme à l’IA aujourd’hui.
“Le débat public mélange des préoccupations très différentes : l’usage militaire de l’IA, la partialité des modèles, les atteintes à la vie privée, l’automatisation du travail et le remplacement des travailleurs, ou encore la désinformation générée à grande échelle.”
À l’inverse, les acteurs publics ont un ton plus sérieux et institutionnel, quoi qu'Emmanuel Macron cherche à se positionner comme champion et figure de l’IA. Ils affichent des ambitions fortes : 109 milliards d’euros d’investissement, des cours d’IA obligatoires dès la rentrée prochaine, la défense d’une souveraineté numérique... Mais le discours reste flou et peine à suivre le tempo du privé : où iront précisément les 109 milliards ? Comment rendre l’éducation à l’IA concrète et accessible ? Comment garantir l’éthique sans freiner l’innovation ?
De nombreuses voix s’inquiètent des biais et risques de l’IA. À vos yeux, quelles régulations ou précautions sont les plus urgentes à mettre en place?
La première étape serait de bien définir ce que sont les biais et risques de l’IA. Le débat public mélange des préoccupations très différentes : l’usage militaire de l’IA, la partialité des modèles, les atteintes à la vie privée, l’automatisation du travail et le remplacement des travailleurs, ou encore la désinformation générée à grande échelle. Il y a bien entendu un travail de régulation continue à faire, il faut encourager le développement d’IA « éthique by design », c’est-à-dire qui a été conçue avec une préoccupation éthique dès l’origine. Mais au-delà des textes et des réglementations, la meilleure garantie pour une IA alignée sur les valeurs démocratiques ne réside ni dans les institutions ni dans la technologie elle-même: elle repose avant tout sur la volonté des citoyens de s’approprier le sujet.