À quelques jours d’intervalle, deux rencontres de la Clermont Innovation Week commencaient presque de la même manière. Le TEDx Salon accueillait au PIC Guillaume Grallet, rédacteur en chef du service sciences et tech du Point et auteur de « Pionniers, voyage aux frontières de l’intelligence artificielle » chez Grasset. Et un événement organisé par Orbimob « Mobilités intelligentes prêtes à l’emploi », aux Cézeaux, donnait la parole à Thierry Chateau enseignant chercheur en « Computer Vision and AI » à l’UCA/ Institut Pascal.
Chacun a proposé une lecture chronologique des dates clés de l’IA en démarrant dans les années 50, avec une référence au grand Alan Turing et son fameux « test de Turing ». Si leur chronologie et le récit fondateur sont identiques, les focales divergent rapidement par la suite. Et c’est bien normal puisque l’un parle depuis la connaissance scientifique et technique et l’autre observe les jeux de pouvoir et les imaginaires qui accompagnent aujourd’hui le développement de l’intelligence artificielle.
Thierry Château est chercheur spécialiste des systèmes embarqués et de l’intelligence artificielle appliquée à la mobilité. Son histoire débouche sur les véhicules autonomes, les infrastructures connectées et les systèmes de maintenance prédictive.
Guillaume Grallet, journaliste, propose lui un récit autour des pionniers, des figures emblématiques de l’IA, qui ouvre sur la question plus large de ce que produit politiquement cette transformation technologique.
Si Le Connecteur a eu envie de rapprocher ces deux approches (et d’autres aussi), c’est parce qu’elles incarnent assez bien le décalage qui traverse aujourd’hui une partie des débats autour de l’IA. Entre enthousiasmante magie des potentiels ouverts et inquiétude sociétale et démocratique…
Le récit d’une accélération technologique
Plusieurs grandes dates structurent désormais le récit contemporain de l’intelligence artificielle.
1950 d’abord, avec le “test de Turing” imaginé par Alan Turing pour déterminer si une machine peut se faire passer pour un humain au cours d’une conversation. Puis les années 1980, marquées par le développement des réseaux de neurones artificiels. Et surtout 2012, moment régulièrement présenté comme un basculement majeur dans l’histoire récente de l’IA. Cette année-là, les progrès combinés des cartes graphiques, des grandes bases de données annotées et des réseaux de neurones profonds permettent des avancées spectaculaires dans la reconnaissance d’images et l’apprentissage automatique. Thierry Chateau cite notamment les travaux d’Alex Krizhevsky, dont les performances dans le concours international – ImageNet– de reconnaissance d’images ont “fait l’effet d’une bombe” dans la communauté scientifique et accéléré le développement de l’IA.
Pour Guillaume Grallet, il y a les dates mais aussi les individus, « les pionniers », qui ont transformé l’IA. Et ils ne sont pas tous du même moule. Geoffrey Hinton s’inquiète fortement des risques liés aux machines. Yann LeCun critique les limites des modèles de langage, qu’il juge incapables « incapables de prédire les conséquences de leurs actions« . Dario Amodei a quitté OpenAI avec sa sœur pour créer Anthropic, en défendant, notamment, une approche plus centrée sur la sécurité.
L’IA n’est pas seulement une trajectoire technique mais aussi une histoire de visions du monde et d’ambitions.
L’IA comme infrastructure de pouvoir
Pour Guillaume Grallet, l’intelligence artificielle ne peut pas être pensée uniquement comme une suite d’innovations techniques. Elle doit aussi questionner sa finalité. C’est une question récurrente pour les chercheurs comme Norbert Wiener qui publie, en 1947, un texte dans lequel il s’oppose à l’usage militaire de ses recherches. Le débat sur la responsabilité des scientifiques n’est pas né avec ChatGPT. Il traverse toute l’histoire des technologies. C’est l’un des fils rouges de son intervention : les outils peuvent échapper à celles et ceux qui les conçoivent. Et cet enjeu devient plus sensible encore quand l’IA entre dans le langage, la décision, l’éducation, la médecine ou la guerre. Et qu’elle s’inscrit dans un contexte de concentration industrielle et politique où quelques grandes entreprises technologiques contrôlent les infrastructures. Mais aussi, les capacités de calcul, les plateformes, les modèles et … et désormais une partie des outils de production de l’information.
Mark Zuckerberg, ou la contradiction des bâtisseurs de plateformes
Guillaume Grallet le décrit comme cultivé, curieux, capable d’humour mais aussi un brin paradoxal. Alors que Mark Zuckerberg conçoit des outils qui poussent des milliards de personnes à se connecter, à être totalement transparent, à semer leurs traces numériques, il protège quant à lui sa propre vie privée en construisant un vaste complexe autosuffisant à Hawaï et en scolarisant ses enfants à domicile. Le scandale Cambridge Analytica avait révélé au grand jour cette exploitation massive et fine des données personnelles pour exploiter les peurs et peser sur les choix politiques. Pour lui, cet épisode marque un basculement démocratique majeur.
Cette réflexion rejoint certaines analyses développées ces dernières années autour du concept de “techno fascisme”, notamment par la journaliste Anastasia Hadjadji dans son ouvrage « Apocalypse Nerds« . (Co écrit avec Olivier Tesquet, « Apocalypse nerds comment les techno-fascistes ont pris le pouvoir » est publié aux Éditions divergences). Elle décrit la manière dont certaines élites technologiques portent une vision du monde où la technologie devient un mode de gouvernement. Où les plateformes privées acquièrent des fonctions quasi-politiques et où la démocratie est perçue comme trop lente et trop peu efficiente en regard.
L’intelligence artificielle n’y apparaît plus seulement comme un outil mais bien comme une infrastructure d’un pouvoir oligarchique.
La Silicon Valley n’est pas un bloc
Guillaume Grallet réfute une lecture simpliste et manichéenne où “les Américains seraient les méchants” et le reste du monde vertueux. Il insiste au contraire sur les voix dissonantes.
Reid Hoffman, cofondateur de LinkedIn, ne pense pas comme Elon Musk ou Donald Trump. Meredith Whittaker, aujourd’hui à la tête de Signal, a protesté contre des rapprochements entre Google et l’armée américaine. Demis Hassabis, à la tête de DeepMind, incarne une autre voie : celle d’une IA mobilisée pour les sciences de la vie, avec AlphaFold et la modélisation du repliement des protéines.
L’IA peut produire de la surveillance, de la dépendance et de la manipulation. Elle peut aussi accélérer la recherche scientifique. Tout dépend des finalités, des cadres et des acteurs qui la gouvernent.
Des infrastructures déjà présentes dans le quotidien
Les démonstrations présentées par Thierry Chateau décrivaient justement cette intégration progressive de l’IA dans les infrastructures ordinaires. Celles de véhicules capables de produire des données en continu, de routes analysées par intelligence artificielle, de systèmes de navigation autonome, de maintenance prédictive (lire notre article)… Aujourd’hui, nos véhiculent servent à alimenter des bases de données numériques sur des serveurs centralisés -expliquait-il – et bien souvent, on a cliqué sur « valider les conditions d’utilisation » sans les lire, donc on n’en est pas vraiment conscient».
Une remarque technique en apparence mais qui illustre concrètement plusieurs sujets évoqués par Guillaume Grallet. La question de la centralisation des données, de la dépendance aux grandes plateformes, de l’invisibilisation des infrastructures numériques et plus largement de l’intégration croissante des systèmes algorithmiques dans le quotidien.
Neuralink, puces et neurodroits : où placer la limite ?
Guillaume Grallet évoque un sujet encore peu débattu publiquement, celui des “neuro-droits”. Derrière ce terme se joue une question légèrement inquiétante celle de savoir jusqu’où laisser les technologies accéder au cerveau humain, le modifier ou l’augmenter ? Le journaliste relie cette réflexion à l’essor des neurotechnologies, des interfaces cerveau-machine et des implants comme ceux développés par Neuralink, la société d’Elon Musk. Au-delà des promesses médicales — faire remarcher des patients paralysés, restaurer certaines fonctions cognitives… — il voit apparaître le risque d’une marchandisation de l’activité mentale elle-même. Le sujet dépasse largement la technologie. Il touche à “l’intégrité cérébrale”, c’est-à-dire la capacité de chacun à conserver un espace mental autonome, non manipulé, non surveillé et non conditionné par des dispositifs techniques ou économiques.
Bien sûr, quand il s’agit de réparer, de soigner, d’aider une personne à remarcher, … la technologie peut être extraordinaire. Mais on peut aussi craindre qu’elle devienne une condition de performance, d’emploi ou d’adaptation à l’IA. C’est dystopique pour l’heure, mais est-il vraiment inenvisageable qu’il faille être ‘augmenté’ pour accéder à certains emplois ou à certains lieux ? Que nos données soient utilisées pour valider des droits ?
La réflexion sur le techno fascisme revêt alors un sens concret. Le problème n’est pas la technologie mais qu’elle devienne une norme sociale imposée.
Même dans son approche très scientifique, Thierry Chateau soulignait plusieurs limites au développement de ces systèmes, par exemple la difficulté de faire accepter des navettes autonomes sans opérateur humain ou encore la question des accidents inévitables dans les systèmes automatisés. Des sujets de consommation énergétique bien sûr, mais aussi des enjeux de responsabilité juridique, d’acceptabilité sociale, de dépendance aux modèles économiques… Bien au-delà du seul cadre de l’innovation. En effet, derrière les infrastructures intelligentes, demeure la question de l’organisation collective de ces systèmes technologiques devenus omniprésents dans les infrastructures du quotidien. Il faut à la fois comprendre comment ces systèmes se construisent et s’interroger sur le monde qu’ils contribuent à organiser.
Un risque d’apocalypse cognitive
Guillaume Grallet raconte l’exemple de Lila Ibrahim, chez DeepMind, qui a développé une IA comme soutien pour ses enfants pour les guider, leur indiquer quelle partie d’un cours retravailler ou proposer un problème similaire. Le principe est de positionner l’outil comme un appui et pas une substitution à la réflexion et au travail. Pour Guillaume Grallet, c’est une voie possible : utiliser l’IA comme béquille et non comme pilote. Il relève le risque “d’apocalypse cognitive”, titre de l’ouvrage de Gérald Bronner , consistant à laisser la machine penser à notre place.
«L’extrême complexité de notre cerveau est notre meilleure arme face à l’adversité.» «Ce que nous pouvons faire de mieux est d’organiser les conditions pour chacun de sa déclaration d’indépendance mentale.» (G Bronner)
L’enjeu n’est donc pas seulement d’apprendre à utiliser l’IA. Il est de conserver les capacités qui permettent de ne pas en devenir dépendant : comprendre, coder un peu, questionner, comparer, apprendre des langues, garder le goût du désaccord.
Comprendre les systèmes, pas seulement les interfaces
L’IA fonctionne aujourd’hui dans une logique de surenchère permanente. Plus les modèles sont massifs, plus ils nécessitent de puissance de calcul, de données et d’investissements colossaux. Or, cette dynamique crée une forme de fuite en avant : les sommes déjà engagées sont telles qu’il devient difficile pour les industriels et les investisseurs de ralentir. “Plus c’est gros, mieux c’est” devient alors moins une nécessité scientifique qu’une logique financière et concurrentielle. Cette course à l’échelle nourrit autant l’accélération technologique que la concentration du pouvoir autour de quelques acteurs capables de financer infrastructures, puces et data centers. C’est aussi le propos de Mehdi Mounsif sur le “mythe des agents IA” (lire l’article), derrière les promesses d’autonomie généralisée, une partie de l’écosystème repose aussi sur une logique industrielle qui valorise la puissance brute, la taille des modèles et l’effet d’annonce, parfois davantage que les usages réellement pertinents. Il rappelle que l’IA générative est surtout utile pour transformer des données non structurées en données structurées, et que la valeur ne vient pas d’agents supposés autonomes, mais de la capacité des organisations à formaliser leurs problèmes, structurer leurs tâches et placer l’IA au bon endroit.
Cette lecture systémique éclaire l’intervention de Guillaume Grallet. Le sujet finalement n’est pas l’intensification des ChatGPT, Claude, Mistral et autres Perplexity. Ce sont plutôt les systèmes dans lesquels ces outils s’insèrent : infrastructures cloud, données, GPU, modèles économiques, dépendances énergétiques, usages militaires, interfaces éducatives, plateformes de travail… L’IA n’est pas un outil isolé mais une pièce centrale de l’architecture d’écosystèmes techniques, économiques et politiques.
Des questions plutôt orientées sur les enjeux démocratiques
Les questions posées à Guillaume Grallet en fin de séquence portaient presque toutes sur la place de l’humain, l’éducation et l’apprentissage, les garde-fous, la liberté, les biais, la neutralité, la géopolitique, les bunkers, les neurodroits, la démocratie…
Ses réponses sont souvent comme des questions retournées : il faut “faire vivre le débat” et “forcer ces gens à ouvrir le capot”. En guise de garde-fous, Guillaume Grallet cite l’UNESCO, l’Union européenne, les conférences internationales, mais reconnaît que cela ne suffit pas face à la puissance financière des grands acteurs. Il insiste surtout sur le fait que les responsables politiques doivent absolument s’emparer de ces sujets. “Ce n’est pas à Sam Altman de décréter la semaine de 32 heures, la taxation des robots ou le revenu universel”, explique-t-il en substance. Ce sont des choix de société, et ils ne peuvent pas être abandonnés aux entrepreneurs de la tech.
Reprendre prise
Guillaume Grallet revient souvent à la même idée. On ne veut pas d’un monde où 80 % de la population recevrait une allocation et un casque de réalité virtuelle pendant qu’une minorité garderait l’accès à la richesse, aux découvertes et aux autres planètes. L’IA générale ne doit pas devenir une religion ou une fin en soi. Elle peut être une quête scientifique, si elle sert à soigner, comprendre, résoudre. Mais elle ne doit pas remplacer la finalité politique : améliorer la vie des femmes et des hommes, quels qu’ils soient. Une IA au service des humains en somme plutôt que le projet d’une minorité convaincue de mieux savoir où va le monde et où il doit aller.
En un mot, restons curieux et vigilant.
