Aller le contenu

Le mythe de la Singularité, Jean-Gabriel Ganascia (2017)

Jean-Gabriel Ganascia est professeur à l’Université Pierre & Marie Curie, où il mène des recherches sur l’intelligence artificielle (IA). Il est également président du comité d’éthique du CNRS.

Dans Le mythe de la Singularité (Le Seuil, 2017), il s’intéresse aux prédictions de certains futurologues, comme Ray Kurzweil ou Nick Bostrom, qui estiment que les ordinateurs deviendront prochainement au moins aussi intelligents que les humains — à une date qu’ils appellent la « Singularité ». Certains prédisent également qu’il deviendra alors possible de reproduire ou de « télécharger » nos esprits dans ces machines futures, nous rendant ainsi immortels. À moins bien sûr que les IA ne décident de se débarrasser de nous, bagages encombrants et désormais inefficaces.

Jean-Gabriel Ganascia montre que ces prédictions (plus que des prévisions) s’appuient sur des bases discutables. En particulier, l’argument central de ces futurologues est la « Loi » de Moore, selon laquelle la puissance des microprocesseurs double tous les 18 à 24 mois environ. Si l’on prolonge cette tendance, vérifiée depuis les années 1960, il semble en effet plausible qu’un beau jour (en 2020, 2030, 2050…?), une puce contienne plus de puissance de calcul qu’un cerveau humain.

Plausible, mais est-ce probable ? Moore lui-même estime désormais que, compte tenu des limitations du silicium, l’amélioration continue des puces informatiques pourrait bien s’arrêter d’ici une dizaine d’années. Les apologues de l’intelligence artificielle insèrent donc ici généralement quelques mentions de puces quantiques ou d’autres technologies qui pourraient prendre le relais… mais qui n’ont pas encore fait la preuve de leur viabilité. De façon plus générale, comme souvent, les futurologues sont tributaires des tendances, qu’ils prolongent à l’infini… et sont bien à la peine lorsqu’une rupture (comme la fin de la « Loi » de Moore) intervient. Kurzweil, notamment, voit dans la Loi de Moore la poursuite d’un phénomène entamé avec le Big Bang, la formation des étoiles et des galaxies, l’apparition de la vie sur Terre, et l’arrivée il y a peu des êtres humains : rien que ça, et tant pis pour le hasard, les accidents de parcours ou une autre loi, celle-ci un peu plus scientifique : le principe de l’entropie. J.-G. Ganascia note donc avec une certaine facétie la ressemblance entre ces prédictions et celles de certains mystiques gnostiques.

Et quand bien même la Loi de Moore se poursuivrait, l’intelligence humaine se mesure-t-elle vraiment en puissance de calcul ? De cette analogie hasardeuse découle la partie la plus connue du débat qui entoure l’intelligence artificielle depuis des décennies. Dans une expérience de pensée devenue célèbre, celle dite de la « chambre chinoise », John Searle a expliqué qu’il est tout à fait possible de concevoir une machine qui semble consciente (et pourrait réussir le test de Turing), à l’aide d’un ensemble de règles suffisamment exhaustif — et sans que la machine ait la moindre idée de ce qu’elle raconte. 27 ans plus tard, le « Big Data » et les chatbots paraissent mettre cette situation à portée de main.

On peut ici peut-être déplorer que J.-G. Ganascia ne détaille pas davantage la différence entre l’humain et la machine. Dans l’expérience de la chambre chinoise, le programme (ou « prisonnier ») se contente de répondre de façon automatique (fixée par des règles) aux questions qu’on lui pose ; tout ce qui lui importe est de recevoir sa récompense. Un être humain, notamment parce qu’il est la combinaison de nombreux processus imbriqués (physiques, chimiques, hormonaux, limbiques, psychologiques…), ne fonctionne évidemment pas de manière aussi simple — et la théorie du chaos a montré à quel point des systèmes simples peuvent engendrer des phénomènes imprévisibles. Le prisonnier de la chambre chinoise pourrait ainsi fort bien graduellement former une théorie de ce que les caractères représentent, et commencer à dialoguer avec ses geôliers, afin de satisfaire des besoins que le programme de l’IA n’envisagent pas — pour la simple et bonne raison qu’ils n’y a aucune raison de compliquer inutilement un logiciel qui fonctionne bien.

L’autre dimension à peine évoquée dans Le mythe de la Singularité est la différence de perception qu’une intelligence artificielle générale (le summum de l’IA, l’équivalent de Hal dans 2001) aurait du monde, comparé à nous. Les logiciels de reconnaissance d’image n’ont aujourd’hui plus aucune peine à identifier un chat (sans parler d’un visage parmi des millions d’autres…) sur une photo ; mais ils n’ont aucune expérience de ce qu’est un chat, dans le monde réel. Cette connaissance, nous la possédons grâce à nos interactions avec le réel, notre physicalité. Un programme informatique, dépourvu de cette perception, aurait une vision du monde radicalement différente de la nôtre. La différence de besoins (physiologiques, émotionnels, intellectuels, sociaux…) lui donnerait également des centres d’intérêts complètement différents. Quel intérêt à télécharger sa conscience dans une machine, si c’est pour vivre dans une boîte pour toute l’éternité ?

Pour conclure, J.-G. Ganascia remarque que ceux qui s’inquiètent aujourd’hui du risque que les IA nous supplantent (par exemple : Elon Musk) sont également… ceux qui financent les recherches en intelligence artificielle (par exemple : Elon Musk, PDG de Tesla, dont un des objectifs majeurs est d’élaborer une voiture capable de se conduire sans supervision humaine). Google, Facebook et les autres géants mondiaux de l’informatique utilisent l’intelligence artificielle pour identifier et tirer profit de toutes les nouvelles tendances, sociales et technologiques. Moins que la biologie, ce sont peut-être les États-nations qui sont le plus en péril à court et moyen terme, face à des programmes mieux à même de gérer l’état-civil, les finances, la fiscalité (ou son absence…), et même le sentiment de communauté des populations du XIXème siècle.

Soyez le premier à commenter

Laisser un commentaire

%d blogueurs aiment cette page :