L’intelligence artificielle vient de franchir un nouveau palier, non pas tellement technique (encore que…) mais psychologique, avec ChatGPT. Ce programme est une IA conversationnelle, qui répond aux questions et est capable d’écrire des textes, avec des résultats assez bluffants. Dernier « exploit » en date, l’IA a obtenu, avec un très classement, un MBA du Wharton College.
L’utilisation de l’IA pour un certain nombre de tâches « mécaniques » n’est pas nouveau. Dans le journalisme, cela fait quelques temps que des articles comme les résultats sportifs ou les cours de bourse sont écrits par une IA, avec moins d’erreurs que lorsque c’est traité par un humain. En médecine, le métier de radiologue est appelé à disparaitre (ou à changer radicalement à court terme) car une IA est bien meilleure qu’un regard humain pour décrypter des images de scanners ou un fond d’oeil.
Le vrai choc, c’est que l’IA soit désormais à la portée du grand public, et que celui-ci prend conscience que cela va avoir des effets pour de nombreux usages, et donc sur de nombreuses professions. On est probablement au début d’une accélération de l’utilisation « courante » de l’intelligence artificielle.
Très rapidement, les recherches documentaires vont passer par ce canal. Les bibliothécaires et documentalistes vont devoir changer radicalement leur pratique professionnelle. Pareil pour les notaires, où les actes seront rédigés en mode semi-automatique, car il suffira de brancher l’IA sur un certain nombre de bases de données (celle de l’Etat-civil ou de la publicité foncière, par exemple). Et je ne parle même pas du métier d’enseignant, quand les élèves ont accès à un outil qui réussit mieux qu’eux les exercices demandés à la maison. Les exemples sont légion.
Il faudra quelques mois/années pour que les applications et modifications techniques permettent une fluidité d’utilisation, et cela viendra peut-être plus vite qu’on ne pense. Les modèles économiques sont là et la technologie vient de montrer qu’elle est globalement à la hauteur pour un certain nombre de tâches.
Est-ce un bien ou un mal ? C’est toujours la question qui se pose, quand on est saisi par le vertige en prenant conscience qu’un changement technologique aussi radical est désormais opérationnel et efficace à grand échelle.
La question est à la fois importante, mais également assez théorique. C’est désormais une règle connue : « tout ce qui est technologiquement possible sera mis en œuvre » et il faut des résistances et des refus éthiques et sociétaux très forts pour bloquer des usages. L’accueil fait à ChatGPT montre qu’il n’y a pas de refus, mais plutôt un enthousiasme, qui rendra toute diabolisation totalement inaudible.
Plutôt que de rester sur ce débat philosophique et déjà tranché, mieux vaut se pencher sur des sujets plus concrets, mais encore plus cruciaux, à savoir le contrôle technologique du fonctionnement (les biais, les sources d’information, les failles de sécurité) et la régulation des usages, profession par profession (la question est immédiate et brulante pour les enseignants).
Le premier sujet est de comprendre comment fonctionnent ces IA (il y en aura plusieurs), ce qu’elles peuvent bien faire, et les tâches qu’il est délicat de leur confier. Ces logiciels sont de fabrication humaine, avec des biais, en fonction de leur programmation initiale, des données qu’on leur a fournit pour s’entrainer. Leur utilisation dans une chaîne de valeur implique une confiance qui reste à construire. Se pose aussi le bon équilibre homme/machine : qu’est-ce qui doit rester dans le champ d’une décision humaine ? Qu’est-ce qui peut être délégué à la machine ? Cela pose des questions passionnantes, mais avec des enjeux sociaux cruciaux, car derrière, ce sont des fonctions et des professions qui vont être bouleversées, avec un risque très réel « d’uberisation » des plus précaires et des moins formés, dans les tâches où l’IA sera plus performantes que l’humain.
Viendra ensuite le moment où il faudra « réguler » et où le législateur va se mêler de poser des interdictions ou des contrôles. C’est là que ça risque de devenir « sportif », car les changements apportés par l’utilisation massive des IA va faire des gagnants et des perdants. La régulation politique risque d’être, non pas une réponse aux enjeux technologiques (comme posés ci-dessus), mais une réponse à la détresse de perdants qui pèsent électoralement, et vont chercher une régulation qui soit avant tout un protectionnisme, pour conserver leurs emplois, ou éviter d’avoir à se former plus vite qu’ils ne le peuvent ou ne le souhaitent.
Connaissant le « législateur » français, c’est de cette deuxième étape que j’ai un peu peur, davantage que de ChatGPT…