Catégories
Non classé

Sur l’IA, l’urgence est d’attendre

Il y a parfois des rencontres qui ouvrent des perspectives, remettent de l’ordre dans un chaos informationnel. J’ai récemment écouté Daniel Andler parler de son dernier livre, « Intelligence artificielle, intelligence humaine, la double énigme« . Je n’ai pas encore lu le livre (il a l’air assez costaud) mais le propos de l’auteur était limpide et fait grandement progresser mon appréhension de l’intelligence artificielle.

Il commence par exposer que le concept, et la promesse « politique » derrière, n’a rien de nouveau. Dans les années 60-70, certains en rêvaient, avant que les échecs techniques ne mettent fin aux financements. Mais l’utopie d’arriver à égaler, voire dépasser l’intelligence humaine, est toujours là, prête à resurgir, car elle questionne notre humanité. Nous ne sommes pas dans la pure technique, mais davantage dans le questionnement philosophique et éthique, voire anthropologique.

Il pose ensuite quelques concepts et constats assez simples. Ce que l’on appelle « Intelligence artificielle » peut être de deux formes. C’est soit une reproduction exacte, par des voies technologiques, d’un cerveau humain, tel qu’il fonctionne, soit un développement technologique, qui permet d’obtenir un même résultat, mais par des processus radicalement différents. Il fait une comparaison éclairante, avec les hormones et enzymes. On en trouve dans la nature, que l’on peut synthétiser, et reproduire, mais dans beaucoup de cas, on ne fait que produire des substances qui se contentent d’avoir les mêmes effets.

Ce que nous appelons actuellement « intelligence artificielle » n’est en rien une reproduction, à l’identique, d’un cerveau humain. C’est juste un produit de substitution, qui permet d’obtenir le même résultat qu’un cerveau humain, sur des secteurs très particuliers. Il reconnait volontiers que pour la résolution de problèmes mathématiques ou les synthèses documentaires, les résultats sont épatants, et dépassent les capacités du cerveau humain.

Mais ces « exploits » sont limités et ne sauraient prétendre occuper le même espace que l’intelligence humaine. Il note par exemple que l’intelligence artificielle est bien incapable de faire face à une situation inédite, sans entrainement, là où l’homme y arrive plutôt bien, grâce à d’autres ressources que l’intelligence pure. Une intelligence artificielle n’aura jamais d’intuition ni d’émotions, qui sont pourtant des composantes essentielles de l’intelligence humaine. L’intelligence humaine a une conscience de lui-même et une capacité de réflexivité que n’aura jamais une machine. On est devant deux phénomènes, à qui on donne le même nom « intelligence », mais qui n’ont finalement pas grand à voir.

Il résume très bien la limite, en indiquant qu’une intelligence artificielle est très forte pour résoudre un problème dont les termes sont posés et clairs, mais qu’elle est incapable de poser les termes d’un problème. Tout simplement parce que la définition d’une question, les termes d’un problème, sont avant tout une construction subjective et sociale. La bonne photographie n’est pas dans la nature ou le modèle, mais dans l’œil du photographe.

Il en conclut que ce que l’on appelle actuellement « Intelligence artificielle » ne rattrapera jamais l’intelligence humaine, et ne prendra pas sa place. C’est juste un outil, superpuissant, qui peut grandement aider sur certaines tâches, à condition d’être bien paramétré, et utilisé à bon escient. C’est juste un effet multiplicateur d’une action pensée et voulue par les hommes. C’est bien pour cela que les questions éthiques et philosophiques ne peuvent pas, et de doivent pas être écartées, car elles sont fondamentales, vu la puissance de l’outil.

Cette vision en surplomb m’a offert un grand bol d’air intellectuel, et surtout, relativise beaucoup de discours « bullshit » sur l’IA, que l’on entend un peu partout. Non, l’IA n’est pas un clone de l’humain, et vouloir le faire croire, en lui donnant par exemple la voix de Scarlett Johansson, ne fait que mettre du trouble, et brouille la compréhension de la réalité de l’IA. Il faut absolument en finir avec le délire quasi-religieux autour de l’IA. ChatGPT n’est qu’un supercalcultateur qui parle !

Cela m’a aussi fait prendre conscience de l’immense irresponsabilité de certains chefs d’entreprise et start-uppers. En créant une bulle médiatique et un sentiment d’urgence à acheter leurs produits, ils ont précipité la mise sur le marché d’outils qui ne sont pas aboutis. Cela ne pourra que provoquer des dégâts, comme si on vendait massivement au public, un prototype de voiture à peine sorti du labo, et qui n’a même pas encore passé le moindre test de résistance au choc.

J’ai acquis la conviction que l’IA peut être un formidable outil, mais qu’il est surtout urgent d’attendre que le produit soit fiable avant de l’utiliser dans la vie courante. Exactement le contraire de ce que l’on est en train de faire, sous le coup d’un emballement hallucinatoire, dont on se demandera, plus tard, comment on a fait pour y succomber.

12 réponses sur « Sur l’IA, l’urgence est d’attendre »

Il y a quelques semaines j’ai entendu avec intérêt Luc Julia, co-fondateur de Siri, qui dans un livre et des conférences intitulés « L’intelligence artificielle n’existe pas » porte à peu près le même regard, qui pourrait vous intéresser aussi.

D’accord sur tout le texte mais pas sur la conclusion : c’est un formidable outil, qui n’est pas mature, mais qui n’est pas simple à appréhender. Par conséquent il me semble important de commencer à l’utiliser, à l’experimenter, justement pour se familiariser avec ce nouvel outil. Avec prudence bien sûr, mais ça me semble moins risqué que d’attendre, surtout qu’on ne sait pas quoi attendre.

Bien entendu qu’il faut expérimenter, le produit étant loin d’être mature (même s’il y en a des bons qui arrivent sur des marchés de niche) mais ne surtout pas en dépendre à ce stade. Le problème est qu’on nous vend l’IA comme un produit mature, à utiliser massivement de toute urgence, y compris pour des usages qui ne sont pas pertinents.

J’ai écouté Asma Mhalla présenter son livre « Technopolitique »? Alors son propos ne portait pas directement sur l’IA, mais je pense qu’il y a des passerelles, montrant à quel point il faut une réponse politique à tous ces outils numériques (IA ou autres) qui abîment le lien social.
Elle a donné rapidement l’exemple de la Finlande qui a développé un nouveau récit national pour faire face aux attaques numériques russes, cela donnait vraiment envie d’en savoir plus.
Je suis ressorti de cette présentation avec l’impression que la liberté est bien menacé par le désir sécuritaire allé à la technologie.

Un autre titre qui est à découvrir « Le cauchemar de Promethée » de Guisepe Longo qui aborde les mêmes thèmes mais d’un point de vue mathématique. Il montre notamment que les algos d’IA nécessitent forcément des actions humaines pour l’entraînement… et va assez loin dans la description des limites de l’IA

Bonne lecture même si certains aspects du livre sont assez complexe !

En parlant de bouquins, j’ai trouvé le livre de Yann Le Cun « Quand la machine apprend » vraiment très intéressant.

Bonjour. Je travaille dans les logiciels pour la médecine. C’est donc un domaine particulièrement touché par tout ce qui « aspects réglementaires ». Et donc directement touché par la directive européenne « Pour une IA de confiance ». Si je suis globalement d’accord sur les idées force de la directive (limiter les risques de dérive tout en soutenant la recherche), j’avoue qu’elle m’a fait aussi sourire. Ainsi, réglementairement, si j’utilise de l’IA, je vais devoir prouver qu’elle ne défavorise pas telle ou telle catégorie de personne. En revanche, avec les logiciels actuels, je n’ai pas à faire cette preuve. Et pourtant il est certain que les logiciels « non-IA » crée des discriminations involontaires. Mais comme il n’y a aucun fantasme derrière, on ne nous demande pas de le certifier.

Après, les politiciens ne comprennent strictement rien à l’IA. Ainsi les algorithmes qui sont derrière n’ont pas de réelle valeur marchande. Ils sont connus de tous, disponibles dans le littérature scientifique. Ce qui vaut de l’or en IA, ce sont les données servant à faire « apprendre » l’IA. Or de ce côté, dans la médecine, la France a un gisement exceptionnel, du fait de la centralisation des données de santé par la sécurité sociale. Et pourtant, ce gisement nous sommes prêts à l’offrir gratuitement aux USA en faisant héberger ces données par des sociétés américaines (Microsoft, Amazon, ….)

« ce gisement nous sommes prêts à l’offrir gratuitement aux USA en faisant héberger ces données [ de santé ] par des sociétés américaines (Microsoft, Amazon, ….) »
Jusqu’a preuve du contraire, les données de santé sont privées et confidentielles, et il est illégal de les utiliser pour déveloper un produit, sans l’accord explicite des individus.

Donc, non, Microsoft et Amazon n’ont pas le droit d’utiliser nos données de santé, on ne leur a pas offert. Et autant des petites entreprises américaines peuvent se moquer du droit francais, autant ces multinationales ne peuvent pas se le permettre.

PS : le droit américain protège de façon similaire les données de santé aux Etats-Unis.

Le droit américain ne protège rien du tout. Le « Cloud Act » permet à l’état américain d’accéder, sans en informer qui que ce soit, toutes les données gérées par les sociétés américaines, y compris quand elles sont hébergées sur des serveurs en dehors des USA.

Tout à fait, et il me semble que la NSA ne s’était pas gênée pour communiquer à Boeing des informations obtenues via des écoutes ciblant des personnes d’Airbus, donnant aux américains un avantage commercial considérable, même si ces écoutes étaient censées concerner la sécurité des Etats-Unis.

C’est tout à fait faux. Le CLOUD act (acronyme de « clarifying lawful overseas use of data ») est un accord de coopération juridique permettant d’obtenir des renseignements sur les « US persons », et non un texte permettant renseignement et espionnage à l’encontre des citoyens européens. Pour cela, regardez plutôt du côté de FISA section 702 (prolongé il y a quelques semaines), ou de l’Executive Order 12333 (promulgué en 1981). Alors cessons d’invoquer le CLOUD act à tort et à travers, qui plus est en s’imaginant que cela a un rapport avec « le cloud ».

Je pense qu’il faut réconcilier les points de vue d’OlivierE et Alain38 : Alain38 souligne à juste titre que le droit américain ne protège pas les données de santé européennes. OlivierE fait quant à lui certainement référence au droit européen (et français), qui protège ces mêmes données.

Les commentaires sont fermés.