Il n’est pas possible d’ouvrir un journal ou un magazine sans y trouver un article évoquant l’intelligence artificielle, tant son ubiquité paraît si évidente qu’on ne saurait l’ignorer et l’écarter du sommaire de toute publication.
Il faut, pour commencer, dénoncer une grave erreur de traduction : l’expression « intelligence artificielle » que nous utilisons en français se veut la traduction de l’expression anglo-saxonne « artificial intelligence ». Or « intelligence » en anglais n’a jamais voulu dire « intelligence ». Intelligence se dit en anglais « cleverness ». Le mot anglais « intelligence » signifie renseignement, information, comme le montre les appellations des services de renseignement britanniques, l’Intelligence Service ou américains la Central Intelligence Agency.
Nous parlons donc de systèmes qui sont capables de traiter extrêmement vite des quantités importantes de données, au point d’exécuter des tâches très complexes, telles que la reconnaissance de visage ou de voix, la conduite de véhicule, etc.
Même si l’idée est de parvenir à faire imiter par une machine les capacités cognitives d’un être humain, il faut préciser ici que les systèmes aujourd’hui connus et fonctionnels sont qualifiés d’IA « faibles » ou « modérées », alors que certains, sans nul doute, s’efforcent de mettre au point des systèmes qui sont aujourd’hui du domaine de la pure science-fiction, les IA dites « fortes », qui seraient dotées d’une forme de conscience d’elles-mêmes.
Cette hypothèse d’I.A. autonomes conscientes s’opposant aux humains génère des craintes qui troublent la mesure des réels enjeux, tels que l’impact sur les droits fondamentaux ou surtout les processus de prise de décision, qui ne seraient fondés que sur des modèles mathématiques, sans référence à l’éthique, au sens moral.
Il est difficile dans ce contexte, chacun en conviendra, d’élaborer des cadres de régulation.
Pour dresser un tableau exact de ce qui est aujourd’hui possible, il faut dire un mot du machine learning, c’est-à-dire de la capacité qu’a le système de se perfectionner.
Au-delà de ce que permettaient les premiers systèmes experts, il ne s’agit plus pour un informaticien de coder les règles à la main mais de laisser les ordinateurs les découvrir par corrélation et classification, sur la base d’une quantité massive de données.
En d’autres termes , l’objectif de l’apprentissage automatique n’est pas réellement d’acquérir des connaissances déjà formalisées mais de comprendre la structure de données et de l’intégrer dans des modèles, ce qui permettra d’automatiser des tâches jusqu’ici considérées comme complexes.
Prenons un exemple simple pour expliquer cette possibilité : sur 10 années, dans différentes villes, quel est le nombre de crèmes glacées vendues et quelle était la température de l’air.
La machine en déduira un modèle qui pourra ensuite être utilisé pour résoudre des questions telles que s’il fait 25°, combien de glaces puis-je espérer vendre dans telle ou telle ville ?
Mais l’intervention humaine demeure encore essentielle, par exemple pour choisir les données d’apprentissage, identifier leurs éventuels biais ou encore de distinguer parmi les corrélations celles pouvant être réellement la cause d’un phénomène.
Pour rester sur l’exemple des crèmes glacées, si l’on vend beaucoup plus de glaces pour un lieu donné, est-ce seulement à cause de la température ou faut-il tenir compte de la présence d’un très bon glacier ? On peut en fait complexifier la question et multiplier le nombre de facteurs susceptibles d’influencer la consommation effective de glaces.
Les lecteurs de 450.fm apprécieront j’espère que je n’ai pas pris l’exemple d’une obédience maçonnique, de ses loges dans une région donnée, ni d’un V.M. dont on sait pourtant à quel point il peut être décisif dans l’attractivité d’une Loge…
Finalement, les impacts sociétaux, éthiques et sur les droits fondamentaux ne sont pas à construire en craignant que l’apprentissage automatique ne fasse émerger une forme conscience artificielle dans les années qui viennent, mais bien de s’inquiéter que les biais, les discriminations, les atteintes à la vie privée, à la liberté d’expression ou de conscience voire à la vie elle-même ne soit l’expression d’une conception de la société la réduisant à un modèle mathématique.
Revenons à l’intelligence artificielle définie comme consistant à utiliser des machines capables de simuler l’intelligence humaine.
Dès 1949, Warren Weaver avait publié un mémorandum sur la traduction automatique des langues qui suggérait qu’une machine puisse faire une tâche qui relève typiquement de l’intelligence humaine.
Historiquement, l’idée d’intelligence artificielle semble émerger dans les années 1950 quand Alan Turing se demande si une machine peut « penser ».
Dans l’article « Computing Machinery and Intelligence », paru en octobre 1950, Turing explore ce problème et propose une expérience (maintenant dite test de Turing) visant à trouver à partir de quand une machine deviendrait « consciente ».
Pour revenir aux définitions données par les créateurs de l’I.A., citons les premiers d’entre-eux :
Le premier est John McCarthy, professeur au M.I.T., qui définit l’I.A. ainsi : « C’est la science et l’ingénierie de la fabrication de machines intelligentes, en particulier de programmes informatiques intelligents. Elle est liée à la tâche similaire qui consiste à utiliser des ordinateurs pour comprendre l’intelligence humaine, mais l’I.A. ne doit pas se limiter aux méthodes qui sont biologiquement observables »
A cette définition que certains jugent trop ouverte et trop confiante, on peut opposer la définition proposée par Marvin Lee Minsky, à Carnegie Mellon, lui aussi l’un des créateurs de l’I.A.
Minsky estime que « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ».
Minsky explique qu’on trouve donc dans l’I.A. le côté « artificiel » atteint par l’usage des ordinateurs ou de processus électroniques élaborés et le côté « intelligence » associé à son but d’imiter le comportement.
Cette imitation peut se faire dans le raisonnement, par exemple dans les jeux ou la pratique des mathématiques, dans la compréhension des langues naturelles, dans la perception : visuelle, par exemple l’interprétation des images et des scènes, la perception auditive et donc la compréhension du langage parlé, ou par d’autres capteurs, comme la commande d’un robot dans un milieu inconnu ou hostile.
Mais Minsky a écrit sa définition en 1961, il y a 62 ans… On doit en particulier remarquer que certaines définitions de l’I.A. varient aujourd’hui sur deux points fondamentaux, ne serait-ce que par la formidable augmentation de la puissance de calcul.
A l’époque très lointaine où j’ai commencé à les utiliser, les ordinateurs les plus performants pouvaient réaliser jusqu’à 740 000 opérations par seconde. À cette époque, ces ordinateurs étaient principalement utilisés pour le traitement de texte et le calcul simple. Aujourd’hui, les supercalculateurs peuvent faire 93 millions de milliards d’opérations par seconde !
Reste que l’on doit toujours distinguer les définitions qui insistent sur le fait que l’I.A. a pour but d’avoir toutes les apparences de l’intelligence, humaine ou rationnelle, et celles qui insistent sur le fait que le fonctionnement interne du système d’I.A. doit ressembler également à celui de l’être humain et être au moins aussi rationnel.
Reste aussi que certaines performances sont troublantes, comme celle qui a permis en mai 1997 à l’ordinateur Deep Blue de battre Garry Kasparov au jeu d’échecs lors d’un match revanche de six parties.
Reste encore que depuis 2015, le secteur de l’intelligence artificielle cherche à relever quatre défis : la perception visuelle, la compréhension du langage naturel écrit ou parlé, l’analyse automatique du langage et la prise de décision autonome.
Reste enfin que produire et organiser des données nombreuses et de qualité, c’est-à-dire corrélées, complètes, qualifiées, sourcées, datées, historisées est un autre enjeu.
On comprend donc que la capacité déductive et de généralisation pertinente d’un ordinateur, à partir de peu de données ou d’un faible nombre d’évènements, est un autre objectif, plus lointain, et dont nul ne peut assurer qu’il sera atteint.
Il y a 20 ans, en 2004, le Singularity Institute a lancé une campagne Internet appelée 3 Laws Unsafe (« 3 lois dangereuses »), pour sensibiliser à l’insuffisance des trois lois d’Asimov avant la sortie du film I, Robot
Si vous n’avez pas lu – ou si vous avez oublié – les œuvres d’Isaac Asimov, rappelons les trois lois de la robotique, formulées en 1942, il y a plus de 80 ans :
1. Un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu’un être humain soit exposé au danger.
2. Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première loi.
3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième loi.
Il est évident qu’il faut aujourd’hui aller un peu plus loin.
Entre 2014 et 2015, à la suite du développement rapide du deep learning, quelques scientifiques et membres de la communauté high tech craignent que l’intelligence artificielle ne vienne à terme dépasser les performances de l’intelligence humaine.
Parmi eux, l’astrophysicien britannique Stephen Hawking, le fondateur de Microsoft Bill Gates et même le PDG de Tesla Elon Musk.
Néanmoins, en janvier 2018, des modèles d’intelligence artificielle développés par Microsoft et Alibaba réussissent chacun de leur côté à battre les humains dans un test de lecture et de compréhension.
Indubitablement, le traitement du langage naturel imite la compréhension humaine des mots et des phrases et permet aux modèles d’apprentissage automatique de traiter de grandes quantités d’informations avant de fournir des réponses précises aux questions qui leur sont posées.
En février 2019, l’institut de recherche OpenAI annonce la création du programme d’intelligence artificielle GPT-2, capable de générer des textes jugés suffisamment réalistes pour pouvoir représenter un danger.
Si le logiciel est utilisé avec une intention malveillante, il peut générer des fausses nouvelles crédibles. Peut-être ne le savez-vous pas, mais Open AI, inquiet, a choisi de ne pas rendre public le code source du programme.
Pour celles et ceux qui sont soucieux de valeurs morales, de respect pour la personne et la pensée d’autrui, il est temps de se poser certaines questions essentielles.
Depuis 1970, le rapport du nombre de comparaisons par seconde entre ordinateur et cerveau a complètement changé de sens. Le matériel serait donc maintenant disponible…
Mais l’I.A. ne peut encore, et ne pourra peut-être jamais, expliciter toutes les connaissances utiles à la résolution d’un problème complexe.
Certaines connaissances dites implicites sont acquises par l’expérience et mal formalisables. Surtout, un autre type de complexité apparaît : la complexité structurelle.
Comment mettre en relation des modules spécialisés pour traiter un certain type d’informations, par exemple un système de reconnaissance des formes visuelles, un système de reconnaissance de la parole, un système lié à la motivation, à la coordination motrice, au langage, etc. ?
Si la question est limitée à la résolution d’une suite, même longue, d’opérations de type mathématiques, l’« intelligence artificielle dite « générale » peut être proposée comme par exemple sur les portables de banquiers qui peuvent ainsi dire oui ou non sans délai à une demande de crédit.
Il en va tout autrement de ce que l’on appelle l’intelligence artificielle forte, qui désigne une machine capable non seulement de produire un comportement intelligent, notamment de modéliser des idées abstraites, mais aussi d’éprouver une impression d’une réelle conscience, de « vrais sentiments » et même « une compréhension de ses propres raisonnements »
Contrairement à l’intelligence artificielle générale, l’intelligence artificielle forte fait intervenir des notions philosophiques de conscience.
Cela dit, aucune définition de la conscience pour une I.A. ne fait consensus. Il fait ici être honnête : les neurosciences nous affirment que la conscience a un support biologique et donc matériel, même si les scientifiques ne voient généralement pas d’obstacle théorique à la création d’une intelligence consciente sur un support matériel autre que biologique.
Selon les tenants de l’IA forte, si à l’heure actuelle il n’y a pas d’ordinateurs ou d’algorithmes aussi intelligents que l’être humain, nul ne peut affirmer que cela ne se pourra jamais.
Pour le dire autrement, Il n’y aurait aucune limite fonctionnelle mais seulement des limites liées à l’aptitude humaine à concevoir les logiciels appropriés c’est-à-dire un programme, une base de données, etc.
Les tenants de cette possibilité assurent que cela sera possible avec des ordinateurs manipulant des symboles.
Mais il ne faut pas prendre « symbole » au sens que nous Francs-maçons donnons à ce terme !
Ici en effet la notion de symbole est à prendre au sens large, incluant les techniques connexionnistes telles que les réseaux de neurones, qui, à la base, sont définies par des symboles. Cette position est portée par des mouvements comme ceux du computationnalisme, cette théorie fonctionnaliste en philosophie de l’esprit qui, pour des raisons méthodologiques, conçoit l’esprit comme un système de traitement de l’information et compare la pensée à un calcul et, plus précisément, à l’application d’un système de règles.
Le computationnalisme est donc une théorie fonctionnaliste en philosophie de l’esprit qui, pour des raisons méthodologiques, conçoit l’esprit comme un système de traitement de l’information et compare la pensée à un calcul (en anglais, computation) et, plus précisément, à l’application d’un système de règles. La computation se réfère à la calculabilité, c’est-à-dire au fait de passer d’une entrée à une sortie par le biais d’un algorithme déterminé. Ce n’est pas une thèse ontologique sur la nature de l’esprit, qui prétendrait que toute pensée se réduit à un calcul de ce style, mais selon ses partisans, il est possible d’appréhender certaines fonctions de la pensée selon ce modèle, qu’elles soient conscientes ou infraconscientes. C’est donc une synthèse entre le réalisme intentionnel et le physicalisme, qui affirme que toute entité existante est une entité physique.
Mais d’autres, bien plus nombreux, sont d’un avis absolument différent.
Ces spécialistes estiment qu’une intelligence artificielle forte (c’est-à-dire douée d’une sorte de conscience n’est pas possible pour trois raisons :
- La conscience serait le propre des organismes vivants (supérieurs), et elle serait liée à la nature des systèmes biologiques.
- Les machines actuelles manipulent des symboles et des donnés traduisibles en chiffes et en nombres., même si peut-être en sera-t-il autrement avec des systèmes dont l’organisation matérielle serait fondée sur des processus quantiques.
- Surtout, la pensée n’est pas un phénomène calculable par des processus discrets et finis. Une conscience est donc nécessaire pour accéder à l’intelligence, mais un système informatique ne serait capable que d’en simuler une, sans pour autant la posséder ?
C’est le concept philosophique du zombie, c’est-à-dire d’un être physiquement et extérieurement indiscernable d’un être conscient, par son comportement comme par sa constitution physique, mais qui, cependant, n’a aucune conscience de son existence ou du monde, aucun ressenti ni aucun vécu personnel.
Bien qu’il se comporte comme s’il éprouvait des émotions, le zombie n’en éprouve aucune, alors même que les processus biologiques et physiques qui déterminent son comportement sont ceux d’une personne qui éprouve des émotions.
Pour être complet et tenter d’être honnête, même si une intelligence artificielle forte réelle n’était guère possible, une IA peut être de plus en plus perçue comme forte par une majorité d’individus parallèlement à l’arrivée des IA génératives, comme Chat GPT et les outils de génération d’images.
Ces outils permettent en effet toutes sortes d’applications : création, synthèse, traduction de textes, composition d’images, de vidéos à partir de prompts, textes descriptifs.
Il devient ainsi de plus en plus difficile pour un être humain de distinguer des créations humaines de celles provenant d’une IA générative.
Il est vrai que les textes, du fait de leur création par le processus d’intelligence artificielle, n’expriment pas une pensée, mais sont uniquement issus d’opérations sur des textes antérieurs.
Une chercheuse en éthique et biais algorithmiques, parle de « perroquets stochastiques », tandis qu’un professeur à la Sorbonne, dit que ce sont des plagiats sans conscience, difficilement décelables car tout texte humain contient des expressions issues de textes déjà existants.
L’intelligence artificielle générative est un type de système d’intelligence artificielle (IA) capable de générer du texte, des images ou d’autres médias.
Elle semble avoir des applications possibles dans presque tous les domaines, avec une balance des risques et des opportunités encore discutée : l’IA générative est en effet aussi source d’inquiétudes et des défis éthiques, techniques et socioéconomiques à la hauteur des espoirs qu’elle suscite.
Terminons ce survol par les menaces les plus graves, les pires risques de l’I.A.
L’intelligence artificielle est un fantastique outil quand il est au service de la santé, la technologie ou l’astrophysique. Mais dans de mauvaises mains, elle peut aussi servir à des fins criminelles ou à la désinformation
Les menaces graves sont par exemplela réalisation de fausses vidéos, qui vont usurper l’identité d’une personne en lui faisant dire ou faire des choses qu’elle n’a jamais dite ou faites, dans le but de demander un accès à des données sécurisées, de manipuler l’opinion onde nuire à réputation de quelqu’un…
On pourrait aussi évoquer ici le piratage de voitures autonomes ou de drones militaires, les phishing ciblées, les infox fabriquées de toutes pièces, le chantage à grande échelle ou la manipulation de marchés financiers.
Les fausses informations générées par des « bots » ont la capacité à ruiner la réputation d’une personne connue ou à exercer un chantage.
Difficiles à combattre, ces « deepfakes » peuvent causer un tort économique et social considérable.
On pense ici à l’exploitation de préjugés, aux fausses critiques, aux contrefaçons de toutes sortes.
Plus graves, on doit penser aux systèmes permettant de prendre le contrôle d’un robot militaire ou d’un drone, de vendre des services frauduleux, des données fausses ou orientées, d’interdire ou de manipuler l’accès à une service financier, public, social etc., de tromper un système de reconnaissance, ou encore de corrompre les données d’un dossier dans le domaine de la santé ou dans le domaine des enquêtes criminelles…
Finalement, on peut imaginer trois formes d’I.A. générative :
L’IA interactive, capable d’interagir avec le monde réel de manière plus complexe, en collaborant avec d’autres logiciels, des machines ou des robots.
L’IA autonome, qui permettra à des machines d’accomplir des tâches sans intervention humaine, dans des domaines tels que les transports, la santé et la sécurité.
Enfin, l’IA consciente, généralement considérée comme une possibilité encore lointaine, serait capable d’une forme de ressenti des émotions et d’avoir une conscience de soi.
Il reste bien des questions éthiques et des interrogations morales et philosophiques complexes.
On peut donc être convaincu que c’est sur ces questions, sur ces interrogations qu’il nous est possible de réfléchir, de faire réfléchir, et d’être, autant que faire se peut, force de propositions.
Les big data sont caractérisés par le Volume, la Vélocité et la Variété des données qui peuvent être analysées pour en extraire des déductions, des modèles, des tendances et des corrélations.
La question n’est en fait plus « ferons-nous appel à l’intelligence artificielle demain ? », mais bien « l’homme sera-t-il demain au service de la machine, ou gardera-t-il la maîtrise sur l’outil qu’il a créé ? ».
Faut-il rappeler ici que la Déclaration universelle des droits de l’homme prend comme point de départ l’inviolabilité de la dignité humaine ?
Un ordinateur n’a pas d’affect, pas de sentiment… Un ordinateur n’a aucune responsabilité relative aux solutions qu’il détermine, préconise, et pourrait mettre en œuvre.
Un ordinateur n’a pas d’âme, pas de valeurs morales… Il diffère de l’homme absolument, et du Franc-Maçon ou de la Franc-Maçonne singulièrement.
Il nous appartient de ne pas laisser s’installer la confusion.
PS : Outre son Doctorat en médecine, l’auteur est titulaire d’un Doctorat en Informatique et Statistique Appliquée et préside la Société Française de Santé Digitale, s’intéressant à tous les usages du numérique et du digital en santé. Il est administrateur de Ethik-IA, dont l’ambition est d’accompagner la régulation positive de l’IA sans freiner ou entraver l’innovation en s’appuyant sur la législation française et la réglementation européenne
1) Le problème énergétique et extractiviste de l’IA générative est une dimension absolument centrale qui, au titre des menaces et enjeux, aurait tout lieu de compléter l’article. Les pouvoirs publics, même dans les pays culturellement très favorables à l’innovation, s’en émeuvent. Il y a un “mur environnemental” de l’IA générative, qui actuellement nous emmène droit dans le mur.
2) Corollaire, bâtir de “l’IA pour l’IA” sans interroger sa finalité est à questionner au regard des conditions sociales dans les pays miniers nécessaires à son fonctionnement. Une pensée pour les enfants africains en train d’agoniser dans les mines de cobalt serait une façon d’interroger sans concessions cette finalité.
3) Il est peut-être temps de ne pas balayer non plus d’un revers de main le risque de paresse cognitive qu’engendre l’IA et les conséquences de long terme sur l’espèce humaine. Même si cet argument a été critiqué de tous temps lors de différents mutations technologiques, on est devant un véritable changement de paradigme puisqu’à l’heure où l’on parle, l’IA (GPT-4 pour ne pas le nommer) passe le test de Turing (ce qui ne veut pas dire que l’on soit parvenu à l’IA forte / AGI) et que la question de la marginalisation de nombreux métiers est clairement posée. La destruction créatrice de Schumpeter a peut-être de temps en temps ses limites…
4) Les crèmes glacées sont un vieux problème de régression appartenant à l’apprentissage supervisé.
5) L’IA forte (dans la terminologie de cet article) me semble correspondre au terme anglais “AGI” qui prête à confusion (“Artificial General Intelligence”).
Une décision est qualifiée de bonne ou mauvaise à posteriori selon le résultat que l’on obtient en l’appliquant : Comment l’IA Générative pourra-t-elle ANTICIPER UN RESULTAT pris par l’Homme parfois par intuition et issue en définitive de paramètres qu’elle pourrait bien ignorer malgré la mase de données qu’elle a engrangée ? Si elle prend conscience du PIEGE , sa seule porte de sortie sera probablement de renvoyer la question à celui qui lui a posée et dans ce cas elle n’aura pas servi à grand chose ! l’IA semble donc n’être qu’un OUTIL: reste à SAVOIR S’EN SERVIR r . car il est PUISSANT;
Très belle réflexion avec laquelle je suis totalement en phase