mar 01 juillet 2025 - 17:07

Intelligence Artificielle : risque ou opportunité ?

L’expression « Intelligence Artificielle » a été créée il y a un demi-siècle par John McCarthy, professeur à l’Université de Stanford, en Californie, et Marvin Minsky, du célèbre MIT, pour désigner, je cite, « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ».

Artificial ou artificielle veut dire clairement que le processus s’efforce d’avoir toutes les apparences de l’intelligence humaine, et insistent sur le fait que le fonctionnement interne du système doit ressembler à celui de l’être humain et être au moins aussi rationnel.

Il s’agit donc d’imiter au mieux les fonctions du cerveau humain.

L’intelligence dont il est question ici, c’est l’ensemble des facultés de conception, de compréhension, d’adaptation Quant aux opinions, les auteurs anglo-saxons considèrent que l’intelligence est la capacité d’avoir des opinions fondées sur la raison. On voit immédiatement une limite à cette compréhension, et par tant à ce que l’Intelligence Artificielle va chercher à imiter : l’I.A.  aboutit à des opinions ou propose des options fondées sur la raison.

Or nous savons que nos choix, qu’il s’agisse d’opinions, de jugements, d’inclinations, procèdent de notre cerveau droit comme de notre cerveau gauche, c’est-à-dire de nos émotions, de notre intuition, comme de notre raison. 

Les valeurs de l’humain ne sont pas uniquement l’expression de ce que commande la raison, les faits démontrables et démontrés.

L’intelligence Artificielle est donc incapable d’imiter le cerveau humain en ce qu’il a de non-rationnel.

Irving John Good, Myron Tribus et E.T. Jaynes ont décrit de façon très claire les principes assez simples d’un robot à logique inductive utilisant les principes de l’inférence bayésienne pour enrichir sa base de connaissances sur la base du Théorème de Cox-Jaynes.

Ils n’ont malheureusement pas traité la question de la façon dont on pourrait stocker ces connaissances sans que le mode de stockage entraîne un biais cognitif. Le projet est voisin de celui de Raymond Lulle, mais fondé cette fois-ci sur une logique inductive, et donc propre à résoudre quelques problèmes ouverts. Des chercheurs comme Alonzo Church ont posé des limites pratiques aux ambitions de la raison, en orientant la recherche) vers l’obtention des solutions en temps fini, ou avec des ressources limitées, ainsi que vers la catégorisation des problèmes selon des classes de difficulté.

Très concrètement, cela signifie qu’une machine, si sophistiquée soit-elle, n’a pas d’état d’âme, pas d’émotion, pas d’affect, pas d’éthique. Une machine, même si elle est dotée de capacités d’auto-apprentissage, n’a pas peur, n’aime ni ne déteste rien ni personne.

En fait, en dehors des ouvrages de science-fiction, les machines n’ont pas de conscience, n’éprouvent pas de sentiments.

Reste qu’il est de plus en plus évident que les systèmes d’intelligence artificielle deviennent capables d’accomplir certaines activités qui auparavant étaient l’apanage exclusif des humains.

Les limites ont été posées clairement par certains auteurs de science-fiction.

On peut citer ici les Trois Lois de la Robotique proposées par isaac Asimov en 1942 :

Isaac Asimov

1/ Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;

2/ Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ;

3/ Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la première ou la deuxième loi.

Le développement de ces systèmes conduit au renforcement progressif de leurs facultés d’autonomie propre et de cognition – c’est-à-dire la capacité à apprendre par l’expérience et à prendre des décisions de manière indépendante –, lesquelles sont susceptibles de faire de ces systèmes des agents à part entière pouvant interagir avec leurs opérateurs et leur environnement et les influencer de manière significative.

e-commerce, internet, achat en ligne
Achat virtuel

En fait, toute technologie offre de nouvelles opportunités en même temps qu’elle crée des risques. Et il ne faut pas négliger les aspects éthiques du développement de ces technologies.

Je voudrais à ce stade illustrer mon propos par les questions que le médecin hospitalier et l’enseignant universitaire que je suis se pose, chaque jour un peu plus, et auxquelles mon parcours maçonnique me permet de réfléchir avec plus d’acuité.

Reprenant les termes d’un rapport auquel j’ai apporté mon concours il y a quelques années, consacré à la Stratégie Nationale en Intelligence Artificielle et en particulier aux aspects économiques et sociaux de l’intelligence artificielle, je soulignerai trois des risques éthiques liés à l’Intelligence Artificielle :

Citons en premier lieu le risque de désengagement : l’utilisation de l’IA et de machines autonomes peut conduire à un désengagement de l’humain. Remplacer le facteur humain par de l’IA pourrait conduire à une déshumanisation des pratiques et un appauvrissement des interactions sociales.

Dans le domaine de la pratique médicale, au-delà de la technique, qui s’intéresse aux maladies, il y a la relation humaine, qui s’intéresse au malade.  En fait, le secteur de la santé et, en particulier celui des soins apportés aux patients, aux personnes en situation de handicap et aux personnes âgées va, dans les prochaines années, être profondément transformé par le développement de technologies offrant une grande diversité d’applications allant de l’assistance au contrôle, jusqu’à l’accompagnement quotidien. Le récent scandale des établissements accueillant des personnes âgées dépendantes montre bien combien le rapport humain est essentiel, et combien l’éthique ne saurait être sacrifiée sur l’autel de la rentabilité financière.

La forte dimension affective au cœur de la relation de soin ne va pas cesser d’évoluer et, dès lors, va modifier à la fois le travail des soignants comme la vie des patients. Il faut veiller à ne pas déshumaniser la relation soignant-soigné, tout en se félicitant de ce que les machines, les robots, les automates peuvent permettre, qui renforce l’efficacité, assure la proximité et la sécurité des soins.

Le deuxième risque est la déresponsabilisation :  progressivement, l’être humain pourrait avoir tendance à s’en remettre exclusivement à la proposition de la machine, en évitant d’engager sa responsabilité. Dévier de la solution préconisée par la machine entraînerait une prise de risque trop grande, susceptible de lui faire encourir d’éventuelles sanctions en cas de problème. Cela est vrai en médecine come dans de très nombreuses activités, par exemple le pilotage des véhicules ou des avions.

Le troisième risque est celui de l’atteinte à l’autonomie et par tant à l’imagination et à la créativité. Derrière les vertus facilitatrices de certains dispositifs peut se déployer de manière sous-jacente une normativité. Ainsi, certains dispositifs pourraient empêcher les êtres humains d’adopter des comportements considérés comme « sub-optimaux », de tenter certaines expériences, voire de commettre des erreurs qui souvent sont à la source de nouveautés et de découvertes

Mais on ne saurait se priver des considérables progrès, en tous cas des indiscutables transformations et accélérations que l’Intelligence artificielle va apporter, par exemple en ce qui concerne la recherche clinique, qui permet d’éprouver l’efficacité et la sécurité des nouveaux médicaments.

Le numérique va très certainement permettre de tester les nouveaux médicaments plus rapidement, et sans doute avec moins de patients.  Ce que l’on appelle déjà les essais in silico, c’est-à-dire mettant en œuvre des méthodes d’études effectuée au moyen d’ordinateurs dont les puces sont principalement composées de silicium, vont très probablement optimiser la sécurité des tests cliniques.

Il faudra donc peser les bénéfices et les risques, faire preuve à la fois d’audace et de raison, arbitrer.

En un mot, accepter d’intégrer les progrès de la technologie, tout en ne cédant rien quant aux valeurs de l’humain.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Jean-Jacques Zambrowski
Jean-Jacques Zambrowski
Jean-Jacques Zambrowski, initié en 1984, a occupé divers plateaux, au GODF puis à la GLDF, dont il a été député puis Grand Chancelier, et Grand- Maître honoris causa. Membre de la Juridiction du Suprême Conseil de France, admis au 33ème degré en 2014, il a présidé divers ateliers, jusqu’au 31°, avant d’adhérer à la GLCS. Il est l’auteur d’ouvrages et de nombreux articles sur le symbolisme, l’histoire, la spiritualité et la philosophie maçonniques. Médecin, spécialiste hospitalier en médecine interne, enseignant à l’Université Paris-Saclay après avoir complété ses formations en sciences politiques, en économie et en informatique, il est conseiller d’instances publiques et privées du secteur de la santé, tant françaises qu’européennes et internationales.

Articles en relation avec ce sujet

Titre du document

DERNIERS ARTICLES