ven 30 mai 2025 - 03:05

Éthique médicale et Intelligence Artificielle

Moshe Vardi, éminent chercheur israélo-américain et professeur d’informatique, a écrit en 2016 que le vrai risque était que les machines en viennent à surpasser l’homme dans tant de tâches que cela pose la question de l’utilité de l’espèce humaine, et que la moitié de l’humanité soit mise au chômage.[i]

Ce risque est aussi pris au sérieux sur le plan juridique. Ainsi, le parlement européen, a demandé à la commission d’étudier le fait qu’un robot doté d’une intelligence artificielle puisse être considéré comme une personne au sens juridique du terme.
En fait, le principe envisagé par le Parlement européen viserait à conférer à la personnalité électronique à tout robot chargé de prendre des décisions autonomes ou d’interagir de manière indépendante avec des tiers[ii]

Cela signifierait qu’une machine ainsi dotée de la personnalité juridique, pourrait être condamnée à réparer un dommage causé à un tiers, au même titre qu’une personne morale et physique.

Évidemment, d’aucuns estiment que c’est le programmeur qui doit être poursuivi, et non la machine, qui ne fait qu’exécuter. Toute la question est ainsi posée de savoir si l’intelligence artificielle est vraiment de l’intelligence – à défaut d’avoir le moins du monde le début du commencement de la conscience de quoi que ce soit…
Cette question de la responsabilité a des prolongements extrêmement graves. C’est sans doute ce qui a poussé  il y’a quelques années 244 organisations et 3187 chercheurs, ingénieurs et personnalités parmi les plus respectées du secteur de l’intelligence artificielle à signer une lettre ouverte par laquelle ils s’engagent à s’opposer à la conception et à l’utilisation d’armes létales autonomes, précisant qu’en tout état de cause, « la décision de prendre une vie humaine ne devrait jamais être déléguée à une machine. ».[iii]

A l’opposé de tout ce qui peut être utilisé pour mettre fin à une vie, il y a tout ce qui peut être utilisé pour la sauver ou simplement la prolonger.

L’intelligence artificielle est bien plus qu’une  nième évolution technologique. C’est une véritable révolution, qui touche l’ensemble de l’activité médicale, notamment le diagnostic et l’imagerie médicale, voire crée de nouvelles disciplines ou offre de nouvelles possibilités, comme la télémédecine ou la chirurgie robotisée à distance.

Nous sommes entrés sans toujours nous en rendre compte dans l’ère de la santé numérique. Les médecins s’ouvrent à une nouvelle pratique, celle de la médecine « 5P », prouvée, prédictive, préventive, personnalisée et participative », à l’aide de technologies mettant en œuvre les algorithmes et le recours à des dispositifs médicaux connectés, communicants.

Les géants de la Silicon Valley , Google, Apple, Facebook, y participent pleinement, mais aussi des centaines de start up, mobilisant des milliers de médecins, ingénieurs et mathématiciens.

Naturellement, tout ceci n’est possible que grâce aux progrès des machines, en rapidité et en volume traité et stocké, d’où résulte leur aptitude à engranger, intégrer, analyser et interpréter des quantités considérables de données, les fameuses big data.
Les systèmes proposés ont recours au data mining, qui a pour objet la découverte de connaissances dans un grand volume de données provenant de bases de données, et leur analyse à la recherche de régularités, ou d’irrégularités, en tous cas de relations jugées intéressantes.
L’étape suivante est celle du machine learning, qui est celle de l’acquisition de connaissances, de l’apprentissage ou de l’amélioration de la capacité à résoudre des problèmes.

L’exemple le plus fameux est celui démontré par IBM avec son supercalculateur Watson.
En 2016, le supercalculateur IBM Watson diagnostique une leucémie chez une patiente japonaise de 60 ans. L’ordinateur conseille les médecins, qui adaptent leur traitement et la guérissent. [iv] Comment ?
Watson fonctionne grâce au machine learning, qui est donc cette branche de l’intelligence artificielle qui extrait de l’information à partir de big data.
Les données de Watson viennent de millions de dossiers médicaux. L’information qu’il en tire lui permet de réaliser d’une part des diagnostics (y compris de pathologies rares ou complexes) et d’autre part des prescriptions .  Dans ce cas, l’ordinateur a trouvé le type de la leucémie ainsi que le traitement adapté. L’état de la patiente s’est amélioré.
Il faut bien comprendre que La technologie d’IBM diffère de celle mise en œuvre par la médecine traditionnelle : le logiciel n’analyse pas les symptômes pour identifier une pathologie ; il exploite l’information disponible en ligne.
En fait, Il analyse 300 pages de données en 1/2 seconde en 7 langues. Watson parcourt différents types de données sur Internet : tweets, blogs, articles journalistiques et scientifiques, etc.
Ces données constituent un énorme corpus de savoir, mais sans structure. Le programme implanté dans Watson a pour objet de construire des connexions entre ces données éparses, pour créer son expertise.
Watson analyse des comptes rendus cliniques, de biologie, d’imagerie et les compare à son corpus,  avant de fournir un diagnostic. Ceci vaut en cancérologie mais aussi en cardiologie, en orthopédie, en ophtalmologie… Peu à peu, toutes les disciplines médicales sont concernées.

Bien entendu, en tous cas pour l’instant, c’est au médecin que revient le choix final de la prise en charge de malade. Si le praticien décide de ne pas se fier à une proposition diagnostique et thérapeutique suggérée par Watson, il l’en informe.

Le programme est ainsi conçu que Watson corrige alors son raisonnement par un processus bayésien, c’est-à-dire fondé sur un calcul de probabilité qui s’interprète comme le degré de confiance à accorder à une cause. La probabilité de chacune des hypothèses est révisée à chaque nouvelle observation et s’affine de plus en plus. De cette manière, un diagnostic proposé par Watson indique qu’une maladie plus qu’une autre est probablement à l’origine des symptômes d’un patient.

Les défenseurs du système assurent que l’ordinateur n’est pas face au médecin mais avec lui. Et ils jurent que Watson n’a pas vocation à remplacer le médecin mais à l’aider.

Toutefois,  la question de la responsabilité reste posée… Que se passe-t-il si un médecin refuse la proposition de diagnostic ou de traitement faite par la machine à partir de l’analyse de centaines et de milliers d’observations de patients, et que l’issue pour son malade ne soit pas favorable ? En d’autres termes, jusqu’où va la liberté de son jugement par rapport à ce qui est présenté comme la vérité, même si ce n’est en fait qu’une vérité statistique ?

Dans un univers autre que celui de la médecine, mais que j’affectionne également, vous vous souvenez certainement de cet avion en panne que son commandant de bord a réussi à poser sur l’Hudson, sauvant ainsi tous les passagers et les membres de son équipage. Les systèmes automatisés lui indiquaient pourtant de virer pour gagner l’un des aéroports de la région de New York.                                                                                     
On a reproché au commandant d’avoir suivi son jugement, lié à son expérience et à son instinct, plutôt que les recommandations de la machine. Une reconstitution a permis de montrer qu’en fait, c’est le choix du commandant de bord qui était le bon. Les manœuvres dictées par le système auraient conduit à un crash[v]. Qui en aurait été responsable ? Et comment condamner et punir une machine ?

Revenons un instant à l’intelligence artificielle et à ses applications médicales.
Indiscutablement, l’intelligence artificielle offre de formidables opportunités en matière d’économie de la connaissance. Ses apports potentiels à la pratique médicale sont considérables.
Mais la responsabilité de la relation médecin-malade ne peut être abandonnée à des machines, si perfectionnées et performantes soient-elles.

Le Professeur Guy Vallancien a écrit, dans son livre « La médecine sans médecin ? », ces lignes essentielles : « Je serai dépossédé des outils qui faisaient mon métier de médecin, techniquement. En revanche, ce qui restera est la relation humaine. Le médecin sera à la disposition du malade qui, quoi qu’il arrive, ne croira jamais l’ordinateur. Il aura toujours besoin d’une personne qui le conforte. »[vi]

Pascal Picq est maître de conférences au Collège de France, paléo-anthropologue, fin connaisseur du transhumanisme. Dans son livre Le Nouvel Age de l’humanité, il écrit ceci : « […]Si les avancées des sciences et des techniques deviennent les maîtresses de la procréation et de l’éradication de la mort., comme le promettent les transhumanistes, nous entrons dans une ère posthumaine qui devra réinventer sa position dans le cosmos, tout comme ses règles éthiques et sociales […][vii]

Les chercheurs décrivent de plus en plus clairement le socle qui définit les origines du récit universel et la genèse de l’humanité.

La suite de l’aventure humaine reste à inventer, et il serait irresponsable de laisser un seul groupe, une seule fraction de la société humaine, s’en préoccuper et imposer à l’ensemble la vision qu’elle porte pour les temps à venir.

Rappelons pour conclure quelques-uns des principes universels qui régissent l’ensemble des sociétés humaines, depuis l’aube de l’humanité : toute technologie est duale, au sens où elle peut servir à faire le bien comme le mal. Un couteau peut  servir à trancher ou à tuer. C’est l’usage que l’on en fait qui l’associe au bien ou au mal.
L’intelligence artificielle n’échappe pas à cette règle. Pour autant qu’il nous soit donné d’y avoir quelque influence, souvenons-nous que notre vocation, notre formation et notre déontologie nous engagent à combattre pour le bien et contre le mal, dans tous les domaines de notre vie et de nos activités.

Une grande partie des considérations éthiques soulevées tiennent à l’opacité de ces technologies : l’intelligence artificielle est susceptible d’apporter des solutions d’une grande efficacité, en faisant appel à un nombre de donnés considérable, et à la définition d’algorithmes. 

Or dès lors qu’on en comprend mal le fonctionnement interne, le recueil, le traitement et l’analyse de ces données, comme la construction et l’utilisation des algorithmes, posent le problème de ce qu’on appelle couramment la « boîte noire ».

On mesure bien l’enjeu éthique de cette problématique, et l’importance de veiller à la transparence en la matière, dans l’esprit de quête de vérité auquel nous nous sommes engagés. Les sauts technologiques auxquels nous assistons doivent aller de pair avec un saut de conscience, si nous ne voulons pas soumettre notre existence aux choix algorithmique  des robots collaboratifs.

L’intelligence artificielle représente un enjeu économique majeur. Mais elle a tout autant une dimension sociale, qui implique des enjeux liés à l’éthique et à la morale : elle doit être mise au service du bien commun et de la société. On pourrait parler ici de la composante humaniste de la question.

Il faut donc réfléchir et bien définir quelles sont les données, les tâches de la machine, l’explicabilité, les décisions qui lui sont déléguées, les informations données aux utilisateurs et la responsabilité des concepteurs et des programmeurs. Ce dernier point est essentiel, parce que les valeurs morales ont pour origine la notion de responsabilité. Et à l’origine de la responsabilité, il y a la dialectique entre donner, selon la loi de justice, et recevoir, selon la loi d’amour.

L’intelligence artificielle augmente et démultiplie l’intelligence, mais elle n’a, ni ne peut avoir, aucun esprit, pas de dimension spirituelle, pas de valeurs morales, pas d’éthique. Ces préoccupations sont notre privilège. Il ne saurait être question de nous en déposséder…


[i] Moshe Vardi, Technology for the most effective use of mankind. ACM 2017
[ii] Parlement européen Résolution du 16 février 2017 : recommandations 2017 à la Commission concernant des règles de droit civil sur la robotique
[iii] Future of Life Institute Lethal Autonomous Weapons Pledge FLI 2018                
[iv] James Miller IBM Watson Projects Packt 2018     
[v] National Transportation Safety Board   Final Repost Flight US1549  NTSB  2010
[vi] Guy Vallancien, La médecine sans médecin ?  Gallimard 2015
[vii] Pascal Picq, Le Nouvel Age de l’humanité Allary 2018

 

 

1 COMMENTAIRE

  1. Merci pour ce texte qui me permettait de situer la place de l’IA et celle de notre humanité. Conscience, responsabilité pour l’humanité, l’IA un apport d’information ++++. Ce texte m’aide à moins diabolisé l’IA et resituer notre place.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Jean-Jacques Zambrowski
Jean-Jacques Zambrowski
Jean-Jacques Zambrowski, initié en 1984, a occupé divers plateaux, au GODF puis à la GLDF, dont il a été député puis Grand Chancelier, et Grand- Maître honoris causa. Membre de la Juridiction du Suprême Conseil de France, admis au 33ème degré en 2014, il a présidé divers ateliers, jusqu’au 31°, avant d’adhérer à la GLCS. Il est l’auteur d’ouvrages et de nombreux articles sur le symbolisme, l’histoire, la spiritualité et la philosophie maçonniques. Médecin, spécialiste hospitalier en médecine interne, enseignant à l’Université Paris-Saclay après avoir complété ses formations en sciences politiques, en économie et en informatique, il est conseiller d’instances publiques et privées du secteur de la santé, tant françaises qu’européennes et internationales.

Articles en relation avec ce sujet

Titre du document

DERNIERS ARTICLES