sam 10 mai 2025 - 21:05

L’intelligence artificielle : définition, bénéfices et menaces

Partout, chaque jour, nous sommes invités à nous intéresser à l’Intelligence Artificielle, à l’utiliser, à en comprendre les arcanes et les règles. Il nous a semblé indispensable d’éclairer ceux qui ne sont pas familiers de cette thématique, qui occupe depuis des années une large part de notre quotidien. Il faut, pour commencer, dénoncer ce qui était il y a peu une grave erreur de traduction : l’expression « intelligence artificielle » que nous utilisons en français se veut la traduction de l’expression anglo-saxonne « artificial intelligence ». Or « intelligence » en anglais n’a jamais voulu dire « intelligence ». Intelligence se dit en anglais « cleverness ». Le mot anglais « intelligence » signifie renseignement, information, comme le montre les appellations des services de renseignement britanniques, l’Intelligence Service ou américains la Central Intelligence Agency.

Mais l’I.A. a considérablement évolué en peu de temps, et l’on peut aujourd’hui parler sans contresens d’intelligence, au sens de la capacité d’apprendre, de comprendre ou d’adapter à des situations nouvelles, oui encore de l’ensemble des fonctions mentales ayant pour objet la connaissance conceptuelle et rationnelle d’une réalité, complexe par nature.
Nous parlons donc de systèmes qui sont capables de traiter extrêmement vite des quantités importantes de données, au point d’exécuter des tâches délicates ou difficiles, telles que la reconnaissance de visage ou de voix, la conduite de véhicule, etc.

Même si l’idée est de parvenir à faire imiter par une machine les capacités cognitives d’un être humain, précisons ici que les systèmes aujourd’hui connus et fonctionnels sont qualifiés d’IA « faibles » ou « modérées », alors que certains, sans nul doute, s’efforcent de mettre au point des systèmes qui sont aujourd’hui du domaine de la pure science-fiction, les IA dites « fortes », qui seraient dotées d’une forme de conscience d’elles-mêmes.
Cette hypothèse d’I.A. autonomes conscientes s’opposant aux humains génère des craintes qui troublent la mesure des réels enjeux, tels que l’impact sur les droits fondamentaux de processus de prise de décision qui ne seraient fondés que sur des modèles mathématiques, sans référence à l’éthique, au sens moral.

Il est donc difficile dans ce contexte d’élaborer des cadres de régulation.
Pour dresser un tableau exact de ce qui est aujourd’hui possible, il faut dire un mot du machine learning, c’est-à-dire de la capacité qu’a le système de se perfectionner.
Au-delà de ce que permettaient les premiers systèmes experts, il ne s’agit plus pour un informaticien de coder les règles à la main mais de laisser les ordinateurs les découvrir par corrélation et classification, sur la base d’une quantité massive de données.

En d’autres termes l’objectif de l’apprentissage automatique n’est pas réellement d’acquérir des connaissances déjà formalisées mais de comprendre la structure de données et de l’intégrer dans des modèles, ce qui permettra d’automatiser des tâches jusqu’ici considérées comme complexes. Prenons un exemple simple pour expliquer cette possibilité : sur 10 années, dans différentes villes, quel est le nombre de crèmes glacées vendues et quelle était la température de l’air.

La machine en déduira un modèle qui pourra ensuite être utilisé pour résoudre des questions telles que s’il fait 25°, combien de glaces peut-on espérer vendre dans telle ou telle ville ?

Mais l’intervention humaine demeure encore essentielle, par exemple pour choisir les données d’apprentissage, identifier leurs éventuels biais ou alors, quand cela est possible, de distinguer parmi les corrélations celles pouvant être réellement la cause d’un phénomène.

Pour rester sur l’exemple des crèmes glacées, si l’on vend beaucoup plus de glaces pour un lieu donné, est-ce seulement à cause de la température ou faut-il tenir compte de la présence d’un très bon glacier ?
On peut en fait complexifier la question et multiplier le nombre de facteurs susceptibles d’influencer la consommation effective de glaces.

Finalement, les impacts sociétaux, éthiques et sur les droits fondamentaux ne sont pas à construire en craignant que l’apprentissage automatique ne fasse émerger une forme conscience artificielle dans les années qui viennent, mais bien de s’inquiéter que les biais, les discriminations, les atteintes à la vie privée, à la liberté d’expression ou de conscience voire à la vie elle-même ne soit l’expression d’une conception de la société la réduisant à un modèle mathématique.

Revenons à l’intelligence artificielle définie comme consistant à utiliser des machines capables de simuler l’intelligence humaine. Dès 1949, Warren Weaver avait publié un mémorandum sur la traduction automatique des langues qui suggérait qu’une machine puisse faire une tâche qui relève typiquement de l’intelligence humaine.

Historiquement, l’idée d’intelligence artificielle semble émerger dans les années 1950 quand Alan Turing se demande si une machine peut « penser ».
Dans l’article « Computing Machinery and Intelligence », paru en octobre 1950, Turing explore ce problème et propose une expérience (maintenant dite test de Turing) visant à trouver à partir de quand une machine deviendrait « consciente ».
Pour revenir aux définitions données par les créateurs de l’I.A. , citons les premiers d’entre-eux :

Le premier est John McCarthy, professeur au M.I.T., qui définit l’I.A. ainsi :

« C’est la science et l’ingénierie de la fabrication de machines intelligentes, en particulier de programmes informatiques intelligents. Elle est liée à la tâche similaire qui consiste à utiliser des ordinateurs pour comprendre l’intelligence humaine, mais l’I.A. ne doit pas se limiter aux méthodes qui sont biologiquement observables »

A cette définition que certains jugent trop ouverte et trop confiante, on peut opposer la définition proposée par Marvin Lee Minsky, à Carnegie Mellon, lui aussi l’un des créateurs de l’I.A.

Minsky estime que

« la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ».

Minsky explique qu’on trouve donc dans l’I.A. le côté « artificiel » atteint par l’usage des ordinateurs ou de processus électroniques élaborés et le côté « intelligence » associé à son but d’imiter le comportement.

main de robot et main humaine se touchent désormais

Cette imitation peut se faire dans le raisonnement, par exemple dans les jeux ou la pratique des mathématiques, dans la compréhension des langues naturelles, dans la perception : visuelle, par exemple l’interprétation des images et des scènes, la perception auditive et donc la compréhension du langage parlé, ou par d’autres capteurs, comme la commande d’un robot dans un milieu inconnu ou hostile.

Mais Minsky a écrit sa définition en 1961, il y a 64 ans… On doit en particulier remarquer que certaines définitions de l’I.A. varient aujourd’hui sur deux points fondamentaux, ne serait-ce que par la formidable augmentation de la puissance de calcul.
A l’époque très lointaine où l’on commencé à les utiliser, les ordinateurs les plus performants pouvaient réaliser jusqu’à 740 000 opérations par seconde. À cette époque, ces ordinateurs étaient principalement utilisés pour le traitement de texte et le calcul simple. Aujourd’hui, les supercalculateurs peuvent faire 93 millions de milliards d’opérations par seconde !

Reste que l’on doit toujours distinguer les définitions qui insistent sur le fait que l’I.A. a pour but d’avoir toutes les apparences de l’intelligence, humaine ou rationnelle, et celles qui insistent sur le fait que le fonctionnement interne du système d’I.A. doit ressembler également à celui de l’être humain et être au moins aussi rationnel.
Reste aussi que certaines performances sont troublantes, comme celle qui a permis en mai 1997 à l’ordinateur Deep Blue de battre Garry Kasparov au jeu d’échecs lors d’un match revanche de six parties.
Reste encore que depuis 2015, le secteur de l’intelligence artificielle cherche à relever quatre défis : la perception visuelle, la compréhension du langage naturel écrit ou parlé, l’analyse automatique du langage et la prise de décision autonome.

Reste enfin que produire et organiser des données nombreuses et de qualité, c’est-à-dire corrélées, complètes, qualifiées, sourcées, datées, historisées est un autre enjeu.
On comprend donc que la capacité déductive et de généralisation pertinente d’un ordinateur, à partir de peu de données ou d’un faible nombre d’évènements, est un autre objectif, plus lointain, et dont nul ne peut assurer qu’il sera atteint.
Il y a 21 ans, en 2004, le Singularity Institute a lancé une campagne Internet appelée 3 Laws Unsafe (« 3 lois dangereuses »), pour sensibiliser à l’insuffisance des trois lois d’Asimov avant la sortie du film I, Robot.

Si vous n’avez pas lu – ou si vous avez oublié – les œuvres d’Isaac Asimov, je vous rappelle les trois lois de la robotique, formulées en 1942, il y a plus de 80 ans :

  • Un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu’un être humain soit exposé au danger.
  • Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première loi.
  • Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième loi.

Vous ne serez pas étonnés qu’il faille aujourd’hui aller un peu plus loin.
Entre 2014 et 2015, à la suite du développement rapide du deep learning, quelques scientifiques et membres de la communauté high tech craignent que l’intelligence artificielle ne vienne à terme dépasser les performances de l’intelligence humaine. Parmi eux, l’astrophysicien britannique Stephen Hawking, le fondateur de Microsoft Bill Gates et même le PDG de Tesla Elon Musk.

Néanmoins, en janvier 2018, des modèles d’intelligence artificielle développés par Microsoft et Alibaba réussissent chacun de leur côté à battre les humains dans un test de lecture et de compréhension. Indubitablement, le traitement du langage naturel imite la compréhension humaine des mots et des phrases et permet aux modèles d’apprentissage automatique de traiter de grandes quantités d’informations avant de fournir des réponses précises aux questions qui leur sont posées.

En février 2019, l’institut de recherche OpenAI annonce la création du programme d’intelligence artificielle GPT-2, capable de générer des textes jugés suffisamment réalistes pour pouvoir représenter un danger. Si le logiciel est utilisé avec une intention malveillante, il peut générer des fausses nouvelles crédibles. Peut-être ne le savez-vous pas, mais Open AI, inquiet, a choisi de ne pas rendre public le code source du programme.
Que pouvons-nous en penser ?

Depuis 1970, le rapport du nombre de comparaisons par seconde entre ordinateur et cerveau a complètement changé de sens. Le matériel serait donc maintenant disponible…
Mais l’I .A. ne peut encore, et ne pourra peut-être jamais, expliciter toutes les connaissances utiles à la résolution d’un problème complexe. Certaines connaissances dites implicites sont acquises par l’expérience et mal formalisables. Surtout, un autre type de complexité apparaît : la complexité structurelle.

Comment mettre en relation des modules spécialisés pour traiter un certain type d’informations, par exemple un système de reconnaissance des formes visuelles, un système de reconnaissance de la parole, un système lié à la motivation, à la coordination motrice, au langage, etc ?

Si la question est limitée à la résolution d’une suite, même longue, d’opérations de type mathématiques, l’« intelligence artificielle dite « générale » » correspondante peut être distribuée comme le font les portables de banquiers qui peuvent ainsi dire oui ou non, tout de suite.

Il en va tout autrement de ce que l’on appelle l’intelligence artificielle forte, qui désigne une machine capable non seulement de produire un comportement intelligent, notamment de modéliser des idées abstraites, mais aussi d’éprouver une impression d’une réelle conscience, de « vrais sentiments » et même « une compréhension de ses propres raisonnements »
Contrairement à l’intelligence artificielle générale, l’intelligence artificielle forte fait intervenir des notions philosophiques de conscience.

Cela dit, aucune définition de la conscience pour une I.A. ne fait consensus.
Les neurosciences nous affirment que la conscience a un support biologique et donc matériel, même si les scientifiques ne voient généralement pas d’obstacle théorique à la création d’une intelligence consciente sur un support matériel autre que biologique.
Selon les tenants de l’IA forte, si à l’heure actuelle il n’y a pas d’ordinateurs ou d’algorithmes aussi intelligents que l’être humain, nul ne peut affirmer que cela ne se pourra jamais. Pour le dire autrement, Il n’y aurait aucune limite fonctionnelle mais seulement des limites liées à l’aptitude humaine à concevoir les logiciels appropriés c’est-à-dire un programme, une base de données, etc. Les tenants de cette possibilité assurent que cela sera possible avec des ordinateurs.

La notion de symbole est ici à prendre au sens large, incluant les techniques connexionnistes telles que les réseaux de neurones, qui, à la base, sont définies par des symboles. Cette position est portée par des mouvements comme ceux du computationnalisme. Mais d’autres, bien plus nombreux, sont d’un avis absolument différent. Ces spécialistes estiment qu’une intelligence artificielle forte (c’est-à-dire douée d’une sorte de conscience n’est pas possible pour trois raisons :

Surtout, la pensée n’est pas un phénomène calculable par des processus discrets et finis. Une conscience est donc nécessaire pour accéder à l’intelligence, mais un système informatique ne serait capable que d’en simuler une, sans pour autant la posséder ?
C’est le concept philosophique du zombie, c’est-à-dire d’un être physiquement et extérieurement indiscernable d’un être conscient, par son comportement comme par sa constitution physique, mais qui, cependant, n’a aucune conscience de son existence ou du monde, aucun ressenti ni aucun vécu personnel. Bien qu’il se comporte comme s’il éprouvait des émotions, le zombie n’en éprouve aucune, alors même que les processus biologiques et physiques qui déterminent son comportement sont ceux d’une personne qui éprouve des émotions.

Et voici nos nouveaux collègues!

Pour être complet et autant que faire se peut honnête, même si une intelligence artificielle forte réelle n’était guère possible, une IA peut être de plus en plus perçue comme forte par une majorité d’individus parallèlement à l’arrivée des IA génératives, comme Chat GPT et les outils de génération d’images comme Midjourney, DALL-E ou Stable Diffusion.
Ces outils permettent en effet toutes sortes d’applications : création, synthèse, traduction de textes, composition d’images, de vidéos à partir de prompts, textes descriptifs.
Il devient ainsi de plus en plus difficile pour un être humain de distinguer des créations humaines de celles provenant d’une IA générative. Il est vrai que les textes, du fait de leur création par le processus d’intelligence artificielle, n’expriment pas une pensée, mais sont uniquement issus d’opérations sur des textes antérieurs.

Une chercheuse en éthique et biais algorithmiques, parle de « perroquets stochastiques », tandis qu’un professeur à la Sorbonne, dit que ce sont des plagiats sans conscience, difficilement décelables car tout texte humain contient des expressions issues de textes déjà existants.

L’intelligence artificielle générative est un type de système d’intelligence artificielle (IA) capable de générer du texte, des images ou d’autres médias. Elle semble avoir des applications possibles dans presque tous les domaines, avec une balance encore discutée des risques et des opportunités : l’IA générative est en effet aussi source d’inquiétudes et des défis éthiques, techniques et socioéconomiques à la hauteur des espoirs qu’elle suscite.
Terminons ce survol par les menaces les plus graves, les pires risques de l’I.A.

Delta lumineux sur PC portable
Delta lumineux sur PC portable

L’intelligence artificielle est un fantastique outil quand il est au service de la santé, la technologie ou l’astrophysique. Mais dans de mauvaises mains, elle peut aussi servir à des fins criminelles ou à la désinformation.

Les menaces graves sont par exemple la réalisation de fausses vidéos, qui vont usurper l’identité d’une personne en lui faisant dire ou faire des choses qu’elle n’a jamais dite ou faites, dans le but de demander un accès à des données sécurisées, de manipuler l’opinion onde nuire à réputation de quelqu’un…

On pourrait aussi évoquer ici le piratage de voitures autonomes ou de drones militaires, les phishing ciblées, les infox fabriquées de toutes pièces, le chantage à grande échelle ou la manipulation de marchés financiers. Les fausses informations générées par des «bots» ont la capacité à ruiner la réputation d’une personne connue ou à exercer un chantage. Difficiles à combattre, ces «deepfakes» peuvent causer un tort économique et social considérable. On pense ici à l’exploitation de préjugés, aux fausses critiques, aux contrefaçons de toutes sortes.

Plus graves, on doit penser aux systèmes permettant de prendre le contrôle d’un robot militaire ou d’un drone, de vendre des services frauduleux, des données fausses ou orientées, d’interdire ou de manipuler l’accès à une service financier, public, social etc., de tromper un système de reconnaissance , ou encore de corrompre les données d’un dossier dans le domaine de la santé ou dans le domaine des enquêtes criminelles.
Finalement, on peut imaginer trois formes d’I.A. générative :
L’IA interactive, capable d’interagir avec le monde réel de manière plus complexe, en collaborant avec d’autres logiciels, des machines ou des robots.

L’IA autonome, qui permettra à des machines d’accomplir des tâches sans intervention humaine, dans des domaines tels que les transports, la santé et la sécurité.
Enfin, l’IA consciente, généralement considérée comme une possibilité encore lointaine, serait capable d’une forme de ressenti des émotions et d’avoir une conscience de soi.
Il reste bien des questions éthiques et des interrogations morales et philosophiques complexes.

Sur ces questions, sur ces interrogations qu’il nous est possible de réfléchir, de faire réfléchir, et d’être autant que faire se peut force de propositions.
La question n’est plus « ferons-nous appel à l’intelligence artificielle demain ? », mais bien

« l’homme sera-t-il demain au service de la machine, ou gardera-t-il la maîtrise sur l’outil qu’il a créé ? ».


Un ordinateur n’a pas d’affect, pas de sentiment… Un ordinateur n’a aucune responsabilité relative aux solutions qu’il détermine, préconise, et pourrait mettre en œuvre.
Un ordinateur n’a pas d’âme, pas de valeurs morales… Il diffère en cela de l’homme absolument. Sans doute nous appartient-il de ne pas laisser s’installer la confusion…

la conscience serait le propre des organismes vivants (supérieurs), et elle serait liée à la nature des systèmes biologiques.

Les machines actuelles manipulent des symboles et des donnés traduisibles en chiffes et en nombres., même si peut-être en sera-t-il autrement avec des systèmes dont l’organisation matérielle serait fondée sur des processus quantiques.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Jean-Jacques Zambrowski
Jean-Jacques Zambrowski
Jean-Jacques Zambrowski, initié en 1984, a occupé divers plateaux, au GODF puis à la GLDF, dont il a été député puis Grand Chancelier, et Grand- Maître honoris causa. Membre de la Juridiction du Suprême Conseil de France, admis au 33ème degré en 2014, il a présidé divers ateliers, jusqu’au 31°, avant d’adhérer à la GLCS. Il est l’auteur d’ouvrages et de nombreux articles sur le symbolisme, l’histoire, la spiritualité et la philosophie maçonniques. Médecin, spécialiste hospitalier en médecine interne, enseignant à l’Université Paris-Saclay après avoir complété ses formations en sciences politiques, en économie et en informatique, il est conseiller d’instances publiques et privées du secteur de la santé, tant françaises qu’européennes et internationales.

Articles en relation avec ce sujet

Titre du document

DERNIERS ARTICLES