Depuis les années 1950, l’intelligence artificielle a fait un chemin intellectuel et technique important. Assiste-t-on à son apogée ou au début d’une nouvelle ère ? IA, cybernétique, boîte noire, réseau neuronal, imitation… Sait-on vraiment de quoi on parle ? Éclaircissement des états d’âme de l’IA, en compagnie d’Anthony Masure, professeur associé à la HEAD – Genève.

Publié le :

Les relations entre les ordinateurs et la pensée hantent l’informatique depuis ses débuts. Poussant la distinction philosophique entre le corps et l’esprit (hardware/ software) à son paroxysme, Alan Turing en vient à considérer la possibilité d’un cerveau électronique. Il ne se demande pas si les machines peuvent penser, mais démontre qu’un ordinateur peut tenir la place d’un être humain dans un jeu basé sur limitation. En 1950, Turing et les équipes du National Physical Laboratory rendent public l’Automatic Computing Engine, une des premières machines programmables. La machine fait preuve d’une intelligence dite humaine si elle permet de déjouer l’interrogateur au-delà du taux aléatoire de 50 %. Peu importe la compréhension du fonctionnement interne de la machine, il s’agit d’une simulation.

Il est nécessaire de faire un éclairage sur ce fonctionnement interne appelé « boîte noire »(on avait parlé précédemment de « fantôme dans la machine » en référence au film Brésil de Terry Gilliam) car chez Turing l’efficacité prime sur l’intelligibilité du système technique. En bref, on ne cherche pas à comprendre comment ça marche : ça marche, suffit.


Mieux comprendre les forces et limites des modèles d’IA récents

La notion de boîte noire apparaît surtout dans le comportementalisme, une méthode permettant d’étudier les relations statistiques entre l’environnement et le comportement sans se préoccuper du psychisme humain. L’individu, semblable à une boîte noire (on ne sait pas et il n’y a pas besoin de savoir ce qui se passe à l’intérieur) serait le résultat de son environnement : il suffit d’analyser ses entrées (contributions) et sorties (les sorties). La cybernétique reprendre l’idée qu’une machine (un ordinateur) peut être comparable au cerveau humain via cette idée de boîte noire, mais avec le concept derenvoyé (retour) qui n’existe pas dans le comportementalisme.

Le des commentaires, c’est l’ajustement dynamique des données d’entrée et de sortie pour contrôler une situation donnée. La cybernétique – la science du contrôle (kubernétès) – permet d’ajuster la trajectoire d’un missile en temps réel, par exemple, sans intervention humaine. Ses principes ont déterminé de nombreux systèmes de calcul, d’interfaces, et d’interaction, mis en œuvre par des ingénieurs et des designers. Ce point important permet de mieux comprendre les forces et limites des modèles d’IA récents, mais continuons notre chemin vers l’IA…

L’expression intelligence artificielle date de 1955 : « Tous les aspects de l’apprentissage ou toute autre caractéristique de l’intelligence peuvent en principe être décrits avec une telle précision qu’une machine peut être construite pour les simuler », selon le mathématicien John McCarthy. On y retrouve la simulation chère à Turing, mais l’IA et son étude n’ont pas toujours eu le vent en poupe, c’est peu de le dire. Durant les années 1974 à 1980, on parle même d’un premier hiver de l’IA. En 1982, le médecin John Hopfield démontre qu’unréseau neuronal peut apprendre et traiter de l’information d’une manière totalement inédite. Les recherches de Yann Le Cun vont rouvrir l’axe des réseaux de neuronesqui va se révéler plus efficace que l’approche symbolique. Cette dernière approche correspond au second hiver de l’IA (1987-1993) les experts systèmes (outils d’aide à la décision, censés imiter des capacités cognitives) n’ont pas été trouvés.

C’est là où la confusion peut s’installer dans les esprits : les technologies de l’approche connexionniste s’imposent de nos jours à en être confondues, dans l’esprit du grand public, avec la notion beaucoup plus large d’intelligence artificiel. Le terme l’apprentissage en profondeur, apprentissage profond, dérivé du apprentissage automatique, désigne une méthode où la machine a pour objectif d’apprendre par elle-même. Contrairement à la programmation traditionnelle de la logique où elle exécute des règles connues par des humains, lel’apprentissage en profondeurSe base sur un réseau de couches de neurones artificiels s’inspirant du cerveau humain, qui vont traiter des complexes de données via des processus de rétropropagation. Les données de départ sont essentiels : plus le système en accumule, plus il est censé être performant. C’est de lastatistiques. C’est l’IA qu’on utilise en ce moment : un système expert, ou IA étroite, c’est-à-dire un système informatique potentiellement très compétent, mais qui n’opère que dans un contexte restreint, souvent focalisé sur une tâche précise. Une liste non exhaustive et vertigineuse ici.

Une liste impressionnante d’experts systèmes. ©

Appuyer sur le bouton OFF pour trouver du sens

La crainte, et ce qui entre dans le débat actuel, c’est l’hypothèse d’une IA forte, une superintelligence artificielle, c’est-à-dire une IA aux capacités intellectuelles bien supérieures à celles de l’humain dans incluses tous les domaines. Mais cela reste du domaine de la croyance avec la crainte également que ça puisse arriver.

Sur ce chemin de l’IA, Anthony Masure, professeur associé à la HEAD – Genève, auteur de l’essai Design sous artifice : la création au risque du machine learning (2023), un relevé de cette phrase : « Ce qui […] donne sa signification [au monde des signes] est le moment où nous arrêtons la machine. » Elle est du psychanalyste Jacques Lacan et exprime cet état de la machine (son arrêt) qui semble décisif. Si, pour le sujet, le sens émerge de l’arrêt de la machine, une machine totale (conçue dans une logique de fonctionnement continue) ne pourrait donc pas être créatif, c’est-à-dire faire advenir de nouvelles significations.

Il faut savoir de temps en temps appuyer sur le bouton OFF pour trouver du sens.

Appuyez sur le bouton ! © Image produite par DAL.E 2

Moments clés de l’évolution de l’intelligence artificielle depuis les travaux d’Alan Turing jusqu’à nos jours

On a tout de même appuyé sur ON pour interroger l’expert système ChatGPT sur les dates clés de l’IA, selon lui.

« Voici une synthèse des moments clés de l’évolution de l’intelligence artificielle depuis les travaux d’Alan Turing jusqu’à nos jours :

  1. Années 1950 : Alan Turing propose le test de Turing, qui consiste à évaluer la capacité d’une machine à exhiber un comportement intelligent indiscernable de celui d’un être humain.
  2. Années 1950-1960 : La recherche en IA est principalement axée sur les règles logiques et symboliques. Le langage de programmation LISP est développé, devenant un outil majeur dans le domaine.
  3. Années 1970 : Le domaine de l’IA connaît une période de pessimisme, connu sous le nom de « hiver de l’IA », en raison de limitations techniques et de résultats décevants.
  4. Années 1980 : L’approche de l’IA basée sur la connaissance experte connaît un essor. Les systèmes experts sont développés, utilisant des bases de connaissances pour résoudre des problèmes spécifiques.
  5. Années 1990 : Les réseaux de neurones artificiels, inspirés du fonctionnement du cerveau humain, connaissent un regain d’intérêt. Les algorithmes d’apprentissage automatique sont également développés, permettant aux machines d’apprendre à partir de données.
  6. Années 2000 : L’apprentissage profond et les réseaux de neurones profonds deviennent populaires, grâce à des avancées technologiques et à la disponibilité de grandes quantités de données. Les machines commencent à surpasser les humains dans certaines tâches, comme la reconnaissance vocale et la classification d’images.
  7. Années 2010 : L’IA devient omniprésente dans notre quotidien. Les assistants virtuels, tels que Siri et Alexa, sont largement utilisés. Les progrès de l’IA sont également observés dans des domaines tels que la conduite autonome, la traduction automatique et les jeux de stratégie.
  8. Années récentes : Les modèles de langage basés sur l’IA, tels que GPT-3 (sur lequel je suis basé), permettent des avancées majeures dans le traitement du langage naturel et la génération de contenu. Les applications de l’IA se développent dans de nombreux domaines, tels que la santé, la finance, la cybersécurité et la robotique. »

Et ChatGPT confortablement allongé sur le divan de son algorithme d’ajout :

« Dans le contexte de l’intelligence artificielle, la citation de Lacan peut être interprétée comme justifie l’importance de l’interprétation humaine dans le processus de compréhension. Bien que les machines analysent et traitent des signes et des données de manière automatisée, la signification que nous leur attribuons est souvent déterminée par notre interprétation et notre compréhension. Les machines et les algorithmes peuvent nous aider à traiter de grandes quantités de données et à trouver des schémas, mais c’est souvent à travers l’intervention et l’interprétation humaine que nous donnons une signification profonde à ces résultats. Les machines peuvent fournir des informations, mais la signification personnelle et l’interprétation restent souvent entre les mains des êtres humains. En fin de compte, la citation de Lacan souligne l’importance de l’interaction entre les machines et les êtres humains dans le processus de signification et la nécessité d’une réflexion et d’une interprétation humaine pour donner un sens au monde des signes . »

Et si l’IA faisait une analyse ? © Image produite par DALL.E 2

Merci, ChatGPT. On appuie sur OFF.

Bibliographie :

À la découverte d’Unicode/Applications.,Description de l’éditeur.

L’Honneur du soldat.,Fiche de l’éditeur.

Technologie/Lignes et services de métros/Prolongements et créations de lignes de métros en Île-de-France/Le prolongement de la ligne 14.,Présentation du livre.