Depuis les années 1950, l’intelligence artificielle a fait un chemin intellectuel et technique important. Assiste-t-on à son apogée ou au début d’une nouvelle ère ? IA, cybernétique, boîte noire, réseau neuronal, imitation… Sait-on vraiment de quoi on parle ? Éclaircissement des états d’âme de l’IA, en compagnie d’Anthony Masure, professeur associé à la HEAD – Genève.
Publié le :
Les relations entre les ordinateurs et la pensée hantent l’informatique depuis ses débuts. Poussant la distinction philosophique entre le corps et l’esprit (hardware/ software) à son paroxysme, Alan Turing en vient à considérer la possibilité d’un cerveau électronique. Il ne se demande pas si les machines peuvent penser, mais démontre qu’un ordinateur peut tenir la place d’un être humain dans un jeu basé sur limitation. En 1950, Turing et les équipes du National Physical Laboratory rendent public l’Automatic Computing Engine, une des premières machines programmables. La machine fait preuve d’une intelligence dite humaine si elle permet de déjouer l’interrogateur au-delà du taux aléatoire de 50 %. Peu importe la compréhension du fonctionnement interne de la machine, il s’agit d’une simulation.
Il est nécessaire de faire un éclairage sur ce fonctionnement interne appelé « boîte noire »(on avait parlé précédemment de « fantôme dans la machine » en référence au film Brésil de Terry Gilliam) car chez Turing l’efficacité prime sur l’intelligibilité du système technique. En bref, on ne cherche pas à comprendre comment ça marche : ça marche, suffit.
7 juin 1954. Décès d’Alan Turing (41 ans). Il a eu une influence clé sur l’informatique théorique et le calcul avec la machine de Turing, considérée comme un modèle d’ordinateur à usage général. Il n’a pas été pleinement reconnu de son vivant. pic.twitter.com/iJjiRs3dxD
– Professeur Frank McDonough (@ FXMC1957) 7 juin 2023
La notion de boîte noire apparaît surtout dans le comportementalisme, une méthode permettant d’étudier les relations statistiques entre l’environnement et le comportement sans se préoccuper du psychisme humain. L’individu, semblable à une boîte noire (on ne sait pas et il n’y a pas besoin de savoir ce qui se passe à l’intérieur) serait le résultat de son environnement : il suffit d’analyser ses entrées (contributions) et sorties (les sorties). La cybernétique reprendre l’idée qu’une machine (un ordinateur) peut être comparable au cerveau humain via cette idée de boîte noire, mais avec le concept de renvoyé (retour) qui n’existe pas dans le comportementalisme.
Le des commentaires, c’est l’ajustement dynamique des données d’entrée et de sortie pour contrôler une situation donnée. La cybernétique – la science du contrôle (kubernétès) – permet d’ajuster la trajectoire d’un missile en temps réel, par exemple, sans intervention humaine. Ses principes ont déterminé de nombreux systèmes de calcul, d’interfaces, et d’interaction, mis en œuvre par des ingénieurs et des designers. Ce point important permet de mieux comprendre les forces et limites des modèles d’IA récents, mais continuons notre chemin vers l’IA…
L’expression intelligence artificielle date de 1955 : « Tous les aspects de l’apprentissage ou toute autre caractéristique de l’intelligence peuvent en principe être décrits avec une telle précision qu’une machine peut être construite pour les simuler », selon le mathématicien John McCarthy. On y retrouve la simulation chère à Turing, mais l’IA et son étude n’ont pas toujours eu le vent en poupe, c’est peu de le dire. Durant les années 1974 à 1980, on parle même d’un premier hiver de l’IA. En 1982, le médecin John Hopfield démontre qu’unréseau neuronal peut apprendre et traiter de l’information d’une manière totalement inédite. Les recherches de Yann Le Cun vont rouvrir l’axe des réseaux de neuronesqui va se révéler plus efficace que l’approche symbolique. Cette dernière approche correspond au second hiver de l’IA (1987-1993) les experts systèmes (outils d’aide à la décision, censés imiter des capacités cognitives) n’ont pas été trouvés.
C’est là où la confusion peut s’installer dans les esprits : les technologies de l’approche connexionniste s’imposent de nos jours à en être confondues, dans l’esprit du grand public, avec la notion beaucoup plus large d’intelligence artificiel. Le terme l’apprentissage en profondeur, apprentissage profond, dérivé du apprentissage automatique, désigne une méthode où la machine a pour objectif d’apprendre par elle-même. Contrairement à la programmation traditionnelle de la logique où elle exécute des règles connues par des humains, lel’apprentissage en profondeurSe base sur un réseau de couches de neurones artificiels s’inspirant du cerveau humain, qui vont traiter des complexes de données via des processus de rétropropagation. Les données de départ sont essentiels : plus le système en accumule, plus il est censé être performant. C’est de lastatistiques. C’est l’IA qu’on utilise en ce moment : un système expert, ou IA étroite, c’est-à-dire un système informatique potentiellement très compétent, mais qui n’opère que dans un contexte restreint, souvent focalisé sur une tâche précise. Une liste non exhaustive et vertigineuse ici.
La crainte, et ce qui entre dans le débat actuel, c’est l’hypothèse d’une IA forte, une superintelligence artificielle, c’est-à-dire une IA aux capacités intellectuelles bien supérieures à celles de l’humain dans incluses tous les domaines. Mais cela reste du domaine de la croyance avec la crainte également que ça puisse arriver.
Sur ce chemin de l’IA, Anthony Masure, professeur associé à la HEAD – Genève, auteur de l’essai Design sous artifice : la création au risque du machine learning (2023), un relevé de cette phrase : « Ce qui […] donne sa signification [au monde des signes] est le moment où nous arrêtons la machine. » Elle est du psychanalyste Jacques Lacan et exprime cet état de la machine (son arrêt) qui semble décisif. Si, pour le sujet, le sens émerge de l’arrêt de la machine, une machine totale (conçue dans une logique de fonctionnement continue) ne pourrait donc pas être créatif, c’est-à-dire faire advenir de nouvelles significations.
Il faut savoir de temps en temps appuyer sur le bouton OFF pour trouver du sens.
Moments clés de l’évolution de l’intelligence artificielle depuis les travaux d’Alan Turing jusqu’à nos jours
On a tout de même appuyé sur ON pour interroger l’expert système ChatGPT sur les dates clés de l’IA, selon lui.
« Voici une synthèse des moments clés de l’évolution de l’intelligence artificielle depuis les travaux d’Alan Turing jusqu’à nos jours :
Et ChatGPT confortablement allongé sur le divan de son algorithme d’ajout :
« Dans le contexte de l’intelligence artificielle, la citation de Lacan peut être interprétée comme justifie l’importance de l’interprétation humaine dans le processus de compréhension. Bien que les machines analysent et traitent des signes et des données de manière automatisée, la signification que nous leur attribuons est souvent déterminée par notre interprétation et notre compréhension. Les machines et les algorithmes peuvent nous aider à traiter de grandes quantités de données et à trouver des schémas, mais c’est souvent à travers l’intervention et l’interprétation humaine que nous donnons une signification profonde à ces résultats. Les machines peuvent fournir des informations, mais la signification personnelle et l’interprétation restent souvent entre les mains des êtres humains. En fin de compte, la citation de Lacan souligne l’importance de l’interaction entre les machines et les êtres humains dans le processus de signification et la nécessité d’une réflexion et d’une interprétation humaine pour donner un sens au monde des signes . »
Merci, ChatGPT. On appuie sur OFF.
Bibliographie :
À la découverte d’Unicode/Applications.,Description de l’éditeur.
L’Honneur du soldat.,Fiche de l’éditeur.
Technologie/Lignes et services de métros/Prolongements et créations de lignes de métros en Île-de-France/Le prolongement de la ligne 14.,Présentation du livre.
![]() |
![]() |