Brève histoire de l'Intelligence Artificielle
Histoire de l'Intelligence Artificielle
L'histoire de l'intelligence artificielle remonte à l'Antiquité, lorsque les philosophes contemplaient le concept d'êtres artificiels, d'hommes mécaniques et d'autres automates susceptibles d'exister ou de potentiellement voir le jour.
La création de machines intelligentes a fasciné l'humanité pendant des siècles et son évolution a été rien moins que remarquable. Des premières réflexions théoriques aux avancées modernes en matière d'apprentissage automatique et de robotique, la quête de la création de machines intelligentes a été une force motrice dans le monde de la technologie.
Grâce aux premiers penseurs, l'intelligence artificielle est devenue de plus en plus tangible au cours du XVIIIe siècle et au-delà. Les philosophes ont réfléchi à la manière dont la pensée humaine pourrait être mécanisée et manipulée par des machines intelligentes non humaines.
Les processus de pensée qui ont alimenté l'intérêt pour l'IA sont nés lorsque les philosophes classiques, les mathématiciens et les logiciens ont envisagé la manipulation de symboles (mécaniquement), conduisant finalement à la création de l'ordinateur numérique programmable, l'Atanasoff Berry Computer (ABC) dans les années 1940.
Cette invention spécifique a inspiré les scientifiques à poursuivre l'idée de créer un « cerveau électronique », c'est-à-dire un être artificiellement intelligent.
Près de dix ans ont passé avant que l'IA ne se retrouve dans un domaine comparable à celui d'aujourd'hui.
Alan Turing, mathématicien entre autres, a proposé un test mesurant la capacité d'une machine à reproduire les actions humaines de manière indiscernable. Plus tard dans cette décennie, le domaine de la recherche en IA a été fondé lors d'un séminaire d'été au Dartmouth College au milieu des années 1950, où John McCarthy, informaticien et scientifique cognitif, a forgé l'expression « intelligence artificielle ».
Des années 1950 à aujourd'hui, une infinité de scientifiques, programmeurs, logiciens et théoriciens ont contribué à consolider notre compréhension moderne de l'intelligence artificielle.
Chaque décennie a vu des innovations et des découvertes révolutionnaires qui ont radicalement changé notre façon de concevoir l'IA, la faisant passer d'un fantasme lointain à une réalité tangible pour les générations présentes et futures.
En suivant l'ordre chronologique, l'évolution des théories de l'intelligence artificielle s'est déroulée ainsi :
La Naissance de l'Intelligence Artificielle Théorique (à partir de 1940)
La période entre 1940 et 1960 a été fortement marquée par la conjonction de développements technologiques (dont la Seconde Guerre mondiale a été un accélérateur) et par le désir de comprendre comment unifier le fonctionnement des machines et des êtres organiques.
Pour Norbert Wiener, pionnier de la cybernétique, l'objectif était d'unifier la théorie mathématique, l'électronique et l'automatisation comme « une théorie globale du contrôle et de la communication, tant dans les animaux que dans les machines ».
Peu avant, un premier modèle mathématique et informatique du neurone biologique (neurone formel) avait été développé par Warren McCulloch et Walter Pitts dès 1943.
Au début des années 1950, John Von Neumann et Alan Turing furent les pères fondateurs de la technologie qui l'a rendu possible. Ils ont opéré la transition des ordinateurs à logique décimale du XIXe siècle (gérant des valeurs de 0 à 9) vers la logique binaire des machines (basée sur l'algèbre de Boole, gérant 0 ou 1).
Les deux chercheurs ont ainsi formalisé l'architecture de nos ordinateurs contemporains et démontré qu'il s'agissait d'une machine universelle, capable d'exécuter ce qui est programmé. Turing, de son côté, a soulevé pour la première fois la question de l'éventuelle intelligence d'une machine dans son célèbre article de 1950 « Computing Machinery and Intelligence » et a décrit un « jeu d'imitation », dans lequel un être humain devrait être capable de distinguer, dans un dialogue télépathique, s'il parle avec un homme ou avec une machine.
Malgré la controverse entourant cet article (ce « test de Turing » ne semble pas se qualifier pour de nombreux experts), il est souvent cité comme la source du débat sur la distinction entre l'être humain et la machine.
L'acronyme « IA » a été forgé par John McCarthy du MIT (Massachusetts Institute of Technology). Marvin Minsky de l'Université Carnegie-Mellon la définit notamment comme « la création de programmes informatiques effectuant des tâches actuellement réalisées de façon plus satisfaisante par des êtres humains, car elles nécessitent des processus mentaux de haut niveau tels que : l'apprentissage perceptif, l'organisation de la mémoire et le raisonnement critique ».
Le séminaire d'été de 1956 au Dartmouth College est considéré comme le fondateur de la discipline. Il convient de souligner le grand succès de ce qui n'était pas une conférence, mais plutôt un workshop. Seules six personnes, dont McCarthy et Minsky, sont restées constamment présentes tout au long de ces travaux (qui reposaient essentiellement sur des développements basés sur la logique formelle).
Malgré une technologie encore fascinante et prometteuse, la popularité chuta au début des années 1960. Les machines disposaient d'une mémoire très limitée, rendant l'utilisation d'un langage informatique difficile.
En 1957, le célèbre économiste et sociologue Herbert Simon avait prophétisé que l'Intelligence Artificielle réussirait à battre un être humain aux échecs dans les dix années suivantes.
Cependant, l'IA tomba dans un long hiver et Simon dut attendre 30 ans avant que sa vision ne se réalise.
L'Intelligence Artificielle devient réalité (à partir de 1970)
En 1968, Stanley Kubrick réalisait le film « 2001 : L'Odyssée de l'espace » où un ordinateur - HAL 9000 - résumait en lui-même l'ensemble des questions éthiques posées par l'IA : représentera-t-il un haut niveau de sophistication, un bienfait pour l'humanité ou un danger ?
L'impact du film ne sera naturellement pas scientifique, mais contribuera à populariser le sujet, tout comme l'auteur de science-fiction Philip K. Dick, qui n'aura de cesse de se demander si, un jour, les machines éprouveront des émotions.
C'est avec l'avènement des premiers microprocesseurs à la fin des années 1970 que l'IA a redécollé et est entrée dans l'âge d'or des systèmes experts.
Le chemin avait effectivement été ouvert au MIT en 1965 avec DENDRAL (système expert spécialisé en chimie moléculaire) et à l'Université de Stanford en 1972 avec MYCIN (système spécialisé dans le diagnostic des maladies du sang et la prescription de médicaments). Ces systèmes reposaient sur un « moteur d'inférence », programmé pour être un miroir logique du raisonnement humain. En saisissant des données, le moteur fournissait des réponses d'un haut niveau d'expertise.
Les promesses laissaient entrevoir un développement massif, mais la frénésie retomba à nouveau à la fin des années 1980, au début des années 1990. La programmation de telles connaissances demandait en effet beaucoup d'efforts et, avec 200 à 300 règles, il existait un effet « boîte noire » dans lequel il n'était pas clair comment la machine raisonnait.
Le développement et la maintenance devinrent alors extrêmement problématiques et — surtout — des moyens plus rapides et bien moins complexes et coûteux existaient. Il convient de rappeler que dans les années 1990, le terme intelligence artificielle était presque devenu tabou et des variantes plus modestes étaient utilisées, comme « calcul avancé ».
Le succès en mai 1997 de Deep Blue (système expert d'IBM) au jeu des échecs contre Garry Kasparov a réalisé la prophétie d'Herbert Simon de 1957, trente ans plus tard, mais n'a pas soutenu le financement et le développement de cette forme d'IA.
Le fonctionnement de Deep Blue reposait sur un algorithme de force brute systématique, dans lequel tous les coups possibles étaient évalués et pondérés.
La défaite de l'être humain est restée très symbolique dans l'histoire, mais Deep Blue n'avait en réalité réussi à traiter qu'un périmètre très limité, bien loin de la capacité à modéliser la complexité du monde.

L'Intelligence Artificielle et son épanouissement dans le Troisième Millénaire (à partir de 2000)
Le nouvel essor enthousiaste de la discipline a été expliqué par deux facteurs clés qui ont donné un élan au secteur aux alentours de 2010.
En premier lieu, l'accès à des volumes massifs de données. Par le passé, pour utiliser des algorithmes de classification et de reconnaissance d'images, il fallait procéder à des échantillonnages manuels. Aujourd'hui, une simple recherche sur Google peut trouver des millions de données en quelques secondes.
L'efficacité extraordinaire des cartes graphiques des ordinateurs pour accélérer le calcul des algorithmes d'apprentissage a représenté une véritable percée. Avant 2010, le traitement de l'ensemble de l'échantillon prenait des semaines, en raison de l'itérativité du processus.
Grâce à la puissance de calcul de ces cartes (capables d'effectuer plus de mille milliards de transactions par seconde), un progrès considérable a été accompli à un coût financier limité.
Les équipements technologiques récents ont permis d'obtenir des succès publics significatifs et d'augmenter les financements : en 2011, Watson, l'IA d'IBM, a remporté face à deux champions de Jeopardy ! En 2012, Google X (le laboratoire de recherche de Google) a été en mesure de faire reconnaître à ses algorithmes l'image d'un chat dans une vidéo. Pour cette tâche, plus de 16 000 processeurs ont été utilisés, mais le potentiel est extraordinaire : une machine apprend à distinguer quelque chose.
En 2016, AlphaGO (l'IA de Google spécialisée dans le jeu de Go) a battu le champion européen (Fan Hui) et le champion du monde (Lee Sedol), avant de se surpasser avec AlphaGo Zero. Il convient de souligner que le jeu de Go possède une combinatoire bien plus complexe que les échecs (supérieure au nombre de particules dans l'univers) et qu'il est impossible d'obtenir des résultats aussi significatifs en termes de puissance brute (comme cela s'était produit avec Deep Blue en 1997).
D'où est né ce miracle ? Une révolution complète du paradigme des systèmes experts.
L'approche est devenue inductive : il ne s'agit plus de coder des règles comme pour les systèmes experts, mais de permettre aux ordinateurs de les découvrir de manière autonome par corrélation et classification, sur la base d'une grande quantité de données.
Parmi les techniques d'apprentissage automatique, le deep learning semble le plus prometteur pour de nombreuses applications, notamment la reconnaissance vocale ou d'images. En 2003, Geoffrey Hinton de l'Université de Toronto, Yoshua Bengio de l'Université de Montréal et Yann LeCun de l'Université de New York ont décidé de lancer un programme de recherche pour mettre à jour les réseaux de neurones.
Des résultats incroyables ont été obtenus grâce aux expériences menées simultanément par Microsoft, Google et IBM. Grâce au deep learning, les taux d'erreur pour la reconnaissance vocale ont été réduits de moitié.
À l'avenir
La recherche incessante de progrès dans ce domaine a conduit à une profonde transformation de notre conscience collective, et nous continuons d'assister à un changement de paradigme dans notre façon d'interagir avec la technologie.
En regardant vers l'avenir, les possibilités pour l'IA semblent infinies et nous pouvons seulement imaginer les incroyables progrès qui nous attendent.
(Cliquez ici pour lire notre guide complet sur l'intelligence artificielle pour les entreprises)
