ABONNEZ-VOUS

Mot de passe oublié ?

Souhaitez-vous vraiment vous déconnecter ?
Vous n'aurez plus accès aux articles réservés aux abonnés.

Se déconnecter

Intelligence artificielle
Plus de 70 ans d’histoire

| Le vendredi 1 novembre 2024
Portrait d’Alan Turing réalisé à l’aide de l’intelligence artificielle. © Jiraphiphat / Adobe Stock

Les spécialistes de la question s’accordent à dire que le mathématicien britannique Alan Turing, passé à la postérité pour avoir «cracké» le code utilisé par les nazis pour communiquer via leur machine Enigma, qui équipait les forces allemandes, est en quelque sorte le père de l’intelligence artificielle. En 1950, il propose le «Test de Turing», dont l’objectif est de déterminer si une machine peut «penser». Ce test devient alors une référence pour évaluer «l’intelligence» des machines. Néanmoins, le terme d’intelligence artificielle n’apparaît qu’en 1956, à l’occasion de la conférence de Dartmouth, un atelier scientifique qui se tient aux Etats-Unis et réunit une vingtaine de chercheurs comme Marvin Minsky, Claude Shannon ou le docteur en mathématiques John McCarthy, lequel proposera le terme d’«intelligence artificielle».
Les premiers programmes d’IA capables de résoudre des problèmes mathématiques ou de jouer aux échecs sont conçus dès les années 1960. Mais, à cette phase d’enthousiasme succèdent bientôt «les hivers de l’IA», qui marquent un net ralentissement des découvertes au cours des décennies 1970 et 1980. Il faudra attendre les années 1990 et l’émergence du «machine learning», une approche où les machines «apprennent» à partir de données plutôt que de suivre des instructions programmées, pour voir l’IA redécoller. L’acmé de cette période intervient en 1997, lorsque le superordinateur Deep Blue d’IBM parvient à vaincre le champion du monde d’échecs russe Garry Kasparov, marquant ainsi une rupture entre l’homme et une machine qui peut désormais lui être supérieure.

Des réseaux neuronaux artificiels
Nouveau tournant au début du XXIe siècle, avec l’augmentation exponentielle de la puissance de calcul et la disponibilité massive de données, qui ouvrent la voie au «deep learning». Cette technique, basée sur des réseaux neuronaux artificiels, révolutionne des domaines comme la reconnaissance d’images et la compréhension du langage naturel. C’est cette révolution qui a conduit à la multiplication des LLM (Large language model), des robots conversationnels probabilistes dont les plus connus aujourd’hui sont ChatGPT (édité par la firme Open AI), Claude (Anthropic), Copilot (Microsoft) ou Gemini (Google).
La diffusion massive de ces technologies conduit aujourd’hui à une nouvelle étape, qui est celle de la prise en compte des questions économiques, culturelles, éthiques et sociétales qui ne cessent d’émerger et que résume de la sorte le spécialiste français de l’IA Denis Rothman: «Comment installer, déployer, maîtriser et contrôler un outil qui nous dépasse?».



De quoi parle-t-on?

Machine learning: l’apprentissage automatique 
Le machine learning est une branche de l’IA qui permet aux ordinateurs d’apprendre à partir de données sans être explicitement programmés pour chaque tâche effectuée. L’idée centrale est que les machines peuvent améliorer leurs performances en découvrant grâce à leurs algorithmes des «motifs» (patterns) dans les données ingérées. L’exemple le plus connu est l’entraînement dont l’objectif final est de reconnaître des images de chats en analysant des centaines de milliers d’images. Le machine learning permet aujourd’hui des actions comme le filtrage de spams, la recommandation de produits ou la détection de fraudes.

Deep learning: plongée au cœur des données
Le deep learning est une sous-catégorie du machine learning, qui utilise des réseaux neuronaux artificiels profonds, inspirés du fonctionnement du cerveau humain. Ces réseaux sont constitués de multiples couches qui permettent de modéliser des abstractions de haut niveau à partir de données non structurées. Le deep learning est utilisé entre autres pour la conduite autonome, les diagnostics médicaux ou la traduction automatique.

IA générative: quand la machine crée du contenu
L’IA générative concerne les modèles capables de générer de nouvelles données semblables aux données sur lesquelles ils ont été entraînés. Cela permet, à partir d’instructions données en langage naturel, de créer des images, du texte, de la musique, des vidéos ou encore du code informatique... Utilisée dans des domaines comme la création artistique, la recherche médicale, l’information ou l’automatisation du travail, l’IA promet des gains de productivité et des innovations majeures. Mais elle soulève aussi des questions quant à la gestion des biais engendrés par le choix des données d’entraînement, la préservation des droits d’auteur et les usages responsables de ces technologies, qui peuvent aussi propulser de faux contenus sur le devant de la scène.





À LIRE AUSSI
Une révolution sous surveillance
«L’IA est un assistant, pas un remplaçant»
Formation: l’IA enseignée avec prudence
Architecture et urbanisme: un potentiel qui reste à explorer
Des outils logiciels de plus en plus performants
IGN: cartographier l’Anthropocène
«L’IA c’est génial, mais je l’interdirais au grand public»

Retrouvez ces articles et l’ensemble du dossier consacré à l’intelligence artificielle dans le magazine Géomètre n°2229, novembre 2024, en consultant notre page « Le magazine ».





NOTRE PODCAST
Contrôler l’intelligence artificielle