L'Intelligence Artificielle (IA) s'immisce chaque jour un peu plus au cœur de nos activités. Même les plus réticents parmi nous ne peuvent lui échapper. Elle se cache dans les mécanismes de déverrouillage de nos smartphones. Elle dicte ses réponses à la voix synthétique chargée de nous guider vers le bon interlocuteur lorsque nous contactons un service d'assistance téléphonique. Elle intervient dans l'aide au diagnostic médical lorsque nous passons une radiographie. Elle nous aide à circuler en voiture, nous faisant si possible éviter les bouchons et les accidents de circulation. Elle étudie nos demandes de crédit bancaire pour assister les conseillers dans l'instruction de nos dossiers...
Comment cette technologie très médiatisée va-t-elle évoluer au fil des années ? Doit-on s'inquiéter de sa propagation ultra rapide dans les outils numériques que nous utilisons malgré nous quotidiennement ? Constitue-t-elle une menace pour notre vie privée et remet-elle en cause nos libertés individuelles ? Parce que ces interrogations sont légitimes, la Gazette Malakoff Humanis by Mementop vous propose un rapide tour d'horizon des enjeux, opportunités et risques qui accompagnent l'extraordinaire boom de l'IA.
Depuis des siècles, l’Homme tente de percer les mystères de son intelligence. Comment fonctionne-t-elle ? Comment notre cerveau analyse-t-il des situations variées ? Comment crée-t-il des pensées complexes, teintées de sentiments, de convictions et d’opinions ? Notre cerveau est-il comparable à un super calculateur bioélectrique, capable de traiter des quantités impressionnantes d’informations ? Comment parvient-il par exemple à nous faire prendre conscience de notre propre existence ?
Les Égyptiens anciens avaient déjà une certaine connaissance des fonctions du cerveau humain. Ils ne le considéraient pas encore comme le siège de l'intelligence, accordant au cœur un rôle déterminant dans l’expression des sentiments et pulsions. Pour eux, le cœur était le siège de l’âme. Les philosophes grecs, notamment Hippocrate (460-370 av. J.-C.) furent les premiers à considérer le cerveau en tant que source unique de nos pensées et siège de nos émotions. À l’époque Romaine et jusqu’à la fin du Moyen Âge, les affirmations scientifiques relatives au fonctionnement du cerveau furent influencées par les doctrines religieuses et philosophiques, en particulier par le christianisme. Les choses évoluèrent de manière significative au cours de la Renaissance grâce à l'avènement de la dissection et des études anatomiques. Des savants tels que Léonard de Vinci et André Vésale commencèrent à comprendre la structure du cerveau humain et posèrent des hypothèses parfois farfelues ou simplistes sur sa manière de traiter l’information. À partir du XIXe siècle, des avancées remarquables en biologie, neurologie et psychologie permirent d’approfondir notre compréhension du cerveau et de clarifier son rôle dans la caractérisation de différentes natures de l’intelligence humaine.
L’observation au microscope du tissu cérébral révèle un imbroglio de fibres en apparence dénué de structure. Cet organe, qui pèse près de 1,5 kg et contient 170 milliards de cellules, se compose d’environ 86 milliards de neurones. Chaque neurone peut former de 5 000 à 60 000 synapses qui lui permettent ainsi d’établir des connexions (interactions) avec une grande quantité d'autres neurones pour leur transmettre de l’information par le biais de signaux bioélectriques. Le cerveau contrôle les actions de notre organisme à partir des informations sensorielles qu’il reçoit. Il interprète ainsi les stimuli externes qui excitent nos sens : une odeur, une couleur, un cri d’animal, une forte chaleur, la texture d’un matériau… Son analyse vise à nous permettre de réagir de manière appropriée dans des situations arbitraires.
On peut représenter n’importe quel individu comme un système complexe réactif, c’est-à-dire un système capable de percevoir des sensations relatives au milieu dans lequel il évolue afin de réagir en conséquence. Ce schéma réducteur fut utilisé par les premiers chercheurs en informatique dans une approche naïve de mimétisme anatomique qui fit émerger un volet important de l’intelligence artificielle : les réseaux de neurones.
Vous pouvez télécharger et imprimer une fiche contenant toutes les réponses
L’Intelligence Artificielle est indissociable de l’informatique, des mathématiques et des outils numériques. Elle vise à permettre à des programmes informatiques de réaliser des tâches qui sont en général confiées à des individus. Ces tâches exigent de mettre en œuvre des processus mentaux complexes qui caractérisent les comportements humains : reconnaître une image, dialoguer avec un client, piloter un véhicule motorisé, analyser la situation d’une entreprise, jouer aux jeux de stratégie, assurer la traduction simultanée d’un propos…
L’un des pionniers de l’IA est incontestablement le célèbre mathématicien anglais Alan Turing qui inventa les bases de l’informatique théorique et créa des langages de programmation universels. En 1939, ce prodige de la cryptographie rejoignit un groupe de savants constitué par les services secrets britanniques installés à Bletchley Park dans le but de casser le code de cryptage de la machine Enigma. Cette machine à écrire portative fut utilisée par l’armée allemande pour crypter des messages militaires durant la Seconde Guerre mondiale. Turing construisit un automate électromécanique capable de déterminer le bon réglage des rotors d’Enigma, parmi les 159 milliards de milliards de combinaisons possibles. Pour que son automate fut utile aux Alliés, il était impératif de parvenir à casser le code d’Enigma en quelques heures seulement puisque les réglages de la machine étaient modifiés quotidiennement par les nazis. Turing s’appuya sur l’étude minutieuse et patiente de certaines imprudences des chiffreurs allemands auxquels il arrivait de ne pas suivre scrupuleusement les instructions de l’état-major. Ces directives interdisaient formellement de débuter ou de terminer un message secret par un mot récurrent à l’instar de « bonjour » ou, plus prosaïquement du crédo nazi « heil Hitler ». L’automate de Turing, souvent qualifié de « bombe cryptologique », constitue une première mise en œuvre réussie d’une intelligence numérique artificielle. Il suffit pour s’en convaincre de considérer l’efficacité de sa machine, capable à elle seule d’effectuer le travail quotidien de plusieurs milliers d’experts en cryptologie.
Turing s’est alors demandé si les progrès combinés de l’électromécanique et de l’informatique permettraient un jour de construire une machine capable de penser. Il développa une puissante théorie des machines universelles adossée à un célèbre test qui porte son nom, destiné à éprouver l'intelligence d’une machine. Ce célèbre test de Turing, introduit en 1950 dans l’article Computing Machinery and Intelligence, est ce qu’on appelle une expérience de pensée, un procédé auquel Albert Einstein eut recours à de nombreuses reprises. Il vise à déterminer si une machine peut imiter l'intelligence humaine au point qu'un humain ne puisse distinguer si son interlocuteur est une machine ou un être pensant. Un juge est invité à engager une conversation écrite avec deux interlocuteurs : la machine elle-même et un autre humain. Le juge pose des questions et dialogue avec ces deux participants. Ceux-ci lui répondent par écrit et, à la fin de la session, le juge doit décider lequel de ses interlocuteurs est humain. S’il n’y parvient pas de manière fiable ou s’il se trompe, la machine a réussi le test, démontrant une forme d'intelligence artificielle suffisamment avancée pour imiter de manière convaincante l'intelligence humaine. Le test de Turing a joué un rôle crucial dans la conceptualisation de l’IA. Il a mis l'accent sur la capacité des machines à imiter le comportement humain plutôt que sur leur capacité à "penser" au sens strict du terme. Il a aussi fait l'objet de critiques, certains experts affirmant qu'imiter l'intelligence humaine ne signifie pas nécessairement faire preuve d’intelligence.
Le génial mathématicien américain John McCarthy est également considéré comme l’un des pères fondateurs de l’IA. En 1950, tandis que Turing tente d’inventer une machine pensante, McCarthy, alors âgé de 23 ans, obtient son doctorat en mathématiques. Il s’intéresse à la théorie de la logique symbolique qui étudie les mathématiques en tant que langage. Passionné par la logique et le formalisme scientifique, il met au point un algorithme qui constituera quelques décennies plus tard un composant clé pour tous les programmes d’échecs ou de Go. McCarthy conçoit aussi des langages de programmation remarquables, à l’instar du Lisp, et inaugure en 1962 le laboratoire d'intelligence artificielle de l'université Stanford aux États-Unis.
Un autre savant américain participa activement à la genèse de l’IA : Marvin Minsky. Avec John McCarthy, Minsky fut l’un des principaux organisateurs de la conférence de Dartmouth qui eut lieu en 1956 et est considérée comme la date de naissance officielle de l'IA élevée au rang de discipline autonome. Selon Minsky, résoudre un problème avec efficacité à l'aide d'une IA exige de combiner plusieurs méthodes, c'est-à-dire d'utiliser plusieurs agents élémentaires et indépendants. À la fin des années soixante, dans son livre "Calcul : machines finies et infinies", il exprima fort bien le sentiment de fascination, d’espoir et de relative inquiétude qui caractérisait déjà à l'époque le rapport entre l’homme et la machine.
« En l'espace d'une génération, l'homme s'est retrouvé à partager le monde avec une nouvelle espèce étrange : les ordinateurs et les machines de type informatique. Ni l'histoire, ni la philosophie, ni le bon sens ne nous diront comment ces machines nous affecteront, car leur travail n'a rien de comparable avec celui des machines issues de la révolution industrielle. Au lieu de traiter des matériaux ou de l'énergie, on nous dit qu'elles gèrent de l'information et sont même capables de contrôler des processus intellectuels. Rares sont ceux qui doutent aujourd'hui que les capacités et la complexité de l'ordinateur se développent rapidement et que ces machines sont appelées à jouer un rôle important (bien qu'encore mal compris) dans l'avenir de notre société. Nous nous trouvons tous dans l'ombre de leur sphère d'influence croissante, et nous avons donc tous besoin de comprendre leurs capacités et leurs limites. » - Marvin L. Minsky - Computation • Prentice-Hal - 1967.
Définir l’IA n’est pas chose aisée. Commençons par réaffirmer les objectifs que les pionniers ont poursuivis, à savoir créer des machines capables de réaliser des tâches complexes qu’un programme informatique classique ne parvient pas à traiter :
• Parmi un ensemble de photos, identifier celles qui contiennent un chien
• Dialoguer avec un humain pour l’orienter vers le bon interlocuteur au sein d’une entreprise ou d’un service public
• Créer un véhicule autonome à conduite automatique
• Diagnostiquer un risque de cancer du sein à la lecture d’une mammographie
Aucun algorithme classique n’est capable de traiter ces tâches de manière satisfaisante. La complexité des problèmes posés est telle qu’une démarche causale classique ne peut convenir. Pour illustrer le concept d’algorithme classique, imaginons que nous disposions d’une calculatrice programmable pour résoudre une équation du premier degré. La programmation de cette calculatrice repose sur des techniques simples qu’un programmeur, même dénué d’expérience, assimilera sans difficulté. Plus précisément, nous devons résoudre l’équation a.x + b = 0, où a et b désignent des nombres réels quelconques et x désigne une variable. On sait depuis la classe de 6e que la solution de cette équation est donnée par la formule x = -b/a. Pour programmer cette solution dans le langage de la calculatrice, il suffit d’effectuer deux calculs dans un ordre déterminé. Ces calculs reposent sur une démarche mathématique tangible et fiable : un algorithme. On peut affirmer que cette solution est totalement déterminée par le calcul. On dit ainsi de ce problème qu’il est calculable. Cette notion de calculabilité préoccupa les pionniers de l’informatique, Alan Turing et Marvin Minsky au premier chef. De puissantes théories furent élaborées à partir des années cinquante à son propos, aboutissant à la preuve formelle qu’il existe une infinité de fonctions (et autant de problèmes) impossible à programmer : des fonctions non calculables.
Et c’est ici qu’intervient l’IA : lorsque les algorithmes classiques, produisant des résultats précis et exhaustifs, sont impuissants à résoudre le problème posé. Prenons l’exemple d’une IA exploitée dans le domaine médical, que nous appellerons IA-Santé, capable de dépister un risque de tumeur mammaire à partir d’une radiographie (mammographie). Comme la plupart des IA modernes, IA-Santé se présente sous la forme d’un programme informatique particulier pour aboutir à une réponse probabiliste à la question posée, par exemple tumeurprobabilité = 0,15. Un professionnel de santé interprétera ce résultat comme une faible suspicion de tumeur (15%) et non comme une vérité absolue. Pourquoi ? Parce que IA-Santé fonctionne différemment d’un programme classique. Elle repose sur un réseau de neurones qui a été entraîné afin de fournir un diagnostic associé à une probabilité (15% dans l’exemple). Cette probabilité caractérise le résultat obtenu mais, même avec une probabilité voisine de 1, IA-Santé peut parfaitement se tromper, contrairement au programme qui calcule la solution d'une équation du premier degré.
Pour concevoir IA-Santé, il a fallu disposer d'une grande quantité d’images issues de nombreuses mammographies. Des radiologues ont commencé par classer chaque image selon qu’elle était associée à une tumeur (bac A) ou qu’elle ne révélait aucun signe tumoral (bac B). On utilisa ces images classées (labellisées) pour entraîner IA-Santé à l’aide d’un algorithme d’apprentissage (learning) dédié. D’autres images, également classées par des radiologues, ont servi à éprouver la pertinence du réseau à l’issue de la phase d’apprentissage. Lorsque ses performances ont été satisfaisantes, on put utiliser IA-Santé pour contribuer au dépistage des cancers du sein.
Bien qu’il s’agisse d’un programme informatique, si on cherche à représenter un réseau de neurones, on peut l’assimiler à un enchevêtrement de fils reliant des nœuds (les neurones) les uns aux autres, selon une organisation qui fait apparaître plusieurs étages appelés couches. Chaque neurone est une entité élémentaire assimilable à une carte sur laquelle est écrit un nombre réel compris entre 0 et 1. En supposant que le neurone N1 appartienne à la couche n° 1 (appelée couche d’entrée), N1 est relié à tous les neurones de la couche n° 2 par des liens similaires aux synapses dans le cerveau humain. On procède de même pour les autres neurones de la couche d’entrée, chacun étant relié aux neurones de la couche n° 2. Si le réseau contient une troisième et dernière couche (appelée couche de sortie, n° 3), les neurones de la couche n° 2 sont tous reliés aux neurones de la couche n° 3. En résumé, dans un tel réseau, chaque neurone au sein d’une couche reçoit des informations, les traite selon des règles spécifiques, puis transmet le résultat aux neurones de la couche suivante. La figure suivante donne un exemple d’un réseau de neurones à 4 couches.
Un utilisateur (par exemple, un professionnel de santé) n’a pas besoin de connaître les principes internes qui gouvernent le fonctionnement d’une IA à base d'un réseau de neurones. Il se contente de soumettre une image à la couche d’entrée et attend un résultat probabiliste une fois le travail de tous les neurones dûment effectué. Les réseaux sont programmés durant une phase d’apprentissage à partir de données d’entraînement. Par exemple, pour reconnaître si une photo contient un chien, le réseau commence par analyser plusieurs centaines de photos dûment étiquetées, apprenant progressivement les caractéristiques qui définissent un chien, comme la forme des oreilles ou la texture du pelage.
Certaines IA exploitent des réseaux de neurones très complexes, dotés de milliers de neurones organisés en de nombreuses couches. D’autres IA s’appuient sur des approches différentes à l’instar des réseaux bayésiens ou de l’analyse en séries temporelles. Ces approches, issues des différentes branches des mathématiques, sont souvent combinées afin de fournir des résultats exploitables. Par exemple, les IA destinées à traiter des langues comme le français ou l’anglais sont élaborées en combinant des approches complémentaires.
L'apprentissage profond est une sous-catégorie très médiatisée des réseaux de neurones. Le terme "profond" fait référence au nombre important de couches présentes dans le réseau. Ces couches permettent à l'IA d'apprendre des concepts complexes en les décomposant en éléments plus simples, couche après couche. Prenons l'exemple de la reconnaissance d'images. Dans une première couche, le réseau de neurones pourrait apprendre à reconnaître des lignes et des bords. Dans la couche suivante, il combinerait ces lignes pour reconnaître des formes simples comme des cercles ou des carrés. En progressant à travers les couches, le réseau apprendrait à traiter des structures de plus en plus complexes jusqu'à pouvoir reconnaître des objets entiers comme des visages, des animaux de compagnie ou des véhicules.
Dans l’expression intelligence artificielle, le premier mot est trompeur. Non, nos IA ne sont pas (encore) intelligentes même si elles sont déjà capables de nous rendre de précieux services. Certaines dépistent des cancers, d’autres semblent nous comprendre lorsque nous leur donnons un ordre, d’autres encore dialoguent avec nous par téléphone ou par écrit. Il importe de comprendre qu’il manque à toutes les IA déployées en 2023 la capacité de penser par elles-mêmes. Ces IA ignorent tout du libre arbitre, n’ont pas de point de vue à proprement parler et ignorent même qu’elles existent. En outre, même la plus efficace des IA ignore le concept de vérité. Nos IA ont été créées à partir de faits (des données) que nous avons choisis pour les entraîner, elles dépendent de ces faits, de la nature et de la qualité des données utilisées.
Des projets de recherche portés par de grandes entreprises internationales tentent de mettre au point des IA dotées d’une conscience artificielle mais ces travaux sont encore au stade de prototypes et la plupart sont plutôt décevants. Pourtant, si l’heure des machines capables de s’opposer à l’homme n’est pas encore venue, le développement massif et ultra rapide de l’IA dans de nombreux domaines pose de sérieuses questions d’ordre éthique, écologique et social.
L'IA est souvent perçue comme une technologie neutre et objective. Pourtant, de nombreuses études ont révélé que les systèmes à base d'IA amplifient certains biais humains. Ces biais, qu'ils soient raciaux, sexistes ou socio-économiques, posent des défis majeurs aux concepteurs d’IA éthiques. Puisqu’une IA apprend à partir des données que nous lui proposons, si celles-ci reflètent des préjugés, l’IA les reproduira sans aucun discernement. Par exemple, un outil de recrutement de collaborateurs utilisant une IA entraînée avec des données dominées par la présence de candidats masculins développera peut-être une préférence inconsciente pour les hommes au détriment des femmes. Les préjugés des développeurs de cette IA peuvent se refléter dans la conception des algorithmes. Le manque de diversité dans les équipes de développement informatique peut aboutir à une compréhension limitée des nuances culturelles et sociales qui caractérisent les candidats. Tous ces risques peuvent faire émerger des algorithmes biaisés écartant injustement des personnes qualifiées en se basant sur leur genre, leur origine ethnique ou d'autres facteurs non pertinents. Dans le domaine de la télésurveillance, des systèmes de reconnaissance faciale ont ainsi montré des taux d'erreur plus élevés pour certains groupes ethniques, soulevant des inquiétudes sur leur utilisation éventuelle par le système judiciaire. Les algorithmes utilisés pour évaluer le droit au crédit bancaire d’un demandeur peuvent perpétuer des inégalités socio-économiques en défavorisant des groupes déjà marginalisés.
Certaines entreprises ne sont pas vraiment scrupuleuses en matière de respect du cadre réglementaire concernant la protection des données personnelles et le respect de la vie privée des utilisateurs. On déplore ainsi un manque de législation internationale spécifique à l'IA, y compris pour ce qui concerne la responsabilité des entreprises impliquées en cas d'erreurs ou d'accidents. Il semble difficile de réguler une technologie en permanente évolution tout en encourageant le développement rapide de solutions innovantes adossées à de belles promesses de retombées financières pour les entreprises qui les développent.
La généralisation des technologies numériques devrait nous inciter à faire preuve de prudence lorsque nous confions des données à caractère personnel à des logiciels ou à des sites web. La réglementation tente de nous protéger mais nous sommes souvent prompts à accepter sans les lire les conditions générales d'utilisation d'un service numérique, d'une plate-forme de diffusion de contenus ou d'un site de vente en ligne.
Il n’est pas impossible de concevoir des IA éthique et équitables. En plus d’utiliser des ensembles de données variés et représentatifs pour entraîner nos IA, il convient de rendre les processus décisionnels de l'IA compréhensibles et transparents pour identifier et corriger leurs biais potentiels. Il est également impératif de promouvoir la diversité parmi les créateurs de l'IA pour une meilleure prise en compte des différentes perspectives. Le cadre réglementaire relatif au développement et à l’utilisation de l’IA devra sans doute évoluer en mettant en place des législations permettant de surveiller et de corriger les biais dans les applications de cette technologie. Une bonne collaboration entre des technologues, des législateurs, des utilisateurs et des politiques semble indispensable.
Les succès récents de l’IA ne doivent pas nous faire oublier que les progrès réalisés s’inscrivent dans un long périple scientifique fait de promesses non tenues, d’espoirs vains, de déceptions, d'investissements inféconds et de renoncements. Pour la plupart, les bases théoriques de l'IA moderne ont été énoncées dans les années cinquante. La puissance de calcul croissante de nos machines numériques modernes (ordinateurs, smartphones, montres connectées…) rend possible l’exploitation de techniques matures dont les premiers tests réalisés à l’aube de l’ère numérique furent pourtant décevants. Nos téléphone mobile dernier cri sont équipés de microprocesseurs capables de réaliser plusieurs dizaines de milliers de milliards de calculs par seconde ! Cette puissance de traitement est indispensable pour mettre en œuvre des algorithmes d’apprentissage profond. L’IA est assurément une technologie prometteuse qui a le pouvoir de transformer pratiquement tous les aspects de notre vie quotidienne et professionnelle. Il est urgent de former et d'informer ses utilisateurs qui, souvent malgré eux, l'alimentent en données personnelles qui contribuent, par le mécanisme de l'apprentissage, à la rendre encore plus efficace. Cet effort est un viatique pour nous protéger des dérives potentielles de l'IA.
L'IA en santé et en médecine
L'IA joue peut aider au diagnostic et au traitement de certaines maladies • L’IA fournit des solutions pointues d’analyse d’images médicales avec une précision élevée, aidant au dépistage des cancers au stade précoce • L'IA contribue à la recherche pharmaceutique en accélérant le développement de nouveaux médicaments.
L'IA en finance et en économie
Les banques et les institutions financières utilisent l'IA pour la gestion des risques, la détection de la fraude et l'analyse prédictive des données des marchés.
L'IA dans le secteur du transport et de la logistique
L'IA est embarquée dans les véhicules à conduite autonome • Elle est utilisée pour piloter des systèmes de gestion et d’optimisation du trafic • En logistique, l'IA optimise les itinéraires de livraison, réduisant les coûts et améliorant l'efficacité des processus.
L'IA dans l'éducation
L'IA facilite la mise en œuvre d’expériences personnalisées d'apprentissage • Des systèmes à base d'IA peuvent adapter le matériel éducatif aux besoins et au rythme de chaque étudiant, facilitant un apprentissage efficace et engageant.
L'IA en agriculture
L'IA aide à optimiser les rendements et à gérer les ressources de manière durable • Des capteurs intelligents peuvent surveiller l’état des cultures et ajuster automatiquement l'irrigation ou l'application d'engrais, notamment en utilisant des images réalisées par des drones • En matière de protection de l'environnement, l'IA est utilisée pour surveiller les changements climatiques et aider à la conservation des espèces.
L'IA dans le secteur du divertissement et dans les médias
L'industrie cinématographique utilise l'IA pour créer des effets spéciaux réalistes • En musique, l’IA participe à la composition et à la production de nouvelles œuvres.
L'IA dans le domaine de la sécurité et de la défense
L’IA joue un rôle clé dans la surveillance et la protection des données • Elle est utilisée dans les applications de défense, notamment pour analyser d’importantes quantités de renseignements et suggérer des réponses appropriées.