IA : l’odyssée algorithmique

I

I.A, A.I, à choisir selon vos affinités avec la langue de Shakespeare. Deux lettres dont la puissance évocatrice semble prendre de l’ampleur au fil du siècle. Paradoxalement, l’acronyme personnifie ici la « chose ». Tel H.A.L dans l’Odyssée de l’Espace, l’Intelligence Artificielle se pare d’un diminutif, gage de familiarité, de proximité et d’accessibilité. Il suffira de la nommer pour penser la connaître si bien que les qualificatifs, opinions et jugements à son égard ne cesseront depuis lors de foisonner. La littérature, les plateaux télévisés et les déclarations « twitteriennes » à l’emporte-pièce en témoignent. S’en détache un gloubi-boulga où s’entrechoquent quelques thématiques récurrentes et pourtant disparates dans un paysage peuplé d’augures et d’anticipations en tout genre.  Véhicules autonomes, surveillance pernicieuse, spoliation du travailleur, tertiaire cybernétique, médecine prédictive, automatisation de l’intellect mais encore « bullshit marketing », puissance des GAFAM, espoir d’une transcendance, porte vers le transhumanisme, catalyseur heuristique, défi à l’éthique. A vrai dire, toutes ces affirmations, supputations, divinations, ces espoirs comme autant de mises en garde, même dans leurs conclusions parfois audacieuses sont à même de détenir une part de vérité tant le concept d’IA est nébuleux. Ne soyons pas crédule pour autant, certains entrepreneurs, scientifiques, multinationales, états peuvent avoir des intérêts (d’ordre financier, médiatique ou géopolitique) à vanter les accomplissements où promesses de l’I.A tout comme à pointer les menaces qu’elle est susceptible de représenter.  Aussi, pour tenter de cerner le phénomène, remettons-nous en dans un premier temps à sa « chrono-généalogie » et entendons-nous sur une définition contemporaine. Il sera plus facile par la suite de nous hasarder à évaluer ses limites et à jauger de ses possibles.

Le terme d’intelligence artificielle est vraisemblablement apparu en 1956 lors de la conférence de Dartmouth organisée par deux chercheurs américains (Marvin Minsky et John McCarthy). Son thème était lié à l’algorithmique d’évaluation, particulièrement utile dans la programmation des jeux de plateau comme les d’échecs. 1956, c’est 20 ans après la construction des premiers ordinateurs à rubans et cartes perforés (tels d’immenses orgues de barbarie, la poésie et la musique en moins), c’est encore 40 ans avant le duel Garry Kasparov vs Deep Blue (un ordinateur conçu par IBM), où, pour la première fois de son histoire la machine l’emportait sur le champion du monde des échecs, un jeu qui symbolisait alors toute l’intelligence imputée à notre espèce. La défaite n’en fut sans doute que plus cuisante et l’intérêt du grand public que plus éveillé. De ces deux termes clés que sont l’algorithmie et l’informatique naissaient aux yeux de tous, les prémisses d’une « Intelligence Artificielle ».

Mais si l’algorithmie est la science des algorithmes, qu’est donc qu’un algorithme ? C’est une suite ordonnée d’instructions, de commandes opératoires qui visent à résoudre un problème, une interrogation ou à accomplir une tâche. En guise de métaphore, visualisons un système racinaire dont le développement des ramifications est conditionné par les résultats d’opérations exécutées au préalable et dont les fruits ou feuilles sont l’aboutissement ou la solution qui en résultent. Si la conception d’algorithmes suppose une science on ne peut plus humaine, l’exécution de ces derniers peut parfois nécessiter une grande puissance de calcul inaccessible aux capacités de notre cerveau.

C’est ici que l’informatique a pris le relai. L’homme a su développer un langage de programmation capable de mettre en forme des algorithmes (sous forme de programmes, de logiciels) aptes à être compris et exécutés rapidement par des machines. La machine n’est encore ici qu’un prolongement externe au cerveau humain, tout comme le marteau est le prolongement de son poing.

Par la suite, les progrès en termes de miniaturisation et de puissance des processeurs ont été tels durant un demi-siècle qu’ils ont permis à une branche du champ d’étude de l’intelligence artificielle d’émerger, celle de l’apprentissage statistique ou automatique. Il consiste à demander à la machine d’apprendre à résoudre des problèmes pour lesquels elle n’a pas été explicitement programmé. Ceci principalement à l’aide d’analyse d’immenses bases de données et de calculs probabilistes centrés sur une approche bayésienne. D’une certaine façon, on demande à l’algorithme de concevoir, d’engendrer ces propres créations algorithmiques. Plus la base de données est importante plus les prédictions et les créations algorithmiques seront justes et pertinentes. L’avènement d’internet a décuplé les ressources disponibles et on n’en comprendra que mieux la puissance latente des détenteurs de Datas que sont entre autres les GAFAM. Voilà où nous en sommes et il faut reconnaître que les résultats obtenus ainsi que la vitesse à laquelle ils évoluent sont parfois déroutants.

Quant aux décennies à venir, les balbutiements dont nous sommes témoins sont-ils annonciateurs d’une nouvelle ère ?  La puissance de calcul pourrait en effet connaître une révolution sans pareille si l’on parvenait à répondre aux défis posés par l’informatique quantique. Le quantique serait à l’informatique ce que la maîtrise de la fusion serait à l’énergie nucléaire, un hypothétique Graal.  Mais cela suppose de revoir un des fondamentaux de la programmation qui prévaut depuis les années 50, à savoir son unité élémentaire, le « bit » dont le traitement va exploiter une suite de 0 et de 1. Le « qubit » en est sa version quantique, il naît grâce au potentiel des particules telles que par exemple le photon ou l’électron. Nous pouvons dès lors exploiter certaines de leurs propriétés et programmer à partir de ces dernières à l’échelle atomique. Certains calculs qui nécessiteraient des milliers d’années en informatique classique, pourraient être ramenés à quelques secondes avec son pendant quantique. Même si la théorie nous convint du possible, même si des semblants d’ « opérations quantiques » existent déjà, les freins sont encore nombreux à leur utilisation pratique. Problèmes liés à la stabilité du système, à la maîtrise des erreurs dues à l’interaction des qubits avec leur environnement, aux températures de fonctionnement, aux nombres de QuBits aptes à être liés entre eux…avouons que rien ne garantit le succès de l’aventure. Il repose bien plus sur la sérendipité d’expériences d’ingénieux laborantins en blouse blanche que sur une fatalité inéluctable. Cela étant dit, la « suprématie quantique », à savoir un résultat obtenu inaccessible au meilleur des supercalculateurs actuels, n’est plus de l’ordre de la chimère.

Pour résumer, l’intelligence artificielle s’inscrit comme un prolongement naturel de l’informatique. Les progrès en sciences algorithmiques et statisques, l’augmentation de la puissance de calcul, la collecte et le stockage toujours grandissants des données en ont favorisé la croissance. Depuis les années 2000, l’apprentissage automatique non supervisé (machine Learning) en est une nouvelle forme d’émergence apte à conférer au système une relative autonomie et un semblant de créativité afin de traiter des problèmes spécifiques auxquels il n’avait pas été préalablement soumis. La rupture quasi épistémologique que représenterait l’avènement de l’informatique quantique appliquée aux champs de l’IA, serait à même de démultiplier un potentiel déjà remarquable.

Cela étant dit, une incise sémantique me semble ici nécessaire. L’intelligence est un concept protéiforme et au sens radicalement différent selon qu’on l’applique au vivant ou à la machine, tout parallèle précipité serait fort abusif et tendancieux. Dans son acceptation humaine ou animale, elle suppose certes logique et mémoire mais suivies cependant de toute une liste à la Prévert : de la curiosité, de la créativité, de l’empathie, de l’indépendance, de l’adaptabilité… en somme une palette d’émotions et d’aptitudes interdépendantes et interconnectées, rattachées et constitutives d’une « conscience » réceptive aux interactions avec son environnement. Si une marionnette peut par quelque magie nous donner l’impression qu’elle se meut d’elle-même, il ne s’agit là que d’une illusion et la même clairvoyance est encore de mise avec L’IA. Même si certains réseaux de neurones artificiels essaient de s’inspirer du fonctionnement des neurones biologiques, même si le concept d’IA forte (dotée d’une sensibilité) est en vogue, l’aboutissement à l’artificialisation d’un cerveau humain relève en ce XXIème siècle des blockbusters ou de la littérature. Certes un ensemble limité de travaux scientifiques, aussi nécessaires que très prospectifs creusent le sujet, s’ils ont le mérite de participer à tracer un chemin heuristique, la somme des infranchissables semble indépassable. S’il faut jouer le jeu d’une appellation quelque peu abusive et accepter tout le folklore que de facto elle véhicule, le sobriquet bien plus terre à terre ‘d’algorithmie informatique prédictive’ serait de nos jours bien plus pertinent. Nuance faite, les secteurs où elle se déploie n’en sont pas moins importants et ils induisent des conséquences majeures sur nos sociétés.     

Bien sûr on peut évoquer la conduite autonome de véhicules, la domotique ou encore la robotique humanoïde qui trouvent un large écho auprès du public. Mais prudence est de mise, la vocation commerciale de ces projets agit tel un miroir déformant et leurs avancées ou leurs résultats sont en général interprétées par les néophytes de façon trop optimiste. Pour compliquer la tâche, ils sont généralement sur-vendus par ceux qui en sont à l’initiative, motivés par une quête de financement ou le besoin de rassurer les actionnaires bien plus que par des exposés impartiaux.

Prenons le cas des robots humanoïdes de Boston Dynamics, sans doute les plus avancés en matière de développement, l’IA embarquée apporte une aide prédictive à leur déplacement, le reste est grossièrement affaire de programmation robotique classique et de pièces mécaniques d’orfèvrerie. De même, la conduite autonome est encore très loin de pouvoir répondre à des défis qui persistent malgré les débuts d’aides à la conduite. La perception en toutes conditions, l’anticipation de l’imprévisible, la politique de conduite – choix à opérer -, l’interaction avec le genre humain relèvent encore du mythe. Quant à la domotique, les frigidaires connectés (dont on cherche encore l’utilité), les aspirateurs robots, les assistants vocaux… sont de l’ordre du gadget et du confort vaguement superflu. Ces exemples parmi tant d’autres, s’ils s’inscrivent dans une dynamique d’innovation, ne seront pas les vecteurs décisifs d’une transformation radicale des sociétés.  

D’autres sphères moins relayées par les médias bénéficient de l’IA, au rang desquelles la surveillance, la finance, la santé, l’image, la recherche… ce n’est pas un hasard si elles bénéficient toutes d’importantes bases de données aptes à être traitées et analysées en des temps record.

En ce qui concerne la surveillance, la réalité a rejoint ici la fiction. La tendance de nos sociétés au désir sécuritaire a participé à son développement et à son acceptation. Désormais, tout individu filmé est susceptible d’être identifié. A l’aide de caméras dans l’espace public, de smartphones, de vidéos publiées sur internet, de drones, de satellites, on peut de manière autonome dénombrer les foules, prévoir leur déplacement, confondre les attitudes « jugées suspectes ». Tout cela en procédant à des reconnaissances faciales et comportementales de masse à l’échelle d’une rue, d’une place, d’une ville ou d’un territoire. La moitié des pays dans le monde utilise l’IA de surveillance, la Chine et les États-Unis en tête. Certes, la législation européenne, le droit international ont vocation à établir des limites et un cadre, ce qui ne signifie pas qu’ils soient respectés ! Enfin, économiques ou militaires, les infiltrations au sein d’états ou d’entreprises sont nombreuses et en constante augmentation, surveillance et espionnage n’étant ici que les deux faces d’une même pièce.

La finance elle aussi tire profit des possibilités offertes par l’IA. Répression des fraudes, analyse du profil client pour l’accord de prêt, pointage du blanchissement d’argent, automatisation de métiers liés à la comptabilité, trading à haute vitesse…Ici tout est affaire de nombres, d’ordonnancement et de corrélation dont tout algorithme est friand. En bourse, les « trading bots » actent des ordres de vente ou d’achat avec une efficience et une rapidité sans commune mesure. L’âge d’or des traders des années 90 a laissé place à celui des développeurs en Machine Learning, ce qui n’en a pas rendu la spéculation plus éthique.

Comment ne pas mentionner encore la manipulation de photographies, vidéos où bien la production d’œuvres « artistiques », visuelles, sonores ou littéraires. Il est devenu délicat de dissocier le réel du factice et les outils désormais mis à disposition du quidam sont confondants d’accessibilité et de possibilités. La prolifération de fake news,  preuves « artificielles » à l’appui en est une manifestation, pernicieusement cela donne aussi prétexte à interroger l’existant plus que de raison. Un smartphone peut suffire à écrire automatiquement des articles, à émuler des discours, à inter-changer des personnages, des lieux ou des situations. Dernièrement encore, un tableau réalisé par une IA a remporté le premier prix d’une compétition d’Art et la 10e symphonie inachevée de Beethoven a été complétée !  

1er prix du concours du Colorado – Théâtre d’opéra spatial – © Jason M. Allen & IA MidJourney

En matière de santé, les champs d’applications sont nombreux et font partie intégrante des soins dans les environnements médicaux depuis déjà des années. Analyse d’imageries médicales (radiographies, IRM, scanographies) en se basant sur des détails qu’un humain pourrait manquer ou est incapable d’identifier. Médecine prédictive, comme celle qui dispense des diagnostics basés sur des antécédents ou qui prévient de l’émergence d’épidémies à l’échelle d’une population. Mais c’est encore la recherche scientifique appuyée par l’IA qui a le plus d’impact. A titre d’exemple, elle est récemment arrivée à prédire la structure tridimensionnelle de plus de 200 millions de protéines en un an alors qu’il faut à une équipe scientifique plusieurs mois pour n’en définir qu’une seule. Si ceci a aidé à développer des vaccins pour le COVID dans des temps records, le potentiel de ce genre de découvertes semble abyssal. C’est ici toute la recherche scientifique mondiale qui est susceptible d’en bénéficier et dans des secteurs d’activité très variés. Recherche sur la biologie humaine et animale, sur de nouveaux médicaments, sur les micro-plastiques, sur le stockage d’énergie… le nombre de publications y faisant référence dépasse déjà le millier.

Ces exemples, que l’on pourrait multiplier, permettent de nous éclairer et participent à distinguer le mythe de la réalité. Avec l’Intelligence Artificielle, l’homme bénéficie d’une « capacité cognitive et prédictive augmentée » dont il est l’artisan et à qui il confère une certaine part d’autonomie. Si cela invalide la supplantation totale de l’homme par la machine dans un avenir proche, nul doute que cela lui permet de transcender sa condition. De la même façon que l’avion ou le laminoir industriel ont bouleversé nos rapports à l’environnement physique, matériel en termes de distance ou de modelage de la matière, l’Intelligence Artificielle provoque des mutations d’un même ordre dans les environnements intellectuels, calculatoires, scientifiques, créatifs avec des impacts déjà concrets et palpables sur l’agencement, les productions, l’imaginaire et l’avenir de nos sociétés. Sans nier la puissance du déterminisme technologique ou des intérêts économiques, il apparaît en conclusion primordial de s’inquiéter d’une éthique. Même si cette démarche implique souvent de « rêver le monde », certains exemples de consensus internationaux sont encourageants à l’instar de la bioéthique et de l’édition génétique. Plusieurs axes seraient à considérer parmi lesquels celui de s’assurer de pouvoir rendre compréhensibles les systèmes algorithmiques de sorte qu’ils ne puissent échapper à leur créateur où leur destinataire, afin d’être en mesure de retracer ou d’expliquer le pourquoi d’une décision, d’un choix, d’une opération. Constituer des instances internationales d’audit pour les algorithmes jugés majeurs et décisifs, tels que ceux de multinationales comme Facebook ou Amazon. Enfin, garantir la minimisation des biais discriminatoires ou d’exclusion, veiller à la pertinence et l’intégrité des bases de données, s’assurer encore que L’IA ne puisse s’appuyer sur des biais sociétaux. A titre d’exemple, une étude montrait en 2014 que le service publicité de Google renseigné par le Machine Learning privilégiait le ciblage des hommes pour la promotion de professions à fort revenu, une version toute particulière de la galanterie algorithmique sans doute ! De quoi être dépité mais nul mystère, l’IA sera notre cruel reflet bien plus que notre délivrance ou notre perte, soyons d’ailleurs taquins, n’est il pas écrit que les dieux ont fait les hommes à leur image ?! Avant que, pour trop nous ressembler, notre chère Intelligence Artificielle ne présente des signes de démence, la mise en place de garde-fous relèverait de la mission salutaire.