Articles

Jean-Gabriel Ganascia : L’intellligence artificielle est partout dans nos vies

Jean-Gabriel Ganascia, professeur d’informatique à l’université Pierre-et-Marie-Curie, est l’un des principaux spécialistes français de l’intelligence artificielle. Ses recherches actuelles portent sur le versant littéraire des humanités numériques, la philosophie computationnelle et l’éthique des technologies de l’information et de la communication. 

Comment définir, de façon simple, l’intelligence artificielle [IA] ?

Jean-Gabriel Ganascia – L’intelligence artificielle consiste à faire exécuter par une machine des opérations que nous faisons avec notre intelligence. De façon encore plus simple, cela veut dire calculer, démontrer des théorèmes, résoudre des problèmes, jouer, traduire, parler, reconnaître une voix, la liste serait longue. La création officielle de l’IA date de 1955, avec le projet d’école d’été de John McCarthy, au cours de laquelle il propose de jeter les fondements d’une nouvelle discipline qui partirait de « la conjecture selon laquelle chaque aspect de l’apprentissage ainsi que n’importe quel trait de l’intelligence pourrait, en principe, être décomposé en modules si élémentaires qu’une machine pourrait les simuler ».

Mais l’IA est le fruit d’une réflexion qui commence bien avant la création des ordinateurs. Elle émane de philosophes comme Leibniz et Hobbes qui affirment que la pensée se réduit à un calcul. Elle devient tangible dès la première moitié du xixe siècle avec Charles Babbage, qui conçoit les plans du premier ordinateur avec sa jeune assistante, l’énigmatique Ada Lovelace, fille du poète Byron, selon laquelle une telle machine ne se limiterait pas à effectuer des calculs mathématiques, mais serait en mesure d’opérer sur des mots ou de la musique. Quelques années plus tard, dans les années 1869, un économiste, William Stanley Jevons, réalise, avec des moyens purement mécaniques, un « piano logique » qui simule des raisonnements en ayant recours à l’algèbre de Boole.

L’idée prend de l’ampleur au xxe siècle, dans les années 1940, avant même la construction des premiers ordinateurs électroniques, au moment de la création de la cybernétique qui étudie, avec des automates, la régulation des systèmes complexes. Cette approche aborde de multiples domaines et dépasse la seule question de la régulation des machines. Elle va notamment influencer la psychologie et l’anthropologie : ainsi, l’école de Palo Alto, fondée par Gregory Bateson, s’appuie beaucoup sur la cybernétique.

Alan Turing va aller plus loin encore. Après avoir posé les fondements de ce qui deviendra l’informatique en 1936, il invente, pendant la guerre, le dispositif permettant de décrypter les messages émis par la machine à coder allemande Enigma. Après cette découverte, Turing se pose la question de savoir ce que penser veut dire, pour une machine. Il imagine alors le test d’intelligence des machines qualifié, depuis, comme étant le « test de Turing » : une machine est dite « intelligente » si elle peut faire illusion en se faisant passer pour un être humain au cours d’un chat, c’est-à-dire d’un échange écrit, par l’intermédiaire de machines.

Après que de grandes espérances, comme celle de la traduction automatique ou du jeu d’échecs, ont été un peu « refroidies », l’IA ne se développe réellement qu’au cours des années 1970, lorsque l’on comprend qu’il ne suffit pas de faire de la logique, mais qu’il faut relier la psychologie, la linguistique et l’informatique. Elle accroît sa popularité ensuite avec l’apparition des « systèmes experts », c’est-à-dire des logiciels visant à simuler le raisonnement dans un champ du savoir restreint, en ayant recours à la connaissance d’hommes de métier pour résoudre des problèmes précis. Ces derniers rencontrent un succès énorme dans les années 1980 avant que l’IA necroise sa course avec le développement du Web.

Aujourd’hui l’IA, c’est quoi ?

L’intelligence artificielle est partout dans nos vies : dans la reconnaissance de la parole, des visages ou des empreintes digitales, dans les apprentissages machines, dans l’hypertexte, les moteurs de recherche, la traduction automatique, les logiciels de recommandation, etc. Tout ce qui est Web comporte de l’IA. Mais il y a aussi de l’IA dans votre téléphone portable, dans la voiture autonome, dans les drones…

Aujourd’hui, quels sont les pays ou les organisations le plus en pointe dans ce domaine ?

Les États-Unis en premier lieu, parce que la discipline s’y est développée beaucoup plus rapidement qu’ailleurs. Pour une simple raison, c’est que les Américains se posent surtout la question du comment, moins du pourquoi, leur côté plus pragmatique les fait avancer plus vite. Au Royaume-Uni aussi, parce qu’ils avaient une tradition logique et informatique forte : n’oublions pas que Charles Babbage, l’inventeur du premier ordinateur, est anglais et qu’il en va de même d’Alan Turing, le précurseur de l’intelligence artificielle.

Au Japon, l’IA s’est développée sous l’impulsion du projet d’ordinateur de cinquième génération, dans lequel les ingénieurs japonais ont souhaité intégrer de l’IA. Ils voulaient concevoir une nouvelle génération de machines intégrant des langages capables d’opérer des déductions logiques. À cette fin, ils ont opté pour le langage Prolog, PROgrammation en LOGique, inventé par un Français, Alain Colmerauer. En France, précisément, malgré de vraies compétences, l’IA a longtemps été méprisée. En Chine, il n’y a rien eu pendant des années, mais les Chinois ont ensuite beaucoup investi en se concentrant notamment sur les questions d’apprentissage machine et sur les applications pour le traitement des masses de données, les mégadonnées.

Connaît-on vraiment les avancées de la recherche dans ces différentes régions ? Des programmes de recherche cachés pourraient-ils exister ?

La recherche a beaucoup changé. Elle avait un côté invisible, caché, restreinte à des cercles d’initiés. Puis des organisations plus étatiques, ont pris le relais, surtout après la Seconde Guerre mondiale. Aujourd’hui, la recherche est financée au plan international. Les communautés de chercheurs sont interdisciplinaires, multinationales. Les financements sont multipartites, privés et publics. On sait donc ce qui se passe. Il y aura toujours des petits groupes construisant des virus informatiques, mais on ne fait pas d’avancées majeures en restant tout seul dans son coin.

Les risques liés à l’IA relèvent-ils alors du fantasme ?

Il faut, je crois, avant tout faire attention aux applications, à la dépendance qu’elles engendrent dans la vie de tous les jours et aux changements sociaux qu’elles induisent. La délégation de certaines tâches aux machines a nécessairement des effets secondaires. Les systèmes informatiques offrent de nouvelles opportunités, tout en en condamnant d’autres. Ainsi, Uber permet de trouver un taxi à proximité, de suivre le parcours de la voiture avant qu’il arrive, puis après, de le noter… De même, on peut craindre que la nature mutualiste des assurances disparaisse progressivement avec le traitement de grandes masses de données qui permettent d’anticiper le risque avec une très grande précision ; en effet, des acteurs promettant des polices d’assurance beaucoup moins coûteuses feront alors leur apparition sur le marché…

Et le débat récent autour des robots tueurs ?

Les questions autour des « robots tueurs », qui reviennent sans cesse, constituent à mes yeux un faux débat. Le but d’une guerre est avant tout de résoudre un conflit. Or, je ne crois pas que les drones, qui engendrent déjà et engendreront immanquablement des bavures, seront en mesure de les résoudre. Une série d’articles parus aux États-Unis en montrent les limites en décrivant toutes les erreurs et les méprises auxquelles l’emploi de drones militaires a conduit. De même, les robots autonomes qui sélectionneront eux-mêmes leurs cibles et commanderont le tir vont générer trop d’hostilité pour s’imposer. À cela, il faut ajouter que ces armes autonomes requièrent des critères objectivables. Or, comment définir formellement un « ennemi » de façon à construire un algorithme qui l’identifie ? C’est là une question d’autant plus délicate que nous avons de plus en plus affaire à des guerres asymétriques où les combattants ne portent pas d’uniforme.

Plus prosaïquement, pourquoi faire compliqué, s’embêter avec des armes autonomes, alors que l’objectif peut être atteint plus simplement avec un drone commandé à distance ?

Et n’y a-t-il pas un lien entre l’IA et la construction d’un homme augmenté ?

Ce qu’on appelle « homme augmenté » recouvre plusieurs aspects. L’augmentation physique, l’augmentation de la perception, par exemple la capacité de voir l’infrarouge, et puis l’augmentation intellectuelle avec les réalités augmentées qui projettent des informations dans notre champ de vision. L’IA peut prendre part dans chacun de ces registres. En revanche, la question des implants et de leur effet sur notre intelligence en général et sur notre mémoire en particulier reste très spéculative.

Et le risque de l’autonomisation d’un programme ?

Cela dépend de ce qu’on entend par autonomie. Un système déjà programmé va se réadapter en fonction des informations données par ses capteurs. En cela, il y a bien autonomie, puisque le programme ne se comporte pas de façon prévisible, et s’adapte au contexte, mais le danger de dérive reste limité.

Avec l’IA et les systèmes d’apprentissage embarqués, le programme va se modifier en fonction de l’expérience du robot. Du coup, on entre dans l’imprévisible. La machine va en effet être capable de s’améliorer et son efficience peut aller contre nos valeurs. Comment faire pour que cela n’outrepasse jamais des limites morales ou éthiques ? Comment et à quels niveaux placer des barrières ?

C’est de ces interrogations qu’émane la lettre publiée par certains spécialistes de l’IA, cosignée par Stephen Hawking et Elon Musk, en janvier 2015, alertant sur la conception de systèmes autonomes avec des techniques d’apprentissage machine. Le programme de recherche qu’ils préconisent apparaît légitime : il s’agit de s’assurer de la sûreté de fonctionnement de systèmes informatiques qui se programment eux-mêmes, à partir de leur propre expérience. Toutefois, derrière cet appel qui se justifie parfaitement d’un point de vue scientifique, se glissent d’autres craintes : celles de voir une machine nous échapper totalement et agir pour son propre compte. Or, rien, pour l’heure, ne légitime de telles inquiétudes.

Bien sûr, des personnes malveillantes pourront toujours essayer de prendre le contrôle de machines. Mais que des machines prennent leur autonomie au sens moral, avec une volonté propre, reste de la pure spéculation.

Que penser justement de ce scénario dit de la « singularité » : le moment où la machine dépassera l’homme. Des chercheurs comme Ray Kurzweil, qui bénéficient de moyens importants, le présentent comme une réalité scientifique.

C’est un scénario qui n’a justement aucun fondement scientifique. Notons d’abord que ceux qui l’énoncent le font en utilisant des arguments d’autorité : ils se présentent toujours avec leurs titres prestigieux, mais ne s’appuient sur aucun fait tangible. De plus, ils n’autorisent pas le débat. Or la science exige que l’on s’appuie sur des observations tout en acceptant le débat et l’échange.

Pour comprendre qu’il n’y a en réalité aucun fondement scientifique, il est bon de revenir à la fameuse expérience de pensée de John Searle dite de la « Chambre chinoise ». Un homme qui ne connaît pas le chinois est enfermé dans une prison. Il voit par la lucarne des caractères chinois, et on lui fait comprendre que, s’il veut manger, il doit présenter à cette même lucarne des panneaux sur lesquels sont écrits des caractères chinois. S’il réagit à ce qu’il voit en présentant les caractères conformes à ce qui est recommandé dans le catalogue de règles syntaxiques qu’on a mis à sa disposition, il aura à manger. Au bout d’un certain nombre d’années, on peut supposer qu’il devient très performant et que, de l’extérieur, les Chinois ont l’impression qu’il réagit comme un Chinois qui comprend le chinois… Mais, d’après Searle, cela ne signifie pas qu’il comprend effectivement le chinois. Il y a en effet une différence radicale entre la syntaxe, qui est de l’ordre de la manipulation des symboles, par exemple des panneaux sur lesquels sont inscrits des caractères, et la sémantique, qui est de l’ordre de la signification.

Searle distingue ainsi l’IA « faible », celle qui reproduit certaines facultés intellectuelles pour les automatiser, de l’IA « forte », qui fait entrer l’intégralité des phénomènes conscients dans une machine. Jusqu’à présent, les progrès impressionnants enregistrés par l’intelligence artificielle relèvent uniquement de l’IA « faible ». Seule une minorité de la communauté scientifique prétend relever ce défi de l’IA « forte ». Mais il n’y a rien pour mesurer ce type d’ambition.

Pourtant, de grandes organisations privées investissent des sommes considérables sur ce type de programmes… Kurzweil lui-même a été embauché chez Google en 2012 comme directeur de la recherche.

Je crains que ces sociétés aient une confiance absolue dans le pouvoir de la technologie. Google, Facebook sont des empires qui se sont montés à toute vitesse. Ils ont réussi au-delà de ce que quiconque aurait pu imaginer, ont changé le monde en quelques années. Leurs dirigeants ne perçoivent plus de limites. Beaucoup ont le sentiment que tout est possible, que la vie peut se transformer, que même la mort peut être « tuée ». Les technologies leur ont conféré un sentiment de toute-puissance. Ils sont aussi persuadés que la technologie a ses propres lois. L’industrie 2.0 fait en effet appel en permanence aux « retours d’usage ». Ces dirigeants ne décident finalement plus de rien. Certes, ils ont une position importante, mais ne se conçoivent pas comme les capitalistes décideurs de l’époque précédente. Ils essayent des choses dans tous les sens. Ils sont en permanence à l’écoute. Ils ont le sentiment d’une deuxième dimension, d’une autodétermination, d’un déploiement autonome de la technologie, hors de toute maîtrise humaine.

Personnellement, je ne pense pas que la technologie soit autonome en ce sens qu’elle ne se déploie pas d’elle-même. J’ai fait le choix de travailler sur l’IA non pas dans le but qu’elle augmente sa propre « conscience », ce qui, à mon sens, n’a pas grand sens, mais afin qu’elle permette d’accroître la conscience de l’homme : que l’on puisse par exemple, grâce à l’IA, mieux apprécier des textes littéraires, mieux saisir les influences mutuelles, mieux en comprendre la genèse… Cela accroît notre propre intelligence, pas celle de la machine.

ETHIQUE : tentons le vrai

Un chasseur de tête me racontait son entretien avec le directeur marketing d’un groupe international de produits de grande consommation. Non, ses enfants ne mangeraient jamais les produits qu’il vend. Non, il ne démissionnerait pas, malgré ses doutes, malgré ses griefs, car ses frais sont importants et son salaire ronflant.

Il ne s’agit pas de juger ni de dénoncer, mais de comprendre comment casser ce schéma qui creuse la séparation entre l’Homme et sa fonction, entre le père et le salarié. Dans les entreprises évidemment, en politique certainement, dans notre vie personnelle.

Platon écrit que pour rendre les organisations éthiques, il ne faut pas inculquer des normes sociales, mais aider les personnes à découvrir par elles-mêmes la réalité du bien, du beau et du vrai.

Il ne s’agit pas d’établir des normes donc, mais de s’appuyer sur les personnes. Et c’est ici que l’éthique peut nous aider, même si le mot peut déstabiliser lorsqu’il se teinte de moralisme ou nous décourager lorsqu’il revient ab nauseam dans des discours sans effet.

L’éthique comme seule capable de reconstruire en profondeur ce qui a été détruit : le lien*, la cohérence.

Chacun d’entre nous est alternativement une citoyenne, un salarié, une mère, un consommateur, une électrice. Pourtant ces séquences de nos vies ne font plus que rarement système et déchirent notre être pour lui enlever son unité fondamentale. Il s’agit de replacer l’éthique comme fil et comme projet de vie pour redonner à la vie justement sa cohérence.

De quelle éthique parle-t-on ?

De l’éthique politique tout d’abord,LEP de l’éthique de nos politiques, incapables souvent de dépasser leurs intérêts et de changer les principes de gouvernance, seuls préalables réels à une réorientation des décisions vers le bien commun. Revoir cette tirade sublime de Jean Gabin dans le film de Jacques Audiard Le Président vaut plus que bien des discours.

Visionner la scène de l’assemblée nationale.

 

De l’éthique des entreprises et de leurs dirigeants ensuite, qui chantent parfois haut leurs valeurs personnelles alors que les structures qu’ils dirigent n’évoluent pas : quête de croissance, pression des actionnaires, emprisonnement dans un système qui ne veut pas lâcher. Les paramètres sont multiples qui bloquent encore et encore toute réforme réelle.

De l’éthique personnelle surtout, car derrière les dirigeantes, les décideurs, les salariées en position de changer les choses, il y a des femmes et des hommes en manque voire en quête de cohérence. La norme revient aujourd’hui à accepter des distorsions parfois abyssales entre nos propres valeurs et ce que notre fonction nous impose.

De l’éthique personnelle encore car chacun ressent bien les distorsions entre certains de ses comportements ou de ses choix de consommateur et ses convictions intimes. Par manque de temps, de moyens, de connaissance certainement.

C’est bien au niveau des personnes qu’il faut premièrement faire levier.

En utilisant tous les outils dont nous disposons aujourd’hui pour accompagner ceux qui le souhaitent ou faire pression sur les plus résistants. Car quelques soient ses responsabilités, chaque personne peut avoir un impact.

De nombreuses organisations y travaillent. Elles ont pour beaucoup dépassé l’affrontement stérile pour favoriser un accompagnement constructif ou une dénonciation efficiente.

Certaines, comme l’Art de Vivre, promeuvent la méditation de pleine conscience pour faciliter, dans les entreprises, la réconciliation des collaborateurs, avec eux-mêmes et avec leurs pairs. D’autres comme Ethique sur l’étiquette condamnent les agissements des grandes sociétés textiles et les incitent à changer leurs modes de fonctionnement. Foodwatch, né en Allemagne et présent en France depuis deux ans, dénonce les produits alimentaires dangereux pour la santé. E-boycott, fraîchement lancé, appelle à des campagnes de boycott sur le web et invite les entreprises à répondre aux questions des signataires.

Se réconcilier donc, individuellement, pour ensuite retisser collectivement une société du lien, reconstruire une économie plus sage et plus humaine. C’est de cette nécessité que nous parlerons et sur ces solutions que nous travaillerons lors des prochains Engage Days, Ethique : tenter le vrai, du 6 au 9 octobre, en compagnie de ceux qui construisent cette transition.

jem 

Pour suivre et aider les organisations citées :

Art of living                                       Je m’engage

Foodwatch                                        Je m’engage

Ethique sur l’étiquette                    Je m’engage

E-Boycott                                          Je m’engage

Transparency International          Je me renseigne

Conseil de lecture : Impliquons-nous, dialogue manifeste entre Edgar Morin, le philosophe artiste et Michelangelo Pistoleto, l’artiste philosophe ; discussion passionnante sur la nécessité de s’impliquer pour rebâtir une nouvelle société, dialogue sensible entre éthique et esthétique.

Conseil cinématograhique : Le Président, est un film français réalisé par Henri Verneuil, sorti en 1961, adapté du roman éponyme de Georges Simenon, et dialogué par Michel Audiard.

*Charles Eisenstein, éditorialiste américain, donne un exemple certes anecdotique mais parlant dans un livre publié en 2011, the sacred economy, très justement traduit par ‘l’économie du lien’ en allemand : Au Guatémala, un père conduisant son fils chez le docteur ne dira pas mon fils est malade mais ma famille est malade ; ce n’est pas un fleuve qu’il s’agira de dépolluer, mais l’environnement tout entier.

Les organisations au coeur de la cité

Le rôle des organisations dans la cité, petites ou grandes est contraint de changer. Trois forces les y conduisent. L’arme digitale, qui supprime toute forme de séparation virtuelle entre l’individu, le citoyen, le consommateur ou un salarié, conduit de fait à supprimer l‘illusion de certains qu’il était possible de vivre en séquence, hyper consommateur d’un côté, ultra social le samedi, hyper libéral le jour de ses impôts, etc., cultivant les contradictions de soi avec la dextérité du zappeur.

Le digital impose une sorte de ré-unification de soi par l’effet des réseaux sociaux. De fait les organisations sont prises dans le même monde, plus possible de tenir deux discours sans risque d’être rattrapé  par la patrouille digitale, plus possible d’agir en contradictions sans risquer l’effet d’image.

Deuxièmement les États ont perdu l’apanage de la souveraineté. Ils n’ont plus la monnaie, pas les taux, pas les dettes, peu les règles. Il leur reste l’ordre public, l’Armée, la police, le droit. La sphère du bien public est en permanence revisitée au nom de l’efficience, de l’impératif de la liberté individuelle devenu supérieur au bien commun, et des contraintes budgétaires. Certes, bien ou mal, cette souveraineté sur les âmes qui s’étiole se cherche de nouveaux maîtres. Les organisations les plus puissantes l’ont bien compris, au cœur de nos vies, fortes d’une puissance financière sans précédent tirée d’une capture de la valeur des réseaux connectés, elles se prennent à rêver de proposer de nouveaux modèles, hommes augmentés et humanoïdes « bienveillants », retour des rêves technicistes, nouvel avatar des croyances dans le progrès technique des grands esprits du 20ieme. De fait, que cela nous plaise ou non, l’espace public est ouvert à ceux qui veulent s’en emparer, bien au delà du politique, bien au delà du marchand, dans une sorte de meta-monde ou tout est désormais entremêlé.

Enfin, troisième force, les sources de croissance, de richesses, de création de demain sont toutes directement traversées par de grands enjeux sociétaux, enjeux des territoires et des cités, dont la réussite collective est souvent la clé d’un bénéfice individuel, dont le gain individuel n’est possible que par des performances collectives. Démographie, santé, transition énergétique et écologique, tout ces impératifs planétaires sont les gisements de nos croissances et activités futures, ils sont collectifs, mais n’ont d’avenir que si chaque pièce du collectif s’empare du sujet. Dans ce contexte, le monde qui vient, qui se construit déjà autour de nous n’est plus multipolaire, mais ultra polaire, au sens où il n’est plus de zone de force qui détermine plus qu’une autre ce que demain sera, quels seront les grands choix économiques et politiques vers lesquels orienter le génie humain. Tout est possible, du pire au meilleur, le pire plus facile que le meilleur parce que les forces du marché non régulées tiennent rarement compte des enjeux « non monétisables », car ce sont les normes et engagements collectifs régulés qui permettent leur monétisation (éducation, santé, écologie, tourisme). Les interdépendances des organisations sont telles que le jeu du progrès est ouvert aux mouvements de forces de chacun. L’effet papillon n’a jamais été aussi possible. Jamais il n’a été aussi possible de provoquer des évolutions par la base, par la mise en jeu de ses valeurs et de ses énergies pour soutenir des projets, des idées, des formes économiques différentes pour porter le changement et s’attaquer, avec ses convictions propres, au grand souci du monde : développer notre bien commun en donnant la main aux individus.

Dans cette optique, seules les organisations qui enverront leurs membres prendre part au cœur de la société qui bouge, se transforme et se bat pour avancer vers un monde nouveau pourront espérer voire une partie de leur idées progresser et faire école. Elles doivent réinventer leur mission, elles doivent proposer une ambition qui dépasse l’atteinte de performance financière pour parler à la cité, pour vivre dans la cité et pour cela elles doivent développer des capillarités actives, sincères et vertueuses avec la société réelle et non pas seulement sous un seul prisme marchand.

Chacun devient porteur malgré lui de ses valeurs, et ne peut espérer y trouver une résonnance que s’il assume d’aller les défendre dans le monde qui bruisse et n’attend pas que d’autres agissent ou parlent pour lui. C’est une révolution copernicienne qui peut donner le meilleur et le pire, le jeu est ouvert, ceux qui ne l’ont pas compris ne joueront plus jamais.