Reprenons le pouvoir sur le numérique

Claude Tesorier est ingénieure de formation. En 2013 elle fonde Magic Makers, des ateliers pour apprendre aux enfants de 6 à 15 ans à coder, et plus largement pour aider les citoyens à comprendre le monde numérique que nous habitons.

 

Pourquoi est-il important de questionner notre rapport au numérique aujourd’hui ?

Le numérique est en train de transformer profondément la société. Au XIXe siècle, la révolution industrielle, qui a automatisé le travail mécanique, a eu un impact phénoménal sur la démographie. Aujourd’hui, nous sommes au cœur d’une autre révolution, numérique, qui automatise le travail intellectuel, et il est très difficile d’en prévoir l’issue.
Ce qui est certain, c’est que ça bouge et qu’on ne peut pas faire abstraction de ce bouleversement de la société. Ceux qui disent « Je ne comprends pas, c’est trop compliqué, ce n’est pas mon problème. » prennent le risque de subir le numérique.

 

“ Un enfant qui a réussi à créer quelque chose avec du code n’aura plus jamais le même rapport avec les machines.

 

D’où t’es venue la volonté d’initier les jeunes au numérique avec Magic Makers ?

Il y a vingt ans, j’ai eu la chance de faire une école d’ingénieur et d’apprendre à programmer, et j’ai réalisé que très peu de gens étaient éduqué sur ce sujet. L’apprentissage du code n’a jamais été une fin en soi. Pour moi, c’est un outil pour comprendre le monde dans lequel nous vivons et essayer de rester en maîtrise.

Un enfant qui a réussi à créer quelque chose avec du code n’aura plus jamais le même rapport avec les machines. De là vient l’ambition de Magic Makers : donner aux jeunes le pouvoir sur la technologie, c’est à dire leur montrer par l’expérimentation que le code est un support de créativité qui peut aider à résoudre des problèmes. C’est aussi leur présenter le numérique non pas comme une réalité qui s’impose à nos vies et que nous subissons, mais comme un outil que nous pouvons décider d’utiliser à notre guise et qui peut nous aider à créer des choses qui n’existent pas.

Nous vivons une époque fascinante. D’un côté, grâce à internet, nous avons aujourd’hui la capacité de nous connecter à distance les uns aux autres, et d’accéder à quantité d’informations et de connaissances de manière instantanée. D’un autre côté, nos outils numériques sont aux mains d’une poignée d’entreprises dont les décisions ont un impact considérable sur les sociétés. Et ce sans aucun impératif démocratique ni aucune régulation des objectifs poursuivis par ces entités. Comprendre conceptuellement et concrètement les ‘dessous’ du numérique est à mes yeux fondamental.

 

 

“ Comprendre le numérique mais aussi de développer les soft skills dont nous avons tous besoin.

 

Concrètement, qu’est-ce que Magic Makers ?

Magic Makers est une entreprise qui propose des ateliers extrascolaires, du primaire au lycée.
L’idée est née du constat qu’il est très difficile d’apprendre à coder à l’âge adulte, et que nos capacités d’apprentissage sont beaucoup plus importantes quand on est jeune. Apprendre à coder aux jeunes de manière simple et ludique, c’est leur offrir l’incroyable sensation de créer, un besoin fondamental chez les enfants.

Les ateliers Magic Makers permettent aux enfants à la fois de s’approprier la logique et la rigueur, mais aussi de développer leur créativité, leur capacité à se tromper et à apprendre, et le travail de groupe. Les ateliers permettent de comprendre le numérique mais aussi de développer les soft skills dont nous avons tous besoin.

 

“ Nous devrions ralentir et nous concentrer sur l’essentiel c’est-à-dire la connexion aux autres, à la vie, à ce qui entoure dans le temps présent.

 

Te poses-tu la question de la fracture numérique et des inégalités qu’elle peut entrainer ?

Nous n’avons pas encore réussi à trouver le modèle économique qui nous permettrait d’offrir durablement des ateliers inclusifs de qualité. Nous avons monté une association qui nous permet d’offrir des ateliers à des jeunes défavorisés, en partenariat avec des associations locales, mais cela ne représente pas encore une part assez signifiante de notre activité. Et nous proposons aussi des formations de professeurs ou d’animateurs périscolaires qui, à plus long terme, permettront d’avoir un impact plus conséquent.

 

A quoi ressemblent tes futurs désirables ?

A quelque chose de beaucoup plus simple aujourd’hui. Nous sommes sur-sollicités, habitués à courir, alors que nous devrions ralentir et nous concentrer sur l’essentiel c’est-à-dire la connexion aux autres, à la vie, à ce qui entoure dans le temps présent.
J’espère que le confinement a permis à un grand nombre de personnes de ralentir leur rythme et que cette nouvelle façon de vivre pourra s’ancrer dans le temps.

 

La vérité algorithmique n’existe pas

Benoît Raphaël est journaliste, blogueur, entrepreneur et aujourd’hui « éleveur de robots ». Expert en innovation digitale et média, il a lancé Flint Media, une expérience collaborative entre humains et robots qui nous permet de mieux nous informer en triant des milliers d’articles à l’aide de l’intelligence artificielle.

 

Qu’as-tu appris de la crise ?

La première chose que nous avons appris durant cette crise, contrairement aux autres crises planétaires comme celle du climat, c’est que nous avions ici tous un rôle à jouer. Nous avons compris l’effet quasi-mathématique de la distanciation sociale sur la circulation du virus : si chacun jouait son rôle, nous pourrions faire basculer l’issue de la crise sanitaire.

D’un autre côté, nous avons constaté que la coordination collective n’est pas possible sans accès à une information de qualité. En cela, la crise du Covid-19 a aussi été une crise de l’information. Nous avons été surinformés, désinformés de fait qu’aujourd’hui encore, nous n’arrivons pas à savoir si la stratégie du confinement était la meilleure option ou bien notre seule issue face à notre impréparation. Même les sources scientifiques, dans lesquelles nous avons habituellement confiance, peuvent se contredire. 

“ Les algorithmes ont du mal à prédire le chaos.

 

Tu penses que les méthodes d’intelligence artificielle peuvent aider à faire face à cette crise sanitaire ?

Pas forcément. Alors que nous croyions que l’intelligence artificielle allait résoudre tous nos problèmes, les robots n’ont pas été d’une grande aide durant la crise. Pourquoi ? Car les algorithmes ont du mal à prédire le chaos et des évènements qui ne sont jamais arrivés. Cela se vérifie par exemple dans les algorithmes de recommandation d’Amazon qui n’arrivaient plus à analyser et réagir aux comportements d’achat des gens.
Nous avons fait tomber l’idée que, grâce aux données et à l’IA, nous pourrions comprendre les logiques prévisibles du monde et prévoir l’avenir.

“ Il nous faut accepter l’idée que le monde est complexe et que, par conséquent, il n’y a pas de vérité.

 

Mais alors, comment faire face à la complexité du monde ?

Il nous faut accepter l’idée que le monde est complexe et que, par conséquent, il n’y a pas de vérité. Quelles soient algorithmiques, scientifiques ou journalistiques, toutes nos méthodes pour établir des vérités sont biaisées et risquées. La grande confusion autour de l’hydroxychroroquine et du professeur Raoult en est un bon exemple.

Le seul moyen à notre disposition pour bien s’informer demain c’est de développer notre esprit critique, en nous aidant des outils algorithmiques, mais en conservant le contrôle de notre capacité d’analyse et d’interprétation. Une compétence d’autant plus essentielle dans un monde où les actions de chacun comptent. Nous devons donc être capables de douter suffisamment tout en accordant notre confiance en un certain nombre de méthodes, afin de nous faire nous-mêmes notre propre opinion par rapport à l’information que nous recevons.

“ La vérité algorithmique n’existe pas, il faut de l’humanité pour approcher la vérité.

 

Quel est l’intérêt de l’IA et de Flint dans un monde de plus en plus chaotique et incertain ?

Tout dépend de la vision que nous avons des algorithmes. Si nous considérons que l’IA est intelligente et plus objective que nous du fait de sa logique mathématique, alors nous fonçons dans le mur. Il faut arrêter avec cette idée d’une intelligence artificielle magique.
L’intelligence artificielle n’est pas très différente du racisme. Le raciste a des données partielles dont il tire des conclusions approximatives sur la base d’une modélisation du monde simplifiée. Tout comme le fait un mauvais algorithme.

L’accompagnement, la surveillance des données et des méthodes algorithmiques, ainsi que la prise de conscience des limites des algorithmes, sont des éléments essentiels pour garder le contrôle sur ce que nos robots produisent.

 

Chez Flint, nous sommes par exemple capables, grâce aux algorithmes, de nous protéger des fake news et des contenus haineux. Par contre, lorsque nous souhaitons établir des vérités, l’intervention humaine est indispensable. La vérité algorithmique n’existe pas, il faut de l’humanité pour approcher la vérité.

 

La crise du Covid a-t-elle changé ta vision des futurs désirables dans lesquels nous voulons vivre ?

Une chose m’a profondément marqué : la question de la dette publique. Il y a quelques mois, nous vivions dans un monde où toute volonté de changement ou d’investissement était assujetti au respect des contraintes budgétaires. Lorsque le monde s’est arrêté, nous avons réalisé que ce qui paraissait impossible est désormais à portée de main à condition que l’on réussisse à se mettre collectivement d’accord. L’illusion d’un système immobilisé par la dette tombe, et soudain, tout semble virtuel, relatif et donc transformable.

“ Je suis convaincu que nous pouvons globalement nous entendre sur une vision partagée. Maintenant, nous devons avancer en testant de nouveaux modèles.


D’un autre côté, que nous soyons progressistes ou conservateurs, nous avons tous des réactions très émotionnelles à cette crise, ce qui peut nous ramener à des idéologies biaisées et rigides. Qu’elles soient guidées par la peur, le catastrophisme ou la naïveté optimiste.

Je suis convaincu que nous pouvons globalement nous entendre sur une vision partagée : un monde de paix, multiculturel qui respecte les différences tout en sachant les faire interagir, un monde plus humain et plus écologique. Maintenant, nous devons avancer en testant de nouveaux modèles, à l’échelle locale mais aussi pourquoi pas à l’échelle d’une région ou d’un secteur économique. C’est seulement ainsi, pas à pas, que nous construirons cette vision et ces futurs désirables.
Nous devons nous doter des outils nous permettant de développer notre esprit critique ainsi que notre confiance dans les institutions.

 

 

Flint est en pleine campagne de financement. Pour l’aider à militer pour une meilleure information, rendez-vous sur LITA.co.

Pour une éthique de l’action

Fabrice Bonnifet est Directeur du Développement Durable du groupe Bouygues. Depuis des années, il se bat pour faire évoluer les modèles économiques des activités du groupe : énergie & carbone, ville durable, achats responsables, économie circulaire et de la fonctionnalité.
Il est également Président du Collège des Directeurs du Développement Durable (C3D) et membre du conseil d’administration de The Shift Project.

 

Comment te sens-tu ?

Mieux que quand ce sera pire… J’ai toujours été pessimiste sur l’avenir de l’humanité, mais je suis un pessimiste « plus », selon la distinction de Pablo Servigne. Je ne me fais pas d’illusions mais je me dis que tout ce qui peut être tenté doit l’être. C’est pour cela que je m’active beaucoup.

“ Réinventer un storytelling du « comment vivre heureux » en étant dix fois plus sobres qu’aujourd’hui, et inventer un modèle qui nous permette de ne pas vivre en survitesse par rapport aux ressources naturelles.

 

Ce qui m’inquiète le plus, c’est le caractère inextricable des enjeux qui sont devant nous : réussir à continuer à vivre à peu près en paix tout en reconfigurant le modèle économique de l’humanité, aujourd’hui basé sur le dogme de la croissance infinie avec des ressources finies, qui est mathématiquement impossible. Comme on ne l’aura pas préparée, il vaudra gérer la décroissance de manière subie.
Il faudra faire preuve de pédagogie pour faire du monde de demain un monde désirable, malgré le fait qu’il ne sera plus assis sur le paradigme de l’hyperconsommation, du Black-Friday et des week-end à 50€ à Marrakech. En bref, réinventer un storytelling du « comment vivre heureux » en étant dix fois plus sobres qu’aujourd’hui, et inventer un modèle qui nous permette de ne pas vivre en survitesse par rapport aux ressources naturelles.
Le défi dans les années à venir va être de se mettre d’accord sur ce modèle de sobriété heureuse qui, aujourd’hui, n’existe pas encore à grande échelle. C’est un sacré défi pour l’humanité, sachant que le temps nous manque…

“ Je crois au local, aux villes et aux territoires. A la construction de poches de résilience qui formeront progressivement un maillage territorial de plus en plus dense.

 

Ce qui te fait peur, est-ce plutôt la complexité des enjeux ou la rapidité avec laquelle nous devons y répondre ?

Les nouvelles solutions sont complexes à mettre en place d’une part parce que la régulation n’est pas adaptée, mais surtout à cause des verrous sociotechniques très ancrés dans nos sociétés. Les conservateurs, ancrés dans leurs certitudes héritées du siècle dernier, sont de vrais freins à l’action. J’évite d’ailleurs de travailler avec toutes ces personnes toxiques, bloquées dans une posture intellectuelle de questionnement permanent et de défiance. Sans même parler des climato-cyniques et des climato-sceptiques…

Mais le vrai défi commence une fois ces difficultés contournées. Une fois que l’on a développé un premier projet innovant, la question est de savoir comment on passe de 1 à 1000, à 10 000 puis à 1 million. Il va falloir notablement accélérer.
Cela fait treize ans que je suis dans mes fonctions chez Bouygues et, malgré nos efforts pour développer les bâtiments passifs ou à énergie positive, les changements sont vraiment trop longs à se mettre en place. Il faudra que la régulation nous aide, tôt ou tard. Si on avait par exemple une taxe carbone à 150 euros la tonne, cela nous faciliterait grandement la tâche…

“ Il faut éviter de trop se projeter. […] Ma vision est qu’il faut directement aller de l’idée à l’action, sans passer par la réflexion.

 

Tu penses donc que la clé du changement se situe au niveau politique ?

Je ne crois plus à des politiques aux niveaux national et international, et j’ai d’ailleurs complètement abandonné l’idée de faire bouger les choses au ministère ou dans les grandes rencontres internationales. A ces échelles de pouvoir, se mettre d’accord relève de la mission impossible.
Par contre, je crois au local, aux villes et aux territoires. A la construction de poches de résilience qui formeront progressivement un maillage territorial de plus en plus dense.
Mais il faut éviter de trop se projeter. Ce qu’il faut faire aujourd’hui, c’est promouvoir les solutions, montrer qu’elles fonctionnent, les rendre désirables, montrer qu’il existe des modèles économiques qui, même s’ils sont moins rentables que les anciens modèles, permettent de réinvestir, et ainsi accélérer le développement de ces solutions sur les territoires.

“ Pour rendre les nouvelles solutions désirables, il ne suffit pas de les raconter, il faut les vivre, les expérimenter.

 

Comment arrives-tu à faire dialoguer ta vision personnelle et ta fonction chez Bouygues ?

Ma vision est qu’il faut directement aller de l’idée à l’action, sans passer par la réflexion. Les comités, les commissions, tous ces organes qui pensent le monde d’après, on en a trop fait. Aujourd’hui, on n’a plus le temps de réfléchir. Il nous faut passer à l’action !

Ce qui me raccroche à une forme d’espoir, c’est qu’il existe des solutions pour tout, dans tous les domaines. Que ce soit dans le bâtiment, le textile ou l’agroalimentaire, il existe des alternatives durables qui peuvent être mises en place dès demain. Et pour rendre ces nouvelles solutions désirables, il ne suffit pas de les raconter, il faut les vivre, les expérimenter.
Notre stratégie chez Bouygues, quand on trouve une bonne idée pour le monde d’après, est d’abord de trouver un client courageux qui accepte de prendre le risque de co-développer la solution avec nous. Une fois la solution expérimentée, on essaye de donner à d’autres parties prenantes l’envie de l’utiliser, et ainsi de la déployer le plus largement possible. C’est donc une approche exclusivement pas l’action.

“ Nos marges de progression en termes d’efficacité sont colossales.

 

Ce qui me donne aussi de l’espoir, c’est d’observer que nos marges de progression en termes d’efficacité sont colossales. Quand on sait qu’un tiers de la production alimentaire mondiale est gaspillée avant même d’arriver dans nos assiettes, qu’une voiture individuelle est à l’arrêt 96% du temps, qu’une perceuse individuelle n’est utilisée que dix minutes par an, que les bâtiments -hors logement- ne sont utilisés que 25% du temps, on peut se dire qu’il nous reste une marge d’amélioration.
Chez Bouygues par exemple, avec le concept BHEP (Bâtiment Hybride à Économie Positive), on essaye de montrer à nos clients que certaines parties des bâtiments, non utilisées 75% du temps, peuvent être mises à la disposition d’autres personnes pour d’autres usages. Si l’on réussit à faire cela à l’échelle d’un territoire ou d’une ville, on récupère théoriquement 75% d’espaces. Ces solutions sont à notre portée d’un point de vue technologique et rentables d’un point de vue économique. Car le mètre carré le moins cher est celui qu’on ne construit pas.

 

A quoi ressemblent tes futurs désirables ?

Une société où l’on se resynchronise avec la nature. Où l’on réapprend à vivre lentement, à redécouvrir les plaisirs simples et gratuits. Mais aussi où l’on se lance dans une politique effrénée de réduction de la démographie. Les capacités de la planète ne permettront pas qu’on vive en paix dans des conditions environnementales acceptables avec dix milliards d’habitants. Tôt ou tard, nous effectuerons la redescente. La question est de savoir comment : soit par des drames – le XXème siècle a démontré notre grande créativité en la matière – soit de manière consentie, organisée, et donc souhaitable.

Guy-Philippe Goldstein : le défi éthique

Pourquoi l’éthique est-elle si fondamentale aujourd’hui?

Je commencerai par donner une vision personnelle de l’éthique : celle d’une approche qui se fonde dans la pensée de John Stuart Mill, et qui cherche à déterminer les impacts des actions de chacun pour le bien commun, au-delà de tout a-priori moralisant (les économistes parleraient d’externalités positives ou négatives).

Cette éthique est fondamentale aujourd’hui car la main de l’homme accélère la transformation de son environnement écologique ou social. Et nous risquons de détruire de manière catastrophique et rapide ce bien commun si, justement, nous ne nous posons pas la question éthique à chaque fois que nous agissons. Pour dire les choses de manière simple, c’est une question de survie. Elle est aujourd’hui portée directement par les fonds de pensions qui investissent sur les durées longues lorsqu’ils portent les futurs retraites des employés publics ou privés. Or, c’est dans ces durées longues qu’ils observent désormais les impacts catastrophiques sur le bien commun – et par construction, le marché ! – qu’il s’agisse de l’augmentation de catastrophes naturelles avec le risque environnementale, ou même le surgissement du risque politique, jusque là limité aux pays émergents et qui atteint les pays avancés via l’irruption des colères populistes. En parallèle, une nouvelle classe de la population, les moins de 25 ans, ceux qui ont compris que les générations du Baby boom étaient en train de détruire leur propre futur, sont réellement entrés en révolte. Et à la différence des générations du Baby boom qui s’étaient lancés dans des combats idéologiques qui parfois leur faisaient côtoyer en réalité les pires totalitarismes, les moins de 25 ans, et en particulier les femmes, exigent d’elles/d’eux une action concrète, pratique, et souvent ancrés dans de nouveaux modes de consommation. Elles/Ils sont les vrais adultes en réalité, auprès desquels les plus âgés, dont je fais parti, devraient apprendre.

Est-ce un chemin individuel ou collectif?

Les deux, car certains enjeux passent par une action individuelle (par exemple les choix de consommation); d’autres par des formes collectives qui peuvent aller de l’association, ou du travail en entreprise repensé dans un cadre éthique, à l’action politique – nécessaire quand il s’agit de penser la réglementation ou de peser sur les choix d’équipements collectifs. Ce dernier point est particulièrement vrai pour les questions énergétiques fondamentales que pose le dérèglement climatique.

On sent que les entreprises – certaines entreprises – sont à un tournant; comment les mener vers l’étique, vers ce chemin de l’éthique?

Il est important que la gouvernance de l’entreprise comprenne ce tournant – ne serait-ce que parce que c’est celui que prend aujourd’hui de nombreux fonds de pensions, et les clients les plus jeunes qui constituent la base de clientèle de demain. On pourrait aussi parler des jeunes talents d’aujourd’hui qui constituent un autre moyen de pression sur l’entreprise. Pour les mener ensuite à l’éthique, il me semble qu’il faut à la fois développer des principes simples et une évaluation objective de la démarche, évoluant dans le temps, et communicable à tous, parties prenantes internes mais aussi externes; et surtout libérer la parole et la créativité de l’ensemble des collaborateurs afin d’accélérer cette transition éthique qui ne peut fonctionner que si elle est portée par chacun. Ce mouvement n’a de sens qui si tous agissent de concert, tout autant acteur et responsable de cette transformation.

Cette ambition, souhaitable, est-elle compatible avec les impératifs de marché, de rentabilité?

Très précisément. Il y a désormais, comme je le disais plus haut, une pression nouvelle des investisseurs de long terme ainsi que des jeunes consommateurs ou du jeune talent. Certes l’entreprise à très court terme pourrait être légèrement moins performante, en raisons de nouveaux investissement et modes d’actions; mais à moyen ou long terme, elle sera plus résiliente et plus en phase précisément avec son marché. Il ne s’agit pas d’un coût mais d’un investissement.

Toi qui travailles beaucoup sur l’imaginaire et la prospective, quels sont tes futurs désirables?

En relisant la préface de Huxley à son célèbre roman de science fiction « Le Meilleur des Mondes », préface écrite 25 ans après la première édition, je suis tombée à ma grande surprise sur une vision proche de la mienne : celle d’un monde assez égalitaire tout en laissant libre cours aux aspirations de chacun. Où chacun est considéré avec l’exact même statut. Où chacun est tourné vers l’amélioration du bien commun et partage ses idées nées dans l’imagination et la raison critique, soutenues par de nouveaux outils d’explorations qui les rendent à la fois plus vastes et plus collectives. Un monde de vérité et de paix, bien sûr, où la civilisation pourra prospérer. Un monde d’artistes et de scientifiques, où chacun est aussi un peu juge et chacun a dirigé, dirige ou va diriger un projet temporaire. Ce monde-là est peut être plus proche qu’on ne le pense.

En quelques jours | Lire le dernier livre de Guy-Philippe Goldstein – 7 jours avant la nuit

En plusieurs heures ou plusieurs jours | s’engager dans un Défi ENGAGE

Tech For Good… or die

Les technologies digitales sont à un tournant. Parce que prises dans leur ensemble, elles constituent un nouveau système d’information, aujourd’hui totalement dominant – elles sont capables de changer notre perception du monde et donc notre manière d’agir sur celui-ci. Sans prise de conscience de leur impact profond sur nos biens communs, laissé au jeu de tel ou tel « cavalier solitaire », alors c’est l’équilibre de nations toutes entières qui peut basculer. La campagne électorale américaine de 2016 et l’influence des fake news et de la manipulation de cette émotion particulière qu’est la peur, amplifiée par les réseaux sociaux, en est un exemple édifiant.

Mais il y a dans la constitution même de ces nouvelles technologies un contre-poison qui doit permettre de stopper les influences pernicieuses d’acteurs, soit à la rationalité économique limitée, soit animés d’une volonté de subversion politique et d’affaiblissement de nos nations.

Ce contre-poison, il est dans la logique digitale elle-même. Celle-ci trouve la valeur dans l’information la plus pertinente qui permet la meilleure décision. Elle se fabrique dans la mesure des phénomènes – qui est le sens  véritable de ce mot de data, big ou smart, qui ne se révèle que dans la transparence la plus grande. Elle se cherche dans l’exercice de l’expérimentation d’hypothèses commerciales, ce que l’on appelle dans les écosystèmes le « learn startup » – mais qui n’est pas autre chose qu’une réactualisation de la méthode scientifique expérimentale. Elle ne se vit que dans le schéma d’un réseau, tissé d’interdépendances, de respect pour chaque unité – même s’il ne crée qu’un lien faible ; et dans une logique toujours plus grande d’un « petit monde » où chacun n’est jamais qu’à deux ou trois jets de pierre de l’autre, quel qu’il soit. Cette société à la recherche permanente de la vérité est peut-être ce qui nous attend au bout de notre transformation digitale, nouvelle incarnation possible de l’Open Society de Karl Popper.

C’est ce chemin vers cette nouvelle société, et ses modes d’actions, que nous essayons d’emprunter dans la formation Innover vers une technologie humaniste.

Pour aller plus loin :
• sur l’innovation technologique : le site internetactu
• sur philosophie et numérique : le podcast Penser le numérique
• sur l’humanisme numérique : le podcast Pour un humanisme numérique
• sur le RGPD : la vidéo Comprendre le RGPD en 5 questions
• sur la cybersécurité : le TEDX de Guy-Philippe Goldstein

Jean-Gabriel Ganascia : L’intellligence artificielle est partout dans nos vies

Jean-Gabriel Ganascia, professeur d’informatique à l’université Pierre-et-Marie-Curie, est l’un des principaux spécialistes français de l’intelligence artificielle. Ses recherches actuelles portent sur le versant littéraire des humanités numériques, la philosophie computationnelle et l’éthique des technologies de l’information et de la communication. 

Comment définir, de façon simple, l’intelligence artificielle [IA] ?

Jean-Gabriel Ganascia – L’intelligence artificielle consiste à faire exécuter par une machine des opérations que nous faisons avec notre intelligence. De façon encore plus simple, cela veut dire calculer, démontrer des théorèmes, résoudre des problèmes, jouer, traduire, parler, reconnaître une voix, la liste serait longue. La création officielle de l’IA date de 1955, avec le projet d’école d’été de John McCarthy, au cours de laquelle il propose de jeter les fondements d’une nouvelle discipline qui partirait de « la conjecture selon laquelle chaque aspect de l’apprentissage ainsi que n’importe quel trait de l’intelligence pourrait, en principe, être décomposé en modules si élémentaires qu’une machine pourrait les simuler ».

Mais l’IA est le fruit d’une réflexion qui commence bien avant la création des ordinateurs. Elle émane de philosophes comme Leibniz et Hobbes qui affirment que la pensée se réduit à un calcul. Elle devient tangible dès la première moitié du xixe siècle avec Charles Babbage, qui conçoit les plans du premier ordinateur avec sa jeune assistante, l’énigmatique Ada Lovelace, fille du poète Byron, selon laquelle une telle machine ne se limiterait pas à effectuer des calculs mathématiques, mais serait en mesure d’opérer sur des mots ou de la musique. Quelques années plus tard, dans les années 1869, un économiste, William Stanley Jevons, réalise, avec des moyens purement mécaniques, un « piano logique » qui simule des raisonnements en ayant recours à l’algèbre de Boole.

L’idée prend de l’ampleur au xxe siècle, dans les années 1940, avant même la construction des premiers ordinateurs électroniques, au moment de la création de la cybernétique qui étudie, avec des automates, la régulation des systèmes complexes. Cette approche aborde de multiples domaines et dépasse la seule question de la régulation des machines. Elle va notamment influencer la psychologie et l’anthropologie : ainsi, l’école de Palo Alto, fondée par Gregory Bateson, s’appuie beaucoup sur la cybernétique.

Alan Turing va aller plus loin encore. Après avoir posé les fondements de ce qui deviendra l’informatique en 1936, il invente, pendant la guerre, le dispositif permettant de décrypter les messages émis par la machine à coder allemande Enigma. Après cette découverte, Turing se pose la question de savoir ce que penser veut dire, pour une machine. Il imagine alors le test d’intelligence des machines qualifié, depuis, comme étant le « test de Turing » : une machine est dite « intelligente » si elle peut faire illusion en se faisant passer pour un être humain au cours d’un chat, c’est-à-dire d’un échange écrit, par l’intermédiaire de machines.

Après que de grandes espérances, comme celle de la traduction automatique ou du jeu d’échecs, ont été un peu « refroidies », l’IA ne se développe réellement qu’au cours des années 1970, lorsque l’on comprend qu’il ne suffit pas de faire de la logique, mais qu’il faut relier la psychologie, la linguistique et l’informatique. Elle accroît sa popularité ensuite avec l’apparition des « systèmes experts », c’est-à-dire des logiciels visant à simuler le raisonnement dans un champ du savoir restreint, en ayant recours à la connaissance d’hommes de métier pour résoudre des problèmes précis. Ces derniers rencontrent un succès énorme dans les années 1980 avant que l’IA necroise sa course avec le développement du Web.

Aujourd’hui l’IA, c’est quoi ?

L’intelligence artificielle est partout dans nos vies : dans la reconnaissance de la parole, des visages ou des empreintes digitales, dans les apprentissages machines, dans l’hypertexte, les moteurs de recherche, la traduction automatique, les logiciels de recommandation, etc. Tout ce qui est Web comporte de l’IA. Mais il y a aussi de l’IA dans votre téléphone portable, dans la voiture autonome, dans les drones…

Aujourd’hui, quels sont les pays ou les organisations le plus en pointe dans ce domaine ?

Les États-Unis en premier lieu, parce que la discipline s’y est développée beaucoup plus rapidement qu’ailleurs. Pour une simple raison, c’est que les Américains se posent surtout la question du comment, moins du pourquoi, leur côté plus pragmatique les fait avancer plus vite. Au Royaume-Uni aussi, parce qu’ils avaient une tradition logique et informatique forte : n’oublions pas que Charles Babbage, l’inventeur du premier ordinateur, est anglais et qu’il en va de même d’Alan Turing, le précurseur de l’intelligence artificielle.

Au Japon, l’IA s’est développée sous l’impulsion du projet d’ordinateur de cinquième génération, dans lequel les ingénieurs japonais ont souhaité intégrer de l’IA. Ils voulaient concevoir une nouvelle génération de machines intégrant des langages capables d’opérer des déductions logiques. À cette fin, ils ont opté pour le langage Prolog, PROgrammation en LOGique, inventé par un Français, Alain Colmerauer. En France, précisément, malgré de vraies compétences, l’IA a longtemps été méprisée. En Chine, il n’y a rien eu pendant des années, mais les Chinois ont ensuite beaucoup investi en se concentrant notamment sur les questions d’apprentissage machine et sur les applications pour le traitement des masses de données, les mégadonnées.

Connaît-on vraiment les avancées de la recherche dans ces différentes régions ? Des programmes de recherche cachés pourraient-ils exister ?

La recherche a beaucoup changé. Elle avait un côté invisible, caché, restreinte à des cercles d’initiés. Puis des organisations plus étatiques, ont pris le relais, surtout après la Seconde Guerre mondiale. Aujourd’hui, la recherche est financée au plan international. Les communautés de chercheurs sont interdisciplinaires, multinationales. Les financements sont multipartites, privés et publics. On sait donc ce qui se passe. Il y aura toujours des petits groupes construisant des virus informatiques, mais on ne fait pas d’avancées majeures en restant tout seul dans son coin.

Les risques liés à l’IA relèvent-ils alors du fantasme ?

Il faut, je crois, avant tout faire attention aux applications, à la dépendance qu’elles engendrent dans la vie de tous les jours et aux changements sociaux qu’elles induisent. La délégation de certaines tâches aux machines a nécessairement des effets secondaires. Les systèmes informatiques offrent de nouvelles opportunités, tout en en condamnant d’autres. Ainsi, Uber permet de trouver un taxi à proximité, de suivre le parcours de la voiture avant qu’il arrive, puis après, de le noter… De même, on peut craindre que la nature mutualiste des assurances disparaisse progressivement avec le traitement de grandes masses de données qui permettent d’anticiper le risque avec une très grande précision ; en effet, des acteurs promettant des polices d’assurance beaucoup moins coûteuses feront alors leur apparition sur le marché…

Et le débat récent autour des robots tueurs ?

Les questions autour des « robots tueurs », qui reviennent sans cesse, constituent à mes yeux un faux débat. Le but d’une guerre est avant tout de résoudre un conflit. Or, je ne crois pas que les drones, qui engendrent déjà et engendreront immanquablement des bavures, seront en mesure de les résoudre. Une série d’articles parus aux États-Unis en montrent les limites en décrivant toutes les erreurs et les méprises auxquelles l’emploi de drones militaires a conduit. De même, les robots autonomes qui sélectionneront eux-mêmes leurs cibles et commanderont le tir vont générer trop d’hostilité pour s’imposer. À cela, il faut ajouter que ces armes autonomes requièrent des critères objectivables. Or, comment définir formellement un « ennemi » de façon à construire un algorithme qui l’identifie ? C’est là une question d’autant plus délicate que nous avons de plus en plus affaire à des guerres asymétriques où les combattants ne portent pas d’uniforme.

Plus prosaïquement, pourquoi faire compliqué, s’embêter avec des armes autonomes, alors que l’objectif peut être atteint plus simplement avec un drone commandé à distance ?

Et n’y a-t-il pas un lien entre l’IA et la construction d’un homme augmenté ?

Ce qu’on appelle « homme augmenté » recouvre plusieurs aspects. L’augmentation physique, l’augmentation de la perception, par exemple la capacité de voir l’infrarouge, et puis l’augmentation intellectuelle avec les réalités augmentées qui projettent des informations dans notre champ de vision. L’IA peut prendre part dans chacun de ces registres. En revanche, la question des implants et de leur effet sur notre intelligence en général et sur notre mémoire en particulier reste très spéculative.

Et le risque de l’autonomisation d’un programme ?

Cela dépend de ce qu’on entend par autonomie. Un système déjà programmé va se réadapter en fonction des informations données par ses capteurs. En cela, il y a bien autonomie, puisque le programme ne se comporte pas de façon prévisible, et s’adapte au contexte, mais le danger de dérive reste limité.

Avec l’IA et les systèmes d’apprentissage embarqués, le programme va se modifier en fonction de l’expérience du robot. Du coup, on entre dans l’imprévisible. La machine va en effet être capable de s’améliorer et son efficience peut aller contre nos valeurs. Comment faire pour que cela n’outrepasse jamais des limites morales ou éthiques ? Comment et à quels niveaux placer des barrières ?

C’est de ces interrogations qu’émane la lettre publiée par certains spécialistes de l’IA, cosignée par Stephen Hawking et Elon Musk, en janvier 2015, alertant sur la conception de systèmes autonomes avec des techniques d’apprentissage machine. Le programme de recherche qu’ils préconisent apparaît légitime : il s’agit de s’assurer de la sûreté de fonctionnement de systèmes informatiques qui se programment eux-mêmes, à partir de leur propre expérience. Toutefois, derrière cet appel qui se justifie parfaitement d’un point de vue scientifique, se glissent d’autres craintes : celles de voir une machine nous échapper totalement et agir pour son propre compte. Or, rien, pour l’heure, ne légitime de telles inquiétudes.

Bien sûr, des personnes malveillantes pourront toujours essayer de prendre le contrôle de machines. Mais que des machines prennent leur autonomie au sens moral, avec une volonté propre, reste de la pure spéculation.

Que penser justement de ce scénario dit de la « singularité » : le moment où la machine dépassera l’homme. Des chercheurs comme Ray Kurzweil, qui bénéficient de moyens importants, le présentent comme une réalité scientifique.

C’est un scénario qui n’a justement aucun fondement scientifique. Notons d’abord que ceux qui l’énoncent le font en utilisant des arguments d’autorité : ils se présentent toujours avec leurs titres prestigieux, mais ne s’appuient sur aucun fait tangible. De plus, ils n’autorisent pas le débat. Or la science exige que l’on s’appuie sur des observations tout en acceptant le débat et l’échange.

Pour comprendre qu’il n’y a en réalité aucun fondement scientifique, il est bon de revenir à la fameuse expérience de pensée de John Searle dite de la « Chambre chinoise ». Un homme qui ne connaît pas le chinois est enfermé dans une prison. Il voit par la lucarne des caractères chinois, et on lui fait comprendre que, s’il veut manger, il doit présenter à cette même lucarne des panneaux sur lesquels sont écrits des caractères chinois. S’il réagit à ce qu’il voit en présentant les caractères conformes à ce qui est recommandé dans le catalogue de règles syntaxiques qu’on a mis à sa disposition, il aura à manger. Au bout d’un certain nombre d’années, on peut supposer qu’il devient très performant et que, de l’extérieur, les Chinois ont l’impression qu’il réagit comme un Chinois qui comprend le chinois… Mais, d’après Searle, cela ne signifie pas qu’il comprend effectivement le chinois. Il y a en effet une différence radicale entre la syntaxe, qui est de l’ordre de la manipulation des symboles, par exemple des panneaux sur lesquels sont inscrits des caractères, et la sémantique, qui est de l’ordre de la signification.

Searle distingue ainsi l’IA « faible », celle qui reproduit certaines facultés intellectuelles pour les automatiser, de l’IA « forte », qui fait entrer l’intégralité des phénomènes conscients dans une machine. Jusqu’à présent, les progrès impressionnants enregistrés par l’intelligence artificielle relèvent uniquement de l’IA « faible ». Seule une minorité de la communauté scientifique prétend relever ce défi de l’IA « forte ». Mais il n’y a rien pour mesurer ce type d’ambition.

Pourtant, de grandes organisations privées investissent des sommes considérables sur ce type de programmes… Kurzweil lui-même a été embauché chez Google en 2012 comme directeur de la recherche.

Je crains que ces sociétés aient une confiance absolue dans le pouvoir de la technologie. Google, Facebook sont des empires qui se sont montés à toute vitesse. Ils ont réussi au-delà de ce que quiconque aurait pu imaginer, ont changé le monde en quelques années. Leurs dirigeants ne perçoivent plus de limites. Beaucoup ont le sentiment que tout est possible, que la vie peut se transformer, que même la mort peut être « tuée ». Les technologies leur ont conféré un sentiment de toute-puissance. Ils sont aussi persuadés que la technologie a ses propres lois. L’industrie 2.0 fait en effet appel en permanence aux « retours d’usage ». Ces dirigeants ne décident finalement plus de rien. Certes, ils ont une position importante, mais ne se conçoivent pas comme les capitalistes décideurs de l’époque précédente. Ils essayent des choses dans tous les sens. Ils sont en permanence à l’écoute. Ils ont le sentiment d’une deuxième dimension, d’une autodétermination, d’un déploiement autonome de la technologie, hors de toute maîtrise humaine.

Personnellement, je ne pense pas que la technologie soit autonome en ce sens qu’elle ne se déploie pas d’elle-même. J’ai fait le choix de travailler sur l’IA non pas dans le but qu’elle augmente sa propre « conscience », ce qui, à mon sens, n’a pas grand sens, mais afin qu’elle permette d’accroître la conscience de l’homme : que l’on puisse par exemple, grâce à l’IA, mieux apprécier des textes littéraires, mieux saisir les influences mutuelles, mieux en comprendre la genèse… Cela accroît notre propre intelligence, pas celle de la machine.

Pierre-Etienne Franc : L’entreprise au service de la Cité

Pierre-Etienne Franc vient de publier Entreprise & Bien Commun, un ouvrage qui analyse les bases culturelles, structurelles et organisationnelles de nouvelles pratiques désormais urgentes pour les entreprises.

 

ENGAGE : Pourquoi ce livre et pourquoi maintenant ?

Pierre-Etienne Franc : Je vis depuis longtemps dans mon métier cette intrication devenue essentielle des problématiques collectives et des entreprises notamment bien sûr sur les questions énergétiques. Mais je sens que beaucoup de gens comprennent mal que, sans les entreprises, leur puissance technologique, leur agilité et capacité d’organisation et d’investissement, les choses ne pourront pas avancer vite et fort.

De l’autre, beaucoup d’entreprises semblent refuser, ou ne pas comprendre que ce qui arrive avec la finitude des ressources et les questions environnementales et climatiques n’arrive pas qu’aux autres, mais vont les toucher toutes de plein fouet et très vite et qu’elles doivent impérativement changer d’angle. Urgence surtout, car tout cela s’accélère et nous devons changer de regard sur le rôle des uns et des autres si on veut régler les chantiers du monde.

Enfin, à titre personnel, besoin de renouer par ce texte le fil d’une culture personnelle et familiale qui se nourrit de la chose publique et ne peut se résoudre à croire qu’il soit possible de faire société sans que chacun ne s’occupe un peu à la faire !

Vous parlez de replacer l’entreprise au service de la Cité et du bien commun, une utopie, un voeux pieux ou une prochaine réalité ?

Une utopie pas forcément, parce que l’objet du livre est de démontrer qu’il y a une forme de rationalité presque cynique qui devrait pousser les entreprises à travailler les questions sociétales et de bien commun, car je crois fondamentalement que c’est là que se trouvent les gisements de croissance. Rationalité cynique matinée d’un effet vertueux qui relève pour sa part peut être de l’utopie, mais qui est relatif à la pression des réseaux sociaux sur le monde économique et politique.
Je crois que cette pression permanente et malsaine de la transparence a probablement quelques vertus en ce qu’elle nous oblige à être clair sur nos actes et nos intentions et qu’elle pousse donc les entreprises à un discours de cohérence qui assume ses choix stratégiques. Pour celles qui voudront jouer le jeu de la croissance au service du bien commun ou en tenant pleinement compte des contraintes du bien commun, le digital leur imposera une forme de transparence assez peu facile à tromper, donc une lutte pour effectivement défendre la pertinence de leurs solutions  ou de leurs procédés au regard des questions du bien commun.
Il devrait être de plus en plus difficile de voir se développer des cas de type « glyphosate », tant la pression médiatique sera forte à ce que les produits , et technologies qui sont mis sur le marché respectent des normes incontestables et soient parfaitement cohérent avec les exigences du bien commun, c’est à dire ne produisent pas d’effets négatifs sur les tiers qui ne soient clairement connus et appréciés.

C’est peut-être cette facette là qui est la plus utopique potentiellement, mais je pense qu’elle pousse à des engagements de convictions et non plus seulement d’opportunités.

Vous pensez donc que la période est particulièrement propice à une tel ‘retour’ de l’éthique au sein de ‘la personne morale’, pourquoi ?

La période est charnière, pour les raisons que nous avons vues, finitude des ressources, épuisement des modèles productifs de croissance, enjeux climatiques. L’attitude fondée sur la seule performance ne tient plus parce qu’elle devient cynique et donc met en jeu l’image de l’entreprise, de ses dirigeants et leur capacité à faire sens en leur sein et dans la société. Cela ne signifie pas que l’éthique est plus importante aujourd’hui qu’hier, ou que la morale devrait reprendre la main, cela signifie que l’absence de prise en compte du bien commun dans le développement d’une activité est beaucoup plus visible, traçable et beaucoup plus rapidement médiatisable que par le passé.

Il est intéressant de voir la résurgence de la volonté de la puissance publique en France de reconnaître ou de redéfinir le rôle des entreprises dans la cité par la loi, y incluant leur vocation à servir aussi la société. Cela traduit que dans un monde fini, la juxtaposition d’activités économiques séparées, animées par la seule satisfaction de marchés ou besoins individuels, sans tenir compte de leur impact plus général sur l’éco système, ne produit plus forcément d’efficacité globale et impose donc de revisiter leur valeur autrement qu’à l’aune de la seule satisfaction individuelle. La finitude impose la responsabilité en quelque sorte. Et si l’on veut aller plus loin que l’Ethique de responsabilité, il faut s’engager, donc basculer dans une éthique de conviction. Là on entre dans la problématique du leadership et des valeurs personnelles.

Faire évoluer une structure nécessite aussi un nouveau leadership, comment le décririez-vous ?

Je parle de passeur, pour essayer d’illustrer la nécessité de travailler à des leadership qui essayent d’ouvrir les entreprise aux mondes avec lesquels elles interagissent, pour les sortir de logiques de performances à leurs bornes et au contraire les inciter à regarder la valeur comme une contribution qui dépasse la seule production de biens et de services mais englobe aussi la méthode, l’impact sur les tiers (environnement, santé, eco système) qui l’entourent et qui sont concernés.

Cela signifie un regard différent sur les activités de l’entreprise et probablement aussi une approche ouverte du management au sein de l’entreprise, une forme d’exigence bienveillante, qui ne renie pas les enjeux de performances, mais voit la valeur comme plus large que la seule production monétaire, qui refuse de considérer que le rôle de l’entreprise s’arrête à son activité mais au contraire juge qu’elle prend son sens dans un engagement auprès et avec les tiers qui sont touchés directement ou indirectement par ce qu’elle fait.

Un conseil à ceux qui n’arrivent pas à faire bouger leur structure ?

Les changements les plus forts viennent de l’extérieur. Les grandes structures réagissent rarement à des mobilisations internes, elles réagissent à des pressions concurrentielles, technologiques, de marché, de règles, qui bouleversent les processus structurés existants. Il faut chercher à faire rentrer la diversité, la disruption par le dehors. Cela signifie des gouvernances ad hoc, des capacités d’agir qui sont « de coté », mais connectées (pour qu’il existe des points d’entrée du dehors vers le dedans, des points de passage), l’appui de structures agiles, et la nécessité de trouver des exemples, des succès qui fassent réagir l’intérieur. Cela fonctionne d’autant mieux que le top de l’entreprise soutient cette disruption du dedans / dehors, cela renvoie inévitablement aux convictions propres du sommet.
Cela est d’autant plus essentiel que le degré d’incertitudes au quel nous faisons face est très élevé de par justement la somme des connaissances qui s’accumulent et conduisent de jour en jour à mieux nous faire saisir nos interdépendances. Il n’est plus possible de simplement dire la batterie réduit les émissions de polluants pour avancer, car toute une théorie d’analyses vient très vite amender, pondérer, contester les bénéfices de la solution.

Ainsi l’ignorance des autres n’est plus un paramètre qui peut permettre d’avancer, car la connaissance est partout et potentiellement infinie. Mais le divers qui sourd de la connaissance creuse un monde d’incertitude permanente qui ne permet plus d’avancer sur de seules bases rationnelles. C’est donc in fine l’éthique de conviction et de responsabilité qui doivent guider les choix entrepreneuriaux, ce qui est profondément neuf et contre intuitif dans notre monde actuel. Et qui engage plus fortement encore aujourd’hui qu’hier la force d’âme des dirigeants, ce que j’appelle la vertu.

Un mot et une oeuvre enfin pour caractériser l’engagement ?

Persister. L’oeuvre encore non achevée de Bertrand Piccard présente beaucoup de ces facettes dont le monde a besoin, un mélange d’audace, d’optimisme actif, de technologie et d’exemplarité qui produit une très belle illustration de ce que veut dire changer de monde. « C’était impossible, alors ils l’ont fait », pour reprendre Mark Twain.