Benoît Raphaël est journaliste, blogueur, entrepreneur et aujourd’hui « éleveur de robots ». Expert en innovation digitale et média, il a lancé Flint Media, une expérience collaborative entre humains et robots qui nous permet de mieux nous informer en triant des milliers d’articles à l’aide de l’intelligence artificielle.

 

Qu’as-tu appris de la crise ?

La première chose que nous avons appris durant cette crise, contrairement aux autres crises planétaires comme celle du climat, c’est que nous avions ici tous un rôle à jouer. Nous avons compris l’effet quasi-mathématique de la distanciation sociale sur la circulation du virus : si chacun jouait son rôle, nous pourrions faire basculer l’issue de la crise sanitaire.

D’un autre côté, nous avons constaté que la coordination collective n’est pas possible sans accès à une information de qualité. En cela, la crise du Covid-19 a aussi été une crise de l’information. Nous avons été surinformés, désinformés de fait qu’aujourd’hui encore, nous n’arrivons pas à savoir si la stratégie du confinement était la meilleure option ou bien notre seule issue face à notre impréparation. Même les sources scientifiques, dans lesquelles nous avons habituellement confiance, peuvent se contredire. 

“ Les algorithmes ont du mal à prédire le chaos.

 

Tu penses que les méthodes d’intelligence artificielle peuvent aider à faire face à cette crise sanitaire ?

Pas forcément. Alors que nous croyions que l’intelligence artificielle allait résoudre tous nos problèmes, les robots n’ont pas été d’une grande aide durant la crise. Pourquoi ? Car les algorithmes ont du mal à prédire le chaos et des évènements qui ne sont jamais arrivés. Cela se vérifie par exemple dans les algorithmes de recommandation d’Amazon qui n’arrivaient plus à analyser et réagir aux comportements d’achat des gens.
Nous avons fait tomber l’idée que, grâce aux données et à l’IA, nous pourrions comprendre les logiques prévisibles du monde et prévoir l’avenir.

“ Il nous faut accepter l’idée que le monde est complexe et que, par conséquent, il n’y a pas de vérité.

 

Mais alors, comment faire face à la complexité du monde ?

Il nous faut accepter l’idée que le monde est complexe et que, par conséquent, il n’y a pas de vérité. Quelles soient algorithmiques, scientifiques ou journalistiques, toutes nos méthodes pour établir des vérités sont biaisées et risquées. La grande confusion autour de l’hydroxychroroquine et du professeur Raoult en est un bon exemple.

Le seul moyen à notre disposition pour bien s’informer demain c’est de développer notre esprit critique, en nous aidant des outils algorithmiques, mais en conservant le contrôle de notre capacité d’analyse et d’interprétation. Une compétence d’autant plus essentielle dans un monde où les actions de chacun comptent. Nous devons donc être capables de douter suffisamment tout en accordant notre confiance en un certain nombre de méthodes, afin de nous faire nous-mêmes notre propre opinion par rapport à l’information que nous recevons.

“ La vérité algorithmique n’existe pas, il faut de l’humanité pour approcher la vérité.

 

Quel est l’intérêt de l’IA et de Flint dans un monde de plus en plus chaotique et incertain ?

Tout dépend de la vision que nous avons des algorithmes. Si nous considérons que l’IA est intelligente et plus objective que nous du fait de sa logique mathématique, alors nous fonçons dans le mur. Il faut arrêter avec cette idée d’une intelligence artificielle magique.
L’intelligence artificielle n’est pas très différente du racisme. Le raciste a des données partielles dont il tire des conclusions approximatives sur la base d’une modélisation du monde simplifiée. Tout comme le fait un mauvais algorithme.

L’accompagnement, la surveillance des données et des méthodes algorithmiques, ainsi que la prise de conscience des limites des algorithmes, sont des éléments essentiels pour garder le contrôle sur ce que nos robots produisent.

 

Chez Flint, nous sommes par exemple capables, grâce aux algorithmes, de nous protéger des fake news et des contenus haineux. Par contre, lorsque nous souhaitons établir des vérités, l’intervention humaine est indispensable. La vérité algorithmique n’existe pas, il faut de l’humanité pour approcher la vérité.

 

La crise du Covid a-t-elle changé ta vision des futurs désirables dans lesquels nous voulons vivre ?

Une chose m’a profondément marqué : la question de la dette publique. Il y a quelques mois, nous vivions dans un monde où toute volonté de changement ou d’investissement était assujetti au respect des contraintes budgétaires. Lorsque le monde s’est arrêté, nous avons réalisé que ce qui paraissait impossible est désormais à portée de main à condition que l’on réussisse à se mettre collectivement d’accord. L’illusion d’un système immobilisé par la dette tombe, et soudain, tout semble virtuel, relatif et donc transformable.

“ Je suis convaincu que nous pouvons globalement nous entendre sur une vision partagée. Maintenant, nous devons avancer en testant de nouveaux modèles.


D’un autre côté, que nous soyons progressistes ou conservateurs, nous avons tous des réactions très émotionnelles à cette crise, ce qui peut nous ramener à des idéologies biaisées et rigides. Qu’elles soient guidées par la peur, le catastrophisme ou la naïveté optimiste.

Je suis convaincu que nous pouvons globalement nous entendre sur une vision partagée : un monde de paix, multiculturel qui respecte les différences tout en sachant les faire interagir, un monde plus humain et plus écologique. Maintenant, nous devons avancer en testant de nouveaux modèles, à l’échelle locale mais aussi pourquoi pas à l’échelle d’une région ou d’un secteur économique. C’est seulement ainsi, pas à pas, que nous construirons cette vision et ces futurs désirables.
Nous devons nous doter des outils nous permettant de développer notre esprit critique ainsi que notre confiance dans les institutions.

 

 

Flint est en pleine campagne de financement. Pour l’aider à militer pour une meilleure information, rendez-vous sur LITA.co.