L’intelligence des machines et les acteurs humains

Un documentaire très pédagogique diffusé par Arte : Autopsie d’une intelligence artificielle (que l’on peut regarder en replay jusqu’au 13 décembre) montre assez bien où en est arrivée, et où n’en est pas arrivée, aujourd’hui, l’intelligence artificielle, et les questions que son usage soulève dans les interfaces avec les acteurs humains.

On retrouve, au passage, des questions très anciennes que la sociologie du travail a posé pratiquement dès ses débuts.

Des performances supérieures à l’intelligence humaine dans beaucoup de domaines

Le propos n’est pas de dire que les machines sont inefficaces. Depuis longtemps on sait que, dans beaucoup de domaines, les algorithmes sont plus performants que les humains. Il nous paraît naturel, par exemple, d’utiliser une calculette ou de laisser une machine faire l’addition dans les magasins, car nous savons que tout un chacun commet de nombreuses erreurs de calcul, en faisant une simple addition (ne parlons pas de la soustraction et, pire encore, de la multiplication ou, le pire du pire, la division).

On laisse des algorithmes gérer les ascenseurs depuis très longtemps. On utilise les GPS avec circonspection, mais ils trouvent des itinéraires auxquels nous n’avons pas pensé et, dans des zones que nous ne connaissons pas, ils sont beaucoup efficaces que la plupart des personnes essayant de se repérer sur une carte routière. Dans tout ce qui est calcul et combinatoire nous sommes complètement dépassés par les machines.

Les progrès récents en reconnaissance des formes

Les avancées récentes de ce qu’on appelle l’intelligence artificielle concernent la reconnaissance des formes. En laissant les ordinateurs faire une sorte d’auto-apprentissage (on a appelé cela de l’apprentissage profond) on est parvenu à mettre au point des machines qui savent assez bien identifier des objets. Mais il faut bien comprendre que cet apprentissage repose sur le rassemblement préalable d’un énorme corpus d’images qui indiquent, à l’ordinateur en train d’apprendre, si sa réponse est juste ou fausse. Pour cet apprentissage on s’est en partie inspiré des processus cérébraux d’apprentissage neuronal. Mais il est clair que, pour des raisons qui nous échappent encore, le cerveau humain identifie beaucoup plus vite des ensembles structurés, tandis que l’ordinateur en est encore à coder, sur une image, les pixels un par un. Dès qu’un enfant sait parler, il identifie sans erreur des catégories assez complexes : il sait ce qu’est un chien, une vache, une chaise, etc., quel que soit l’angle sous lequel il les voit, et alors même que ces catégories présentent une forte variabilité interne.

Pour autant, on peut imaginer, qu’à l’issue d’un entraînement ad hoc, un ordinateur communique, à un utilisateur non-expert, un savoir où seuls des experts le dépassent. C’est le cas, par exemple, avec les logiciels de traduction, qui ont compilé des tonnes de textes traduits dans des organisations internationales, pour parvenir à des traductions certes imparfaites, mais en général suffisantes lorsque l’on a juste besoin de comprendre un texte écrit en langue étrangère. Vous pouvez faire l’exercice de prendre un texte et de le faire traduire, de proche en proche, d’une langue dans l’autre avant de revenir au français. Le résultat n’est pas si mauvais.

Il faut bien comprendre la démarche : l’ordinateur n’est pas vraiment intelligent. Il se contente d’imiter ce que des opérateurs humains ont fait. Et si on le nourrit avec suffisamment d’exemples, il devient capable de réutiliser ces exemples pour parvenir à des résultats honorables.

Cela fonctionne plus ou moins bien suivant les domaines. Les tentatives pour assister les stratégies de soin dans le domaine de la cancérologie ont été, par exemple, un échec : l’ordinateur était bien capable de restituer les stratégies standard, mais les médecins n’auraient eu l’utilité que d’un outil qui les assistait dans des cas inhabituels.

Quand les systèmes informatiques copient l’opinion moyenne qui est saturée de préjugés

Et puis il y a des cas plus graves. On a tenté de faire catégoriser des personnes pour savoir si elles conviendraient pour un emploi, en analysant leur expression faciale. Et des tribunaux américains ont utilisé, dans des procédures judiciaires, un logiciel qui prétendait analyser en direct le risque de récidive.

Vu que l’on a fait, a priori, travailler les algorithmes sur la base de l’opinion de personnes moyennes (même si elles pouvaient être compétentes dans le domaine considéré), l’algorithme a, sans surprise, incorporé les préjugés qu’elles véhiculaient. Le « délit de sale gueule » a connu une vaste expansion sous couvert de neutralité informatique. Des chercheurs ont, ex-post, analysé les récidives effectives des personnes qui avaient été soumises au logiciel judiciaire. Ils se sont rendu compte que les algorithmes sur-estimaient les risques de récidives pour les noirs et les sous-estimaient pour les blancs. En clair, l’algorithme était raciste.

On reste face à des machines excellentes pour reproduire, mais très mauvaises pour innover

Ce que montre le documentaire est que, dans beaucoup de cas, les systèmes automatiques, financés à grands coups de démonstrations clinquantes, sont très loin d’être capables de ce que leurs promoteurs prétendent. Il cite un dicton qui a, semble-t-il, cours dans la Silicon Valley : « fake it, until you make it ». C’est à dire : fait semblant d’y arriver jusqu’à ce que tu y arrives pour de bon. Si l’on veut convaincre des investisseurs, il faut faire semblant et être animé d’un optimisme inébranlable quant au fait qu’on va bientôt y arriver.

Les machines se limitent, encore, dans les faits, au champ de compétence où elles excellent : elles sont capables de répéter, très vite et à l’infini, ce qu’on leur a demandé de faire. Il est vrai que, dans nombre de domaines de la vie sociale, les situations se répètent avec très peu de variations. Et d’ailleurs, c’est quelque fois la conséquence du fait que l’on a voulu industrialiser une pratique. Une personne rentrant dans un fast food, s’attend à manger un hamburger absolument standard, absolument prévisible et semblable à tous ceux qu’elle a déjà mangés. La routine administrative se prête, elle aussi, assez bien à son transfert vers des interfaces informatiques : s’il s’agit d’enregistrer un formulaire rempli, une machine sera pratiquement toujours plus performante pour repérer les erreurs de saisie et alerter immédiatement celui qui remplit le formulaire.

Mais l’innovation, la capacité à reconsidérer une situation et à proposer une autre approche, la créativité ordinaire qui préside à nos relations quotidiennes (pour peu que nos conversations ne soient pas purement banales), sont, pour l’instant, hors de portée des machines. On a, bien sûr, tenté de faire écrire de la poésie à des programmes d’intelligence artificielle. On a tenté, également, de leur faire composer des œuvres d’art. Jusqu’à un certain point c’est possible. La production musicale, par exemple, est tellement formatée qu’il me paraît envisageable qu’une machine compose un tube. Faire un dessin ou une peinture jugés « jolis » par un grand nombre de personnes n’est sans doute pas non plus hors de portée. Mais l’art c’est autre chose. Cela correspond à un questionnement existentiel et, d’ailleurs, il est rare que les œuvres considérées comme les plus fortes soient agréables à regarder. De même une poésie qui ne serait qu’une manière de jongler avec les mots, plus ou moins au hasard, n’aurait guère d’intérêt, sauf si le lecteur s’avisait de lui attribuer un sens. Mais dans ce cas c’est le lecteur qui ferait l’œuvre.

On en reste, finalement, à l’opposition fondamentale soulignée, autrefois par Georges Canguilhem, entre le fonctionnement d’une machine et les processus du vivant. Canguilhem n’a cessé de lutter, dans son œuvre, contre la vision, proposée par Descartes, de l’animal comme une machine. C’est l’objet, notamment, dans son essai « machine et organisme » que je lis et relis toujours avec le même intérêt.  « La vie, écrit-il par exemple, est expérience, c’est-à-dire improvisation, utilisation des occurrences ; elle est tentative dans tous les sens. » Ce qui fait, pour nous, le sel de l’existence est le point même où nous sommes infiniment plus compétents que des machines.

Et Canguilhem, qui a écrit ses travaux à l’époque du taylorisme triomphant dans l’industrie, se posait la question non pas de savoir jusqu’à quel point une machine serait capable d’aller, mais jusqu’à quel point on la laisserait nous asservir.

Est-ce nous qui allons rendre les machines intelligentes ou bien est-ce que ce sont les machines qui vont nous rendre idiots ?

C’est la question que pose le documentaire, vers sa fin. En fait, de par leurs limites mêmes, les machines nous rendent idiots si nous sommes obligés d’en passer par elles pour agir.

D’abord les situations de travail où les algorithmes dictent leur loi se multiplient. Dans les call-centers les téléphonistes doivent s’en tenir à des scripts et suivre les consignes de l’interface informatique, au fil de l’entretien. Chacun de nous a eu l’occasion de mesurer à quel point l’interaction que l’on peut avoir avec une personne ainsi contrainte s’éloigne de ce qu’on attend d’une conversation !

L’automatisation reste, encore souvent, une stratégie rentable, même si, ce faisant, on dégrade le service rendu.

Cela ne nous rend pas forcément idiots, mais cela génère chez nous beaucoup d’inconfort et d’insatisfaction. Et, comme l’écrivait Georges Canguilhem, à propos du travail contraint par une machine : « Les réactions ouvrières à l’extension progressive de la rationalisation taylorienne, en révélant la résistance du travailleur aux mesures qui lui sont imposées du dehors, doivent être comprises autant comme des réactions de défense biologique que comme des réactions de défense sociale et dans les deux cas comme des réactions de santé. »

Et le fin mot de l’affaire (que le documentaire évoque, d’ailleurs) c’est que nous ne sommes pas simplement intelligents. Nous sommes des personnes de chair et de sang, qui ressentent, qui aiment et qui souffrent et qui, entre autres choses, sont plus ou moins intelligentes. Dans le Sermon sur la Montagne Jésus disait : « la vie est plus que la nourriture et le corps plus que le vêtement » (Mt 6.25). Assurément, la vie est plus que l’intelligence et spécialement plus qu’une intelligence dont le but essentiel est d’être rentable économiquement.

Pourquoi nous laissons-nous envahir par les messages multiples qui nous sont adressés ?

J’ai reçu, la semaine dernière, un mail provenant d’une salariée d’une association dans laquelle je suis actif. En dessous de la signature de l’auteure de ce mail, il y avait cette mention : « cette adresse mail suit mes principes d’hygiène de connexion  Elle est relevée 2 fois par jour du lundi au vendredi. Dernière réponse quotidienne à 17H. » J’ai trouvé la démarche intéressante et cela m’a rappelé un souvenir. En 2013, alors que j’étais encore en activité, je suis allé marcher trois mois sur le chemin de Saint-Jacques. Quand je suis revenu, j’ai reprogrammé ma boîte mail pour ne recevoir les notifications qu’une fois par heure. Je suis allé moins loin, dans la radicalité, que l’auteure du mail que j’ai reçu. Mais j’en ai retiré énormément de bénéfices. Je me suis rendu compte, rétrospectivement, que j’étais colonisé par les mails qui tombaient, par moment, comme des fruits mûrs, dans ma boîte mail. J’ai également évité, sauf situation plutôt rare (lorsqu’un problème nécessitait une mobilisation particulière et urgente), de regarder mes mails professionnels chez moi. J’ai mieux dissocié mon adresse personnelle et mon adresse professionnelle. Toutes ces démarches ont considérablement amélioré ma santé mentale et, indirectement, mon efficacité.

Je pense que j’ai été particulièrement sensible à cette modification, car elle correspond à un trait de ma psychologie : j’ai besoin, à intervalles réguliers, de prendre du recul et de me ressourcer de manière plutôt solitaire. Quand j’ai passé une journée en réunion(s) j’ai juste envie de me retrouver seul pour reprendre mon souffle. Ce trait de personnalité est assez répandu, je l’ai appris par la suite, mais il ne concerne pas tout le monde non plus. Mais puisqu’il s’agit de quelque chose qui est en moi, je me suis rendu compte que ce que je pouvais offrir de meilleur aux autres provenait de ces allers et retours entre moments sociaux et moments d’isolement. J’ai fait carrière (je dis cela avec un brin d’humour) dans la prise de recul et le regard décalé.

Or, pour ce qui concerne la manière dont je me suis laissé happer par le flux des mails, j’étais parti dans la direction inverse : réagir à plat et de manière instantanée aux stimulations que je recevais, sans faire d’effort, à intervalles réguliers, par le biais de ma boîte mail. Pour ce qui concerne les autres réseaux sociaux, ils étaient peu utilisés, dans mon travail, en 2013. Et, du coup, je n’ai jamais embrayé sur Tweeter ou sur Facebook ou sur les autres plateformes qui se sont créées ensuite.

Mais cela m’a interrogé : pourquoi me suis-je laissé embarquer dans une situation pareille ?

Être sollicité c’est flatteur

La réponse, finalement, est assez simple : j’étais flatté d’être sollicité. Cela me donnait l’impression d’avoir de l’importance, d’être « dans le coup », d’avoir mon mot à dire. Et, au bout d’un moment, je suis devenu dépendant de ces petits signes qui me montraient que les autres comptaient sur moi et, donc, que je comptais aux yeux des autres.

Lorsque j’ai coupé ce robinet à « petits signes » en 2013, je me suis rendu compte du nombre d’échanges dans lequel il est possible d’être pris, pratiquement en temps réel et je me suis également rendu compte, par ricochet, de l’importance que prend, dans la vie sociale, l’opinion, la présence et les réactions de nos réseaux sociaux avec toutes leurs ramifications. Être considéré, regardé, ou consulté peut devenir quasiment un travail à plein temps. Mais cela nous fait perdre le fil des projets auxquels nous nous consacrons et nous stérilise plutôt qu’autre chose.

Du regard des autres au regard de Dieu

Je pense que tout un chacun, croyant ou non, peut se rendre compte de cette dérive et s’en prémunir.
Pour ma part, cela m’a fait réfléchir à l’importance du regard de Dieu. Il est frappant de voir, dans pratiquement tous les épisodes des différents récits bibliques, que Dieu cherche à entrer en contact avec les hommes et qu’il les regarde, qu’ils le veuillent ou non. Adam et Eve se cachent, après la chute, et Dieu va à leur recherche. Lorsque le peuple d’Israël est réduit à l’esclavage, en Égypte, Dieu s’adresse à Moïse en disant : « j’ai vu la misère de mon peuple » (Ex 3.7). Alors qu’Israël est en train d’être déporté à Babylone, Ezéchiel raconte l’histoire du peuple d’une manière figurée. Il imagine le peuple comme un enfant, une fille, qui a été abandonnée. Et Dieu passe sur la route : « Passant près de toi, je t’ai vue te débattre dans ton sang ; je t’ai dit, alors que tu étais dans ton sang : Vis ! » (Ez 16.6). Au début de l’évangile de Jean, Jésus rencontre Nathanaël qui se méfie de lui. Il lui déclare : « alors que tu étais sous le figuier, je t’ai vu » (Jn 1.48). Et cela vaut également pour des personnes moins favorables au Christ. Celui qu’on appelle « le jeune homme riche » vient questionner Jésus. Et, nous dit-on, « Jésus l’ayant regardé, l’aima » (Mc 10.21). J’arrête-là mon florilège : Dieu voit, Dieu entend, Dieu considère le juste comme l’injuste et « fait lever son soleil sur les méchants comme sur les bons » (Mt 5.45) .

Il y a quelque chose d’inconditionnel dans ce regard de Dieu et je me rends compte que cela me fournit un socle et une assurance qui me rendent moins dépendant du regard des autres. Je retranscris ici ce que j’ai écrit, précisément, en 2013, après être revenu de ma longue marche sur le chemin de Saint-Jacques où j’ai pris conscience, d’une manière particulière, du regard et de l’attention de Dieu à mon égard, comme à l’égard de tout homme : « Tout cela fait de moi quelqu’un de plus libre. Je ne dirais pas que je suis devenu plus facile à vivre. Ce n’est sans doute pas vrai. Les autres n’apprécient pas toujours notre liberté et le fait que je me sente moins dépendant d’eux, moins en attente de la nourriture illusoire qu’ils peuvent nous donner à manger, me rend certainement moins maniable. [… Mais] à trop céder à la pression des autres, je cours le risque de ne pas leur donner ce qu’ils ne demandent certes pas, à court terme, mais dont ils ont besoin, en fait. »

Et je repense souvent à cette transition que j’ai vécue, cette année-là, et à la manière dont elle a transformé ma manière d’utiliser les outils modernes de communication.

J’ai, par la suite, rencontré plusieurs personnes qui étaient complètement happées par la quête sans fin du regard et de l’approbation des autres : des personnes, on l’imagine, fragilisées et souvent en souffrance. Ce que l’on fait avec nos mails, nos SMS, nos messages WhatsApp et nos réseaux sociaux en général, peut nous entraîner loin, très loin, du centre de nous-mêmes et nous aliéner gravement.
Parler « d’hygiène » comme le faisait l’auteure du mail que j’ai reçu, ne me semble pas être un mot trop fort.

Ce qu’on fait faire aux algorithmes

Une ancienne salariée de Facebook, Frances Haugen, qui a quitté l’entreprise du fait de son désaccord avec sa politique de hiérarchisation et de mise en valeur des contenus, a fait grand bruit, la semaine dernière, en témoignant devant le congrès américain contre son ancien employeur. Mais ce qu’elle révèle est, somme toute, banal : Facebook met en valeur les messages qui suscitent les réactions émotionnelles les plus fortes.

Les journaux, qui relaient avec gourmandise les ennuis de Facebook, devraient un peu réfléchir qu’ils pratiquent des stratégies relativement analogues. Cela date même de bien avant l’apparition d’Internet : les titres à sensation sur la une des journaux sont un classique de la profession. Aujourd’hui, tout organe de presse qui surveille le nombre de clics engendrés par un article donné aura, inévitablement, tendance à multiplier les sujets qui génèrent les débats enfiévrés. Il me suffit, pour mon compte, de regarder le trafic que je génère avec mon blog : dès que j’aborde un sujet qui échauffe les esprits, le nombre de lecteurs est multiplié par deux.

Les faux mystères des algorithmes

Frances Haugen documente précisément le rôle des algorithmes de Facebook. Ils analysent les réactions à une publication donnée et toute expression de colère (par exemple) fait remonter la publication dans le classement. Avant 2018, les fils d’actualité étaient surtout chronologiques. Depuis cette date, les contenus suivent un indicateur appelé « engagement based ranking ». L’engagement en question n’a rien de militant, il se limite à une réaction émotionnelle marquée (et éventuellement éphémère). Le réseau social favorise donc la circulation de contenus, non pas sur la base de leur documentation plus ou moins poussée, mais, simplement, sur la base de l’intensité des échanges qu’ils provoquent. En fait d’algorithme c’est simplissime !

En revanche, ce que dit Frances Haugen et qui est plus grave, c’est que les tentatives pour analyser de plus près les contenus haineux, ont donné lieu à des investissements de faible envergure. Elle même avait, au départ, rejoint l’entreprise pour travailler sur ce sujet, et elle l’a quittée, découragée par l’importance réellement donnée à ce défi. Il est, certes, plus difficile de repérer ces contenus en utilisant l’intelligence artificielle. Mais entre des algorithmes qui ne font que mesurer le buzz et un investissement sur le repérage des contenus haineux insuffisant, le résultat est prévisible.

Mark Zuckerberg se défend mollement, avec son discours technocratique coulé dans le marbre : « L’argument selon lequel nous mettons délibérément en avant du contenu qui rend les gens en colère, pour des profits, est complètement illogique. Nous faisons de l’argent avec les publicités, et les annonceurs nous disent sans arrêt qu’ils ne veulent pas leurs publicités au côté de contenus nuisibles ou véhéments. Et je ne connais aucune compagnie technologique qui se fixe de développer des produits rendant les gens en colère ou déprimés. » Mais tout est dans le « délibérément ». Facebook vend ses chiffres de trafic et l’effet indirect d’une politique axée sur le trafic est de chauffer les émotions à blanc.

Quand les algorithmes font le sale boulot

Quelques jours auparavant, un rapport sénatorial sur le développement des plateformes informatiques de service (chauffeurs uber, livraisons de repas, etc.) a lui aussi pointé le rôle que l’on fait jouer aux algorithmes. L’exemple le plus parlant est celui de la livraison de repas. Les livreurs, en fait, sont payés à la course et ils n’ont aucune garantie, quand ils se déclarent disponibles (pour beaucoup c’est une activité à temps partiel), d’avoir des livraisons à effectuer. Leur temps d’attente entre deux courses n’est pas rémunéré. Quand un client passe une commande, un algorithme affecte cette commande à un livreur (qui peut la refuser, auquel cas l’algorithme la propose à un autre livreur). Le temps est un paramètre décisif (et les plateformes en font un argument commercial). Il y a donc des paramètres aisément compréhensibles : le logiciel optimise la distance entre le domicile du client, le restaurant qui produit le repas et la localisation du livreur. Il peut même prendre en compte l’état de la circulation. Mais il y a d’autres critères plus obscurs. Les livraisons et les livreurs sont notés par les clients. Le logiciel va donc favoriser un livreur bien noté. Un livreur qui prendra tous les risques, sur son deux roues, pour aller,le plus vite possible, au restaurant et, ensuite, au point de livraison, sera, a priori, avantagé et ce, d’autant plus que son déplacement est suivi, en temps réel, par le système informatique (le rapport du Sénat, pointe, d’ailleurs, l’accidentologie élevée de ces situations de travail). Et qui sait ce qu’évalue le client ? On ne peut exclure des critères discriminatoires dans l’évaluation d’au moins une partie d’entre eux. En bref, l’algorithme rempli les fonctions d’un garde-chiourme et d’un contremaître d’autant plus brutal qu’il laisse planer le doute sur les ressorts de sa décision.

Alors même que, dans la plupart des cas, les livreurs ne sont pas salariés, ils sont soumis à un contrôle de leur travail que peu de salariés accepteraient. Mais tout cela est noyé dans les mystères d’un calcul algorithmique que peu d’entreprises consentent à dévoiler.

Les algorithmes ont bon dos

Dans les deux cas, il est évident que ceux qui manient, à leur profit, les algorithmes n’ignorent pas grand chose des conséquences de leur usage. On retrouve, à cette occasion, une configuration qui a été souvent mise en évidence par la sociologie du travail : l’outil technique sert à faire passer un mode d’action qui, s’il était mis en œuvre directement, soulèverait des résistances bien plus fortes.

Mais ne nous lavons pas les mains trop vite, car qui sont les consommateurs des fils d’actualité de Facebook, des sites Internet des journaux et des livraisons à domicile ? Faisons attention à la manière dont nous cliquons. Nous pouvons faire pression. Le rapport sénatorial n’a pas voulu prendre parti sur la requalification comme salariés des travailleurs des plateformes (ce qui a été fait dans d’autres pays). Ce que les élus de gauche regrettent. Et ils ajoutent un commentaire suggestif : « nous aurions souhaité qu’un certain nombre de plateformes qui développent des modèles alternatifs et/ou qui agissent dans d’autres secteurs soient entendues. Par exemple Just Eat, ou encore la plateforme Gorillas qui n’a pas recours à des autoentrepreneurs mais bien à des salariés, pour la plupart en CDI à temps plein, dans ses magasins et prend l’ubérisation comme contre-modèle convaincu de l’enjeu éthique et de la pression des consommateurs, du moins d’une partie grandissante d’entre eux » (p. 151 du rapport).

Et pour ce qui est de notre influence sur les contenus d’information, nous pouvons commencer par ne pas cliquer sur les articles aux titres les plus anxiogènes ou les plus racoleurs.

Attention, en tout cas, aux médiations techniques qui nous font perdre de vue ce que nous faisons faire à d’autres personnes. Pour les uns l’appareillage technique simplifie la vie, pour les autres, il la leur rend plus compliquée et plus douloureuse.

Bienvenue dans le monde merveilleux des robots !

Plusieurs personnes me l’ont signalé : il est impossible de relayer mes posts sur Facebook. L’interface leur répond que le contenu est inapproprié !??? Naturellement j’ai fait plusieurs tentatives pour joindre Facebook et demander quel était le problème. A chaque fois un robot me répond que ma demande a bien été prise en compte et me remercie pour ma démarche. Mais je n’ai jamais reçu de réponse.

Pendant ce temps, WordPress, qui héberge ce blog, m’envoie des mails tout aussi robotisés et tout aussi remplis de formules de politesse pour me proposer des services. Il vient de me renvoyer un mail enthousiaste pour m’informer que mon abonnement (payant) va être renouvelé. Comme j’ai regardé sur les forums et que d’autres ont le même problème que moi, certains pensant que c’est la manière dont l’adresse des posts est formulée par WordPress qui pose problème, je leur ai soumis mon problème. J’ai reçu, une nouvelle fois, une réponse d’un robot qui me dit que le problème est chez moi et qui m’invite à parcourir les « normes de la communauté » de Facebook. Je les parcours et ne vois vraiment pas où il y a un problème. Et comme Facebook ne me dit pas non plus où est le problème, c’est assez kafkaïen. Du coup j’écris un nouveau mail à WordPress en leur disant de faire un effort. J’obtiens une nouvelle réponse où, là, il semble qu’une personne ait pris la plume. Mais son intervention se borne à me transmettre un tutoriel sur l’art et la manière de débloquer un site pour que Facebook accepte de le relayer.

J’apprends qu’il y a 4 raisons possibles pour lesquelles mon blog a pu être bloqué : 1 Vous avez enfreint les normes de la communauté de Facebook 2 L’algorithme de Facebook a fait une erreur 3 Votre site a été infecté par des logiciels malveillants 4 Un autre compte vous a signalé. Mais je n’ai toujours aucun moyen de savoir, finalement, quel est le problème. On me renvoie vers un onglet « qualité de la page » mais qui ne sert qu’à évaluer les pages Facebook.

Bref je suis dans une impasse.

Tout cela n’est pas de la censure, c’est juste un bug, quelque part dans le réseau et dans les ordinateurs d’un gestionnaire de réseaux sociaux. Et ce gestionnaire n’a, semble-t-il, pas d’intérêt à essayer de m’aider à régler mon problème.

J’avoue que ça me donne à penser. Que pourrait-il se passer, à l’avenir, si de plus en plus de nos pratiques étaient gérées par des interfaces robotisées ? Eh bien, si l’un de nous tombe dans un trou structurel où personne n’a envie de venir le repêcher, bonne chance ! Oui, ça fait réfléchir !

Une nouvelle occasion de s’interroger sur l’usage de la recherche en France : les mésaventures de Sanofi

Sanofi a décidé d’arrêter son projet le plus avancé de vaccin contre la COVID-19 : il n’était pas assez efficace. L’événement a fait quelque bruit en France ; c’est un raté qui fait tache, et il a donné lieu à quelques hyperboles dans la presse. L’évocation de la France « pays de Pasteur » est répété comme un cliché, comme si un événement vieux de plus de cent ans devait mécaniquement continuer à porter du fruit, dans un contexte international bien différent de l’époque.
Le premier commentaire qui s’impose, est qu’il faut quand même ramener cela à de justes proportions : c’est en partie la faute à « pas de chance ». C’est le propre de la recherche de tenter, au risque d’échouer. Sanofi a suivi une piste qui s’est terminée dans une impasse. Il n’est pas le seul.
Autre commentaire : les Français semblent toujours tomber des nues quand ils découvrent qu’ils ne sont pas les meilleurs. Mais quand on représente moins de 1% de la population mondiale, il faut garder le sens de la mesure : logiquement, 99% des bonnes idées viennent d’ailleurs.
Enfin, la France reste un pays riche et privilégié : avec moins de 1% de la population, son PIB représente plus de 3% du PIB mondial.
Voilà pour ne pas aller trop loin dans la déploration.
Donc, mon propos n’est pas de déplorer, mais d’analyser.

Cette péripétie met en évidence des points durs qui ne sont propres ni à cette entreprise, ni au secteur de la pharmacie

Pour ce qui est d’analyser, le Conseil d’Analyse Economique a rédigé une note de synthèse assez suggestive quant au fonctionnement de l’innovation dans le secteur de la pharmacie. Je dois préciser que j’ignore à peu près tout de ce domaine de recherche. Je vais donc, dans un premier temps, ne faire que restituer les remarques qui m’ont le plus frappé, dans ce rapport.

D’abord, il y a quelques constats assez massifs : depuis 10 ans, les fonds publics pour la Recherche et Développement, dans le domaine de la santé, ont diminué de 28 % en France, pendant qu’ils augmentaient de 11 % en Allemagne et de de 16 % au Royaume-Uni (pays pourtant peu connu pour son soutien public à la recherche). C’est le genre de choix stratégique qui ne produit pas d’effet à court terme, mais qui, inévitablement, finit par provoquer des conséquences à moyen terme. Incidemment, le rapport rappelle que les chercheurs français sont mal payés en début de carrière (un tiers de moins que la moyenne des pays de l’OCDE). Alors que la mobilité internationale est bien plus facile aujourd’hui qu’hier, pour les jeunes chercheurs, c’est là aussi une pratique qui finit par avoir des conséquences.

Mais le rapport pointe une faille plus subtile qui n’a pas seulement trait aux volumes de financement. En fait, l’innovation en pharmacie se situe de plus en plus à la frontière de grandes entreprises et de petites start-ups. Chacune a un savoir-faire différent. Pour donner un exemple : BioNTech est une entreprise créée en 2008, qui emploie un millier de salariés (avec cette taille, c’est, d’ailleurs, déjà, plus une fédération de start-ups, qu’une start-up isolée), tandis que Pfizer est une entreprise créée en 1849 et qui emploie 80.000 personnes. Ce type d’alliance provient du fait que la recherche développement est, d’un côté, de plus en plus chère avant de parvenir à un produit commercialisable, elle est donc de plus en plus risquée ; mais, d’un autre côté, les idées de rupture font de plus en plus la différence. Les start-up sont donc des mines à idée, à condition qu’elles bénéficient d’un financement adapté pour couvrir les risques qu’elles courent. Séparer la logique financière des grandes entreprises et celle des start-ups est donc un moyen d’incorporer les nouvelles contraintes de la recherche-développement.

Alors, où est la faille dont je parle ? La France n’est pas dépourvue d’incubateurs pour soutenir le lancement de nouvelles start-ups médicales. Là où notre pays est défaillant c’est sur la suite de la phase d’incubation : entre les premiers pas de l’exploration autour d’une idée et son industrialisation. Je cite un passage du rapport :
« Une difficulté dans la phase de R&D des start‐ups réside dans le financement. Si celles‐ci font appel au capital risque pour financer leur développement, elles ne font généralement pas de profit et leur survie dépend de la rapidité avec laquelle elles vont pouvoir se développer. Sachant que l’activité de recherche nécessite des financements importants sur une longue période (entre cinq et dix ans), garantir des financements pérennes sur une telle durée n’est pas toujours aisé. Le financement public de la phase d’amorçage en France est très important et efficace, qu’il vienne de l’État, des collectivités locales ou de la Banque publique d’investissement (Bpifrance). […] En revanche, les financements sont chroniquement insuffisants sur la durée de vie des start‐ups et rendent la croissance des entreprises difficiles ».

Si on parle d’investissement de long terme, on découvre, en effet, que des fonds nationaux bien organisés structurent le capital des start-ups médicales aux Etats-Unis, ce qui n’est pas le cas en France, comme le montre le graphique ci-dessous :

C’est, on le voit, dans la phase du long développement d’une idée jusqu’à son éventuelle commercialisation que la France est défaillante.

Tous ces commentaires peuvent paraître passablement techniques, mais il me semble qu’ils désignent bien une difficulté de positionnement de la recherche et des chercheurs, en France, et pas seulement dans le domaine médical.

La caricature du chercheur, professeur Tournesol ou professeur Nimbus, a la vie dure

J’ai eu longuement l’occasion d’observer que les entreprises françaises se méfient des chercheurs (qui, souvent, le leur rendent bien !). Même dans les entreprises privées, il y a un clivage entre les chercheurs et les gestionnaires. Dans les domaines qui sont concernés par les grandes écoles d’ingénieur (ce qui n’est pas le cas de la médecine), cela rejoint le clivage universités / grandes écoles. On peut tourner autour de la question de plusieurs côtés, cela converge vers un constat d’ensemble : on compte éventuellement sur un chercheur pour avoir une idée venue d’ailleurs, mais la caricature qui fait du chercheur une personne distraite et peu au fait des contingences matérielles a la vie dure. A l’inverse, des personnes formées au management et à la gestion d’un processus standard sont mal outillées pour développer une idée encore inaboutie ou, tout du moins, elles le croient. J’avais eu l’occasion d’enquêter auprès d’incubateurs divers, à une époque, et ils m’avaient tous souligné le caractère critique de cette phase intermédiaire.

En Allemagne, par contraste, le doctorat est considéré comme une formation de base standard. Un grand nombre de cadres dirigeants ont un doctorat. En Suisse, autre exemple, les universités technologiques comme les Ecoles Polytechniques Fédérales de Lausanne ou de Zurich sont à la fois à la pointe de la recherche et du dépôt de brevets. Il y a une transition fluide entre recherche fondamentale, développement de start-ups, accompagnement sur le long terme et partenariats avec des entreprises. Cela renvoie à des populations variées qui communiquent entre elles. A l’inverse, le clivage français devient problématique, précisément dans cette zone intermédiaire qui est autre chose que l’émergence d’une idée, mais qui n’est pas encore quelque chose de tout à fait opérationnel. C’est là qu’il y a un espace social peu légitime, car il concerne, potentiellement, des personnes aux compétences mal identifiées qui peuvent mobiliser leur imagination pour peaufiner une idée, voir comment la faire évoluer en fonction des contraintes et des attentes. C’est assurément un défi tout à fait motivant, mais que peu d’institutions publiques ou privées, en France, sont prêtes à soutenir. En tout cas, pour avoir siégé au conseil scientifique d’une structure de ce type, je peux témoigner que, de tous côtés, ces structures engendrent le soupçon et peinent à trouver leur place.

Un clivage social finit toujours par engendrer des tensions et des limites collectives

Sortons du cas particulier de la recherche, pour dire qu’un clivage social finit toujours par émerger au grand jour. On le voit souvent, ces dernières années, au travers d’événements assez brutaux comme le mouvement des gilets jaunes et les tentatives pour le réprimer. On le voit, également, au travers des dialogues de sourds qui se croisent, sans jamais se rencontrer, sur les réseaux sociaux. Le clivage entre conception et exécution, autre exemple, est un classique de la sociologie du travail et on peut dire qu’il résume l’essentiel des conflits du travail.

Cela dit, on est plus habitué à observer des clivages qui ont trait à une forme de hiérarchie : les coupures entre ceux qui occupent le « haut » de l’espace social et ceux qui sont cantonnés en « bas ». Mais il existe également des coupures entre des formes de compétences différentes. Pour avoir tenté de pratiquer des dialogues, disons transfrontaliers, pendant une partie de ma carrière, je peux témoigner du fait que, pour un opérationnel, un chercheur se pose toujours trop de questions, et, qu’à l’inverse, pour un chercheur, un opérationnel ne s’en pose jamais assez. Mais il ne s’agit pas simplement d’une opposition entre des psychologies différentes. Cela correspond également à des institutions, des formes de financement, des valorisations économiques différentes. Il y a, sans doute, des raisons historiques au fait que ce type de coupure soit spécialement marqué en France : les différentes structures ont, pendant longtemps, dans notre pays, pu vivre leur vie indépendamment les unes des autres. C’est devenu plus problématique aujourd’hui. Bonne nouvelle ou mauvaise nouvelle ? Personnellement, je considère toujours comme une bonne nouvelle que des groupes sociaux séparés les uns des autres soient soudain obligés de coopérer.

Communiquer les uns avec les autres n’est pas seulement un acte optionnel de bienveillance, cela devient quelque fois une nécessité. En tout cas, si on va trop loin dans l’ignorance mutuelle, les tensions et les difficultés finissent par revenir vers nous comme un boomerang. Le rapport du Conseil d’Analyse Economique en donne un exemple, certes pointu et technique, mais qui fait réfléchir.

L’empreinte carbone du numérique, les surprises d’une évaluation enfin précise

On glose beaucoup sur l’empreinte carbone de l’usage d’Internet et des réseaux de communication. J’ai, par le passé, essayé de démêler ce qu’il en était exactement et j’ai eu la surprise de découvrir qu’il n’y avait aucune estimation un peu complète et précise du phénomène. D’article en article, on trouve des évaluations partielles et sommaires, des affirmations pas toujours solides et mal raccordées entre elles. On crie au loup, mais sans s’assurer de ce qu’on dit. Même les sites officiels ne donnaient que des bouts de calcul. C’est, en fait, le type d’attitude qui dessert, inévitablement, le but qu’on prétend suivre : si on veut rendre attentif aux conséquences de certains choix, il est contreproductif de tirer le signal d’alarme sans savoir exactement quelle est l’étendue de l’alarme. Les sceptiques ont, ensuite, beau jeu de dire que l’on s’affole pour rien.

L’étude remarquable du collectif GreenIT

En septembre 2019, enfin, le collectif GreenIT a fait paraître une étude transversale, qui précise le champ étudié ainsi que les éléments pris en compte et qui essaye de peser globalement la contribution des différents éléments de la chaîne du numérique. La méthode employée est celle du cycle de vie : on analyse l’ensemble de l’empreinte d’un équipement (puis d’une chaîne d’équipements connectés entre eux) tout au long de sa durée de vie, depuis sa construction, en passant par sa commercialisation et son usage, puis sa mise au rebut (ou son recyclage). Le périmètre de l’étude porte sur tous les systèmes qui se terminent par un équipement qui utilise des données numériques : ordinateurs, smartphones, imprimantes, consoles de jeu vidéo, télévisions connectées à une box, etc. Et elle inclut aussi bien l’usage des entreprises que celui des particuliers.

L’empreinte environnementale ne se limite pas à l’empreinte carbone. Plusieurs critères sont pris en compte. La consommation de métaux rares, par exemple, est un des enjeux. Le récent rapport de l’ARCEP (autorité de régulation du secteur du numérique) Pour un numérique soutenable a tenté une synthèse en pondérant les différents critères. Suivant que l’on regarde plutôt l’empreinte carbone ou plutôt la consommation des ressources les pourcentages respectifs ne sont pas exactement les mêmes. Mais les ordres de grandeur sont quand même assez semblables d’un critère à l’autre. Les différentes empreintes augmentent, au fil du temps. Là, rien de nouveau. La valeur de l’étude est plus de peser le poids respectif des divers éléments. Voilà ce que cela donne, en se concentrant sur tout ce qui transite par Internet (pour des résultats plus fins, on invite le lecteur à se reporter au rapport de GreenIT sur lequel s’appuie largement le rapport de l’ARCEP).

Champ: tout ce qui transite par Internet

Et là, surprise : on glose beaucoup sur la consommation des centres de données (les data centers, en anglais) et sur les flux vidéos, mais ce n’est pas là l’essentiel du problème. Ce qui se passe est que les centres de données ont fait des économies d’énergie considérables, ces dernières années et ont inventé des solutions de climatisation de leurs installations bien plus efficientes. En fait, le point dur est la multiplication et le renouvellement incessant des terminaux. Les écrans sont plus grands (et notamment les télévisions) consomment plus d’électricité pour fonctionner et plus de ressources (métaux et énergie) pour leur fabrication. Par ailleurs, les supports se diversifient sans cesse ; la dernière tendance à la mode sont les objets connectés. Au total, la consommation des équipements connectés (faible, équipement par équipement) est bien plus élevée que celle des datas centers et leur fabrication a une empreinte environnementale énorme. En général l’empreinte liée à la fabrication est plus importante que l’empreinte liée à l’usage. Comme le rappelle le rapport de l’ARCEP : « La production d’un téléphone mobile nécessite soixante métaux différents dont seulement une vingtaine sont recyclables et 32 kg de matière brute sont requis pour produire une puce électronique de 2 grammes ».

En clair, l’action la plus efficace que l’on peut avoir pour préserver l’environnement est de limiter le nombre d’interfaces que l’on utilise, de racheter moins souvent lesdits équipements et de limiter la taille des écrans (notamment de télévision). Voilà quelque chose qui est à la portée de chacun et qui montre l’entrelacement subtil des pratiques publicitaires des fabricants, de la course à la dernière nouveauté de la part des consommateurs et de l’obsolescence programmée. Quant à l’usage des équipements que l’on possède, il a certes un effet, mais de deuxième rang.

De la difficulté d’y voir clair

Ces considérations peuvent sembler passablement techniques, mais elles montrent la difficulté qu’il y a, aujourd’hui, à agir à bon escient et la facilité avec laquelle on peut se contenter de raisonnements partiels et d’affirmations approximatives. Qui dit vie instrumentée et technicisée, dit complication des critères de choix. Est-ce que des médiateurs ne peuvent pas nous déblayer le terrain et simplifier les questions ? Si, c’est précisément ce qu’a fait le collectif GreenIT. Mais cela montre aussi l’importance, pour tout un chacun, de faire pression sur les organes d’information pour qu’ils fassent mieux leur travail. Il est bien plus facile d’écrire un article avec un titre racoleur et d’enfiler quelques bribes de constats collectés à droite et à gauche que de creuser une question jusqu’à parvenir à une vision d’ensemble du problème.

On déplore, dans les milieux cultivés, la prolifération des fake news et des arguments populistes. D’accord. Pour ma part je suis las de lire des articles de presse bâclés qui, mis bout à bout, finissent par dire tout et son contraire et ne fournissent aucun repère pour que le lecteur de bonne volonté se fasse sa propre opinion. En l’espèce, d’ailleurs, je vous recommande de vous reporter vous-mêmes aux rapports que j’ai cités ici, plutôt que de vous limiter au résumé sommaire que j’en ai fait.

Il faut beaucoup de temps pour creuser une question, mais on peut aussi passer beaucoup de temps à sautiller de droite à gauche et à surfer sur des textes qui restent à la surface des choses.

Je défends là, sans doute, une conception plutôt exigeante de la vérité, mais cette « porte étroite », pour reprendre l’expression de l’évangile (Mt 7.13-14), est celle qui est porteuse de vie. Les larges avenues des affirmations hâtives, péremptoires et vite contredites ne nous mènent nulle part.

A quoi veut-on faire servir la recherche ?

J’ai passé toute ma vie professionnelle de chercheur à répondre à une question récurrente, dans les fêtes de famille et dans les réunions mondaines : à quoi sert ce que tu fais ? Ou, variante : tu es chercheur, mais est-ce que tu trouves ? J’ai souvent déconcerté mes questionneurs (qui étaient plutôt de mauvaise volonté, en général) en leur disant qu’il était assez facile de trouver et que, d’ailleurs, dans chacune des mes recherches j’avais trouvé quelque chose ! Je ne suis pas sûr, en revanche, qu’ils auraient été contents de savoir ce que j’avais trouvé. Les résultats des recherches ne font pas que des heureux.

Cela dit, j’ai quand même toujours admis que la question, même formulée de manière légèrement agressive, avait une certaine légitimité. Toute profession doit rendre compte de son utilité sociale. Et il y a souvent une tension entre ce qu’un financeur de la recherche attend et ce que le chercheur considère comme important et décisif. L’Etat m’a payé pendant toute ma carrière et est-ce que je l’ai servi de manière correcte ? C’est une question à laquelle il est difficile de répondre de manière claire, mais il vaut la peine de se la poser, malgré tout.

Une volonté de pilotage de la recherche par l’aval

Ces tensions (entre financeurs et chercheurs), qui sont aussi vives dans la recherche privée que dans la recherche publique, ont conduit les financeurs, depuis plusieurs années, à vouloir piloter la recherche de manière plus serrée, en liant les financements à des commandes précises. C’est ce qu’on appelle le pilotage par l’aval. C’est une reprise de pouvoir sur des chercheurs dont on considère que, livrés à eux-mêmes, ils se perdent dans des objectifs obscurs et peu valorisables.

L’évolution, depuis plusieurs années, est donc de financer de plus en plus de recherches, y compris les recherches publiques, par des appels d’offre. C’est ce que fait l’Europe depuis assez longtemps. C’est ce que fait également l’Etat français en dotant de moyens sans cesse croissants l’Agence Nationale de la Recherche, qui gère lesdits appels d’offre. La conséquence de ces évolutions est de créer une population de jeunes chercheurs qui vivent sur des contrats temporaires (financés par les appels d’offre) et qui n’obtiennent que tard (ou jamais) un poste fixe.

Le débat est sorti sur la place publique, ces derniers jours, avec le projet de Loi de Programmation de la Recherche. Il y a, dans ce projet de loi, un point qui concerne les postes statutaires : la revalorisation des salaires qui étaient scandaleusement bas (j’en parle d’autant plus librement que j’ai été un chercheur payé sur un statut très particulier et, pour le coup, très bien payé). Pour le reste, la dynamique pèse clairement du côté de la multiplication des postes temporaires : la loi crée des contrats un peu plus longs, mais toujours temporaires ; et elle prévoit d’augmenter les moyens de l’Agence Nationale de la Recherche, plutôt que de créer des postes stables. Tout cela est évidemment mal reçu par la communauté des chercheurs qui sont un peu las de voir des jeunes passer une énergie considérable à sauter de contrat en contrat, et pour certains d’entre eux, se décourager et renoncer à la recherche parce qu’ils sont dans des conditions trop précaires.

Le projet du gouvernement est assez clair : augmenter (un peu) les financements de la recherche, d’accord, mais à condition d’en retirer les bénéfices, en termes d’innovation et de valorisation économique, assez rapidement. Il y a, sous-jacent, une défiance à l’égard de chercheurs jugés incontrôlables, qui, forcément, passe mal.

En fait, je le répète, la volonté du gouvernement de piloter un peu plus par l’aval la recherche ne me choque pas. Mais cela soulève une question plus complexe : est-ce que cette manière de faire produit de la meilleure recherche, une recherche plus utile pour tout le monde ?

Le rêve technologique, sous-jacent au pilotage par l’aval, a ses propres limites

Le raisonnement sous-jacent à ce mode de pilotage est assez simple : nous avons besoin d’innovations dans des domaines identifiables et nous savons assez précisément sur quoi doivent porter les innovations, focalisons donc les efforts autour de ces points durs et l’économie, le développement durable, la qualité de la vie de tout un chacun suivra. Ce raisonnement a une plage de validité et je pense qu’il est correct de piloter une partie de la recherche de cette manière là.

Mais cette approche a aussi ses limites qui n’apparaissent pas à première vue. Par exemple : une des difficultés actuelles dans le développement durable est que les innovations disponibles ne sont pas du tout adoptées par les entreprises qui devraient les mettre en œuvre, les usagers qui pourraient en profiter et les administrations qui sont censées les promouvoir. Et cela résulte d’un raisonnement technologique trop fermé où l’on conçoit des innovations en se coupant des conditions de leur usage. A la fin, on convoque les sciences sociales pour rendre ces innovations plus « acceptables », mais il est bien trop tard. L’usager n’a que faire d’accepter une innovation que l’on a conçue sans lui demander si elle répondait à ses besoins, ou si elle s’insérait dans ses pratiques. On se lamente, alors, sur le côté borné des usagers, sur la résistance au changement des administrations ou sur le manque de hauteur de vue des entreprises ! Tout cela pour dire que, si pilotage il doit y avoir, il ne peut résulter que de concertations beaucoup plus larges, qui incorporent autre chose que la commande publique imaginée dans un cabinet ministériel.

Par ailleurs, pousse-t-on les jeunes chercheurs à faire du meilleur travail en les mettant sans arrêt sous pression, en les laissant dans l’incertitude par rapport à leur avenir et en les faisant naviguer d’un sujet à l’autre au gré des demandes ? A court terme c’est sans doute un calcul qui a sa pertinence : ponctuellement on obtient des résultats identifiables. A long terme, je suis convaincu du contraire. J’ai participé à plusieurs recherches financées par de gros appels d’offre, et employant des jeunes sur contrat. La vérité est que cela les pousse au conformisme et que cela coupe leur réflexion de fond. Or, la recherche est affaire d’innovations incrémentales, assurément, mais elle est aussi affaire de ruptures conceptuelles. Et les ruptures conceptuelles surgissent avec le temps. Elles donnent sans doute lieu à pas mal de gâchis : tous les chercheurs n’ont pas des idées venues d’ailleurs. Mais même si on est plus créatif lorsqu’on est jeune, je suis convaincu que les grandes idées mûrissent et deviennent vraiment pertinentes au bout d’un certain nombre d’années. Il faut donc supporter une partie incontrôlable du travail de recherche si on veut faire des bonds discontinus.

Enfin, la recherche est souvent mal vue parce que les chercheurs se posent trop de questions, sont trop critiques, sont un peu rêveurs et n’ont pas le sens des réalités. Mais ce recul critique est, lui aussi, très utile, dans le contexte actuel où le scepticisme et l’éclatement des lieux de débat, vont devenir des fléaux, si on n’est pas capable de leur donner sens et de leur faire une place officielle dans la société. Il faut pouvoir donner sens aux réserves, au scepticisme et à l’hostilité de pans entiers de la population et donc laisser de la place aux regards critiques.

En résumé, une vision par trop utilitariste de la recherche fait fausse route. Je ne suis pas idiot au point de dire qu’il n’y a jamais de recherches inutiles. Il y en a. Et il y en a même beaucoup. Il y a même beaucoup de ce qu’on appelle, par dérision, de la RANA : de la Recherche Appliquée Non Applicable ! Mais il y a aussi beaucoup d’innovations abouties et industrialisables qui ne trouvent pas leur emploi parce qu’on s’est posé, au départ, des questions trop étroites et trop pointues.

La valeur du non-conformisme

Je suis forcément sensible aux vertus du regard décalé, du fait que j’appartiens à un mouvement religieux qui fait une place centrale au non-conformisme. Ce non-conformisme est d’abord mis en œuvre pour des raisons de foi : on attache de la valeur à des pratiques et des manières de faire qui ne sont pas forcément valorisées dans l’ensemble de la société. Mais il faut constater qu’il finit, parfois, par servir à la société toute entière. Quand un groupe social est dans une impasse, il se tourne assez spontanément vers des groupes qui ont testé d’autres voies, d’autres modes de vie. Et l’innovation socio-technique doit beaucoup à des personnes qui ont fait de grands détours par rapport aux avenues toutes tracées.

En d’autres termes, un Etat a tout intérêt à avoir un budget « têtes de lards » et « non-conformistes ». Ils sont souvent plus utiles à la valorisation de la recherche qu’on ne l’imagine. L’originalité radicale peut se perdre dans les sables de l’utopie. Mais elle peut aussi embrayer de manière surprenante avec un contexte historique. Dans un langage sophistiqué on appelle cela le « modèle de la poubelle » (Cf. Michael D. Cohen, James G. March, Johan P. Olsen, « A Garbage Can Model of Organizational Choice », Administrative Science Quarterly, 17(1), 1972). L’idée de ce « modèle » est que le monde des « problèmes » et celui des « solutions » évoluent chacun de leur côté. Bien sûr, un problème pris au sérieux encourage à trouver une solution. Mais, dans la plupart des cas, les choses ne sont pas aussi linéaires. Les solutions existantes ne sont pas satisfaisantes. A l’inverse, certaines solutions imaginées par X, Y ou un groupe, n’ont jamais pu s’exprimer faute d’un contexte favorable. Et, soudain, le contexte change, une solution qui dormait devient intéressante pour faire face à un nouveau problème.

Voilà en gros l’idée. Tout cela pour dire qu’il est sans doute utile d’améliorer le dialogue entre demande sociale et recherche (et de l’améliorer d’une manière plus large qu’au travers d’appels d’offre qui filtrent fortement la demande sociale). Mais qu’à côté de ce dialogue, il y a place, aussi, pour faire vivre des approfondissements qui appellent du temps et de la sérénité. Tout rabattre sur le temps court et les fausses évidences de l’utilité à court terme est, en fait, stérilisant à long terme.

Humanité virtuelle = humanité diminuée

Les épisodes de confinement nous donnent l’occasion, inattendue, de nous faire une idée du rêve, qui circule dans les cercles transhumanistes et apparentés, d’une humanité dite « augmentée », affranchie des contraintes corporelles par des prothèses diverses, voire téléchargée sur des serveurs totalement virtuels. Eh bien, je le dis tout net : ça ne me fait pas envie !

Nous sommes déjà « augmentés »

Donnons quelques exemples :
– Le contexte, aujourd’hui, est que nous sommes devenus des virtuoses de zoom (et des applications qui y ressemblent). Je fais, plusieurs fois par semaine, des visioconférences, et je bascule, à l’occasion, en partage d’écran pour projeter un powerpoint. Cela permet d’aller beaucoup plus loin que ce qu’on pouvait faire, autrefois, par conférence téléphonique ou par visioconférence d’une salle à l’autre.
– Pendant le laps de temps où il était possible de se déplacer, nous avons cherché, mon épouse et moi, un nouveau logement dans une zone éloignée de notre domicile actuel et nous avons fait l’essentiel de nos recherches sur internet. Les transports étant mal commodes (masque tout le temps du voyage) et à limiter quand même, nous avons fait un tout petit nombre de déplacements sur place en ayant largement déblayé le terrain au préalable.
– Une de mes filles, mon gendre et ma petite-fille habitent, actuellement, en Colombie. Ils doivent zigzaguer entre les confinements français et les confinements colombiens pour traverser l’Atlantique. En attendant, nous communiquons par Skype.
– Dans notre vie d’église nous avons un groupe de prière par Whatsapp et nous organisons, régulièrement, des réunions virtuelles avec, dans certains cas, des post-it virtuels quand on veut favoriser les échanges et les prises de parole diverses.
– Je regarde des concerts en vidéo, au gré de mes envies, et je bénéficie d’une offre considérable.
Voilà, ainsi, quelques exemples de ce que nous expérimentons pendant les phases de confinement.

En bref, nous sommes, d’ores et déjà, des individus augmentés : nos yeux et nos oreilles captent des signaux lointains ; notre voix franchit les mers ; nos limites corporelles sont très largement abolies.
C’est clair, nous avons gagné beaucoup de possibilités. En revanche devoir mettre entre parenthèses une grande partie de notre corps, dans toutes ces occasions, n’est pas du tout un gain. Il est difficile de définir précisément ce que l’on perd, mais le fait d’être privés de la rencontre en chair et en os, nous fait toucher du doigt l’importance de la proximité entre des êtres de chair. Si certains rêvent de se télécharger sur un serveur informatique je ne les suis nullement dans un tel projet. Il faut dire que ces rêves sont largement nourris par des salariés ou des dirigeants des entreprises qui élaborent les nouvelles technologies. Il y a là un biais de perception classique : croire que ce que l’on fait dans son travail est une activité essentielle pour tout le monde !

Réparés et augmentés, ce n’est pas tout à fait la même chose

Bien sûr, le corps est une réalité ambiguë. Il nous impose des limites. Il nous fait souffrir, à l’occasion. A 65 ans j’ai des symptômes de vieillissement assez classiques. Et je suis content de pouvoir disposer de prothèses. J’ai, par exemple, une presbyacousie commençante et je suis content d’avoir des appareils auditifs qui me permettent de mieux dissocier les consonnes dans les conversations.
Mais, justement, la situation présente me fait mieux comprendre la différence entre des prothèses qui me permettent de continuer à mener une vie sociale ordinaire, sans trop de difficultés, et des appareillages qui me transformeraient en cyborg ou en surhomme, comme on voudra : bref quelque chose qui me projetterait hors de la corporéité. Les prothèses que je porte restent au service de mon corps présent. Je les mets et je les enlève au gré de mon désir. Je ne suis nullement annexé à une mécanique qui me dépasse. Et, dans mes interactions avec les autres, je reste au niveau d’une simple humanité, faillible et mortelle, qui non seulement me convient, mais a son charme. La mort ne me réjouit pas. Mais me savoir mortel me donne un certain rapport aux autres et au monde que je trouve essentiel et libérateur. J’échappe à la toute puissance qui est la porte ouverte à tous les délires.

Et incarnatus est

Mon corps colle à ma condition humaine et vivre sans mon corps correspond à une humanité, non pas augmentée, mais diminuée. C’est l’occasion de dire que l’attente de la résurrection n’est pas l’attente d’une vie extra-corporelle, mais l’attente d’un corps autre : « semé corruptible, on ressuscite incorruptible ; semé méprisable, on ressuscite dans la gloire ; semé dans la faiblesse, on ressuscite plein de force ; semé corps animal, on ressuscite corps spirituel. S’il y a un corps animal, il y a aussi un corps spirituel » (1 Cor 15.42-44). Je laisse chacun imaginer ce que peut être un corps spirituel, en tout cas, c’est un corps.

Et quand Dieu a voulu venir vers nous il n’a pas considéré notre enveloppe corporelle comme un problème. Il s’est incarné pour venir à notre rencontre. La plus belle célébration de cette incarnation se trouve, d’ailleurs, à mon avis, dans la grande messe en ut mineur de Mozart. Au sein du credo, un passage qui dure plus de 8 minutes, tourne autour de ces simples paroles : « il s’est incarné par le Saint-Esprit, du sein de la vierge Marie et il s’est fait homme ». En latin cela donne : « Et incarnatus est, de Spiritu Sancto, ex Maria Virgine. Et homo factus est ». Et deux tiers de l’air est composé de vocalises sur la voyelle « a » dans le mot « factus ». C’est quand le Christ se fait homme que Mozart se lance dans cette vocalise qui me donne des frissons. C’est au moment où le Christ nous rejoint dans notre corporéité qu’il nous invite à chanter et à nous laisser porter par cet air plein de sensualité.

Pour ceux qui ne connaîtraient pas cette page musicale sublime, je vous mets un lien vers une interprétation.

Le transhumanisme est une recherche de puissance parmi d’autres. Et comme toutes les recherches de puissance elle oublie de célébrer ce qui est là, ce qui nous est donné, ce qui est à portée de main et qui a une saveur incomparable.

Les interactions de corps à corps sont complexes et ne sont pas exemptes, elles non plus, de tentatives de prises de pouvoir ou de manipulations diverses. Mais, dans leur mystère, dans leurs limites mêmes, dans leurs contours difficiles à préciser, elles possèdent cette saveur incomparable qui ressort d’autant plus aujourd’hui que nous en sommes en partie privés.

Au reste, l’attente de Paul, il l’a dit plus tôt aux Corinthiens, dans la même épitre, n’est pas de rencontrer le Christ en tant que pur esprit, mais de le rencontrer face à face. Comme je le comprends !

La 5G et les Amish

La sortie d’Emmanuel Macron sur les Amish a, étonnamment, suscité pas mal de réactions. Difficile de savoir si la petite phrase était préparée d’avance où si elle lui est venue en direct. En tout cas, c’est intéressant de voir qu’un signifiant religieux est venu colorer ce débat sur l’implantation, ou non, d’une nouvelle technologie sur le sol français.
Un verbatim s’impose pour commencer : « La France va prendre le tournant de la 5G, parce que c’est le tournant de l’innovation. J’entends beaucoup de voix qui s’élèvent pour nous expliquer qu’il faudrait relever la complexité des problèmes contemporains en revenant à la lampe à huile ! Je ne crois pas au modèle Amish. Et, je ne crois pas que le modèle Amish permette de régler les défis de l’écologie contemporaine ».

Je me sens forcément concerné par cette sortie, car les Amish appartiennent à la mouvance Mennonite, à laquelle j’appartiens moi-même. Il en représentent, certes, une aile très particulière, mais je partage avec eux certaines convictions. A vrai dire, cela m’a plutôt retenu d’intervenir dans le débat, au départ. Ensuite, mon ami Francis Godard, m’a encouragé à dire quelque chose sur les enjeux de la 5G, donc je me suis décidé.

A propos des Amish

Commençons par les Amish. Plusieurs personnes ont souligné qu’ils n’étaient pas, par principe, hostiles à l’innovation technique, mais qu’ils cherchaient à en peser, collectivement, les effets sur la vie sociale, avant d’adopter ou non une technologie. On en ferait presque un modèle de démocratie technique ! Il ne faut pas non plus exagérer. Il s’agit d’une micro-société patriarcale bien plus que d’une démocratie. Et il est vrai qu’ils ont quand même un apriori négatif par rapport à toute innovation technique.

Cela dit, j’ai eu l’occasion de visiter (comme touriste religieux, si on veut) des communautés Amish aux Etats-Unis. Et il ne faut pas imaginer qu’ils vivent dans la misère et la frustration. Ce sont des gens plutôt bien dans leur peau, qui ne dédaignent pas le confort et qui vivent des tensions dans leur vie collective qui ne m’ont pas paru plus graves que celles que nous connaissons tous.

Au fond, ils me semblent porteurs d’une idée plutôt intéressante : ce n’est pas l’objet technique qu’il faut examiner en tant que tel, c’est le mode de vie dans lequel il s’insère qui importe, et la manière dont il va peser sur ce mode de vie (il faut, en effet, raisonner dans les deux sens : les modes de vie existants et les objets techniques qui s’y insèrent agissent réciproquement les uns sur les autres).

A propos de complexité

Pour revenir à l’intervention d’Emmanuel Macron, je suis d’accord que la question est relativement complexe. Mais, du coup, on ne peut pas user d’un argument aussi simpliste que de taxer ceux qui sont dubitatifs de tenants de la lampe à huile. Une fois de plus on retrouve, dans cette sortie, la caricature du discours technocratique : la question est complexe donc taisez-vous, vous n’y comprenez rien. C’est, assurément, un discours qui ne passe plus du tout la rampe aujourd’hui.

Je me suis demandé, cela dit, si on n’avait pas un peu surinterprété la sortie d’Emmanuel Macron, qu’il aurait fallu entendre sur le mode badin ou ironique. Mais la capture vidéo m’a révélé autre chose : un homme en colère et pas du tout en train de faire de l’humour. Ce qui signifie qu’il est, au fond, atteint par la remise en question qu’il affronte et qu’il ne trouve pas d’autre argument que : « c’est le tournant de l’innovation » et : on ne peut tout de même pas revenir à « la lampe à huile« . L’invocation des Amish laisse entendre qu’il y aurait en jeu une question de croyance. Et cela ne semble pas entièrement faux : croyance (presque aveugle) dans les vertus de l’innovation technologique, d’un côté, et doute de principe, de l’autre. Or la question de la croyance, à mes yeux, ne peut pas se limiter à la foi du charbonnier. Il faut en venir, pour le moins, à des convictions bien pesées. Et c’est ce que je vais essayer de faire.

Et si on creuse un peu, on s’aperçoit que la question de la 5G entraîne bien d’autres questions que celle d’une technologie ponctuelle. Elle interroge, en fait, les modes de vie urbains que nous voulons privilégier. Et donc le « modèle Amish », pour le coup, a quelque pertinence si on veut bien s’interroger un peu et ne pas céder par principe à l’adoption d’une nouvelle technologie pour être « moderne ».

Certains risques sont limités

Avant d’en venir à des considérations systémiques, mentionnons déjà certains des risques soulevés par les opposants de cette technologie. Certains de ces risques sont, a priori, assez faibles (ce qui ne veut pas dire qu’ils sont nuls). J’ai, naguère, assisté à une conférence de citoyens sur la question des antennes relais (j’ai assisté à une intervention qui précédait la mienne). Un expert en santé publique, assez équilibré dans ses propos, avait déjà souligné que s’il y avait un risque de santé publique lié aux ondes il serait beaucoup plus élevé à cause des téléphones (que l’on approche de son corps) que des antennes. Au jour d’aujourd’hui, les quelques risques mis en évidence sont extrêmement faibles, mais, avait déjà dit l’expert, un risque faible, à horizon de 10 ans, peut être fort à horizon de 30 ans. Il y a là des choses qu’on ne sait pas.

Le risque de captation des données par des tiers ne me semble pas non plus tellement plus accentué que lorsque l’on utilise une technologie comme le Wi-Fi, relativement peu sécurisée. Disons que si l’on porte attention à ce risque, il sera sans doute possible de s’en affranchir.

La question de l’empreinte carbone va beaucoup plus loin. Prises une par une, les antennes 5G seront moins gourmandes en énergie que les antennes des générations antérieures. Mais ce sont toutes les pratiques induites qu’il faut prendre en considération. Il est évident que cela va provoquer une augmentation des flux de données et un renouvellement du matériel de réception, toutes choses qui ont une empreinte carbone significative.

Et cette question de l’empreinte carbone nous renvoie vers la question des usages et donc vers les modes de vie urbains de demain.

La ville hyper-instrumentée : rêve, cauchemar ou fausse-piste ?

Si on lit les argumentaires des promoteurs de la 5G on y voit que l’usager lambda n’a pas grand chose à en attendre. Regarder des vidéos en plus haute définition en situation de mobilité n’a pas forcément beaucoup d’intérêt. Et le concept « d’internet des objets » ne me semble pas promettre beaucoup plus que des gadgets, pour l’homme de la rue (et sans doute pas nécessiter d’importants flux de données). Le besoin en flux de données plus efficaces est, aujourd’hui, surtout le fait des entreprises qui envisagent d’implémenter des innovations en utilisant bien plus de données mobiles qu’aujourd’hui.

Un premier champ est tout ce qui concerne le contrôle des process industriels. L’idée d’avoir des usines avec encore moins de présence humaine ne me semble pas forcément être une idée très intéressante. On est déjà allé très loin dans ce sens. Mais, surtout, je ne vois pas ce qu’une technologie mobile apporte, par rapport à une technologie filaire (avec une liaison par câble, par exemple).

Des remarques du même genre s’imposent pour tout ce qui concerne la médecine, voire la chirurgie à distance. Si on connecte deux sites, le fait que la technologie soit mobile n’apporte pas de bénéfice. Et on se dit, au passage, que la question des déserts médicaux reste presque entière, même si on arrive à faire bénéficier des structures rapprochées d’une expertise éloignée.

La 5G aura vraiment du sens si on l’implante dans des objets mobiles. Si elle sert à connecter des bâtiments l’intérêt est mince. On peut considérer comme plus simple, à la limite, la gestion d’un réseau de capteurs éparpillés sur un territoire et qui n’ont pas à se raccorder, un par un, à un réseau filaire. Alors cela débouche sur quoi ? L’aide à la conduite ? Peut-être, mais le partage d’informations en temps réel est déjà bien avancé. L’avancée sera plus évidente avec les véhicules autonomes qui auront, en effet, besoin d’énormément d’informations en temps réel. Sinon il y a tout ce qu’on appelle la « ville intelligente » où l’on essaye de rassembler des informations en temps réel sur ce qui se passe sur un territoire donné.

Tout cela vaut-il la peine ? Je donne ici la perception de quelqu’un qui a suivi d’assez près des projets d’innovation sur la ville intelligente, sans en être un spécialiste. Ma perception, donc, est que, dans ce domaine, on fait souvent fausse route quant à l’essentiel. On peut, par exemple, mesurer en temps réel la pollution dans une agglomération. Cela donne une connaissance plus fine que ce que des modèles peuvent produire. Mais l’essentiel est ailleurs : diminuer le taux de pollution. Et sur ce plan, affiner la connaissance ne sert pas à grand chose : on connaît les sources de pollution et on sait comment agir dessus. Le point dur est d’imaginer une organisation urbaine qui soit moins dépendante des transports. Certains imaginent (autre exemple) pouvoir instrumenter encore plus finement l’activité agricole. Mais les technologies de proximité, dans le domaine de l’entretien des sols et de leur préservation, semblent beaucoup plus prometteuses qu’un surcroît d’informations déversées par un algorithme. Les usagers des transports en commun (dernier exemple) pourraient accéder à des données plus fiables sur la situation en temps réel des autobus, si les capteurs GPS étaient mieux maintenus et les systèmes d’information suivis au jour le jour : là aussi c’est plus une question d’organisation de la maintenance que de saut technologique qui est en jeu.

Reste le véhicule autonome. Est-ce un rêve ou un cauchemar ? A priori cela semble bien de pouvoir disposer de moyens de transport souples et accessibles à chacun. Mais la question de l’occupation de l’espace se posera de toute manière. Et il reste donc décisif que la « marchabilité » de la ville soit accrue, sinon on sera simplement devenus dépendants d’un système de mobilité relativement énergivore (moins qu’une voiture individuelle, mais plus qu’un transport en commun) surtout si plus de personnes qu’aujourd’hui l’utilisent.

En résumé, avons-nous besoin de la 5G ? Tout dépend du but que l’on se fixe.

Le miroir technique aux alouettes

C’est certainement plus enivrant de penser à une nouvelle technologie que de s’affronter à des problèmes complexes d’organisation urbaine, de rapports sociaux tendus, de jeux d’intérêts contradictoires. Et c’est sans doute aussi pour cela que la critique d’une option technique est particulièrement désagréable pour des acteurs qui espèrent contourner les enjeux sociaux en déplaçant les limites techniques.

Il faut bien voir que toutes les entreprises qui sont actives sur le marché de l’informatique, de la téléphonie et des capteurs électroniques ont intérêt à faire croire qu’elles disposent de solutions miracles. Je ne suis pas hostile à l’innovation technique. Mais je pense qu’il y a d’autres domaines où des personnes innovent et inventent de nouvelles manières de faire. Elles ont sans doute moins de poids que les grandes entreprises qui dominent les marchés, aujourd’hui. Mais elles proposent des innovations qui me semblent être plus au cœur du sujet.

La croyance dont nous avons parlé au début de ce post, oriente le regard : ou bien on espère que la fuite en avant dans la ville interconnectée et massivement instrumentée va, par principe, venir à bout des enjeux écologiques, ou bien on porte attention à ce qui se vit, ici et maintenant, aux modes de vie sobres et à ce qu’ils inventent (collectivement) et on cherche à développer cette dynamique.
Il y a là, en effet, quelque chose de l’ordre du religieux : ce sont des convictions lourdement ancrées, des visions du monde qui s’opposent les unes aux autres et qui structurent la manière de penser et de vivre. Mais il n’y a pas d’un côté le complexe et de l’autre le rustique : il n’y a que de la complexité, de longues élaborations et des trouvailles, de part et d’autre.

Voilà : je n’ai pas répondu à toutes les questions soulevées par mon ami Francis (voir son commentaire à la fin du post sur la rentrée morose). Pour aujourd’hui, ce sera tout !

Quand les automates publicitaires essayent de nous faire voir la vie en rose

Il n’est pas si fréquent que Le Canard enchaîné relaye (et positivement) un article du Figaro ! On lit pourtant, dans le numéro du 16 septembre, un article : « Des robots en folie frappent les journaux au portefeuille », qui reprend largement (en le citant explicitement) un article du Figaro du 9 septembre : « Les listes noires empoisonnent la pub en ligne ».
De quoi s’agit-il ? Les annonceurs s’en remettent à des robots pour discerner si les bannières publicitaires qu’ils proposent, sur tel ou tel contenu en ligne, se marient harmonieusement, ou pas, avec le contenu en question. Si ledit contenu est considéré comme anxiogène ou moralement problématique, il est inscrit sur une liste noire et aucune publicité ne lui sera accolée.

J’ai, pour ma part, un bloqueur de publicité sur mon navigateur et la question ne me concerne donc pas directement. Mais elle me semble néanmoins dire quelque chose d’important.

Au départ on peut comprendre la préoccupation : une compagnie aérienne ne souhaite pas accoler sa publicité à un article qui relate un crash. Mais, ensuite, la situation a pris de l’ampleur, des robots sont, comme je l’ai dit, venus à la rescousse et on ne peut pas dire que leurs logiciels fassent dans la subtilité.

L’inflation délirante des listes noires

Je donne quelques exemples, que citent Le Figaro et Le Canard enchaîné. Tout ce qui concerne le COVID (et les mots qui naviguent autour) a été considéré comme anxiogène et donc banni ! Cela élimine mécaniquement tous les sites d’information. En fait, la sélection se fait à partir d’une liste de mots à éviter : on est loin de l’intelligence artificielle. Cela relève d’un logiciel plutôt rustique. Le chiffre 47, rappelant le fusil d’assaut AK47 a été blacklisté. S’il apparaissait par hasard dans un papier, cela suffisait à l’éliminer. La mention de la duchesse de Sussex a été interprétée comme une allusion au mot « sex » ! Des recettes de cuisine ont été considérées comme hors champ car elles parlaient d’alcool et / ou de couteaux.

C’est du grand délire et on se demande pourquoi des annonceurs recourent encore à de tels filtres. La réponse est limpide : les annonceurs n’en savent rien. Ils confient leurs plans médias à des ordinateurs qui dialoguent avec d’autres ordinateurs et auto-entretiennent un système devenu fou. Et dans un contexte où l’offre de supports est surabondante il n’y a pas lieu de se poser trop de questions.

Qu’est-ce que cela dit sur le monde enchanté de la publicité ?

Mais ce que les algorithmes produisent est rarement un effet totalement non voulu. En l’occurrence, et à la base, il y a la volonté des annonceurs de transporter leurs acheteurs potentiels dans un monde enchanté, dépourvu de souffrance et de questions trop préoccupantes. Et si cela conduit à éliminer de l’horizon toutes les publications qui, d’une manière ou d’une autre, peuvent conduire les lecteurs à s’interroger … c’est une partie de l’effet recherché.

Depuis Max Weber, on a beaucoup glosé sur la perte d’influence des grandes religions et sur le « désenchantement du monde » qui l’a accompagnée. Mais la demande d’enchantement n’a pas, pour autant, faibli. Elle se réfugie pour partie dans le rêve d’une consommation bienfaisante et joyeuse. Les religions, dans leur volonté d’enchantement, ont, par le passé, tenté de gommer tout ce qui contredisait leur interprétation du monde. La chose étonnante est que l’on retrouve, aujourd’hui, cette volonté de mettre sous le boisseau les côtés désagréables du monde qui pourraient décourager les consommateurs de passer à la caisse.

On sait depuis longtemps (et bien avant l’apparition de la publicité en ligne) que les annonceurs pèsent sur les contenus éditoriaux. C’est parfois brutal, c’est parfois plus subtil. Cela passe, à l’occasion, par une autocensure pas forcément consciente : on va éviter de dire du mal d’un gros annonceur dans une publication qu’il contribue à financer. Désormais cela va un cran plus loin : un annonceur veut être associé à un monde lisse, dépourvu de dilemmes moraux et de difficultés.
Le délire informatique que cela produit n’est que l’image démesurément amplifiée de cette nouvelle tendance.