Ce qu’on fait faire aux algorithmes

Une ancienne salariée de Facebook, Frances Haugen, qui a quitté l’entreprise du fait de son désaccord avec sa politique de hiérarchisation et de mise en valeur des contenus, a fait grand bruit, la semaine dernière, en témoignant devant le congrès américain contre son ancien employeur. Mais ce qu’elle révèle est, somme toute, banal : Facebook met en valeur les messages qui suscitent les réactions émotionnelles les plus fortes.

Les journaux, qui relaient avec gourmandise les ennuis de Facebook, devraient un peu réfléchir qu’ils pratiquent des stratégies relativement analogues. Cela date même de bien avant l’apparition d’Internet : les titres à sensation sur la une des journaux sont un classique de la profession. Aujourd’hui, tout organe de presse qui surveille le nombre de clics engendrés par un article donné aura, inévitablement, tendance à multiplier les sujets qui génèrent les débats enfiévrés. Il me suffit, pour mon compte, de regarder le trafic que je génère avec mon blog : dès que j’aborde un sujet qui échauffe les esprits, le nombre de lecteurs est multiplié par deux.

Les faux mystères des algorithmes

Frances Haugen documente précisément le rôle des algorithmes de Facebook. Ils analysent les réactions à une publication donnée et toute expression de colère (par exemple) fait remonter la publication dans le classement. Avant 2018, les fils d’actualité étaient surtout chronologiques. Depuis cette date, les contenus suivent un indicateur appelé « engagement based ranking ». L’engagement en question n’a rien de militant, il se limite à une réaction émotionnelle marquée (et éventuellement éphémère). Le réseau social favorise donc la circulation de contenus, non pas sur la base de leur documentation plus ou moins poussée, mais, simplement, sur la base de l’intensité des échanges qu’ils provoquent. En fait d’algorithme c’est simplissime !

En revanche, ce que dit Frances Haugen et qui est plus grave, c’est que les tentatives pour analyser de plus près les contenus haineux, ont donné lieu à des investissements de faible envergure. Elle même avait, au départ, rejoint l’entreprise pour travailler sur ce sujet, et elle l’a quittée, découragée par l’importance réellement donnée à ce défi. Il est, certes, plus difficile de repérer ces contenus en utilisant l’intelligence artificielle. Mais entre des algorithmes qui ne font que mesurer le buzz et un investissement sur le repérage des contenus haineux insuffisant, le résultat est prévisible.

Mark Zuckerberg se défend mollement, avec son discours technocratique coulé dans le marbre : « L’argument selon lequel nous mettons délibérément en avant du contenu qui rend les gens en colère, pour des profits, est complètement illogique. Nous faisons de l’argent avec les publicités, et les annonceurs nous disent sans arrêt qu’ils ne veulent pas leurs publicités au côté de contenus nuisibles ou véhéments. Et je ne connais aucune compagnie technologique qui se fixe de développer des produits rendant les gens en colère ou déprimés. » Mais tout est dans le « délibérément ». Facebook vend ses chiffres de trafic et l’effet indirect d’une politique axée sur le trafic est de chauffer les émotions à blanc.

Quand les algorithmes font le sale boulot

Quelques jours auparavant, un rapport sénatorial sur le développement des plateformes informatiques de service (chauffeurs uber, livraisons de repas, etc.) a lui aussi pointé le rôle que l’on fait jouer aux algorithmes. L’exemple le plus parlant est celui de la livraison de repas. Les livreurs, en fait, sont payés à la course et ils n’ont aucune garantie, quand ils se déclarent disponibles (pour beaucoup c’est une activité à temps partiel), d’avoir des livraisons à effectuer. Leur temps d’attente entre deux courses n’est pas rémunéré. Quand un client passe une commande, un algorithme affecte cette commande à un livreur (qui peut la refuser, auquel cas l’algorithme la propose à un autre livreur). Le temps est un paramètre décisif (et les plateformes en font un argument commercial). Il y a donc des paramètres aisément compréhensibles : le logiciel optimise la distance entre le domicile du client, le restaurant qui produit le repas et la localisation du livreur. Il peut même prendre en compte l’état de la circulation. Mais il y a d’autres critères plus obscurs. Les livraisons et les livreurs sont notés par les clients. Le logiciel va donc favoriser un livreur bien noté. Un livreur qui prendra tous les risques, sur son deux roues, pour aller,le plus vite possible, au restaurant et, ensuite, au point de livraison, sera, a priori, avantagé et ce, d’autant plus que son déplacement est suivi, en temps réel, par le système informatique (le rapport du Sénat, pointe, d’ailleurs, l’accidentologie élevée de ces situations de travail). Et qui sait ce qu’évalue le client ? On ne peut exclure des critères discriminatoires dans l’évaluation d’au moins une partie d’entre eux. En bref, l’algorithme rempli les fonctions d’un garde-chiourme et d’un contremaître d’autant plus brutal qu’il laisse planer le doute sur les ressorts de sa décision.

Alors même que, dans la plupart des cas, les livreurs ne sont pas salariés, ils sont soumis à un contrôle de leur travail que peu de salariés accepteraient. Mais tout cela est noyé dans les mystères d’un calcul algorithmique que peu d’entreprises consentent à dévoiler.

Les algorithmes ont bon dos

Dans les deux cas, il est évident que ceux qui manient, à leur profit, les algorithmes n’ignorent pas grand chose des conséquences de leur usage. On retrouve, à cette occasion, une configuration qui a été souvent mise en évidence par la sociologie du travail : l’outil technique sert à faire passer un mode d’action qui, s’il était mis en œuvre directement, soulèverait des résistances bien plus fortes.

Mais ne nous lavons pas les mains trop vite, car qui sont les consommateurs des fils d’actualité de Facebook, des sites Internet des journaux et des livraisons à domicile ? Faisons attention à la manière dont nous cliquons. Nous pouvons faire pression. Le rapport sénatorial n’a pas voulu prendre parti sur la requalification comme salariés des travailleurs des plateformes (ce qui a été fait dans d’autres pays). Ce que les élus de gauche regrettent. Et ils ajoutent un commentaire suggestif : « nous aurions souhaité qu’un certain nombre de plateformes qui développent des modèles alternatifs et/ou qui agissent dans d’autres secteurs soient entendues. Par exemple Just Eat, ou encore la plateforme Gorillas qui n’a pas recours à des autoentrepreneurs mais bien à des salariés, pour la plupart en CDI à temps plein, dans ses magasins et prend l’ubérisation comme contre-modèle convaincu de l’enjeu éthique et de la pression des consommateurs, du moins d’une partie grandissante d’entre eux » (p. 151 du rapport).

Et pour ce qui est de notre influence sur les contenus d’information, nous pouvons commencer par ne pas cliquer sur les articles aux titres les plus anxiogènes ou les plus racoleurs.

Attention, en tout cas, aux médiations techniques qui nous font perdre de vue ce que nous faisons faire à d’autres personnes. Pour les uns l’appareillage technique simplifie la vie, pour les autres, il la leur rend plus compliquée et plus douloureuse.

Bienvenue dans le monde merveilleux des robots !

Plusieurs personnes me l’ont signalé : il est impossible de relayer mes posts sur Facebook. L’interface leur répond que le contenu est inapproprié !??? Naturellement j’ai fait plusieurs tentatives pour joindre Facebook et demander quel était le problème. A chaque fois un robot me répond que ma demande a bien été prise en compte et me remercie pour ma démarche. Mais je n’ai jamais reçu de réponse.

Pendant ce temps, WordPress, qui héberge ce blog, m’envoie des mails tout aussi robotisés et tout aussi remplis de formules de politesse pour me proposer des services. Il vient de me renvoyer un mail enthousiaste pour m’informer que mon abonnement (payant) va être renouvelé. Comme j’ai regardé sur les forums et que d’autres ont le même problème que moi, certains pensant que c’est la manière dont l’adresse des posts est formulée par WordPress qui pose problème, je leur ai soumis mon problème. J’ai reçu, une nouvelle fois, une réponse d’un robot qui me dit que le problème est chez moi et qui m’invite à parcourir les « normes de la communauté » de Facebook. Je les parcours et ne vois vraiment pas où il y a un problème. Et comme Facebook ne me dit pas non plus où est le problème, c’est assez kafkaïen. Du coup j’écris un nouveau mail à WordPress en leur disant de faire un effort. J’obtiens une nouvelle réponse où, là, il semble qu’une personne ait pris la plume. Mais son intervention se borne à me transmettre un tutoriel sur l’art et la manière de débloquer un site pour que Facebook accepte de le relayer.

J’apprends qu’il y a 4 raisons possibles pour lesquelles mon blog a pu être bloqué : 1 Vous avez enfreint les normes de la communauté de Facebook 2 L’algorithme de Facebook a fait une erreur 3 Votre site a été infecté par des logiciels malveillants 4 Un autre compte vous a signalé. Mais je n’ai toujours aucun moyen de savoir, finalement, quel est le problème. On me renvoie vers un onglet « qualité de la page » mais qui ne sert qu’à évaluer les pages Facebook.

Bref je suis dans une impasse.

Tout cela n’est pas de la censure, c’est juste un bug, quelque part dans le réseau et dans les ordinateurs d’un gestionnaire de réseaux sociaux. Et ce gestionnaire n’a, semble-t-il, pas d’intérêt à essayer de m’aider à régler mon problème.

J’avoue que ça me donne à penser. Que pourrait-il se passer, à l’avenir, si de plus en plus de nos pratiques étaient gérées par des interfaces robotisées ? Eh bien, si l’un de nous tombe dans un trou structurel où personne n’a envie de venir le repêcher, bonne chance ! Oui, ça fait réfléchir !

Une nouvelle occasion de s’interroger sur l’usage de la recherche en France : les mésaventures de Sanofi

Sanofi a décidé d’arrêter son projet le plus avancé de vaccin contre la COVID-19 : il n’était pas assez efficace. L’événement a fait quelque bruit en France ; c’est un raté qui fait tache, et il a donné lieu à quelques hyperboles dans la presse. L’évocation de la France « pays de Pasteur » est répété comme un cliché, comme si un événement vieux de plus de cent ans devait mécaniquement continuer à porter du fruit, dans un contexte international bien différent de l’époque.
Le premier commentaire qui s’impose, est qu’il faut quand même ramener cela à de justes proportions : c’est en partie la faute à « pas de chance ». C’est le propre de la recherche de tenter, au risque d’échouer. Sanofi a suivi une piste qui s’est terminée dans une impasse. Il n’est pas le seul.
Autre commentaire : les Français semblent toujours tomber des nues quand ils découvrent qu’ils ne sont pas les meilleurs. Mais quand on représente moins de 1% de la population mondiale, il faut garder le sens de la mesure : logiquement, 99% des bonnes idées viennent d’ailleurs.
Enfin, la France reste un pays riche et privilégié : avec moins de 1% de la population, son PIB représente plus de 3% du PIB mondial.
Voilà pour ne pas aller trop loin dans la déploration.
Donc, mon propos n’est pas de déplorer, mais d’analyser.

Cette péripétie met en évidence des points durs qui ne sont propres ni à cette entreprise, ni au secteur de la pharmacie

Pour ce qui est d’analyser, le Conseil d’Analyse Economique a rédigé une note de synthèse assez suggestive quant au fonctionnement de l’innovation dans le secteur de la pharmacie. Je dois préciser que j’ignore à peu près tout de ce domaine de recherche. Je vais donc, dans un premier temps, ne faire que restituer les remarques qui m’ont le plus frappé, dans ce rapport.

D’abord, il y a quelques constats assez massifs : depuis 10 ans, les fonds publics pour la Recherche et Développement, dans le domaine de la santé, ont diminué de 28 % en France, pendant qu’ils augmentaient de 11 % en Allemagne et de de 16 % au Royaume-Uni (pays pourtant peu connu pour son soutien public à la recherche). C’est le genre de choix stratégique qui ne produit pas d’effet à court terme, mais qui, inévitablement, finit par provoquer des conséquences à moyen terme. Incidemment, le rapport rappelle que les chercheurs français sont mal payés en début de carrière (un tiers de moins que la moyenne des pays de l’OCDE). Alors que la mobilité internationale est bien plus facile aujourd’hui qu’hier, pour les jeunes chercheurs, c’est là aussi une pratique qui finit par avoir des conséquences.

Mais le rapport pointe une faille plus subtile qui n’a pas seulement trait aux volumes de financement. En fait, l’innovation en pharmacie se situe de plus en plus à la frontière de grandes entreprises et de petites start-ups. Chacune a un savoir-faire différent. Pour donner un exemple : BioNTech est une entreprise créée en 2008, qui emploie un millier de salariés (avec cette taille, c’est, d’ailleurs, déjà, plus une fédération de start-ups, qu’une start-up isolée), tandis que Pfizer est une entreprise créée en 1849 et qui emploie 80.000 personnes. Ce type d’alliance provient du fait que la recherche développement est, d’un côté, de plus en plus chère avant de parvenir à un produit commercialisable, elle est donc de plus en plus risquée ; mais, d’un autre côté, les idées de rupture font de plus en plus la différence. Les start-up sont donc des mines à idée, à condition qu’elles bénéficient d’un financement adapté pour couvrir les risques qu’elles courent. Séparer la logique financière des grandes entreprises et celle des start-ups est donc un moyen d’incorporer les nouvelles contraintes de la recherche-développement.

Alors, où est la faille dont je parle ? La France n’est pas dépourvue d’incubateurs pour soutenir le lancement de nouvelles start-ups médicales. Là où notre pays est défaillant c’est sur la suite de la phase d’incubation : entre les premiers pas de l’exploration autour d’une idée et son industrialisation. Je cite un passage du rapport :
« Une difficulté dans la phase de R&D des start‐ups réside dans le financement. Si celles‐ci font appel au capital risque pour financer leur développement, elles ne font généralement pas de profit et leur survie dépend de la rapidité avec laquelle elles vont pouvoir se développer. Sachant que l’activité de recherche nécessite des financements importants sur une longue période (entre cinq et dix ans), garantir des financements pérennes sur une telle durée n’est pas toujours aisé. Le financement public de la phase d’amorçage en France est très important et efficace, qu’il vienne de l’État, des collectivités locales ou de la Banque publique d’investissement (Bpifrance). […] En revanche, les financements sont chroniquement insuffisants sur la durée de vie des start‐ups et rendent la croissance des entreprises difficiles ».

Si on parle d’investissement de long terme, on découvre, en effet, que des fonds nationaux bien organisés structurent le capital des start-ups médicales aux Etats-Unis, ce qui n’est pas le cas en France, comme le montre le graphique ci-dessous :

C’est, on le voit, dans la phase du long développement d’une idée jusqu’à son éventuelle commercialisation que la France est défaillante.

Tous ces commentaires peuvent paraître passablement techniques, mais il me semble qu’ils désignent bien une difficulté de positionnement de la recherche et des chercheurs, en France, et pas seulement dans le domaine médical.

La caricature du chercheur, professeur Tournesol ou professeur Nimbus, a la vie dure

J’ai eu longuement l’occasion d’observer que les entreprises françaises se méfient des chercheurs (qui, souvent, le leur rendent bien !). Même dans les entreprises privées, il y a un clivage entre les chercheurs et les gestionnaires. Dans les domaines qui sont concernés par les grandes écoles d’ingénieur (ce qui n’est pas le cas de la médecine), cela rejoint le clivage universités / grandes écoles. On peut tourner autour de la question de plusieurs côtés, cela converge vers un constat d’ensemble : on compte éventuellement sur un chercheur pour avoir une idée venue d’ailleurs, mais la caricature qui fait du chercheur une personne distraite et peu au fait des contingences matérielles a la vie dure. A l’inverse, des personnes formées au management et à la gestion d’un processus standard sont mal outillées pour développer une idée encore inaboutie ou, tout du moins, elles le croient. J’avais eu l’occasion d’enquêter auprès d’incubateurs divers, à une époque, et ils m’avaient tous souligné le caractère critique de cette phase intermédiaire.

En Allemagne, par contraste, le doctorat est considéré comme une formation de base standard. Un grand nombre de cadres dirigeants ont un doctorat. En Suisse, autre exemple, les universités technologiques comme les Ecoles Polytechniques Fédérales de Lausanne ou de Zurich sont à la fois à la pointe de la recherche et du dépôt de brevets. Il y a une transition fluide entre recherche fondamentale, développement de start-ups, accompagnement sur le long terme et partenariats avec des entreprises. Cela renvoie à des populations variées qui communiquent entre elles. A l’inverse, le clivage français devient problématique, précisément dans cette zone intermédiaire qui est autre chose que l’émergence d’une idée, mais qui n’est pas encore quelque chose de tout à fait opérationnel. C’est là qu’il y a un espace social peu légitime, car il concerne, potentiellement, des personnes aux compétences mal identifiées qui peuvent mobiliser leur imagination pour peaufiner une idée, voir comment la faire évoluer en fonction des contraintes et des attentes. C’est assurément un défi tout à fait motivant, mais que peu d’institutions publiques ou privées, en France, sont prêtes à soutenir. En tout cas, pour avoir siégé au conseil scientifique d’une structure de ce type, je peux témoigner que, de tous côtés, ces structures engendrent le soupçon et peinent à trouver leur place.

Un clivage social finit toujours par engendrer des tensions et des limites collectives

Sortons du cas particulier de la recherche, pour dire qu’un clivage social finit toujours par émerger au grand jour. On le voit souvent, ces dernières années, au travers d’événements assez brutaux comme le mouvement des gilets jaunes et les tentatives pour le réprimer. On le voit, également, au travers des dialogues de sourds qui se croisent, sans jamais se rencontrer, sur les réseaux sociaux. Le clivage entre conception et exécution, autre exemple, est un classique de la sociologie du travail et on peut dire qu’il résume l’essentiel des conflits du travail.

Cela dit, on est plus habitué à observer des clivages qui ont trait à une forme de hiérarchie : les coupures entre ceux qui occupent le « haut » de l’espace social et ceux qui sont cantonnés en « bas ». Mais il existe également des coupures entre des formes de compétences différentes. Pour avoir tenté de pratiquer des dialogues, disons transfrontaliers, pendant une partie de ma carrière, je peux témoigner du fait que, pour un opérationnel, un chercheur se pose toujours trop de questions, et, qu’à l’inverse, pour un chercheur, un opérationnel ne s’en pose jamais assez. Mais il ne s’agit pas simplement d’une opposition entre des psychologies différentes. Cela correspond également à des institutions, des formes de financement, des valorisations économiques différentes. Il y a, sans doute, des raisons historiques au fait que ce type de coupure soit spécialement marqué en France : les différentes structures ont, pendant longtemps, dans notre pays, pu vivre leur vie indépendamment les unes des autres. C’est devenu plus problématique aujourd’hui. Bonne nouvelle ou mauvaise nouvelle ? Personnellement, je considère toujours comme une bonne nouvelle que des groupes sociaux séparés les uns des autres soient soudain obligés de coopérer.

Communiquer les uns avec les autres n’est pas seulement un acte optionnel de bienveillance, cela devient quelque fois une nécessité. En tout cas, si on va trop loin dans l’ignorance mutuelle, les tensions et les difficultés finissent par revenir vers nous comme un boomerang. Le rapport du Conseil d’Analyse Economique en donne un exemple, certes pointu et technique, mais qui fait réfléchir.

L’empreinte carbone du numérique, les surprises d’une évaluation enfin précise

On glose beaucoup sur l’empreinte carbone de l’usage d’Internet et des réseaux de communication. J’ai, par le passé, essayé de démêler ce qu’il en était exactement et j’ai eu la surprise de découvrir qu’il n’y avait aucune estimation un peu complète et précise du phénomène. D’article en article, on trouve des évaluations partielles et sommaires, des affirmations pas toujours solides et mal raccordées entre elles. On crie au loup, mais sans s’assurer de ce qu’on dit. Même les sites officiels ne donnaient que des bouts de calcul. C’est, en fait, le type d’attitude qui dessert, inévitablement, le but qu’on prétend suivre : si on veut rendre attentif aux conséquences de certains choix, il est contreproductif de tirer le signal d’alarme sans savoir exactement quelle est l’étendue de l’alarme. Les sceptiques ont, ensuite, beau jeu de dire que l’on s’affole pour rien.

L’étude remarquable du collectif GreenIT

En septembre 2019, enfin, le collectif GreenIT a fait paraître une étude transversale, qui précise le champ étudié ainsi que les éléments pris en compte et qui essaye de peser globalement la contribution des différents éléments de la chaîne du numérique. La méthode employée est celle du cycle de vie : on analyse l’ensemble de l’empreinte d’un équipement (puis d’une chaîne d’équipements connectés entre eux) tout au long de sa durée de vie, depuis sa construction, en passant par sa commercialisation et son usage, puis sa mise au rebut (ou son recyclage). Le périmètre de l’étude porte sur tous les systèmes qui se terminent par un équipement qui utilise des données numériques : ordinateurs, smartphones, imprimantes, consoles de jeu vidéo, télévisions connectées à une box, etc. Et elle inclut aussi bien l’usage des entreprises que celui des particuliers.

L’empreinte environnementale ne se limite pas à l’empreinte carbone. Plusieurs critères sont pris en compte. La consommation de métaux rares, par exemple, est un des enjeux. Le récent rapport de l’ARCEP (autorité de régulation du secteur du numérique) Pour un numérique soutenable a tenté une synthèse en pondérant les différents critères. Suivant que l’on regarde plutôt l’empreinte carbone ou plutôt la consommation des ressources les pourcentages respectifs ne sont pas exactement les mêmes. Mais les ordres de grandeur sont quand même assez semblables d’un critère à l’autre. Les différentes empreintes augmentent, au fil du temps. Là, rien de nouveau. La valeur de l’étude est plus de peser le poids respectif des divers éléments. Voilà ce que cela donne, en se concentrant sur tout ce qui transite par Internet (pour des résultats plus fins, on invite le lecteur à se reporter au rapport de GreenIT sur lequel s’appuie largement le rapport de l’ARCEP).

Champ: tout ce qui transite par Internet

Et là, surprise : on glose beaucoup sur la consommation des centres de données (les data centers, en anglais) et sur les flux vidéos, mais ce n’est pas là l’essentiel du problème. Ce qui se passe est que les centres de données ont fait des économies d’énergie considérables, ces dernières années et ont inventé des solutions de climatisation de leurs installations bien plus efficientes. En fait, le point dur est la multiplication et le renouvellement incessant des terminaux. Les écrans sont plus grands (et notamment les télévisions) consomment plus d’électricité pour fonctionner et plus de ressources (métaux et énergie) pour leur fabrication. Par ailleurs, les supports se diversifient sans cesse ; la dernière tendance à la mode sont les objets connectés. Au total, la consommation des équipements connectés (faible, équipement par équipement) est bien plus élevée que celle des datas centers et leur fabrication a une empreinte environnementale énorme. En général l’empreinte liée à la fabrication est plus importante que l’empreinte liée à l’usage. Comme le rappelle le rapport de l’ARCEP : « La production d’un téléphone mobile nécessite soixante métaux différents dont seulement une vingtaine sont recyclables et 32 kg de matière brute sont requis pour produire une puce électronique de 2 grammes ».

En clair, l’action la plus efficace que l’on peut avoir pour préserver l’environnement est de limiter le nombre d’interfaces que l’on utilise, de racheter moins souvent lesdits équipements et de limiter la taille des écrans (notamment de télévision). Voilà quelque chose qui est à la portée de chacun et qui montre l’entrelacement subtil des pratiques publicitaires des fabricants, de la course à la dernière nouveauté de la part des consommateurs et de l’obsolescence programmée. Quant à l’usage des équipements que l’on possède, il a certes un effet, mais de deuxième rang.

De la difficulté d’y voir clair

Ces considérations peuvent sembler passablement techniques, mais elles montrent la difficulté qu’il y a, aujourd’hui, à agir à bon escient et la facilité avec laquelle on peut se contenter de raisonnements partiels et d’affirmations approximatives. Qui dit vie instrumentée et technicisée, dit complication des critères de choix. Est-ce que des médiateurs ne peuvent pas nous déblayer le terrain et simplifier les questions ? Si, c’est précisément ce qu’a fait le collectif GreenIT. Mais cela montre aussi l’importance, pour tout un chacun, de faire pression sur les organes d’information pour qu’ils fassent mieux leur travail. Il est bien plus facile d’écrire un article avec un titre racoleur et d’enfiler quelques bribes de constats collectés à droite et à gauche que de creuser une question jusqu’à parvenir à une vision d’ensemble du problème.

On déplore, dans les milieux cultivés, la prolifération des fake news et des arguments populistes. D’accord. Pour ma part je suis las de lire des articles de presse bâclés qui, mis bout à bout, finissent par dire tout et son contraire et ne fournissent aucun repère pour que le lecteur de bonne volonté se fasse sa propre opinion. En l’espèce, d’ailleurs, je vous recommande de vous reporter vous-mêmes aux rapports que j’ai cités ici, plutôt que de vous limiter au résumé sommaire que j’en ai fait.

Il faut beaucoup de temps pour creuser une question, mais on peut aussi passer beaucoup de temps à sautiller de droite à gauche et à surfer sur des textes qui restent à la surface des choses.

Je défends là, sans doute, une conception plutôt exigeante de la vérité, mais cette « porte étroite », pour reprendre l’expression de l’évangile (Mt 7.13-14), est celle qui est porteuse de vie. Les larges avenues des affirmations hâtives, péremptoires et vite contredites ne nous mènent nulle part.

A quoi veut-on faire servir la recherche ?

J’ai passé toute ma vie professionnelle de chercheur à répondre à une question récurrente, dans les fêtes de famille et dans les réunions mondaines : à quoi sert ce que tu fais ? Ou, variante : tu es chercheur, mais est-ce que tu trouves ? J’ai souvent déconcerté mes questionneurs (qui étaient plutôt de mauvaise volonté, en général) en leur disant qu’il était assez facile de trouver et que, d’ailleurs, dans chacune des mes recherches j’avais trouvé quelque chose ! Je ne suis pas sûr, en revanche, qu’ils auraient été contents de savoir ce que j’avais trouvé. Les résultats des recherches ne font pas que des heureux.

Cela dit, j’ai quand même toujours admis que la question, même formulée de manière légèrement agressive, avait une certaine légitimité. Toute profession doit rendre compte de son utilité sociale. Et il y a souvent une tension entre ce qu’un financeur de la recherche attend et ce que le chercheur considère comme important et décisif. L’Etat m’a payé pendant toute ma carrière et est-ce que je l’ai servi de manière correcte ? C’est une question à laquelle il est difficile de répondre de manière claire, mais il vaut la peine de se la poser, malgré tout.

Une volonté de pilotage de la recherche par l’aval

Ces tensions (entre financeurs et chercheurs), qui sont aussi vives dans la recherche privée que dans la recherche publique, ont conduit les financeurs, depuis plusieurs années, à vouloir piloter la recherche de manière plus serrée, en liant les financements à des commandes précises. C’est ce qu’on appelle le pilotage par l’aval. C’est une reprise de pouvoir sur des chercheurs dont on considère que, livrés à eux-mêmes, ils se perdent dans des objectifs obscurs et peu valorisables.

L’évolution, depuis plusieurs années, est donc de financer de plus en plus de recherches, y compris les recherches publiques, par des appels d’offre. C’est ce que fait l’Europe depuis assez longtemps. C’est ce que fait également l’Etat français en dotant de moyens sans cesse croissants l’Agence Nationale de la Recherche, qui gère lesdits appels d’offre. La conséquence de ces évolutions est de créer une population de jeunes chercheurs qui vivent sur des contrats temporaires (financés par les appels d’offre) et qui n’obtiennent que tard (ou jamais) un poste fixe.

Le débat est sorti sur la place publique, ces derniers jours, avec le projet de Loi de Programmation de la Recherche. Il y a, dans ce projet de loi, un point qui concerne les postes statutaires : la revalorisation des salaires qui étaient scandaleusement bas (j’en parle d’autant plus librement que j’ai été un chercheur payé sur un statut très particulier et, pour le coup, très bien payé). Pour le reste, la dynamique pèse clairement du côté de la multiplication des postes temporaires : la loi crée des contrats un peu plus longs, mais toujours temporaires ; et elle prévoit d’augmenter les moyens de l’Agence Nationale de la Recherche, plutôt que de créer des postes stables. Tout cela est évidemment mal reçu par la communauté des chercheurs qui sont un peu las de voir des jeunes passer une énergie considérable à sauter de contrat en contrat, et pour certains d’entre eux, se décourager et renoncer à la recherche parce qu’ils sont dans des conditions trop précaires.

Le projet du gouvernement est assez clair : augmenter (un peu) les financements de la recherche, d’accord, mais à condition d’en retirer les bénéfices, en termes d’innovation et de valorisation économique, assez rapidement. Il y a, sous-jacent, une défiance à l’égard de chercheurs jugés incontrôlables, qui, forcément, passe mal.

En fait, je le répète, la volonté du gouvernement de piloter un peu plus par l’aval la recherche ne me choque pas. Mais cela soulève une question plus complexe : est-ce que cette manière de faire produit de la meilleure recherche, une recherche plus utile pour tout le monde ?

Le rêve technologique, sous-jacent au pilotage par l’aval, a ses propres limites

Le raisonnement sous-jacent à ce mode de pilotage est assez simple : nous avons besoin d’innovations dans des domaines identifiables et nous savons assez précisément sur quoi doivent porter les innovations, focalisons donc les efforts autour de ces points durs et l’économie, le développement durable, la qualité de la vie de tout un chacun suivra. Ce raisonnement a une plage de validité et je pense qu’il est correct de piloter une partie de la recherche de cette manière là.

Mais cette approche a aussi ses limites qui n’apparaissent pas à première vue. Par exemple : une des difficultés actuelles dans le développement durable est que les innovations disponibles ne sont pas du tout adoptées par les entreprises qui devraient les mettre en œuvre, les usagers qui pourraient en profiter et les administrations qui sont censées les promouvoir. Et cela résulte d’un raisonnement technologique trop fermé où l’on conçoit des innovations en se coupant des conditions de leur usage. A la fin, on convoque les sciences sociales pour rendre ces innovations plus « acceptables », mais il est bien trop tard. L’usager n’a que faire d’accepter une innovation que l’on a conçue sans lui demander si elle répondait à ses besoins, ou si elle s’insérait dans ses pratiques. On se lamente, alors, sur le côté borné des usagers, sur la résistance au changement des administrations ou sur le manque de hauteur de vue des entreprises ! Tout cela pour dire que, si pilotage il doit y avoir, il ne peut résulter que de concertations beaucoup plus larges, qui incorporent autre chose que la commande publique imaginée dans un cabinet ministériel.

Par ailleurs, pousse-t-on les jeunes chercheurs à faire du meilleur travail en les mettant sans arrêt sous pression, en les laissant dans l’incertitude par rapport à leur avenir et en les faisant naviguer d’un sujet à l’autre au gré des demandes ? A court terme c’est sans doute un calcul qui a sa pertinence : ponctuellement on obtient des résultats identifiables. A long terme, je suis convaincu du contraire. J’ai participé à plusieurs recherches financées par de gros appels d’offre, et employant des jeunes sur contrat. La vérité est que cela les pousse au conformisme et que cela coupe leur réflexion de fond. Or, la recherche est affaire d’innovations incrémentales, assurément, mais elle est aussi affaire de ruptures conceptuelles. Et les ruptures conceptuelles surgissent avec le temps. Elles donnent sans doute lieu à pas mal de gâchis : tous les chercheurs n’ont pas des idées venues d’ailleurs. Mais même si on est plus créatif lorsqu’on est jeune, je suis convaincu que les grandes idées mûrissent et deviennent vraiment pertinentes au bout d’un certain nombre d’années. Il faut donc supporter une partie incontrôlable du travail de recherche si on veut faire des bonds discontinus.

Enfin, la recherche est souvent mal vue parce que les chercheurs se posent trop de questions, sont trop critiques, sont un peu rêveurs et n’ont pas le sens des réalités. Mais ce recul critique est, lui aussi, très utile, dans le contexte actuel où le scepticisme et l’éclatement des lieux de débat, vont devenir des fléaux, si on n’est pas capable de leur donner sens et de leur faire une place officielle dans la société. Il faut pouvoir donner sens aux réserves, au scepticisme et à l’hostilité de pans entiers de la population et donc laisser de la place aux regards critiques.

En résumé, une vision par trop utilitariste de la recherche fait fausse route. Je ne suis pas idiot au point de dire qu’il n’y a jamais de recherches inutiles. Il y en a. Et il y en a même beaucoup. Il y a même beaucoup de ce qu’on appelle, par dérision, de la RANA : de la Recherche Appliquée Non Applicable ! Mais il y a aussi beaucoup d’innovations abouties et industrialisables qui ne trouvent pas leur emploi parce qu’on s’est posé, au départ, des questions trop étroites et trop pointues.

La valeur du non-conformisme

Je suis forcément sensible aux vertus du regard décalé, du fait que j’appartiens à un mouvement religieux qui fait une place centrale au non-conformisme. Ce non-conformisme est d’abord mis en œuvre pour des raisons de foi : on attache de la valeur à des pratiques et des manières de faire qui ne sont pas forcément valorisées dans l’ensemble de la société. Mais il faut constater qu’il finit, parfois, par servir à la société toute entière. Quand un groupe social est dans une impasse, il se tourne assez spontanément vers des groupes qui ont testé d’autres voies, d’autres modes de vie. Et l’innovation socio-technique doit beaucoup à des personnes qui ont fait de grands détours par rapport aux avenues toutes tracées.

En d’autres termes, un Etat a tout intérêt à avoir un budget « têtes de lards » et « non-conformistes ». Ils sont souvent plus utiles à la valorisation de la recherche qu’on ne l’imagine. L’originalité radicale peut se perdre dans les sables de l’utopie. Mais elle peut aussi embrayer de manière surprenante avec un contexte historique. Dans un langage sophistiqué on appelle cela le « modèle de la poubelle » (Cf. Michael D. Cohen, James G. March, Johan P. Olsen, « A Garbage Can Model of Organizational Choice », Administrative Science Quarterly, 17(1), 1972). L’idée de ce « modèle » est que le monde des « problèmes » et celui des « solutions » évoluent chacun de leur côté. Bien sûr, un problème pris au sérieux encourage à trouver une solution. Mais, dans la plupart des cas, les choses ne sont pas aussi linéaires. Les solutions existantes ne sont pas satisfaisantes. A l’inverse, certaines solutions imaginées par X, Y ou un groupe, n’ont jamais pu s’exprimer faute d’un contexte favorable. Et, soudain, le contexte change, une solution qui dormait devient intéressante pour faire face à un nouveau problème.

Voilà en gros l’idée. Tout cela pour dire qu’il est sans doute utile d’améliorer le dialogue entre demande sociale et recherche (et de l’améliorer d’une manière plus large qu’au travers d’appels d’offre qui filtrent fortement la demande sociale). Mais qu’à côté de ce dialogue, il y a place, aussi, pour faire vivre des approfondissements qui appellent du temps et de la sérénité. Tout rabattre sur le temps court et les fausses évidences de l’utilité à court terme est, en fait, stérilisant à long terme.

Humanité virtuelle = humanité diminuée

Les épisodes de confinement nous donnent l’occasion, inattendue, de nous faire une idée du rêve, qui circule dans les cercles transhumanistes et apparentés, d’une humanité dite « augmentée », affranchie des contraintes corporelles par des prothèses diverses, voire téléchargée sur des serveurs totalement virtuels. Eh bien, je le dis tout net : ça ne me fait pas envie !

Nous sommes déjà « augmentés »

Donnons quelques exemples :
– Le contexte, aujourd’hui, est que nous sommes devenus des virtuoses de zoom (et des applications qui y ressemblent). Je fais, plusieurs fois par semaine, des visioconférences, et je bascule, à l’occasion, en partage d’écran pour projeter un powerpoint. Cela permet d’aller beaucoup plus loin que ce qu’on pouvait faire, autrefois, par conférence téléphonique ou par visioconférence d’une salle à l’autre.
– Pendant le laps de temps où il était possible de se déplacer, nous avons cherché, mon épouse et moi, un nouveau logement dans une zone éloignée de notre domicile actuel et nous avons fait l’essentiel de nos recherches sur internet. Les transports étant mal commodes (masque tout le temps du voyage) et à limiter quand même, nous avons fait un tout petit nombre de déplacements sur place en ayant largement déblayé le terrain au préalable.
– Une de mes filles, mon gendre et ma petite-fille habitent, actuellement, en Colombie. Ils doivent zigzaguer entre les confinements français et les confinements colombiens pour traverser l’Atlantique. En attendant, nous communiquons par Skype.
– Dans notre vie d’église nous avons un groupe de prière par Whatsapp et nous organisons, régulièrement, des réunions virtuelles avec, dans certains cas, des post-it virtuels quand on veut favoriser les échanges et les prises de parole diverses.
– Je regarde des concerts en vidéo, au gré de mes envies, et je bénéficie d’une offre considérable.
Voilà, ainsi, quelques exemples de ce que nous expérimentons pendant les phases de confinement.

En bref, nous sommes, d’ores et déjà, des individus augmentés : nos yeux et nos oreilles captent des signaux lointains ; notre voix franchit les mers ; nos limites corporelles sont très largement abolies.
C’est clair, nous avons gagné beaucoup de possibilités. En revanche devoir mettre entre parenthèses une grande partie de notre corps, dans toutes ces occasions, n’est pas du tout un gain. Il est difficile de définir précisément ce que l’on perd, mais le fait d’être privés de la rencontre en chair et en os, nous fait toucher du doigt l’importance de la proximité entre des êtres de chair. Si certains rêvent de se télécharger sur un serveur informatique je ne les suis nullement dans un tel projet. Il faut dire que ces rêves sont largement nourris par des salariés ou des dirigeants des entreprises qui élaborent les nouvelles technologies. Il y a là un biais de perception classique : croire que ce que l’on fait dans son travail est une activité essentielle pour tout le monde !

Réparés et augmentés, ce n’est pas tout à fait la même chose

Bien sûr, le corps est une réalité ambiguë. Il nous impose des limites. Il nous fait souffrir, à l’occasion. A 65 ans j’ai des symptômes de vieillissement assez classiques. Et je suis content de pouvoir disposer de prothèses. J’ai, par exemple, une presbyacousie commençante et je suis content d’avoir des appareils auditifs qui me permettent de mieux dissocier les consonnes dans les conversations.
Mais, justement, la situation présente me fait mieux comprendre la différence entre des prothèses qui me permettent de continuer à mener une vie sociale ordinaire, sans trop de difficultés, et des appareillages qui me transformeraient en cyborg ou en surhomme, comme on voudra : bref quelque chose qui me projetterait hors de la corporéité. Les prothèses que je porte restent au service de mon corps présent. Je les mets et je les enlève au gré de mon désir. Je ne suis nullement annexé à une mécanique qui me dépasse. Et, dans mes interactions avec les autres, je reste au niveau d’une simple humanité, faillible et mortelle, qui non seulement me convient, mais a son charme. La mort ne me réjouit pas. Mais me savoir mortel me donne un certain rapport aux autres et au monde que je trouve essentiel et libérateur. J’échappe à la toute puissance qui est la porte ouverte à tous les délires.

Et incarnatus est

Mon corps colle à ma condition humaine et vivre sans mon corps correspond à une humanité, non pas augmentée, mais diminuée. C’est l’occasion de dire que l’attente de la résurrection n’est pas l’attente d’une vie extra-corporelle, mais l’attente d’un corps autre : « semé corruptible, on ressuscite incorruptible ; semé méprisable, on ressuscite dans la gloire ; semé dans la faiblesse, on ressuscite plein de force ; semé corps animal, on ressuscite corps spirituel. S’il y a un corps animal, il y a aussi un corps spirituel » (1 Cor 15.42-44). Je laisse chacun imaginer ce que peut être un corps spirituel, en tout cas, c’est un corps.

Et quand Dieu a voulu venir vers nous il n’a pas considéré notre enveloppe corporelle comme un problème. Il s’est incarné pour venir à notre rencontre. La plus belle célébration de cette incarnation se trouve, d’ailleurs, à mon avis, dans la grande messe en ut mineur de Mozart. Au sein du credo, un passage qui dure plus de 8 minutes, tourne autour de ces simples paroles : « il s’est incarné par le Saint-Esprit, du sein de la vierge Marie et il s’est fait homme ». En latin cela donne : « Et incarnatus est, de Spiritu Sancto, ex Maria Virgine. Et homo factus est ». Et deux tiers de l’air est composé de vocalises sur la voyelle « a » dans le mot « factus ». C’est quand le Christ se fait homme que Mozart se lance dans cette vocalise qui me donne des frissons. C’est au moment où le Christ nous rejoint dans notre corporéité qu’il nous invite à chanter et à nous laisser porter par cet air plein de sensualité.

Pour ceux qui ne connaîtraient pas cette page musicale sublime, je vous mets un lien vers une interprétation.

Le transhumanisme est une recherche de puissance parmi d’autres. Et comme toutes les recherches de puissance elle oublie de célébrer ce qui est là, ce qui nous est donné, ce qui est à portée de main et qui a une saveur incomparable.

Les interactions de corps à corps sont complexes et ne sont pas exemptes, elles non plus, de tentatives de prises de pouvoir ou de manipulations diverses. Mais, dans leur mystère, dans leurs limites mêmes, dans leurs contours difficiles à préciser, elles possèdent cette saveur incomparable qui ressort d’autant plus aujourd’hui que nous en sommes en partie privés.

Au reste, l’attente de Paul, il l’a dit plus tôt aux Corinthiens, dans la même épitre, n’est pas de rencontrer le Christ en tant que pur esprit, mais de le rencontrer face à face. Comme je le comprends !

La 5G et les Amish

La sortie d’Emmanuel Macron sur les Amish a, étonnamment, suscité pas mal de réactions. Difficile de savoir si la petite phrase était préparée d’avance où si elle lui est venue en direct. En tout cas, c’est intéressant de voir qu’un signifiant religieux est venu colorer ce débat sur l’implantation, ou non, d’une nouvelle technologie sur le sol français.
Un verbatim s’impose pour commencer : « La France va prendre le tournant de la 5G, parce que c’est le tournant de l’innovation. J’entends beaucoup de voix qui s’élèvent pour nous expliquer qu’il faudrait relever la complexité des problèmes contemporains en revenant à la lampe à huile ! Je ne crois pas au modèle Amish. Et, je ne crois pas que le modèle Amish permette de régler les défis de l’écologie contemporaine ».

Je me sens forcément concerné par cette sortie, car les Amish appartiennent à la mouvance Mennonite, à laquelle j’appartiens moi-même. Il en représentent, certes, une aile très particulière, mais je partage avec eux certaines convictions. A vrai dire, cela m’a plutôt retenu d’intervenir dans le débat, au départ. Ensuite, mon ami Francis Godard, m’a encouragé à dire quelque chose sur les enjeux de la 5G, donc je me suis décidé.

A propos des Amish

Commençons par les Amish. Plusieurs personnes ont souligné qu’ils n’étaient pas, par principe, hostiles à l’innovation technique, mais qu’ils cherchaient à en peser, collectivement, les effets sur la vie sociale, avant d’adopter ou non une technologie. On en ferait presque un modèle de démocratie technique ! Il ne faut pas non plus exagérer. Il s’agit d’une micro-société patriarcale bien plus que d’une démocratie. Et il est vrai qu’ils ont quand même un apriori négatif par rapport à toute innovation technique.

Cela dit, j’ai eu l’occasion de visiter (comme touriste religieux, si on veut) des communautés Amish aux Etats-Unis. Et il ne faut pas imaginer qu’ils vivent dans la misère et la frustration. Ce sont des gens plutôt bien dans leur peau, qui ne dédaignent pas le confort et qui vivent des tensions dans leur vie collective qui ne m’ont pas paru plus graves que celles que nous connaissons tous.

Au fond, ils me semblent porteurs d’une idée plutôt intéressante : ce n’est pas l’objet technique qu’il faut examiner en tant que tel, c’est le mode de vie dans lequel il s’insère qui importe, et la manière dont il va peser sur ce mode de vie (il faut, en effet, raisonner dans les deux sens : les modes de vie existants et les objets techniques qui s’y insèrent agissent réciproquement les uns sur les autres).

A propos de complexité

Pour revenir à l’intervention d’Emmanuel Macron, je suis d’accord que la question est relativement complexe. Mais, du coup, on ne peut pas user d’un argument aussi simpliste que de taxer ceux qui sont dubitatifs de tenants de la lampe à huile. Une fois de plus on retrouve, dans cette sortie, la caricature du discours technocratique : la question est complexe donc taisez-vous, vous n’y comprenez rien. C’est, assurément, un discours qui ne passe plus du tout la rampe aujourd’hui.

Je me suis demandé, cela dit, si on n’avait pas un peu surinterprété la sortie d’Emmanuel Macron, qu’il aurait fallu entendre sur le mode badin ou ironique. Mais la capture vidéo m’a révélé autre chose : un homme en colère et pas du tout en train de faire de l’humour. Ce qui signifie qu’il est, au fond, atteint par la remise en question qu’il affronte et qu’il ne trouve pas d’autre argument que : « c’est le tournant de l’innovation » et : on ne peut tout de même pas revenir à « la lampe à huile« . L’invocation des Amish laisse entendre qu’il y aurait en jeu une question de croyance. Et cela ne semble pas entièrement faux : croyance (presque aveugle) dans les vertus de l’innovation technologique, d’un côté, et doute de principe, de l’autre. Or la question de la croyance, à mes yeux, ne peut pas se limiter à la foi du charbonnier. Il faut en venir, pour le moins, à des convictions bien pesées. Et c’est ce que je vais essayer de faire.

Et si on creuse un peu, on s’aperçoit que la question de la 5G entraîne bien d’autres questions que celle d’une technologie ponctuelle. Elle interroge, en fait, les modes de vie urbains que nous voulons privilégier. Et donc le « modèle Amish », pour le coup, a quelque pertinence si on veut bien s’interroger un peu et ne pas céder par principe à l’adoption d’une nouvelle technologie pour être « moderne ».

Certains risques sont limités

Avant d’en venir à des considérations systémiques, mentionnons déjà certains des risques soulevés par les opposants de cette technologie. Certains de ces risques sont, a priori, assez faibles (ce qui ne veut pas dire qu’ils sont nuls). J’ai, naguère, assisté à une conférence de citoyens sur la question des antennes relais (j’ai assisté à une intervention qui précédait la mienne). Un expert en santé publique, assez équilibré dans ses propos, avait déjà souligné que s’il y avait un risque de santé publique lié aux ondes il serait beaucoup plus élevé à cause des téléphones (que l’on approche de son corps) que des antennes. Au jour d’aujourd’hui, les quelques risques mis en évidence sont extrêmement faibles, mais, avait déjà dit l’expert, un risque faible, à horizon de 10 ans, peut être fort à horizon de 30 ans. Il y a là des choses qu’on ne sait pas.

Le risque de captation des données par des tiers ne me semble pas non plus tellement plus accentué que lorsque l’on utilise une technologie comme le Wi-Fi, relativement peu sécurisée. Disons que si l’on porte attention à ce risque, il sera sans doute possible de s’en affranchir.

La question de l’empreinte carbone va beaucoup plus loin. Prises une par une, les antennes 5G seront moins gourmandes en énergie que les antennes des générations antérieures. Mais ce sont toutes les pratiques induites qu’il faut prendre en considération. Il est évident que cela va provoquer une augmentation des flux de données et un renouvellement du matériel de réception, toutes choses qui ont une empreinte carbone significative.

Et cette question de l’empreinte carbone nous renvoie vers la question des usages et donc vers les modes de vie urbains de demain.

La ville hyper-instrumentée : rêve, cauchemar ou fausse-piste ?

Si on lit les argumentaires des promoteurs de la 5G on y voit que l’usager lambda n’a pas grand chose à en attendre. Regarder des vidéos en plus haute définition en situation de mobilité n’a pas forcément beaucoup d’intérêt. Et le concept « d’internet des objets » ne me semble pas promettre beaucoup plus que des gadgets, pour l’homme de la rue (et sans doute pas nécessiter d’importants flux de données). Le besoin en flux de données plus efficaces est, aujourd’hui, surtout le fait des entreprises qui envisagent d’implémenter des innovations en utilisant bien plus de données mobiles qu’aujourd’hui.

Un premier champ est tout ce qui concerne le contrôle des process industriels. L’idée d’avoir des usines avec encore moins de présence humaine ne me semble pas forcément être une idée très intéressante. On est déjà allé très loin dans ce sens. Mais, surtout, je ne vois pas ce qu’une technologie mobile apporte, par rapport à une technologie filaire (avec une liaison par câble, par exemple).

Des remarques du même genre s’imposent pour tout ce qui concerne la médecine, voire la chirurgie à distance. Si on connecte deux sites, le fait que la technologie soit mobile n’apporte pas de bénéfice. Et on se dit, au passage, que la question des déserts médicaux reste presque entière, même si on arrive à faire bénéficier des structures rapprochées d’une expertise éloignée.

La 5G aura vraiment du sens si on l’implante dans des objets mobiles. Si elle sert à connecter des bâtiments l’intérêt est mince. On peut considérer comme plus simple, à la limite, la gestion d’un réseau de capteurs éparpillés sur un territoire et qui n’ont pas à se raccorder, un par un, à un réseau filaire. Alors cela débouche sur quoi ? L’aide à la conduite ? Peut-être, mais le partage d’informations en temps réel est déjà bien avancé. L’avancée sera plus évidente avec les véhicules autonomes qui auront, en effet, besoin d’énormément d’informations en temps réel. Sinon il y a tout ce qu’on appelle la « ville intelligente » où l’on essaye de rassembler des informations en temps réel sur ce qui se passe sur un territoire donné.

Tout cela vaut-il la peine ? Je donne ici la perception de quelqu’un qui a suivi d’assez près des projets d’innovation sur la ville intelligente, sans en être un spécialiste. Ma perception, donc, est que, dans ce domaine, on fait souvent fausse route quant à l’essentiel. On peut, par exemple, mesurer en temps réel la pollution dans une agglomération. Cela donne une connaissance plus fine que ce que des modèles peuvent produire. Mais l’essentiel est ailleurs : diminuer le taux de pollution. Et sur ce plan, affiner la connaissance ne sert pas à grand chose : on connaît les sources de pollution et on sait comment agir dessus. Le point dur est d’imaginer une organisation urbaine qui soit moins dépendante des transports. Certains imaginent (autre exemple) pouvoir instrumenter encore plus finement l’activité agricole. Mais les technologies de proximité, dans le domaine de l’entretien des sols et de leur préservation, semblent beaucoup plus prometteuses qu’un surcroît d’informations déversées par un algorithme. Les usagers des transports en commun (dernier exemple) pourraient accéder à des données plus fiables sur la situation en temps réel des autobus, si les capteurs GPS étaient mieux maintenus et les systèmes d’information suivis au jour le jour : là aussi c’est plus une question d’organisation de la maintenance que de saut technologique qui est en jeu.

Reste le véhicule autonome. Est-ce un rêve ou un cauchemar ? A priori cela semble bien de pouvoir disposer de moyens de transport souples et accessibles à chacun. Mais la question de l’occupation de l’espace se posera de toute manière. Et il reste donc décisif que la « marchabilité » de la ville soit accrue, sinon on sera simplement devenus dépendants d’un système de mobilité relativement énergivore (moins qu’une voiture individuelle, mais plus qu’un transport en commun) surtout si plus de personnes qu’aujourd’hui l’utilisent.

En résumé, avons-nous besoin de la 5G ? Tout dépend du but que l’on se fixe.

Le miroir technique aux alouettes

C’est certainement plus enivrant de penser à une nouvelle technologie que de s’affronter à des problèmes complexes d’organisation urbaine, de rapports sociaux tendus, de jeux d’intérêts contradictoires. Et c’est sans doute aussi pour cela que la critique d’une option technique est particulièrement désagréable pour des acteurs qui espèrent contourner les enjeux sociaux en déplaçant les limites techniques.

Il faut bien voir que toutes les entreprises qui sont actives sur le marché de l’informatique, de la téléphonie et des capteurs électroniques ont intérêt à faire croire qu’elles disposent de solutions miracles. Je ne suis pas hostile à l’innovation technique. Mais je pense qu’il y a d’autres domaines où des personnes innovent et inventent de nouvelles manières de faire. Elles ont sans doute moins de poids que les grandes entreprises qui dominent les marchés, aujourd’hui. Mais elles proposent des innovations qui me semblent être plus au cœur du sujet.

La croyance dont nous avons parlé au début de ce post, oriente le regard : ou bien on espère que la fuite en avant dans la ville interconnectée et massivement instrumentée va, par principe, venir à bout des enjeux écologiques, ou bien on porte attention à ce qui se vit, ici et maintenant, aux modes de vie sobres et à ce qu’ils inventent (collectivement) et on cherche à développer cette dynamique.
Il y a là, en effet, quelque chose de l’ordre du religieux : ce sont des convictions lourdement ancrées, des visions du monde qui s’opposent les unes aux autres et qui structurent la manière de penser et de vivre. Mais il n’y a pas d’un côté le complexe et de l’autre le rustique : il n’y a que de la complexité, de longues élaborations et des trouvailles, de part et d’autre.

Voilà : je n’ai pas répondu à toutes les questions soulevées par mon ami Francis (voir son commentaire à la fin du post sur la rentrée morose). Pour aujourd’hui, ce sera tout !

Quand les automates publicitaires essayent de nous faire voir la vie en rose

Il n’est pas si fréquent que Le Canard enchaîné relaye (et positivement) un article du Figaro ! On lit pourtant, dans le numéro du 16 septembre, un article : « Des robots en folie frappent les journaux au portefeuille », qui reprend largement (en le citant explicitement) un article du Figaro du 9 septembre : « Les listes noires empoisonnent la pub en ligne ».
De quoi s’agit-il ? Les annonceurs s’en remettent à des robots pour discerner si les bannières publicitaires qu’ils proposent, sur tel ou tel contenu en ligne, se marient harmonieusement, ou pas, avec le contenu en question. Si ledit contenu est considéré comme anxiogène ou moralement problématique, il est inscrit sur une liste noire et aucune publicité ne lui sera accolée.

J’ai, pour ma part, un bloqueur de publicité sur mon navigateur et la question ne me concerne donc pas directement. Mais elle me semble néanmoins dire quelque chose d’important.

Au départ on peut comprendre la préoccupation : une compagnie aérienne ne souhaite pas accoler sa publicité à un article qui relate un crash. Mais, ensuite, la situation a pris de l’ampleur, des robots sont, comme je l’ai dit, venus à la rescousse et on ne peut pas dire que leurs logiciels fassent dans la subtilité.

L’inflation délirante des listes noires

Je donne quelques exemples, que citent Le Figaro et Le Canard enchaîné. Tout ce qui concerne le COVID (et les mots qui naviguent autour) a été considéré comme anxiogène et donc banni ! Cela élimine mécaniquement tous les sites d’information. En fait, la sélection se fait à partir d’une liste de mots à éviter : on est loin de l’intelligence artificielle. Cela relève d’un logiciel plutôt rustique. Le chiffre 47, rappelant le fusil d’assaut AK47 a été blacklisté. S’il apparaissait par hasard dans un papier, cela suffisait à l’éliminer. La mention de la duchesse de Sussex a été interprétée comme une allusion au mot « sex » ! Des recettes de cuisine ont été considérées comme hors champ car elles parlaient d’alcool et / ou de couteaux.

C’est du grand délire et on se demande pourquoi des annonceurs recourent encore à de tels filtres. La réponse est limpide : les annonceurs n’en savent rien. Ils confient leurs plans médias à des ordinateurs qui dialoguent avec d’autres ordinateurs et auto-entretiennent un système devenu fou. Et dans un contexte où l’offre de supports est surabondante il n’y a pas lieu de se poser trop de questions.

Qu’est-ce que cela dit sur le monde enchanté de la publicité ?

Mais ce que les algorithmes produisent est rarement un effet totalement non voulu. En l’occurrence, et à la base, il y a la volonté des annonceurs de transporter leurs acheteurs potentiels dans un monde enchanté, dépourvu de souffrance et de questions trop préoccupantes. Et si cela conduit à éliminer de l’horizon toutes les publications qui, d’une manière ou d’une autre, peuvent conduire les lecteurs à s’interroger … c’est une partie de l’effet recherché.

Depuis Max Weber, on a beaucoup glosé sur la perte d’influence des grandes religions et sur le « désenchantement du monde » qui l’a accompagnée. Mais la demande d’enchantement n’a pas, pour autant, faibli. Elle se réfugie pour partie dans le rêve d’une consommation bienfaisante et joyeuse. Les religions, dans leur volonté d’enchantement, ont, par le passé, tenté de gommer tout ce qui contredisait leur interprétation du monde. La chose étonnante est que l’on retrouve, aujourd’hui, cette volonté de mettre sous le boisseau les côtés désagréables du monde qui pourraient décourager les consommateurs de passer à la caisse.

On sait depuis longtemps (et bien avant l’apparition de la publicité en ligne) que les annonceurs pèsent sur les contenus éditoriaux. C’est parfois brutal, c’est parfois plus subtil. Cela passe, à l’occasion, par une autocensure pas forcément consciente : on va éviter de dire du mal d’un gros annonceur dans une publication qu’il contribue à financer. Désormais cela va un cran plus loin : un annonceur veut être associé à un monde lisse, dépourvu de dilemmes moraux et de difficultés.
Le délire informatique que cela produit n’est que l’image démesurément amplifiée de cette nouvelle tendance.

La présentation de soi, à l’ère des images

Presque tout le monde, aujourd’hui, est censé mettre quelque part une photo de son « profil » pour participer à un réseau social quelconque. Et, d’ailleurs, ma tête apparaît en haut de cette page ! Je suis soumis à cette contrainte depuis assez longtemps. Les organes de presse où j’écris m’ont demandé, régulièrement, une vignette avec mon visage. Cela a provoqué, d’ailleurs, d’amusantes discussions en famille. Une vieille tante m’a supplié, par exemple, de changer ma photo, car j’avais vraiment une tête trop rébarbative. J’ai fini par accepter de le faire. Elle ne m’en a plus jamais parlé. Elle ne m’a, non plus, jamais parlé de ce que j’écrivais et qui en disait, à mon avis, plus long sur ce que j’étais que ma photo.

Mais quelle photo mettre pour parler de soi ? Celle que j’utilise pour ce blog a été faite par un photographe professionnel (sur commande d’un journal où je devais être interviewé). C’est l’occasion, pour moi, de remercier Yann Piriou, qui m’a autorisé à l’utiliser. Je ne sais pas si cette photo est belle (certains directeurs de presse trouvent que non). Pour ma part, elle me plaît car elle dit quelque chose de ce que je suis, à mes propres yeux.

Pour beaucoup de personnes, la question de l’image qui parle de soi est torturante. Au point qu’il semblerait que la manie de la retouche envahisse même le champ des photos des profils sur les réseaux sociaux. Alors j’ai décidé de faire l’expérience. J’ai utilisé, un peu au hasard, un logiciel de retouche automatique gratuit et voici, en même pas trente secondes, ce qu’il a produit.

Avant et après la retouche

J’ai instantanément rajeuni de dix ans ! Ma peau est légèrement plus tendue et surtout beaucoup plus lisse. Je suis mieux rasé et j’ai les cheveux un peu moins grisonnants. Mais le paradoxe est que je n’ai jamais ressemblé à la photo de droite. Dix ans plus tôt j’avais une autre tête. Le vieillissement et la maturité sont des processus globaux et bien plus complexes qu’une simple histoire de peau.

Il y a autre chose qui me met mal à l’aise, avec la photo de droite, c’est que je n’y trouve pas trace des passions qui m’habitent. J’apparais comme un personnage lisse et un peu niais. Est-ce ce genre d’impression que les utilisateurs des logiciels de retouche cherchent à produire ? Il semblerait que oui et que cette tentative soit assez ancienne. Roland Barthes déjà, en 1957, dans les Mythologies, parlait des visages « plans, lisses, poncés par la vertu » des photographies d’acteurs du studio Harcourt.

Des autoportraits d’artistes, quant à eux, pleins de relief

Cette quête du masque d’impassibilité m’interroge et elle m’interroge d’autant plus que les artistes adeptes de l’autoportrait n’ont en général, rien caché de leurs espoirs et de leurs tourments.

Rembrandt est une sorte de recordman du genre. Entre tableaux, eaux-fortes et dessins il a approché les 90 autoportraits (aujourd’hui accessibles). Certaines de ces œuvres sont des mises en scène. Rembrandt se déguise, à l’occasion, pour évoquer un personnage célèbre. Mais dans la plupart des tableaux on sent plutôt une interrogation, une quête d’identité. On est bien au-delà de la retouche, naturellement, puisqu’il s’agit de peintures. L’artiste nous montre ce qu’il veut bien de lui. Mais on a l’impression qu’il a accentué les reliefs qui le caractérisent plutôt que de les raboter.

Autoportrait de Rembrandt, à la cinquantaine

On m’objectera que cela vaut pour les hommes et que les femmes sont soumises à l’impératif social de paraître. Mais je trouve le même parti pris de mise en relief chez des artistes féminines. Käthe Kollwitz, dont j’ai parlé dans un autre post de ce blog, a, elle aussi, régulièrement pratiqué l’autoportrait. Et il ne semble pas qu’elle ait masqué quoi que ce soit de son vieillissement et de ses tensions. On la voit, ci-dessous, à peu près au même âge que Rembrandt

Autoportrait de Käthe Kollwitz, à 57 ans

Et j’ai été bouleversé, il y a quelques années, en voyant, au Musée d’Art Moderne de la Ville de Paris, une exposition de l’artiste finlandaise Helene Schjerfbeck (à peu près de la même génération que Käthe Kollwitz), qui, à la fin de sa vie, a scruté son visage au fil de son déclin.

Autoportrait d’ Helene Schjerfbeck à 77 ans

Elle n’a pas hésité, on le voit, à accentuer la dissymétrie de son visage qui est un des sujets de préoccupation majeur de ceux qui retouchent leur portrait.

On observe donc deux stratégies opposées : le gommage des aspérités, d’un côté, et la mise en évidence des arrêtes vives, de l’autre.

Ne pas se livrer tout en se montrant, paradoxe de notre époque

On devine ma sympathie pour les arrêtes vives. Je suis toujours un lecteur assidu et passionné des Psaumes, ce livre de cris, de joies et de larmes. Il y a là bien plus de vie que dans un jardin de statues coulées dans le marbre !

On pense, en général, que ceux qui arrangent leur visage cherchent à plaire. C’est sans doute le fond de l’affaire, mais c’est une recherche assez pathétique. Car ce n’est pas tant la jeunesse ou le rajeunissement le propos. L’idée est plutôt de faire de son visage un moule régulier, donc de se conformer à un standard supposé plaisant et de donner à voir une personne que l’on n’est pas. C’est une manière de ne pas faire trop de vagues, de ne pas afficher une singularité exagérée et d’obtenir une approbation sociale de surface. C’est sans doute ce que cherchent, d’ailleurs, les amateurs de « like ». Et c’est sans doute, également, une contre-partie de la frénésie actuelle de monstration : on finit par se cacher soi-même en prétendant se montrer.

Sortir du moule n’est pas si simple. Les grands artistes y parviennent en suivant leur démarche et leur recherche. Cela vaut-il la peine pour tout un chacun ? Je le crois. Mais c’est affaire de confiance : confiance en l’autre et confiance en soi. Et, ultimement, confiance dans le regard de Dieu qui nous voit et nous aime tels que nous sommes.

Les mathématiques servent aussi à apprendre à dialoguer !

La n+1ème réforme de l’enseignement des mathématiques, au lycée, fait des vagues (comme souvent !). Un enseignement de spécialité unique a été conçu, pour la classe de première, aussi bien pour ceux qui se destinent à une carrière scientifique, que pour ceux qui pensent simplement utiliser des outils mathématiques dans leur métier. Du coup, la marche est trop haute pour beaucoup d’élèves, qui se trouvent en difficulté, à la sortie d’une classe de seconde qui ne les avait pas préparés à cela. Un épisode chaotique de plus ?

Derrière ces multiples réformes, et les remous qu’elles suscitent, se joue la place sociale des mathématiques dans l’enseignement français et il est clair que le prestige de cette discipline est en recul. Le nombre d’heures prévues dans les programmes diminue, année après année. Les enseignants en école d’ingénieur ou à l’université en voient les conséquences depuis plusieurs années : les étudiants ne maîtrisent plus les mêmes prérequis que naguère.

Il se trouve que ma propre biographie est traversée par cette question du rôle à attribuer aux maths. J’ai suivi, d’abord, un cursus de mathématiques, discipline où j’avais des facilités, jusqu’à entrer à l’Ecole Normale Supérieure (parmi les derniers, quand même !), obtenir l’agrégation de mathématiques et faire quelques (très modestes) travaux de recherche en mathématiques appliquées. C’est ensuite que j’ai bifurqué pour l’administration des Ponts et Chaussées, l’aménagement urbain, puis la sociologie.

Et, donc, que penser du rôle à donner aux mathématiques dans l’enseignement ? Deux lectures me semblent possible : oui, on a donné une place exagérée aux mathématiques ; mais, d’un autre côté, en édulcorant sa place dans l’enseignement on supprime, au passage, une formation à l’argumentation qui fait cruellement défaut aujourd’hui.

Je vais suivre ces deux lectures possibles, l’une après l’autre.

Oui, on a donné une place exagérée aux mathématiques

J’ai eu l’occasion de suivre de près le cursus suivi par les élèves ingénieurs à l’Ecole des Ponts et Chaussées. Vu les professions auxquelles ils se destinent, à la sortie de l’école, seule une minorité d’entre eux a besoin du bagage mathématique que l’on exige d’eux lors du concours d’admission. Ceux qui entament une carrière scientifique et technique, qui travaillent en conception, en recherche développement, en ont besoin. Les autres se destinent plus à des métiers d’ensembliers où ils animent des équipes pluridisciplinaires et où seules des notions techniques générales leur sont utiles.

Ensuite, les mathématiques, cela a été dit et redit, ont été utilisées d’abord comme un outil commode de sélection. Et ce mode de sélection n’est pas dépourvu de biais : il sélectionne des personnalités pas forcément ouvertes aux autres, qui peuvent accorder une foi exagérée aux calculs, sans voir les présupposés qu’ils incluent. Dans le monde de l’aménagement, par exemple, les faces à faces entre ingénieurs et usagers sont souvent grinçants.

De plus, autre argument, beaucoup de logiciels incorporent, aujourd’hui, des calculs tout faits et seuls leurs concepteurs ont besoin d’être au fait des détails de leur fonctionnement. Il suffit, par exemple, d’appuyer sur une pédale de frein pour lancer un logiciel d’assistance au freinage dont très peu d’automobilistes maîtrisent les tenants et les aboutissants. Cela implique que le bénéfice procuré par la maîtrise des outils mathématiques s’en trouve nettement réduit.

Enfin, si on sort des hautes sphères de l’ingénierie, force est de constater que le français moyen ne sait même pas utiliser la multiplication dans la vie courante. Il semblerait en avoir appris suffisamment à la fin du CM2 (pour ne pas dire une classe antérieure) ! Le manque d’usage des notions mathématiques dans la vie de tous les jours provoque une perte de compétences irrémédiable. Dès lors, pourquoi s’acharner à lui apprendre des notions qu’il oubliera très rapidement ?

Toutes ces remarques pourraient conduire à penser que les cris d’alarme que lancent les enseignants en mathématiques sont d’abord les réactions corporatistes d’une profession qui tient à sa place éminente.

Mais les choses ne sont pas si simples.

Les mathématiques, une école de l’argumentation

Je lis de temps en temps les productions d’un ancien camarade de l’Ecole Normale Supérieure (admis, lui, parmi les tout premiers), Jean-Pierre Demailly, sur l’enseignement des mathématiques. J’y retrouve la trace d’une personnalité que j’ai connue : concernée par les questions de la transmission et pas uniquement par l’approfondissement de son savoir.

Une de ses premières prises de position fit suite à une des saillies de Claude Allègre, alors ministre de l’éducation nationale, qui avait déclaré, en 1999 : « les mathématiques sont en train de se dévaluer, de façon quasi inéluctable. Désormais, il y a des machines pour faire les calculs. Idem pour les constructions de courbes ».

On pourra consulter l’ensemble de la réaction de Jean-Pierre Demailly sur sa page personnelle. J’y relève, pour ma part, deux arguments forts. Le premier est de prendre acte du fait que les mathématiques ont une utilité de plus en plus hétérogène au sein de la population. Dans ce cas, il faut privilégier des filières différentes les unes des autres, alors qu’on est, au contraire, en train (au collège, puis au lycée) d’homogénéiser de plus en plus les cursus. Je le cite : « Le grand tort des anciennes filières C, D, E a été d’instituer un système de sélection par les sciences (et, en l’occurrence par les mathématiques), qui a été ressenti par beaucoup comme une dictature des mathématiques sur l’ensemble des autres disciplines – y compris les autres disciplines scientifiques. Le moyen radical trouvé pour supprimer cette « dictature » a été de nier les différences individuelles et le jeu de balance possible entre les disciplines. […] Cela a conduit en fait à un système encore plus inégalitaire qu’autrefois, où seuls les étudiants les plus favorisés et/ou bénéficiant d’un soutien approprié peuvent tirer leur épingle du jeu ». L’épisode actuel, d’un enseignement commun à destination d’élèves qui ont des projets différents, est, on le voit, la poursuite de cette stratégie fatale.

Et le second argument est, à mes yeux, le plus fort : « les bacheliers qui entrent à l’université paraissent très mal préparés [à ce qui les attend] ; bien souvent, leur vision des mathématiques au sortir du lycée se réduit à la pratique aveugle de techniques stéréotypées et une vision figée des mathématiques – comme si jamais ils n’avaient eu l’occasion de se rendre compte que les mathématiques sont avant tout la science du raisonnement plutôt qu’une technologie des recettes de calcul ». A force de simplifier les contenus, on en fait une série de trucs à appliquer et on se détourne de l’apprentissage de la démonstration.

Il est vrai que, sans doute, seul quelqu’un qui n’a pas été en difficulté face aux maths, peut se rendre compte qu’il s’agit, d’abord et avant tout, d’une science du raisonnement. Elle n’est, d’ailleurs, pas la seule. Autrefois, la rhétorique en tenait lieu, également. La dissertation française ou philosophique en font partie, elles aussi. Mais il est certain que l’apprentissage du raisonnement est fortement lacunaire, de nos jours. Claude Allègre, pour parler du lui, tout au long de sa carrière, et avant même d’être ministre, a laissé soupçonner, à plusieurs reprises, qu’il ignorait totalement ce qu’argumenter voulait dire. De ce point de vue, il a été une sorte de précurseur de l’ambiance actuelle, où l’affirmation gratuite et l’invective sont plus facilement entendues qu’une argumentation.

Du bon usage de l’argumentation

La question est donc : que font ceux qui ont eu la chance d’approfondir cette science du raisonnement ? J’entends : que font-ils dans des situations pratiques où les enjeux ne sont pas purement mathématiques ? J’ai pu côtoyer deux cas de figure assez contrastés. Les uns (et cela renvoie à mes premières considérations) utilisent cette gymnastique pour prouver qu’ils ont raison et disqualifier leurs interlocuteurs. Les autres, à l’inverse, mobilisent ce savoir-faire d’une manière symétrique : ils s’en servent également pour clarifier le point de vue de l’autre, en prendre la mesure, le comprendre, le rendre audible et discutable.

A ce propos, un des arguments récurrents des tenants de la formation mathématique est de dire qu’une part majeure de l’innovation repose sur cette discipline. Ce n’est pas entièrement vrai. L’innovation médicale, ou biomédicale, l’innovation informatique et même une part significative de l’innovation industrielle, ne s’appuient pas directement sur les outils mathématiques. En revanche, elles supposent d’utiliser une approche argumentative comparable à celle des mathématiques. Ensuite il y a quelque chose qui renvoie à ce que nous venons de dire : le succès de la Silicon Valley, par exemple, n’a pas reposé seulement sur une excellence scientifique. Les innovations qui y ont vu le jour ont percé parce qu’elles ont su répondre à des attentes, reformuler des demandes, bref traduire le langage de tout un chacun en programme de recherche. Dans ce domaine aussi on voit, donc, que la clarification que permet la formation mathématique est surtout utile quand elle nourrit un dialogue.

J’ai commencé, par exemple, à utiliser Internet avant l’apparition de Google. Je me souviens encore des moteurs de recherche (complexes et laborieux) que j’utilisais à l’époque. Et je me souviens également du jour où un collègue m’a parlé d’un nouveau moteur de recherche qui s’appelait Google. En 5 minutes je l’avais adopté : c’était l’outil qui se rapprochait le plus de ma manière de formuler les questions.

Donc oui, nous avons besoin, nous avons un urgent besoin, de personnes capables de démêler l’écheveau de situations complexes, d’attentes hétérogènes, d’enjeux entrecroisés. Nous avons besoin d’acteurs en mesure de reformuler des attentes d’une manière audible et compréhensible par le plus grand nombre de personnes possible. Il nous faut absolument sortir du jeu actuel des pseudos échanges où chaque partie se contente d’éructer sa vision des choses à destination de ses adversaires.

Les personnes qui ont eu une formation à une discipline logique ont acquis des compétences pour ce faire. J’ai souvent rendu grâce à mon parcours mathématique quand j’ai dû animer des réunions foisonnantes, menacées de partir dans tous les sens.

Mais il reste un vide intersidéral, dans l’enseignement : les lieux où l’on discute sont peu nombreux ; ils reposent beaucoup sur les choix pédagogiques personnels de l’enseignant. Et l’école est dépendante des logiques sociales d’exclusion et de classement qui pervertissent, aux yeux de beaucoup de catégories sociales, la confiance dans les institutions et donc dans les arguments formels, quels qu’ils soient.

Donc oui, les mathématiques peuvent être une école du raisonnement, mais encore faut-il construire des lieux où le dialogue raisonné a droit de cité. Et c’est là que nous sommes collectivement défaillants.