Débat Climat avec Valérie Masson-Delmotte – Partie 2

Fête de l’Huma 2025 - Débat Climat avec Valérie Masson-Delmotte

Partie 2 : L’action politique

PCF Paris-Saclay

Je voudrais qu’on glisse un petit peu vers la question de l’action politique, au niveau international, par exemple. Vous avez été coprésidente du groupe 1 du GIEC, qui est le groupe intergouvernemental sur l’évolution du climat. Ce groupe est régulièrement convoqué lorsqu’on parle du climat de la Terre. De ce que vous nous avez présenté, on entend quelques signaux favorables. Finalement, sentez-vous avoir eu un poids un niveau du GIEC pour favoriser cette évolution positive ? Êtes-vous suffisamment entendus, selon vous, des politiques ?

VMD

Ce n’est pas une question simple. La première alerte des scientifiques remonte aux années 70. Les premiers rapports de l’Académie des sciences américaine sur l’influence humaine sur le climat à venir, avant que les gens n’en fassent l’expérience, remontent à la fin des années 70. La communauté scientifique internationale, notamment dans le cadre de l’Organisation météorologique mondiale, s’est structurée pour essayer de construire un dialogue avec les représentants des différents pays. Cela s’est concrétisé en 1990 par la mise en place du GIEC dont le but est de passer en revue l’état des connaissances et fournir de manière neutre, non prescriptive, un état des lieux sur le climat, son fonctionnement, l’influence humaine, les impacts observés, les risques à venir et les solutions, les leviers d’action pour gérer les risques, renforcer la résilience, s’adapter à un climat qui change et répondre aux besoins de développement tout en décarbonant. C’est vraiment le but des différents groupes de travail, des différents rapports du GIEC.

Ce qui est impressionnant dans la durée, si on regarde sur 1990-2025, c’est de voir que finalement, ce qui était attendu se réalise. La trajectoire de réchauffement correspond aux premières simulations, aux caractéristiques qui avaient été bien anticipées par la physique du climat depuis les années 90. C’est assez frappant sur la force de la capacité de compréhension, sur les impacts observés, les impacts pour les écosystèmes, les impacts pour la production alimentaire, pour la sécurité en eau, la sécurité des lieux de vie. Souvent, les impacts s’aggravent plus vite que ce qui avait été anticipé. C’est aussi ce qu’on apprend en observant ces systèmes, en observant leur seuil de tolérance quand ils sont touchés, notamment par des événements extrêmes. On a révisé à la hausse les risques climatiques pour un niveau de réchauffement donné. On comprend mieux maintenant qu’il y a 10 ans à quel point on aurait intérêt à limiter le réchauffement au niveau le plus bas possible.

Les travaux du GIEC ont conduit à la mise en place de la Convention cadre des Nations Unies sur le changement climatique. Le protocole de Kyoto, peu contraignant, s’adressait plutôt aux pays développés. Ceux qui se sont engagés à faire des petites choses les ont tenues, sauf les États-Unis qui en sont sortis. Les rapports du GIEC de 2013-2014 ont été mobilisés dans la rédaction de l’accord de Paris sur le climat qui vise à limiter le réchauffement largement sous 2 degrés, avec l’aspiration à le contenir à 1,5 degré, sachant qu’on va vers un monde 1,5 degré plus chaud d’ici 2030, en fait, en l’état actuel. Les rapports du GIEC et leur phase d’approbation par les représentants de tous les pays, résultent d’une co-construction sciences et politiques, nécessitant de monter en compétence scientifique les représentants de tous les pays. Ces rapports s’adressent à un cadre intergouvernemental. Ils sont complétés par ce qui peut se faire à l’échelle nationale. Dans différents pays, il y a des Climate Change Committee, des Hauts Conseils pour le Climat. En France nous avons des conseils scientifiques dans certaines villes ou des groupes régionaux d’experts climat. Les interfaces sciences-politiques sont multiples. En tout cas, le GIEC permet d’avoir une base scientifique commune, reconnue par tous les pays, et de séparer un socle scientifique reconnu par tous des négociations où chacun arrive avec ce qu’il a envie de mettre sur la table ou pas.

PCF Paris-Saclay

Justement, si on descend à cet échelon national, puisque vous êtes dans le Haut Conseil pour le Climat, votre rôle peut-il se traduire par une action de politique publique en faveur du climat ? Quels sont les éléments que vous voyez évoluer en ce sens-là ?

VMD

Alors le rôle du Haut Conseil pour le Climat (HCC) est très différent de celui du GIEC. Il est de passer en revue les objectifs de la politique publique française et leur mise en œuvre par rapport au changement climatique, à la fois pour l’adaptation et pour la réduction des émissions de gaz à effet de serre. Le HCC peut faire des recommandations notamment en termes de diplomatie internationale. Il peut s’autosaisir sur des thématiques qu’il souhaite creuser, être saisi par le Conseil économique social et environnemental (CESE), par le Parlement qui ne le fait pas beaucoup, malheureusement, par le gouvernement. Dans le passé, le HCC a été saisi sur certains sujets, par exemple le rôle des importations, l’empreinte carbone de la France par rapport au commerce international. Le gouvernement doit répondre de manière détaillée au rapport du HCC.

Je vais donner des exemples. On a fait la recommandation sur un projet de loi, avec une évaluation de ses implications avant, puis un suivi de ce que ça permettait ou pas de faire en termes de trajectoire de réduction des émissions de gaz à effet de serre. C’était sur le projet de loi venu des travaux de la Convention citoyenne sur le climat, la loi qui s’appelait Climat Résilience. Le gouvernement avait chargé un cabinet de conseil de faire une évaluation de la trajectoire sur laquelle le avancées de cette loi nous plaçait. On avait souligné le besoin de coordination interministérielle. Si vous avez au ministère de la Transition écologique une feuille de route qui reste là, il ne se passera rien. Pour que ce soit opérationnel, il faut que chaque ministère ait une feuille de route et qu’il y ait un outil, comme le Secrétariat général à la planification écologique, qui puisse permettre de mieux articuler les politiques publiques de manière transverse aux différents ministères.

Ça ne vous a pas échappé qu’il y a parfois des tensions entre le volet finance et le volet action pour l’environnement ou le volet agricole et le volet action pour l’environnement. On voit bien les limites de l’exercice. Par exemple, quand on a une loi agricole où on n’intègre pas la réduction des émissions de gaz à effet de serre, qu’on met en avant les enjeux d’adaptation, mais pas la dimension de réduction du réchauffement, on n’aborde pas de manière systémique les enjeux de transition agroécologique. Un rapport spécifique sur le système alimentaire agricole qu’on avait fait un an avant n’a pas été pris en compte dans les choix du Parlement et du gouvernement sur la loi de souveraineté renouvellement agricole. Ce sont les limites de l’exercice.

PCF Paris-Saclay

Alors justement, puisqu’on est sur les limites, sentez-vous qu’il y a d’autres leviers à mobiliser ?

VMD

Un autre levier, c’est l’articulation entre Europe et politique nationale. Le HCC fait aussi des recommandations par rapport à la position européenne. On est à un moment charnière en ce moment puisque se jouent les objectifs 2040 que se donne la Commission européenne. L’objectif européen correspond à moins 55% en 2030 et neutralité carbone en 2050, ce qui est compatible avec une limitation du réchauffement proche de 1,5 degré déclinée par rapport à la responsabilité historique européenne. Nous ne sommes pas encore sur la trajectoire pour tenir les objectifs 2030. Si on extrapole ce qui est déjà mis en place au niveau européen, si chaque pays tient sa part, nous irions plutôt vers moins 49% en Europe entre les années 90 et 2030, ce qui est plutôt pas mal. Nous devrions tous en être fiers.

Le point de passage 2040 est important. La Commission européenne et le Haut Conseil européen pour le climat ont proposé un point de passage à moins 90% vers 2040 définissant ensuite le point de passage 2035. C’est un point très compliqué dans le positionnement des différents pays, dont la France, avec des enjeux complexes de politique industrielle, de compétitivité économique et de coût de l’énergie qui engendrent des pressions du monde économique et du monde industriel extrêmement fortes pour alléger un peu les engagements à horizon 2030 et revoir à la baisse les objectifs 2040. La semaine dernière, le HCC a expliqué pourquoi il est important de maintenir les objectifs initiaux en soulignant non seulement les enjeux climat, mais aussi ceux d’indépendance et de souveraineté. Nous dépensons chaque année 65 milliards d’euros pour acheter du pétrole et du gaz. Pour moi c’est « tomber de Charybde en Scylla » entre dépendre du gaz et du pétrole russe ou du gaz et du pétrole américain avec des risques de vassalisation par rapport à cette dépendance énergétique. Cette vision stratégique mérite d’être réfléchie, déclinée et mise en œuvre.

Le rapport de juillet dernier du HCC a pour titre : « Face à l’aggravation des impacts et face à l’affaiblissement du pilotage, relancer l’action climatique ». L’aggravation des impacts est constatée : vagues de chaleur, sécheresses, vecteurs de maladies comme les moustiques mais aussi les moucherons qui transmettent des maladies aux animaux d’élevage, dégradation des forêts… On a une forêt française qui prend de plein fouet chaleur et sécheresse. Avant, la forêt française s’accroissait, c’était un puits de carbone intéressant. Désormais, on en a perdu la moitié. On voit bien que l’on est sur des aspects importants, souvent là où les injustices climatiques frappent de plein fouet, là où apparaissent des vulnérabilités particulières. Mayotte, par exemple, a été touchée par une tempête tropicale de forte intensité. Le climat qui se réchauffe induit une intensification des ouragans ou des cyclones tropicaux. Les régions de France, Pyrénées-Orientales ou autres, connaissent des sécheresses sur plusieurs années, conditions propices aux incendies. C’est un signal fort. Et puis des inondations intenses.

Cet été avec des alertes orange-rouge nous étions en mode gestion de crise et pas du tout en mode prévention ou financement de l’adaptation qui permet de protéger les personnes les plus fragiles. On voit bien à quel point les écoles, lieux qui hébergent des jeunes enfants, ne sont pas prêtes, car ce n’est pas seulement les personnes âgées qu’on doit protéger comme on l’avait appris après la canicule de 2003. Les financements de l’adaptation ne sont pas suffisants et les vulnérabilités pas assez prises en compte pour arriver à les réduire. En termes de pilotage, on attend depuis deux ans la programmation pluriannuelle de l’énergie qui n’a pas été publiée cet été. La France n’a pas de feuille de route sur son mix énergétique pour les années à venir. On a l’impression qu’à chaque fois les gouvernements consultent, préparent, font relire puis reculent devant l’obstacle. Il y a eu des progrès sur la trajectoire d’adaptation au réchauffement. La France s’est donnée une trajectoire de référence avec une réflexion de planification. Mais après, concrètement, qui finance ? Comment assure-t-on la mise en œuvre ? On a un décalage entre ce qu’on pourrait faire et ce qu’on met en œuvre. C’est pour ça qu’on parle d’affaiblissement du pilotage.

Questions du public

Q2

Vous avez dit qu’en tant que scientifique vous pouvez avoir une influence sur les politiques publiques. Mais on a des gouvernements qui ne sont pas forcément actifs, comme ceux qu’on peut avoir actuellement. Pensez que les scientifiques pourraient être un peu mieux entendus s’ils vont dans la rue avec la population ? Ce type d’engagement-là, est-il perçu par un comité scientifique ?

VMD

Je ne l’ai pas abordé, mais c’est la première chose qui m’est venue à l’esprit sur le titre de la table ronde. Scientifique et politique, entre les deux, il y a vous, il y a le rôle des citoyens, de la société civile, il y a le lien scientifique-monde de l’entreprise, scientifique-administration publique. Et donc pour moi, ça pose la question de tout ce qui est démocratisation de la science. Cela pose la question de comment on fait participer largement le public dans la production de connaissances. Et puis après, comment fait-on, sur la base d’éléments objectifs factuels, pour avoir une influence en tant que société civile. Aux États-Unis on a de plus les scientifiques face aux menaces autocratiques, donc l’intimidation, la censure, les menaces de coupe de budget, de licenciement, les menaces personnelles dans un pays très violent. Comment protège-on les scientifiques dans ce contexte-là ?

J’essaie de faire aussi, de donner la parole à ceux qui ne peuvent pas s’exprimer. Mes collègues américains qui ont été virés brutalement pour beaucoup d’entre eux ne souhaitent qu’une chose : s’impliquer avec la société civile pour reconstruire des bases de confiance et une société qui tienne compte des éléments factuels dans la prise de décision, au-delà du cadre idéologique dominant.

Q3

Au début, vous avez parlé du groupe 1 du GIEC. Vous avez dit qu’il était non-prescriptif. Quand on superpose les enjeux qui sont relatés dans le groupe 1 et ce dont vous avez parlé, avec les limites à l’action publique, dont les inégalités sociales, l’aspect corruptif des fossiles, etc., on voit qu’il y a une superposition quasi totale entre le problème lié au capitalisme et le problème lié à l’environnement. Quand la prescription liée au groupe 1 est presque lisible entre les lignes, comment se fait-il que du coup, le groupe 3, qui lui est censé prescrire, dise juste qu’on va faire de la clean tech, on va juste récupérer du CO2 de l’atmosphère, ce qui, on le sait, ne marche pas. Comment fait-on pour avoir un groupe qui mette en avant une prescription noir sur blanc ?

VMD

Aucun des groupes du GIEC n’a pour mandat d’être prescriptif. Le mandat, c’est de s’appuyer sur les éléments probants de la littérature scientifique, technique, économique, d’en faire une synthèse avec les éléments robustes, les limites, les incertitudes. Il s’agit en fait d’analyses conditionnelles. Si on veut limiter le réchauffement à tel niveau, qu’est-ce qui peut être décliné ? C’est plutôt conditionnel, jamais prescriptif. Les rapports du GIEC, pour qu’ils soient justes, reflètent la littérature scientifique. Si la littérature scientifique manque, par exemple sur des approches d’écologie radicale ou de décroissance, vous ne les aurez pas dans les rapports du GIEC, parce que ce n’est pas l’opinion ; cela doit se baser sur des travaux publiés, reproductibles et vérifiables.

Vous faites référence à la critique récente publiée par Jean-Baptiste Fressoz, je pense. Dans le dernier rapport du GIEC, groupe 3 justement, pour la première fois, il y a un chapitre sur le secteur de la demande, pas simplement comment on transforme les systèmes de production, mais la place des transformations de société, des styles de vie, de la demande, avec une réflexion prenant l’angle de l’efficacité et de la sobriété. Ce qui est très frappant, c’était de constater quel discours ou quel angle peut être audible dans différentes régions du monde. La majorité de la population du monde vit dans des endroits où elle manque de services de base, avec une aspiration très forte au développement, et un poids de l’histoire, y compris coloniale. Dans ce contexte, les discours sur la sobriété sont inaudibles. On a aussi une limite culturelle dans ce qui est audible par les gouvernements en France ou pour certains pays d’Asie. Au moment de l’approbation du résumé pour les décideurs, on voit bien qu’il y a parfois une attente forte d’approche plutôt pro-business. Le résultat est un compromis.

Il y a les citoyens, il y a les scientifiques, il y a le politique, et puis il y a l’État de droit, point important. Je vous invite à lire l’avis consultatif de la Cour internationale de justice qui est saisie sur les aspects qui touchent à l’intérêt général. Les communs planétaires en font partie. Elle a été saisie par l’Assemblée générale de l’ONU à la demande de petits États du Pacifique à l’initiative d’étudiants en droit, sur les obligations des États par rapport au changement climatique. J’ai été auditionnée sur des aspects techniques avec quelques collègues. C’est un avis extrêmement puissant parce qu’il rappelle de manière très claire à quel point bénéficier des droits humains fondamentaux est intimement lié à la protection du système climatique. Il ancre sur cette base-là les obligations des États par rapport aux entreprises, par rapport aux communautés, aux autres pays les plus vulnérables également. Finalement, il pose les bases pour la première fois dans un cadre intergouvernemental aussi de ce qu’est la justice climatique.

Débat Climat avec Valérie Masson-Delmotte – Partie 1

Fête de l’Huma 2025 - Débat Climat avec Valérie Masson-Delmotte

Partie 1 : approche scientifique du climat

PCF Paris-Saclay

Merci à Valérie Masson-Delmotte d’être parmi nous aujourd’hui. Nous allons parler du climat, du rôle des scientifiques et des politiques. Valérie Masson-Delmotte est climatologue, paléo-climatologue, directrice de recherche au Laboratoire des sciences du climat et de l’environnement au Commissariat à l’énergie atomique et aux énergies alternatives (CEA). Elle est responsable du Centre climat-société de l’Institut Pierre-Simon Laplace et membre du Haut Conseil pour le climat et de plusieurs comités éthiques. Elle a été coprésidente du groupe de travail 1 du GIEC et elle a contribué à un récent rapport sur les indicateurs du changement climatique de 2024 qui pointe que les activités humaines augmentent le déséquilibre énergétique de la Terre et entraînent une élévation du niveau de la mer et un réchauffement plus rapide de la Terre dans la dernière décennie.

Nous allons entrer dans le détail pour évoquer d’abord l’état du climat, puis nous parlerons de l’action des politiques publiques, internationales et françaises, sur le climat. Nous ferons un détour sur la situation américaine et terminerons sur un sujet d’importance : les carrières des femmes scientifiques.

Valérie Masson-Delmotte, pourriez-vous nous retracer les grandes évolutions du climat de la Terre telles qu’elles sont connues actuellement ?

VMD

Je ne vais pas vous faire toute l’histoire de la Terre depuis son origine, mais si on regarde à l’échelle des dernières dizaines de millions d’années, l’histoire du climat de la Terre est marquée par une succession de périodes très chaudes, plus chaudes qu’aujourd’hui à l’échelle géologique, avec un niveau naturel plus élevé de dioxyde de carbone (CO2) et de gaz à effet de serre, par exemple à la période des dinosaures, il y a environ 60 millions d’années. À partir de ce moment-là, on a eu un refroidissement graduel, notamment parce que des facteurs géologiques ont retiré graduellement ce CO2 de l’atmosphère. Donc le climat s’est refroidi, et à partir d’un certain moment, il a été un peu plus frais. La configuration des continents et des océans a permis le début de l’englacement de l’Antarctique, ce qui a amplifié cette tendance au refroidissement parce que les glaces réfléchissent (donc la Terre absorbe moins et se refroidit – ndlr) ; une fois qu’elles s’installent il y a un effet miroir. Ça a commencé il y a environ 35 millions d’années.

Il y a à peu près 3 millions d’années, l’englacement du Groenland marque le début d’une succession de périodes douces, qu’on appelle interglaciaires, et de périodes encore plus froides, qu’on appelle glaciaires, que l’on décrit parfois comme des cycles. On les comprend comme étant l’ajustement du climat aux variations lentes de la position de la Terre par rapport au Soleil. L’orbite de la Terre autour du Soleil est parfois plus circulaire ou plus elliptique. Le moment où la Terre est plus proche du Soleil change ce qui va répartir différemment l’énergie solaire (une trajectoire très elliptique crée des variations saisonnières importantes, pas de variation avec une trajectoire circulaire – ndlr). C’est le moteur des glaciations. Ce qui est assez formidable, c’est que les premières connaissances sur ce sujet, viennent à partir du XVIIIe siècle avec les travaux des naturalistes sur les fossiles qui témoignent d’environnements différents ou des pollens. La première idée que c’est la position de la Terre autour du Soleil qui a été le moteur des glaciations a été formulée par un mathématicien dans les années 1940, un mathématicien serbe : Milankovic. Plus tard, on a réussi à extraire des sédiments au fond de l’océan et des carottes de glace. C’est à ce moment-là, en les datant, que finalement on a confirmé l’hypothèse du rôle de la position de la Terre autour du Soleil en pouvant dater ces grandes périodes glaciaires ou plus douces. La dernière période glaciaire était il y a 20 000 ans : plus de glace en Europe, plus de glace en Amérique du Nord, et un niveau marin plus bas.

À partir des années 1970, on a réussi aussi à modéliser le climat, l’atmosphère, l’océan, la surface des continents, les glaces et leurs interactions. Cela nous a permis de comprendre les mécanismes à l’œuvre. Ce qui est intéressant, c’est de comprendre justement tous les facteurs qu’on appelle des boucles de rétroaction, qui font que quand on affecte la répartition de l’ensoleillement ou l’effet de serre, on va avoir des phénomènes amplificateurs qui font passer d’une période douce à une glaciation graduellement. Puis, quand les calottes deviennent instables, plus brutalement d’une période glaciaire à une période douce. C’est la même machine climatique qui, aujourd’hui, est profondément perturbée par les activités humaines. Ce qui est intéressant, c’est de situer les changements en cours dans ce temps long. Si on regarde la teneur en CO2 dans l’atmosphère, on sait aujourd’hui que c’est nous qui en ajoutons en brûlant des énergies fossiles, charbon, pétrole, gaz, par la déforestation, et par la production de ciment. Le niveau actuel de CO2 dans l’atmosphère est inédit sur 3 à 14 millions d’années. En 150 ans de période industrielle, nous avons refaçonné une atmosphère plus riche en CO2 comme déjà connu à l’échelle géologique mais brutalement. Le climat s’y ajuste avec les mêmes mécanismes que dans le passé.

Un point très important est le fait d’arriver à simuler les grandes périodes passées, les périodes très chaudes, les glaciations. C’est un élément clé dans la confiance qu’on a sur notre compréhension du fonctionnement du climat et sur les simulations d’évolution à venir.

Donc, teneur en CO2 dans l’atmosphère inédite sur 3 à 14 millions d’années et réchauffement en cours depuis 150 ans qui se produit à un rythme encore plus élevé. Le réchauffement des derniers 50 ans est inédit sur plus de 2 000 ans à la surface de la Terre et sur 10 000 ans à la surface de l’océan. Une des conséquences du réchauffement, comme dans le passé en fait, est que les glaces sur les continents reculent. Avec l’océan qui gonfle en se réchauffant, cela fait monter le niveau de la mer, également de façon inédite sur plus de 2 000 ans. On est dans une phase où on est en train de sortir brutalement de la variabilité naturelle du climat telle qu’on l’a connue. Par exemple, si on dépasse un niveau de réchauffement d’un degré et demi, on sort de la plage des périodes douces les plus chaudes du dernier million d’années. Et pour trouver un monde 2 degrés plus chaud que le climat préindustriel, il faut remonter quasiment 3 millions d’années en arrière. Mais on le fait brutalement. Et c’est ça aussi l’enjeu. Parce que les variations climatiques passées, graduelles ont aussi façonné, ont interagi avec l’évolution du vivant et ont aussi façonné les capacités d’adaptation de la végétation, des animaux, des coraux et du reste. Mais nous perturbons cet ensemble brutalement.

PCF Paris-Saclay

Merci beaucoup pour ce tour d’horizon. Je voudrais creuser un peu le détail de votre activité. Comment une climatologue travaille-t-elle ? Sur quels objets ?

VMD

Il y a tout un travail d’observation, observation météorologique, observation océanographique, avec des réseaux d’instruments, des stations de mesure, de bouées, des instruments dans l’océan qui mesurent en profondeur. Ça s’est construit au cours du XXe siècle. Depuis les années 1970, l’observation de la Terre depuis l’espace est assez géniale, parce que, par exemple, on peut observer le niveau de la mer au niveau planétaire depuis l’espace. De même pour observer l’évolution de la glace de mer, la banquise autour de l’Arctique ou la quantité de glace dans le Groenland ou l’Antarctique, alors que par des mesures de terrain, c’est vraiment difficile. Mais nos séries de mesures sont limitées. Si on prend les données météorologiques fiables dans le monde pour reconstituer l’évolution de la température à la surface de l’océan ou du continent, c’est à peu près sur 150 ans. Du côté de l’Antarctique, par exemple, c’est seulement sur une cinquantaine d’années que l’on a des mesures directes. D’où tout le travail qu’on fait sur les archives naturelles pour arriver à tirer une information ou des données historiques. Cela nous permet d’allonger notre perspective et d’avoir un panorama beaucoup plus complet de l’évolution du climat.

J’ai travaillé essentiellement sur l’analyse de carottes de glace du Groenland, de l’Antarctique, du Tibet. Dans les Alpes, il fait trop chaud, il y a trop d’eau qui percole et efface cette mémoire des couches de neige successives. J’ai aussi travaillé sur les anneaux de croissance des arbres qui, par exemple, pour les chênes en France, sont stressés quand il fait chaud et sec. Cela va se marquer dans l’épaisseur ou la densité des anneaux des arbres. Nous avons utilisé des marqueurs de rapports de molécules lourdes et légères sur la cellulose du bois exactement comme l’on fait sur l’eau des glaces polaires. Cela nous a permis de reconstituer les variations de température d’été ou les fréquences de sécheresse sur 800 ans à partir d’analyses d’arbres dans différentes régions de France. On les a d’ailleurs croisées avec les dates des vendanges. Vous l’avez vu, les vendanges sont plus précoces en ce moment. 800 ans de chronologie de date de vendange est un très bon marqueur des variations passées du climat. Chaque étude, chaque archive, chaque carottage, chaque source historique, est une pièce de puzzle. Chaque méthode d’analyse ou de datation permet de mieux tirer parti de ce qu’on a en agrégeant toutes ces données. On met toutes les pièces de puzzle ensemble et cela nous permet de reconstituer quasiment en trois dimensions, du haut des montagnes au fond de l’océan, au fur et à mesure du temps, l’état du climat de la Terre.

En ce moment nous travaillons sur la partie glace de l’Antarctique, sur les deux extrémités du spectre (les indices des variations récentes mais aussi des variations historiques de millions d’années passées – ndlr). On tente de reconstituer très finement les variations des dernières décennies, ce qui n’est pas facile parce qu’il neige peu. D’autre part, mes collègues ont été impliqués dans un nouveau forage qui pourrait permettre de remonter encore plus loin sur ce qu’on sait dans les glaces de l’Antarctique, actuellement jusqu’à 800 000 ans, peut-être jusqu’à 1,5 million d’années vers le passé. Le rythme des glaciations à ce moment-là a évolué de glaciations fréquentes et peu intenses à des glaciations ensuite plus longues et plus intenses. On ne comprend pas exactement les mécanismes à l’œuvre. D’où nos travaux actuels.

PCF Paris-Saclay

Si on glisse un peu plus sur l’actualité, vous avez parlé d’observation de la Terre, par satellite. Évidemment, on n’y a accès que depuis récemment. Comment ce type de données, et beaucoup d’autres j’imagine, permettent de mieux connaître le climat actuel ? Que valident-elles en termes d’évolution climatique ?

VMD

Il y a juste un point que j’ai oublié de mentionner, mais je veux le faire. C’est que quand on s’intéresse au climat passé et à ces archives naturelles, elles sont fragiles. Par exemple, le réchauffement, qui entraîne de l’eau liquide dans les glaciers, efface cette mémoire. Les feux de forêt, qui font brûler des arbres anciens, effacent aussi nos archives. Donc je voulais mentionner cette menace. Et puis aussi le besoin de financement de cette recherche fondamentale, indépendamment de la période actuelle de l’influence humaine sur le climat. Caractériser, comprendre les grandes variations passées, c’est de la recherche fondamentale. C’est intéressant par rapport à l’évolution du vivant, à l’histoire humaine, l’archéologie et le reste. Nous avons ce défi d’arriver à convaincre du besoin de financement de la recherche dans la durée, pas pour vous servir demain pour vos décisions, mais simplement pour augmenter le niveau de connaissance de l’humanité dans toutes les régions du monde. Je voulais le dire parce que la communauté en France qui travaille sur les climats passés a fait un livre blanc de la paléoclimatologie qui va être publié prochainement, justement pour expliquer quelles sont nos voies de recherche et les aspects innovants même dans l’étude du passé. C’est quelque chose qui peut être intéressant pour de jeunes étudiants d’aller aussi dans cette voie-là qui est vraiment une voie de recherche qu’on peut appeler fondamentale, motivée d’abord par la curiosité même si elle débouche sur des choses importantes pour le climat actuel.

Sur l’état actuel du climat, que se passe-t-il ? On a des grandes bases de données dans lesquelles on agrège toutes les observations. Ensuite, on a différents groupes de chercheurs dans le monde qui font une synthèse avec des méthodes différentes. Parce qu’on n’a pas des données partout, parce que les instruments ont changé dans le temps, on doit mettre des corrections en place, et donc avec des approches statistiques qui peuvent être différentes. Ensuite, on compare les résultats de tous ces groupes pour arriver à reconstituer la meilleure estimation et l’incertitude sur le réchauffement actuel. Ça se fait dans les travaux scientifiques. Les méthodologies sont passées en revue dans un cadre collectif dans les rapports du groupe intergouvernemental d’experts sur l’évolution du climat (GIEC). Le dernier que j’avais supervisé a été publié en 2021, donc avec des données qui s’arrêtaient en 2019 ou 2020. Ça fait donc un moment. On s’est dit que ce temps de 8 ans entre deux évaluations successives, était trop long pour éclairer les prises de décisions. On a décidé de réactualiser tous les ans.

Dans cette réactualisation on regarde les émissions de gaz à effet de serre des activités humaines, ce qui réchauffe, les émissions de polluants qui ont un effet plutôt refroidissant sur le climat des activités humaines, ce qui peut masquer le réchauffement. Ensuite, on s’intéresse à comment évolue leur concentration dans l’atmosphère et comment ça affecte le bilan d’énergie de la Terre. On compare ensuite le réchauffement observé et à celui qui peut être attribué aux activités humaines et aux facteurs naturels. Les facteurs naturels qui jouent sont les petites fluctuations de l’activité du Soleil, de temps en temps l’effet des éruptions volcaniques. On les quantifie et on en tient compte. Ensuite, il y a un travail qu’on appelle d’attribution, c’est-à-dire sur ce qui est observé, quelle est la part due aux activités humaines et puis quels sont les facteurs naturels. Si on regarde l’année 2024, celle pour laquelle on a réactualisé l’état des connaissances, on voit un réchauffement qui se poursuit à un rythme encore plus rapide que sur la dernière décennie. On voit que le poids de l’activité humaine a été encore plus fort parce que, à l’effet réchauffant des gaz à effet de serre qu’on continue à ajouter dans le monde, on ajoute la baisse des émissions de polluants, des particules de pollution, ce qui est une bonne nouvelle pour la santé, mais qui permet à davantage de rayonnement solaire d’arriver à la surface et qui est un facteur de réchauffement. Les deux facteurs-là jouent dans le même sens.

Ce qu’on peut également dire, c’est que si on regarde les activités humaines, on a deux réussites et quelque chose qui est en cours de route.

 

Première réussite, les composés qui étaient des gaz à effet de serre et qui détruisaient l’ozone. Ils sont encadrés. Et pour ceux qui avaient le plus gros effet sur le climat, leur concentration baisse depuis les années 90. Donc ça, c’est une réussite. Leurs produits de substitution qui sont utilisés dans les clims et tout le reste montent, mais c’est encadré. Il y aura des substitutions. Donc ça, c’est en bonne voie. Deuxième réussite : les émissions de soufre, qui est un polluant à l’origine de particules nocives pour la santé. Le pic est passé depuis une vingtaine d’années, grâce à l’encadrement, au cadre de régulation en Europe, aux États-Unis, en Chine, pour améliorer la qualité de l’air, y compris dans le transport maritime.

Si on prend les gros morceaux du réchauffement, ce sont les émissions de dioxyde de carbone. Et là, le rythme de hausse s’est ralenti. On n’a pas atteint au niveau mondial un pic ni une baisse nette, mais le rythme de hausse s’est ralenti. Et il s’est ralenti parce qu’on a des politiques publiques qui ont fonctionné. En Europe, les émissions baissent depuis les années 90, aux États-Unis depuis 2005. La bonne nouvelle qui arrive, c’est que du côté de la Chine, les émissions ont baissé sur les derniers 12 mois pour la première fois. C’est un pays émergent qui, aussi par ses politiques publiques, permet de maîtriser les émissions de CO2 liées aux énergies fossiles. Et dans les analyses sous-jacentes, ce qu’on voit qui joue surtout, c’est la production d’électricité décarbonée de toutes sortes, nucléaire et renouvelable. C’est l’électrification des mobilités qui permet de répondre aux besoins en recourant moins au charbon, en recourant moins au pétrole. Puis un début de maîtrise de la déforestation, même si elle se poursuit dans certaines régions. C’est encourageant. Les émissions de méthane continuent à augmenter fort. Les émissions des autres gaz à effet de serre, aussi. On voit qu’il y a un panorama de choses où il y a eu vraiment des avancées nettes. Le gros morceau, c’est d’arriver à tenir le cap par rapport au facteur principal du réchauffement : le dioxyde de carbone. Et puis les émissions de méthane qui sont le deuxième facteur le plus important.

Comment le regarde-t-on le réchauffement ? Sur une seule année ? Sur une moyenne de 10 ans ? D’une année à l’autre, la température à la surface de la Terre fluctue. Elle fluctue parce qu’on a une variabilité spontanée du climat naturel, notamment les interactions entre l’océan et l’atmosphère dans les régions tropicales, ce qu’on appelle les phénomènes la Niña et le Niño, qui, d’une année à l’autre, fluctuent aléatoirement. Au sens du climat, on ne regarde pas sur un an, on va regarder sur une période un peu plus longue. Si on prend les derniers 10 ans, le niveau de réchauffement observé, est de 1,24 degré par rapport au climat pré-industriel. Notre estimation, robuste, vérifiable, réplicable, c’est que 1,22 degrés sont dus aux activités humaines. En fait, il n’y a aucun facteur naturel qui réchauffe sur 150 ans. C’est un point important à retenir. En l’état des connaissances, la quasi-intégralité du réchauffement est la conséquence des activités humaines. On peut aussi montrer que le réchauffement est plus prononcé au-dessus des continents qu’au-dessus de l’océan. L’Europe est le continent qui se réchauffe le plus hors région polaire. En France on en est déjà à 2 degrés de réchauffement, quasiment intégralement dû aux activités humaines. Les extrêmes chauds montent plus que la température moyenne. On l’a encore vu cet été : deux vagues de chaleur intenses. Ce qu’on n’a pas réactualisé, c’est le lien avec les sécheresses ; mais c’est déjà bien établi. Plus l’air est chaud, plus il va vider les sols de leur humidité par l’évaporation et la transpiration quand il ne pleut pas. Le réchauffement aggrave directement les sécheresses agricoles. Dans un climat plus chaud, l’atmosphère peut contenir 7% de vapeur d’eau par degré en plus ce qui va doper les pluies de forte intensité. Si chaque année vous regardez la quantité maximum de pluie en un jour, il y a une tendance nette à l’augmentation. Ce n’est pas le cas partout en France. C’est le cas en région méditerranéenne, très nettement.

Dans notre étude, on a aussi réactualisé la montée du niveau de la mer, qui est une conséquence du réchauffement : 90% de la chaleur rentre dans l’océan. Et quand il se réchauffe, il gonfle. Il se réchauffe sur 3000 m d’épaisseur. Quand on réchauffe les continents, les glaciers fondent. Donc l’eau qui était sur les continents rejoint l’océan. Puis l’Antarctique est attaqué par l’eau de mer par en dessous, sur les parties flottantes. L’eau s’écoule plus rapidement et accélère la montée du niveau de la mer. Le rythme actuel, c’est plus de 4 mm par an sur les derniers 10 ans, contre 2 mm par an en moyenne au XXe siècle. On a vraiment un rythme plus élevé comme conséquence directe de nos activités. Cette tendance ne va pas s’arrêter demain. Même si on stabilise le réchauffement, les glaciers vont s’ajuster. La chaleur continuera de rentrer en profondeur dans l’océan et la montée du niveau de la mer va se poursuivre à l’échelle de siècles voire de milliers d’années. On a acté déjà plus d’un mètre à venir sur le long terme de montée du niveau de la mer.

Les questions du public

Question

Vous aviez évoqué les émissions de CO2 qui viennent des combustibles, qui à la fois réchauffent l’atmosphère par leur pouvoir réchauffant, mais aussi qui ont en effet refroidissant avec l’émission de particules. Pensez-vous qu’en France et dans le monde, on sous-estime les émissions dues à l’agriculture, avec notamment les émissions de gaz oxydés et azotés ?

VMD

On a des inventaires d’émissions qui portent sur tous les secteurs. Si vous regardez les rapports par exemple du Haut Conseil pour le climat, vous verrez qu’on estime la contribution de chaque secteur à chacun des gaz, qu’on peut agréger de différentes manières. Si on regarde en France, le premier secteur émetteur ce sont les transports, puisque notre électricité est décarbonée, ce qui est un peu différent du reste du monde. Le deuxième secteur émetteur après les transports, c’est l’agriculture. Ensuite on a le secteur des bâtiments, le secteur de l’industrie, puis tout en bas le secteur des déchets. Les gaz émis par le secteur agricole, ce ne sont pas nécessairement du CO2, sauf pour la déforestation ou les machines agricoles, mais des gaz qui ont d’autres propriétés, comme le méthane, gaz à effet de serre qui a un effet réchauffement fort mais une durée de vie courte, ou comme l’oxyde nitreux qui a une durée de vie d’à peu près 100 ans. On a cet enjeu d’arriver à agir sur chacun de ces aspects d’une manière intelligente, d’une manière intégrée, pour construire une production agricole qui émette moins et qui soit aussi plus résiliente, ce qui demande des approches système. Ce n’est pas simplement ce que l’on produit, mais aussi ce que l’on consomme.

Question

Ma question est assez technique, en fait. Je vais partir d’une image. Lorsque je décongèle mon frigo ou mon congélateur, je commence par avoir des gouttes d’eau, puis des petits bouts de glace qui se détachent, enfin des gros bouts de glace. J’ai l’impression que c’est ce qui se passe en Antarctique avec la calotte. Comment on peut intégrer ces modèles sur la montée des eaux ? Parce que les morceaux de glace, qui glissent dans l’océan, font monter l’océan d’un seul coup, une sorte d’effet de seuil.

VMD

Concernant l’Antarctique, on est devant des verrous scientifiques, des points d’incertitude importants, notamment sur la possibilité d’influence rapide de certains secteurs qui conduiraient à drainer de la glace et acter une montée plus importante du niveau de la mer. On travaille donc sur les climats passés, des périodes plus chaudes, pour le caractériser. On travaille sur les observations actuelles, sur l’amélioration des modèles, mais on est conscient de cette incertitude. Le risque est de ne pas la communiquer aux décideurs. On a alors construit des scénarios, qu’on appelle des trames narratives, pas simplement le meilleur résultat moyen de tous nos calculs, mais au cas où on ait la fonte la plus forte avec ces processus incertains, quelle en serait l’ampleur plausible.

Actuellement, par exemple, la France a choisi de ne pas l’intégrer comme référence pour l’adaptation du littoral. De la même manière, en fait, quelle pourrait être la pire combinaison d’événements extrêmes à un endroit donné, qui sera importante pour la protection civile, pour assurer la sécurité des personnes ? À l’Institut Pierre-Simon Laplace, on essaie de travailler sur ces aspects-là, un peu dans une approche de catastrophisme éclairé, de creuser les éventualités qui seraient les plus difficiles à gérer et fournir cette information à ceux qui réfléchissent à des infrastructures critiques à longue durée de vie par exemple, de sorte à ce qu’ils puissent avoir tout le spectre des risques possibles.

Aides publiques aux entreprises

Aides publiques aux entreprises

Quand on veut construire un budget de l’État, il convient bien sûr, avant tout, de définir des priorités sociales, économiques et politiques pour le pays. Il faut réfléchir aux moyens financiers à mettre en œuvre pour atteindre les objectifs souhaités. Cela suppose d’anticiper des dépenses, des recettes, d’exiger des emprunts (auprès de la BCE et non pas des marchés financiers). Le sujet est vaste. Nous voulons ici aborder un point particulier mais important : celui des dépenses liées aux aides publiques aux entreprises sans contrôle.

La Commission d’enquête du Sénat sur les aides publiques aux grandes entreprises a publié un rapport que vous pouvez consulter :

https://www.senat.fr/rap/r24-808-1/r24-808-1-syn.pdf

Le sénateur communiste Fabien Gay, très actif sur le sujet, était le rapporteur mais le rapport a été adopté par la majorité du Sénat dont la composition n’est pas à gauche et encore moins communiste. Il devient difficile de défendre l’indéfendable…

L’ampleur des aides accordées sans contrôle est considérable : 221 milliards d’euros, c’est 41% des recettes totales du budget de l’État.

Le chiffrage a dû être réalisé par la commission elle-même en l’absence de données statistiques globales de l’Insee ou d’un chiffrage gouvernemental !

Les aides sont données sous forme d’allègements fiscaux, d’allègement de cotisations sociales, de crédit d’impôt recherche, de soutiens directs, … Les grands groupes touchent la part du lion alors qu’ils ont simultanément versé des milliards d’euros de dividendes et souvent licencié des milliers de salariés.

Quelques-unes des 26 propositions de la commission

  • Demander à l’Insee de créer un tableau détaillé et actualisé sur les aides publiques aux entreprises, en fonction de leur taille.
  • Publier un rapport annuel comportant notamment le suivi des aides publiques versées aux grandes entreprises, aux ETI et aux PME.
  • Fournir au comité social et économique (ex-comité d’entreprise de chaque entreprise) des informations économiques et sociales relatives aux réductions d’impôts, exonérations et réductions de cotisations sociales, ainsi que les crédits d’impôt dont bénéficie l’entreprise.
  • Imposer le remboursement total d’une aide de l’État si l’entreprise procède à une délocalisation.

 

Le PCF vous invite à signer sa pétition pour exiger que l’argent public serve enfin l’intérêt général (pétition accessible sur le site pcf.fr : https://www.pcf.fr/petitions ou auprès des militants de la section PCF Université Paris-Saclay contact@upsaclaypcf.fr).

Deux éléments pour préciser la démarche communiste 

  • Le patron de Michelin avait délocalisé à l’étranger un nouveau dispositif industriel tout neuf, financé par l’État. Devant la commission sénatoriale qui l’auditionnait, il s’est engagé à rembourser l’aide reçue. Le fera-t-il ? Ce n’est toujours pas le cas à ce jour. La vigilance est de mise mais une brèche est ouverte. Il y a des digues à faire sauter et toutes les brèches qu’on crée sont bienvenues.

https://www.youtube.com/shorts/-dNAMplaXRI

  • Parmi les propositions sénatoriales, celle de Fabien Gay de rendre obligatoire l’information du comité d’entreprise des aides perçues de l’État a été retenue. Dans l’objectif communiste, le pouvoir de décider de l’utilisation de l’argent de l’entreprise (issu d’aides ou des profits) ne saurait être réservé aux seuls actionnaires. Les salariés doivent pouvoir intervenir, au-delà d’être informés. Mais lever le secret sur les aides est un premier pas, une première brèche ; là aussi.

Comprendre les objectifs de la loi Baptiste

Comprendre les objectifs de la loi Baptiste (Suite de la réflexion « Debout pour les libertés académiques, et maintenant ? »)

Construite pour compléter le paysage des Contrats d’Objectifs, de Moyens et de Performance (COMP) des établissements[1], la loi Baptiste[2] proposée par le Ministre permet le rapprochement des établissements publics avec les établissements privés au sein de mêmes grands ensembles, alors même qu’elle prétend combattre les établissements privés prédateurs. Tous seraient ainsi soumis aux mêmes modalités d’évaluation.

Il s’agit pour cette proposition de loi en réalité de soutenir la dérégulation totale des établissements : sous couvert de régulation des établissements (essentiellement ceux, publics, qui seraient gouvernés dorénavant par le rectorat) et d’un peu de sémantique pour le privé (agrément pour le privé lucratif, partenariat pour le non lucratif), toutes les composantes seraient qualifiées par la même institution (HCERES s’il survit, ou bien superstructure à inventer absorbant toutes les structures actuelles accréditant IUT, écoles d’ingénieur ou de gestion, ou formations privées). La loi proposée soumet tous les établissements aux mêmes règles, non démocratiques avec une concentration des pouvoirs abusive, hors des établissements, à l’inverse de ce qui serait attendu, notamment un contrôle des aides publiques fournies et des diplômes des établissements privés (Bachelors, Mastères souvent non reconnus en lieu et place des diplômes de Licence et Master).

La délégation des décisions d’ouverture ou fermeture de formations par de simples arrêtés, sans avis du CNESER (l’autonomie des universités devenant celle des recteurs) permet aussi de dissimuler des renoncements nationaux derrière des logiques locales d’établissement : augmentation des frais d’inscription, disparition de formations qui seront saisies par un secteur privé lucratif, modifications des statuts des personnels, etc. Tous ces éléments seraient détricotés localement… sauf peut-être dans les établissements laissés sans moyens, à la charge de l’État, devant respecter des COMP aux indicateurs irrespectueux de service public de l’Enseignement Supérieur et de la Recherche (ESR) : nombre indécent demandé de publications ou de réussites à des appels à projets, taux d’obtention de diplômes négligeant le droit à la réorientation, quotas d’admissions intenables, taux d’insertion professionnelle méprisant la nature des formations, par exemple. Sans des statuts et fonctionnements identiques, les intérêts des établissements divergent, la communauté académique sera fragmentée, impliquant des comportements prédateurs des uns sur les autres et une compétition exacerbée au sein des établissements et entre eux : le traité de Lisbonne consacrant la mise en compétition des régions sera bien à l’œuvre ici !

En gommant ainsi les différences entre secteur public et privé partenaire via cette gouvernance identique, à terme, la possibilité d’une transition d’un type d’établissement (ou d’une composante au sein d’un établissement) vers un autre serait ouverte… et intéressante : des établissements publics soumis à leur « COMP100 % » pourraient être tentés de s’en libérer pour survivre en devenant acteurs privés, en capacité d’augmenter autant que besoin les frais d’inscription tout en bénéficiant d’une délégation de service public, affaiblissant ainsi la cohérence nationale des statuts. Au sein d’un même grand établissement, on pourrait avoir des composantes, privées ou non, qui auraient des fonctions différentes. L’expérimentation existe déjà dans l’Université Paris-Saclay : des écoles captent des ressources tandis que la composante universitaire historique est abîmée par sa paupérisation et bureaucratisation : les uns valident les indicateurs d’excellence du COMP, les autres valident ses indicateurs sociaux… et la ségrégation sociale ! Tous les montages sont imaginables. Le loup est dans la bergerie.

Le PCF de l’Université Paris-Saclay appelle les personnels et étudiants à se mobiliser pour soutenir un modèle d’ESR public garant des libertés académiques de ses personnels et donnant toutes leurs chances d’émancipation et de réussite à ses étudiantes et étudiants.

[1]Sujet d’une publication précédente : https://pcf-universite-paris-saclay.fr/ecrits-de-la-section/ – pour rappel les COMP conditionnent les budgets des établissements à des indicateurs quantitatifs et si 100 % des budgets dont masse salariale y sont soumis, le pire est à craindre pour la qualité de l’enseignement, de la recherche, les libertés académiques et les statuts des personnels.

[2]https://academia.hypotheses.org/files/2025/07/PJLoiBaptiste.pdf

Introduction à l’Assemblée Générale du PCF Université Paris-Saclay, lundi 23 juin 2025

Introduction à l’Assemblée Générale du PCF Université Paris-Saclay, lundi 23 juin 2025

Le 23 décembre 2024, Philippe Baptiste a été nommé ministre chargé de l’enseignement supérieur et de la recherche (ESR) et a présenté sa feuille de route le 30 janvier 2025. Sans reprendre l’intégralité de son discours, je voudrais citer les principaux sujets qui tournent tous autour de ce qu’on appelle l’Acte 2 de l’autonomie des Universités.

D’abord, les budgets. Malgré un budget toujours plus raboté puisque 1,1 milliard d’euros ont été annulés en 2024 pour l’ESR, 1,5 milliards pour 2025 et on parle d’autant pour 2026 parmi les 40 milliards d’euros d’économies que cherche le Premier ministre Bayrou. Le ministre, comme les précédents, va chercher à travailler sur le fonds de roulement des établissements qui seraient à utiliser vite et au mieux mais on peut se demander si ce n’est pas au contraire des fonds réduits et toujours en tension contrairement à ce qui est dit.

Par ailleurs, l’Acte 2 de l’autonomie des Universités voulu par le Président Macron est en test dans 9 établissements pilotes pendant 18 mois, test qui doit aboutir au second semestre 2025. Le Président avait parlé de « gouvernance réformée », de « contrats pluriannuels », de « différenciation assumée » mais aussi des statuts des personnels « devenus des éléments de complexité » dans son discours sur l’avenir de la recherche le 7 décembre 2024.

Si j’analyse brièvement ces éléments cela veut dire qu’il y aura donc moins de budgets sanctuarisés pour les Universités qui devront continuer à aller en chercher elles-mêmes par des contrats que ce soit via la taxe d’apprentissage, via des frais d’inscriptions plus élevés ou encore des contrats avec des organismes privés sur certains sujets en négligeant d’autres. Par ailleurs, les demandes autour de la gouvernance et des statuts vont achever d’autonomiser en privatisant les Universités. Cela aura pour conséquence de les mettre nécessairement en compétition entre elles pour attirer les meilleurs étudiants et personnels, une fois que les statuts auront été dérégulés. Par exemple les salaires et rétributions dont les subventions pour des projets seront à la discrétion des Présidents ou chefs de composantes.

Il me semble que cette question dite « d’autonomie » est un des points les plus graves et que les éléments qui vont suivre sont représentatifs du soutien à cette politique.

Lors de sa même déclaration sur l’avenir de la recherche, le Président Macron avait souhaité transformer les organismes nationaux de recherche en agences de programme. Ensuite, le ministre Philippe Baptiste lors de la présentation de sa feuille de route avait soutenu les agences de programme car elles doivent soutenir des priorités dites stratégiques. Cette création, issue du rapport de Philippe Gillet, et soutenue par la ministre de l’ESR de l’époque Madame Retailleau, a été imposée sans dialogue avec la communauté, notamment au sein du ministère, qui aujourd’hui a bien du mal à trouver une utilité à ces nouveaux objets alors que l’on ne cesse de parler de simplification.

Alors comment simplifie-t-on dans ce cas ? Il suffit de charger les agences de programme de construire et financer des programmes de recherche jugés prioritaires sans passer par des appels à projets, avec de préférence le moins d’indicateurs possibles. Il semble évident qu’il n’y aura pas de contrôle sur les orientations qui seront purement guidées par le temps politique et pas le temps de la recherche, ni sur les résultats qui pourraient indiquer si un choix aura été bon ou non. Pensons au quantique puis à l’IA qui ont pris toute la place médiatique actuellement au détriment de beaucoup d’autres sujets.

Simplifier, ce serait donc concentrer des moyens sur quelques sujets. Cela fait penser au tollé provoqué au CNRS lors de l’annonce de la création des « Key Labs » il y a plusieurs mois et sur lequel le ministre a annoncé un moratoire. L’enjeu était de sélectionner un quart des laboratoires les plus performants pour les doter plus au détriment de tous les autres ce qui conduirait à leur disparition. Et la suite ? Allait-on reprendre le quart des laboratoires restant pour leur appliquer la même chose, etc. ? Tout cela aurait permis de vider le CNRS de ses laboratoires et de ses budgets à un moment où les organismes publics sont montrés du doigt et où le gouvernement via sa ministre chargée des comptes publics Amélie de Montchalin souhaite les réduire d’un tiers en les supprimant ou en les fusionnant. Mais pour quelle raison ? Un pur dogme libéral de destruction des services publics qui pourtant ne peuvent être que plus rentables qu’un organisme privé dont le moteur est le profit.

Certes, nous pouvons toujours trouver dans nos composantes et services des dysfonctionnements et des améliorations à y apporter. Mais pourquoi ne pas poser la question aux personnels ? Réhabiliter des conseils de laboratoires, d’écoles, de composantes, d’unités, afin qu’ils aient des marges de manœuvre pour améliorer leur fonctionnement plutôt que d’être des caisses d’enregistrement de décisions supérieures ?

Et sinon comment faire pour améliorer la recherche dans le pays ? Réponse du ministre : la collaboration de la recherche publique et privée. Sans remettre en question les compétences de certains personnels de la R&D privée, la question des orientations mais aussi de l’intégrité des travaux se pose : on parlait autrefois du tabac, aujourd’hui des pesticides, quel crédit et soutien apporter à des recherches qui peuvent être orientées à des fins commerciales oubliant la santé et l’intérêt général ? Pourtant, après des années passées à dépenser des milliards en Crédit d’Impôt Recherche et à subventionner des grands groupes pour leur R&D, les exemples ne manquent pas d’une recherche privée dont les subventions sans contrepartie ne sont pas efficaces : pensons à Sanofi qui en quelques années a réduit drastiquement son personnel de R&D en France malgré les budgets nationaux captés.

Sur les formations, on nous répète depuis une dizaine d’années la question du continuum bac -3 / bac +3. Le ministre se félicite de la réussite de l’apprentissage dans le supérieur et appelle à ce que les formations accentuent leur virage de l’insertion dans l’emploi, en particulier les licences professionnelles, les BTS et les BUT en articulation avec les territoires. On ne peut s’empêcher de penser qu’il s’agit là de créer une main d’œuvre bien formée mais pas trop, répondant aux enjeux court-termistes de l’emploi. Cela va à l’encontre de penser qu’il est préférable qu’une formation académique fournisse des outils qui permettront aux étudiantes et aux étudiants de s’adapter tout au long de leur vie à l’évolution des métiers. Cela va à l’encontre de la volonté de former à penser le monde et pas à agir en entreprise. C’est aussi une volonté de limiter le rôle des établissements : certains, régionaux, seront cantonnés au Bac +3, encore une fois, pour fournir de la main d’œuvre qualifiée juste assez mais pas trop, et il ne restera que quelques grandes universités sponsorisées par l’État avec pour seul objectif une bonne place dans le classement de Shanghai. Tous ces établissements, qu’ils soient régionaux ou nationaux, étant en concurrence entre eux.

Pourtant il y a encore du travail à faire pour rendre de la dignité aux étudiantes et aux étudiants : que ce soit sur les bourses, les logements ou encore les admissions et les places disponibles via Parcoursup qui est décrié pour organiser un tri social systématique et renforcer les inégalités territoriales et sociales. Il reste un effort à faire pour un statut du doctorat afin de favoriser sa reconnaissance comme diplôme Bac +8 dans la sphère économique et protéger les compétences des docteurs dans un monde qui en a plus que besoin.

Tous les éléments que j’ai cités constituent une forme de continuité vis-à-vis des événements survenus il y a maintenant environ 20 ans : pacte pour la recherche avec main mise de l’ANR sur l’essentiel des budgets qui soutiendront la recherche via des appels à projets chronophages et aux taux de succès désespérants, refonte des établissements et de leurs statuts en promettant des budgets via les programmes d’investissement d’avenir, les PIA dont seront issues les COMUE par exemple Paris-Saclay, précarisation des fonctionnaires notamment dans l’ESR où de plus en plus de contractuels sont embauchés au détriment de postes statutaires pourtant garants d’une continuité de l’action. Tout cela en concomitance avec le traité européen de Lisbonne qui évoque l’économie de la connaissance et instille cette gouvernance par la concurrence. Et ces décisions politiques d’il y a 20 ans, je l’ai souvent entendu, ont contribué à dégrader la qualité de l’enseignement supérieur et de la recherche, quand bien même de grands et beaux nouveaux bâtiments sont venus atténuer la peine des jeunes qui viennent se former et des personnels qui viennent y rechercher le sens perdu de leur travail.

On pourrait se dire que toutes ces transformations sont loin de nous, incompréhensibles (même si j’ai voulu expliciter quelques unes de leurs conséquences) et que l’impact est faible. Mais l’actualité nous donne un regard à l’extrême de ce que peut devenir un système du fait du prince où les statuts ne sont plus protecteurs et où le politique devient le seul stratège en fonction de ses lubies : les États-Unis ces derniers mois nous donnent ainsi un triste exemple.

Sans statut clairement protecteur, l’employeur ou un politique bien placé peut mettre fin aux contrats facilement, et licencier comme cela a été le cas pour un grand nombre de directeurs et d’employés d’instituts scientifiques aux États-Unis. Je pense à l’agence de santé NIH National Institute of Health qui finance 90 % de la recherche dans le domaine de la santé et dont un certain nombre de laboratoires ont fermé, ou encore à l’agence spatiale américaine la NASA ou la NSF National Science Foundation où également près de 50 % des programmes scientifiques risquent de disparaître. Des universités américaines ont décidé de ne pas recruter de doctorants cette année car elles n’en auront pas les moyens ; cela ampute clairement l’avenir de la recherche. La même menace pèse sur certains établissements français actuellement.

Tout ceci vient d’un changement politique et sémantique : on rejette dorénavant les travaux des sciences du climat, du changement climatique, de la pollution, des gaz à effet de serre, etc. sous couvert d’un scepticisme mais qui au passage fait bien les affaires des principaux pollueurs de l’empire américain qu’ils soient des grands de l’industrie gazière ou pétrochimique ou encore du monde des technologies numériques. L’interdiction est faite aux scientifiques des agences fédérales de participer aux travaux du GIEC (Groupe d’Experts Intergouvernemental sur l’Évolution du Climat) tout en censurant les informations liées aux connaissances sur le changement climatique. Et les licenciements de scientifiques ralentissement les opérations par exemple dans le champ de la météo ce qui affecte les prévisions.

Je ne cite pas tous les domaines à risque, je souhaite insister sur le fait que lorsqu’un pays démocratique tourne le dos aux libertés académiques, cela doit être une source d’inquiétude majeure et nous devons aussi regarder ce qui se passe chez nous pour voir que sans pour autant atteindre une telle rupture, nous sommes sur une pente douce qui y mène. Pourquoi ?

Et la communauté de l’ESR s’est bien mobilisée ces derniers temps avec le mouvement « Stand Up For Science » et même les politiques s’y sont mis avec les plans « Choose France for Science » ou encore « Choose Europe for Science ». Car le risque qui a bien été identifié est celui de la perte de la liberté académique qui comprend la liberté de recherche, la liberté pédagogique, la liberté de publication et d’expression dans le cadre académique. Cette liberté académique est essentielle au fonctionnement démocratique d’une société et devrait être défendue par tout établissement d’Enseignement Supérieur et de Recherche et ses personnels.

Et je pense qu’à l’heure actuelle, ce dont nous avons cruellement besoin c’est d’éducation, une éducation pour faire société, ensemble, et pour une société qui avance face aux défis de l’avenir sombre qui nous est promis.

Pendant ce temps, en France, alors que nous ne dépensons encore que 2,2 % de notre PIB à l’ESR au lieu des 3 % préconisés depuis des années, l’État envisage de consacrer 5 % de son PIB à la défense, ce qui nous projettera dans une course aux armements et nous privera en contrepartie des services publics qui sont essentiels en période de crise. C’est pour cela que j’affirme : faire la guerre et mourir ou bien se former et travailler, la réaction politique de notre communauté scientifique doit être à la hauteur du moment orwellien qui se joue aussi en France.

Quel est donc notre avenir dans l’ESR ? En lien avec les déclarations du ministre et du président que je rappelais initialement, c’est donc l’Acte 2 de l’autonomie des Universités qui va se concrétiser. Comment ? En continuant de mettre en place dans tous les établissements des Contrats d’Objectifs, de Moyens et de Performances (COMP), outils permettant à l’État de conditionner les subventions des établissements à l’atteinte d’objectifs chiffrés. Cette démarche risque de réduire encore le peu de distance au modèle des États-Unis encore existant et qui fait la force du service public de l’ESR :

  • en transformant les organismes de recherche en agences de moyens (c’est notamment l’idée derrière les agences de programme) avec des fléchages répondant donc au besoin d’affichage et aux choix du politique et la possibilité de coupes drastiques et brutales,
  • en soumettant les établissements à des indicateurs quantitatifs et arbitraires (calculés hors sol par l’administration ministérielle, les rectorats ou des agences donc sans élaboration démocratique avec les personnels),
  • en promettant une dotation à 100 % toujours plus austéritaire incluant la masse salariale (donc des rémunérations compressibles et variables coïncidant avec un démantèlement des statuts).

Ainsi, en théorie, un établissement n’atteignant pas les taux de réussite et d’insertion, et pourquoi pas une certaine quantité de publications, fixés par le gouvernement, ne serait plus en mesure de payer ses personnels et voir certaines de ses composantes fermées car pas en phase avec les besoins du politique. Toute cette austérité serait orchestrée sans humain, simplement calculée par les outils administratifs comme InserSup, Fresq et Quadrant : quelle que soit la raison d’un objectif non atteint, le solde ne sera pas versé ! Comme souvent en bureaucratie (et même ici en technocratie), on masque une question politique derrière un outil technique. L’autonomie n’est plus que le choix d’atteindre les objectifs hors sol fixés par l’État, avec le risque que l’atteinte à tout prix pour sauver ses budgets dérive en une dépréciation des contenus des formations et des recherches menées.

Pour conclure, l’océan atlantique ne nous protège pas des attaques d’une droite et extrême droite françaises et européennes inspirées par leurs homologues américains. Il nous faut réagir et se mobiliser pour dire quelle Université nous souhaitons, quelles institutions indépendantes des pouvoirs nous souhaitons et quelle société nous désirons. Notre assemblée générale aujourd’hui sous ce format particulier entre communistes et sympathisants doit nous permettre d’échanger, d’écouter, de débattre des options et actions à porter ici sur le campus emblématique de l’Université Paris-Saclay et de le faire savoir pour que toute la communauté s’en saisisse et, au vu des enjeux qui dépassent nos établissements, faire tâche d’huile dans la population pour alerter et viser un changement de cap pour plus d’intelligence mais moins appareillée, et dans un monde en paix.

Merci pour votre attention.

Debout pour les libertés académiques, et maintenant ?

Debout pour les libertés académiques, et maintenant ?

Après les attaques obscurantistes sans précédent de la communauté scientifique aux États-Unis – Valérie Masson-Delmotte (coprésidente du groupe n°1 du GIEC de 2015 à 2023) parlant elle-même sur France Inter de « moment orwellien » – il est nécessaire de réaffirmer la nécessité développer les connaissances par la recherche et la formation et de garantir leur accès à toutes et à tous avec des moyens associés. C’est la recherche et la connaissance scientifiques qui sont visées. Jamais il n’a jamais été autant important de défendre la liberté académique. Cette liberté académique (de recherche, pédagogique, de publication et d’expression dans le cadre académique) est essentielle au fonctionnement démocratique d’une société et devrait être défendue par tout établissement d’Enseignement Supérieur et de la Recherche (ESR) et ses personnels.

Or, malgré les annonces du Ministre chargé de l’ESR pour accueillir les scientifiques travaillant aux États-Unis via le programme PAUSE, celui-ci a été amputé de 60 % de ses moyens et les budgets de l’ESR sont repartis à la baisse de 1,5 milliard d’euros en 2025 après une saignée de 1,1 milliard d’euros annulés auparavant. L’objectif de dépenser 3 % du PIB pour l’ESR publics ne sera toujours pas atteint tandis que le sommet de l’État pourrait décider de consacrer jusqu’à 5 % du PIB pour la défense nous projetant dans une course aux armements qui privera le pays de moyens pour les services publics, pourtant essentiels en période de crise.

Faire la guerre et mourir ou bien se former et travailler, la réaction politique de notre communauté scientifique doit être à la hauteur du moment orwellien qui se joue aussi en France.

 Mais l’Enseignement Supérieur et la Recherche français traversent eux aussi une nouvelle étape de transformation toujours plus néfaste !

La nouvelle autonomie des Universités (ou LRU 2.0) promue par notre Ministre mais aussi ses prédécesseurs vise à mettre en place des Contrats d’Objectifs, de Moyens et de Performances (COMP), outils permettant à l’État de conditionner les subventions des établissements à l’atteinte d’objectifs chiffrés. Cette démarche risque de réduire encore le peu de distance au modèle des États-Unis encore existant et qui fait la force du service public de l’ESR :

  • en transformant les organismes de recherche en agences de moyens (dont la Ministre Montchalin a décidé qu’un tiers des agences hors Universités seraient supprimées ou fusionnées),
  • en soumettant les établissements à des indicateurs quantitatifs et arbitraires (calculés hors sol par l’administration ministérielle, les rectorats ou des agences sans élaboration démocratique avec les personnels),
  • en promettant une dotation à 100 % toujours plus austéritaire incluant la masse salariale (donc des rémunérations compressibles voire même un démantèlement des statuts).

Ainsi, en théorie, un établissement n’atteignant pas les taux de réussite et d’insertion, et pourquoi pas une certaine quantité de publications, fixés par le gouvernement, ne serait plus en mesure de payer ses personnels. Toute cette austérité serait orchestrée sans humain, simplement calculée par les outils administratifs comme InserSup, Fresq et Quadrant : quelle que soit la raison d’un objectif non atteint, le solde ne sera pas versé ! Comme souvent en bureaucratie (et même ici en technocratie), on masque une question politique derrière un outil technique. L’autonomie n’est plus que le choix d’atteindre les objectifs hors sol fixés par l’État, avec le risque que l’atteinte à tout prix pour sauver ses budgets dérive en une dépréciation des contenus des formations et des recherches menées.

L’océan atlantique ne nous protège pas des attaques d’une droite et extrême droite françaises et européennes inspirées par leurs homologues américains. Il nous faut réagir et se mobiliser pour dire quelle Université nous souhaitons, quelles institutions indépendantes des pouvoirs nous souhaitons et quelle société nous souhaitons.

Le PCF de l’Université Paris-Saclay vous invite à une réunion d’échange et réflexion pour poursuivre les mouvements en cours et porter des messages forts à la Présidence contre ce recul des libertés académiques et des droits des personnels et usagers orchestré par le gouvernement

Le nobel et le chaudronnier

Le Nobel et le chaudronnier

Ce texte est la version courte d’un texte paru dans la revue Progressistes accessible ci-après.

Il a été écrit par un camarade à partir de son expérience professionnelle et militante de plus de 50 ans sur le campus d’Orsay

Chaque année, les pays riches se félicitent de la nomination d’un des leurs à l’un des prix Nobel scientifiques. La France y tient une place très honorable.

Le caractère personnel de ces nominations pourrait laisser penser qu’elles couronnent quelques cerveaux éclairés. C’est partiellement vrai, car les idées nouvelles proviennent de personnes très engagées dans une discipline, mais c’est aussi une vision très éloignée de la réalité du travail scientifique. Par-delà le mérite des récipiendaires, la fertilité du travail de recherche est le fait de collectifs de travailleurs aux spécialités très diverses qui mettent en commun leurs savoirs et leurs savoir-faire.

Le plus grand mérite d’un prix Nobel est peut-être d’avoir été capable de s’appuyer sur les connaissances disponibles pour les porter plus loin.

Le partage des savoirs

Le partage des savoirs est un enjeu majeur de société.

Sans lui, se répand auprès de ceux qui en sont de plus en plus éloignés, des sentiments de défiance et de crainte, voire de rejet et d’irrationalisme.

N’oublions pas que, pour répondre à la dictature des marchés financiers, la désindustrialisation et les vagues de licenciements qui ont suivi ont été justifiées par l’inéluctabilité de la mise en œuvre des nouvelles technologies, elles-mêmes fruits supposés du mouvement des connaissances.

Or, les choix qui ont été et qui sont faits dans ces domaines ne sont pas neutres mais sont profondément guidés par les dogmes capitalistes dominants.

Des activités interdépendantes

La recherche est un processus complexe faisant appel à des travailleurs d’horizons divers et aux multiples savoirs et savoir-faire.

Toutes les activités humaines sont de plus en plus interdépendantes. Elles le sont particulièrement dans le mouvement des connaissances. Les activités de recherche dépendent pour une part importante de l’environnement dans lequel elles se déploient, de la pertinence des outils à leur disposition et des hommes qui les mettent en œuvre.

Pourtant, les conditions d’exercice de ces activités peuvent laisser penser le contraire. Ainsi, par exemple, comment un chaudronnier perçoit son travail par rapport à un prestigieux prix Nobel de physique ? Mais aussi, comment un chercheur perçoit son travail par rapport aux technologies et aux métiers qui lui permettent de l’exercer ? Pour le moins, la vision de cette interdépendance n’est pas toujours perçue à sa juste importance.

De l’industrie à la recherche, de la recherche à l’industrie

Pour éclairer le sujet, un petit détour historique peut être utile. Quand, dans les années 50, la France a décidé de développer sa recherche, le tissu industriel national a été un précieux contributeur à cette ambition. C’est ainsi que, par exemple, pour construire les nouveaux grands instruments nécessaires aux développements des recherches sur la matière, Frédéric et Irène Joliot-Curie, prix Nobel de physique, et fondateurs de la faculté d’Orsay, ont créé un cadre attractif pour le recrutement de personnels techniques hautement qualifiés regroupant des corps de métiers directement issus de l’industrie qui manquaient jusqu’alors au CNRS. Il en a été de même au CEA.

C’était l’époque où la France avait encore des atouts industriels et des ambitions pour son avenir.

Par la suite, en lien avec le développement des laboratoires et de leurs besoins, ces corps techniques ont à leur tour contribué à la création de nombreuses entreprises dans les technologies les plus avancées.

Ce n’est pas un hasard si l’industrie et la recherche allemandes restent prédominantes en Europe.

L’Allemagne a globalement moins sombré dans les délocalisations et dans la désindustrialisation. De fait, son effort national de recherche est supérieur à la France respectivement 2.82% et 2.26 % du PIB. Lafaiblesse de financement de la recherche fondamentale et industrielle a été de pair avec la désindustrialisation de la France.

Dans les métiers techniques, les effets des politiques à courte vue menées depuis 50 ans, privilégiant notamment la finance (et ses cupides besoins), ont fait des ravages dans de nombreux domaines.

Certaines rares filières industrielles échappent à la règle comme l’armement, l’aéronautique ou le nucléaire.

Mais, en raison d’un environnement général appauvri, même dans ces filières, la pénurie de professionnels qualifiés se fait de plus en plus ressentir. On le constate actuellement avec les difficultés que rencontre la filière nucléaire pour recruter des personnels qualifiés dans de nombreuses spécialités (chaudronniers, soudeurs…).

L’importance des métiers

La disparition de la référence aux métiers pour des appellations génériques traduit un abandon délibéré des professions techniques. Les techniciens ont remplacé les usineurs, les électroniciens, les opticiens, les chaudronniers…

Un technicien qualifié, c’est-à-dire possédant une qualification, n’est pas interchangeable avec n’importe quel technicien générique. Un métier c’est un savoir et un savoir-faire spécifiques dans une spécialité qui se sont construits dans l’activité professionnelle dans la durée et dans l’échange avec d’autres, pas seulement dans la même spécialité.

Ce glissement générique fourre-tout traduit surtout le peu d’ambition de notre pays pour les domaines concernés, publics ou industriels.

Aucun métier ne se réduit à l’exécution de tâches manuelles plus ou moins répétitives, figées dans le temps.

Un métier évolue en permanence en fonction des besoins et des techniques nouvelles. Un métier est l’exercice de compétences acquises par la formation initiale et continue, enrichies de l’expérience personnelle, des acquis dans la pratique et l’interaction avec les autres. Il construit un lien social par le partage et l’acquisition d’expériences communes, sublimant l’apport de chacun.

Après une bonne formation initiale, il faut le plus souvent plusieurs années d’apprentissage dans l’exercice de la spécialité avant d’atteindre une pleine autonomie professionnelle.

L’exercice d’un métier c’est une part importante de sa propre réalisation.

Au-delà des métiers techniques, la déprofessionnalisation provoque une déqualification, une perte de sens du travail et une sensation d’inutilité source de souffrance.

Technologies et laboratoires

Hier, la plupart des outils de recherche étaient conçus et fabriqués dans les laboratoires.

Aujourd’hui, les besoins en instrumentation des laboratoires sont partiellement satisfaits par l’industrie.

Cette externalisation d’une partie du travail technique vers l’industrie correspond à un rapprochement des besoins industriels et des besoins de recherche ainsi qu’à la diversification et à la technicité de l’instrumentation scientifique.

Pour autant, ce rapprochement ne doit pas conduire à la dépendance vis-à-vis des marchés, qui, eux, ont des logiques très différentes de la recherche, ce qui pose la question de la maîtrise des outils.

De plus, les technologies les plus avancées ne sont pas toutes libres d’accès. Des clauses de secrets industriels ou de secrets-défense limitent les champs de leur diffusion et peuvent ainsi priver la recherche publique fondamentale d’outils qui lui sont essentiels.

Il serait souhaitable d’identifier certains besoins structurants des laboratoires et de fédérer leurs réalisations au plan régional ou national. Ce serait hautement préférable à l’importation d’instruments produits à des milliers de kilomètres des laboratoires, accroissant ainsi la dépendance nationale dans ces domaines.

Il faut sortir de la situation où de trop nombreux techniciens passent désormais leur temps à consulter les catalogues spécialisés, à passer des commandes et des marchés, puis à les réceptionner.

Quelles dévalorisations de compétences ! Quels gâchis pour nos laboratoires ! Quelles démotivations, quels sentiments d’inutilité ! Les personnels qualifiés des laboratoires devraient pouvoir maîtriser les outils produits dans l’industrie mais aussi permettre de les faire évoluer en fonction des pratiques scientifiques.

Dans les technologies avancées, un produit industriel doit toujours être confronté et sans cesse développé par la pratique expérimentale. La recherche, l’innovation, l’industrie française sortiraient gagnantes d’une telle coopération.

Démission nationale et soumission aux actionnaires

Nombre d’entreprises françaises de haute technologie sont issues de partenariats – le plus souvent non formalisés – avec des laboratoires publics.

Cependant, dans le domaine de l’instrumentation scientifique la France est de plus en plus dépendante des technologies étrangères, notamment états-uniennes ou allemandes. D’importantes entreprises technologiques françaises, notamment parmi les plus performantes, ont disparu après avoir été cédées à des multinationales plus puissantes. Certaines grandes entreprises délocalisent leurs activités de recherche vers les pays les plus riches et leurs activités productives vers les pays les plus pauvres. Il ne reste en France que des managers presse bouton dans une France des coquilles vides.

Sauf en raisonnant profits et dividendes immédiats, une telle aberration affaiblit tout à la fois les potentiels de recherche et les potentiels industriels en détruisant les liens entre eux.

Une dévalorisation en actes

Depuis quelques années les phénomènes relatifs à la disparition des métiers technologiques, s’élargissent aux emplois scientifiques. Dans l’enseignement, la désertion des formations scientifiques en atteste.

Prenons un exemple éclairant. Chaque année, une des plus prestigieuses grandes écoles à vocation scientifique et technologique de la République organise son forum « chasseurs de têtes ». Née de la Révolution française, cette école avait pour objectif de donner à la nation les cadres scientifiques et techniques nécessaires à ses nouvelles ambitions. Bon an, mal an, elle a tenu ce rôle pendant deux siècles.

Or, les stands d’entreprises sont dorénavant essentiellement ceux des banques, des institutions financières.

Et pour cause ! Les cursus de cette école ont progressivement délaissé les enseignements technologiques et scientifiques au profit des formations managériales et financières.

Une petite étude comparative montre que les salaires et les perspectives de carrières proposés dans ces domaines ont peu de choses à voir avec ceux de la recherche ou de l’industrie.

Et pourtant de quoi avons-nous réellement besoin ? De professionnels de santé, d’enseignants eux-mêmes formés pour transmettre les savoirs et savoir-faire, de personnels qualifiés pour répondre aux énormes défis sur l’avenir de l’humanité. Ces défis sociaux, climatiques et environnementaux ouvrent d’immenses champs d’actions à l’industrie et à la recherche. Allons-nous les relever ou poursuivre dans la voie de l’impuissance collective ?

Nobel et chaudronnier ont certes des activités singulières mais, au fond, hautement utiles et complémentaires. Hasardons-nous à proposer quelques pistes d’actions.

Réindustrialiser la France

Il faut réindustrialiser la France pour répondre aux grands défis contemporains, dans les domaines industriels stratégiques de l’énergie, des transports, et de bien d’autres. Ces domaines font appel à une multitude de métiers aux techniques de plus en plus poussées.

Dans ce cadre, les liens recherche-innovation-industrie doivent être considérablement dynamisés. Si l’un des acteurs est défaillant la pertinence de chacune des composantes est réduite.

Alors que les activités humaines sont de plus en plus interdépendantes et appellent des coopérations entre pays, que veut dire réindustrialiser la France ? La France doit se donner les moyens de maîtriser, de concevoir et de produire ce qui lui est nécessaire, en le mutualisant dans le cadre de coopérations réciproquement utiles.

La coopération, c’est l’inverse de la subordination au capitalisme mondialisé.

L’effort national de recherche est significativement déterminé par les ambitions industrielles. Les ambitions industrielles sont à leur tour conditionnées par l’effort de recherche et de développement dans la longue durée. Peut-on innover dans un désert industriel ? Il faut réindustrialiser la France pour créer des partenariats nouveaux entre les pratiques de recherche et les pratiques productives, entre les métiers de la recherche et les métiers de l’industrie.

Il convient de faire partager cette ambition bien au-delà des milieux professionnels concernés. Il faut établir des échanges permanents entre les acteurs, les ateliers, les laboratoires et la société.

Former la jeunesse pour investir dans la société

Il conviendrait d’ouvrir des filières en lien avec les évolutions actuelles et à venir des métiers et des techniques.

L’orientation vers ces filières ne doit plus être contrainte ou par défaut. Elle doit résulter d’un projet personnel positif. Pour cela il convient de revaloriser les métiers correspondants, de recruter des enseignants eux-mêmes formés à la diffusion des savoirs et des savoir-faire issus des métiers et technologies nouvelles. Renforcer considérablement les moyens consacrés aux établissements d’enseignements techniques et professionnels. Développer la formation continue dans les établissements publics et industriels.

Changer le travail

Par-delà ces deux axes prioritaires totalement dépendants, dans les équipes, dans les laboratoires, dans les organismes publics, la conception et l’organisation du travail doivent être profondément changées.

Il s’agit d’une question fondamentale. Soit on poursuit avec les objectifs actuels, rendant le travail aliénant avec les rejets que cela entraîne, soit on transforme les buts et donc l’organisation du travail.

Le travail ne se résume pas à la mise en œuvre de techniques et de procédés. Les structures humaines, sociales et participatives jouent un grand rôle pour construire les liens nécessaires entre tous les acteurs.

Il conviendrait de donner beaucoup plus de pouvoirs aux salariés concernant l’orientation et l’organisation des laboratoires, des organismes de recherche et d’enseignement.

Oui le mécanicien, l’électronicien, l’administratif ont toute leur place dans les instances décisionnelles où ils travaillent. Par exemple, cela suppose de considérer l’activité syndicale comme utile à la vie sociale professionnelle et non de l’entraver, voire de la combattre.

Les dogmes managériaux considèrent avec suffisance que leurs vérités jupitériennes ne doivent souffrir d’aucune contestation. L’application de ces doctrines est à l’organisation du travail ce qu’est l’élection présidentielle à la démocratie.

La citoyenneté ne doit plus s’arrêter à la porte du laboratoire ou de l’atelier. Dans son activité professionnelle chaque salarié doit pouvoir déployer toutes ses capacités pour lui-même, pour son travail et leurs rapports à la société.

Du déclin à la reconquête, voilà l’avenir

La gouvernance en vigueur dans la recherche produit de la dévalorisation, de la déqualification, de la précarisation de masse. Elle est contre-productive car elle tend à faire croire aux acteurs eux-mêmes que leur apport au travail du groupe est devenu secondaire, coûteux, voire inutile, alors que c’est précisément de ce travail vivant que l’on manque partout.

Elle tend à isoler et à opposer les individus alors qu’il convient de fortifier les collectifs.

Revaloriser les métiers, les salaires, les rendre plus attractifs, développer les formations techniques, professionnelles, voilà l’avenir.

Dans la recherche et ailleurs, les personnels techniques ne sont pas que des accompagnants. Ce sont des acteurs à part entière. Ils doivent être reconnus pour la place qu’ils occupent et donc de disposer de beaucoup plus de pouvoirs qu’ils n’en ont aujourd’hui.

Si ces quelques lignes ont permis de rapprocher le Nobel du chaudronnier en montrant que leurs préoccupations et leurs intérêts communs sont ceux de la nation, alors, demain, l’espoir pourrait se transformer en changements.

Adhérez au PCF, le parti qui réfléchit et agit sur les rapports recherche-enseignement-société.

Le parti qui veut changer le travail, donner une nouvelle place à la science afin qu’elle serve l’amélioration des conditions d’existence de l’humain.

https://www.pcf.fr/adhesion

ou

Pour l’Université Paris Saclay écrivez à pcf.orsayfac@gmail.com

pour réagir à ce texte ou pour adhérer.