Le James Webb Space Telescope expliqué par ceux qui l’ont fait

Source: The Conversation – France (in French) – By Pierre-Olivier Lagage, Chercheur CEA au Laboratoire Astrophysique, instrumentation, modélisation du CEA, CNRS, Université de Paris

L’immense miroir du James Webb Space Telescope ne rentre pas dans une fusée. Il faut le replier, puis le déplier une fois dans l’espace. NASA/Chris Gunn

Cette fois, ça y est ! Le télescope James Webb Space Telescope, ou « Webb », est à Kourou et va être lancé par une fusée Ariane le 22 décembre. Oui, c’est avec un retard de plus de 10 ans par rapport aux premières estimations ! Oui, son coût a été multiplié par 10 ! Mais la moisson scientifique s’annonce exceptionnelle.

Le Webb va permettre de sonder des zones du cosmos vierges d’observations, grâce à son miroir de 6,5 mètres de diamètre, le plus grand jamais déployé dans l’espace, et ses quatre instruments observant dans l’infrarouge : NIRCam, NIRISS, NIRSpec et MIRI (les consonances en « IR » viennent de l’« infrarouge »).

Webb, mission phare de la NASA et des agences spatiales européenne (ESA) et canadienne (CSA), va prendre le relais du télescope spatial Hubble pour observer plus loin dans l’Univers. Vitesse de la lumière oblige, il regardera ainsi plus tôt dans l’histoire, jusqu’aux moments où les premières galaxies et les premières étoiles se sont formées. Mais il va aussi relayer le télescope spatial infrarouge Spitzer pour aller sonder les atmosphères d’exoplanètes, les étoiles et les systèmes planétaires en formation, l’évolution des galaxies…

Fomalhaut est l’étoile la plus brillante de la constellation du Poisson austral. Elle est entourée d’un disque de débris et de poussières. À gauche, limage obtenue par le télescope spatial Spitzer, à droite, une simulation d’une observation typiaue attendue avec le Webb.
Andras Gaspar, Fourni par l’auteur

En somme, tous les domaines de l’astrophysique vont en bénéficier.

Nous faisons partie des plus de 1 200 scientifiques de 14 pays à avoir contribué au développement du JWST. En France, nous avons surtout participé au développement de l’instrument MIRI, le seul des quatre instruments qui opère dans le domaine de l’infrarouge dit « thermique ». Observant dans les longueurs d’onde entre 5 et 28 micromètres, il sera le plus à même à observer le gaz et les poussières dans des objets beaucoup plus froids que des étoiles comme notre Soleil. Il permettra par exemple de voir des étoiles jeunes encore profondément enfouies dans le nuage de gaz et de poussières dans lequel elles se forment. MIRI sera également le complément indispensable à NIRCam pour identifier les premières galaxies de l’Univers.

L’épopée du télescope Webb

Initialement, il était loin d’être acquis qu’un instrument pour l’infrarouge thermique fasse partie de la suite instrumentale du JWST (appelé « next generation space telescope » à l’époque). Il a fallu convaincre la NASA et l’ESA de l’importance scientifique et de la faisabilité d’un tel instrument. L’un d’entre nous (Pierre-Olivier Lagage) faisait partie du petit groupe d’astrophysiciens qui ont milité en Europe et aux US pour un tel instrument.

C’était… à la fin des années 90. Le lancement du Webb Telescope était alors prévu pour 2007. Mais le lancement de Webb a été repoussé de nombreuses fois et l’épopée de l’instrument MIRI illustre en fait bien les raisons de ces retards successifs.

Le Webb sera en orbite à 1,5 million de kilomètres de la Terre, soit 4 fois la distance Terre-Lune. Il ne sera pas possible d’aller le réparer en cas de problème, comme cela a été fait pour Hubble, qui orbite à « seulement » 570 kilomètres de la Terre : lors de la mise en fonctionnement de Hubble, la qualité des images s’est avérée très décevante, mais l’installation par des astronautes d’un correcteur optique a permis de rétablir la qualité image escomptée.

Amélioration de la qualité optique du téléscope spatial Hubble grâce à l’installation d’optiques correctives en 1993… alors que Hubble était déjà dans l’espace. Avant correction à gauche, après correction à droite.
NASA

Pour Webb, nous n’avons pas le droit à l’erreur – d’où l’importance du travail de conception et de tests avant le lancement !

MIRI, un instrument de pointe pour les exoplanètes

MIRI est constitué de deux parties principales : un « imageur », qui permet de faire des photos (c’est la partie appelée « MIRIM », et un spectromètre, qui permet d’étudier la lumière reçue en fonction de la longueur d’onde – et donc, par exemple, de déterminer quels éléments chimiques sont présents dans l’objet que l’on observe (c’est le « MRS »). Les performances de ces instruments placés au foyer du plus grand télescope spatial en opération seront sans précédent.

La supernova 1978A vue par le télescope spatial Spitzer à gauche, et une simulation de ce que l’on attend avec MIRI à droite. L’image illustre l’amélioration de la qualité d’observation, notamment en termes de résolution angulaire.
Patrice Bouchet, Fourni par l’auteur

Dans un sens, pour l’étude des exoplanètes, les retards du lancement de Webb sont une bonne nouvelle. En effet, ce domaine a explosé ces dernières décennies et nous disposons actuellement d’une richesse d’exoplanètes à observer, dont des planètes rocheuses, qui n’étaient pas connues en 2007.




À lire aussi :
Découvrir la première planète autour d’une étoile autre que le Soleil


On étudie désormais beaucoup les exoplanètes par la méthode dite « des transits » : on scrute les infimes variations de la luminosité d’une étoile distante dues au passage d’une exoplanète qui l’entourerait. MIRI a donc été « amélioré » pour utiliser cette méthode des transits. Il s’agit de lire seulement une petite partie du détecteur, afin de le faire très rapidement sans saturer le détecteur. Au fond, on « détourne » un peu le but premier du Webb, conçu pour observer des objets peu lumineux ou très lointains, pour profiter de sa grande sensibilité.

Tests de mode coronographique de MIRI faits à Saclay : on voit sur l’image de droite que lorsque l’on positionne la source juste au centre du coronagraphe à quatre quadrants, on « éteint » la source, bien visible sur la gauche.
Pierre-Olivier Lagage, Fourni par l’auteur

MIRI dispose aussi de « coronographes ». Utilisés historiquement pour observer la couronne du Soleil en cachant le disque trop brillant qui empêche de voir les détails alentour, les coronographes ont été adaptés pour observer les étoiles, et ainsi distinguer d’éventuelles exoplanètes qui se trouveraient à proximité. MIRI emporte un coronographe classique (dit « de Lyot ») et trois coronographes « à masque de phase », très performants, et qui vont être pour la première fois envoyés dans l’espace.

Du berceau au décollage

Après plusieurs années d’études préliminaires, c’est en 2004 que la contribution française à MIRI a été approuvée par le CNES, le CEA et le CNRS.

Le modèle de vol de l’imageur MIRIM a été assemblé et testé au CEA Paris-Saclay en 2008 et 2009 ; un banc de test qui permet de reproduire les conditions de vide et de froids que rencontrera MIRIM une fois dans l’espace a été développé spécialement pour l’occasion. En 2010, MIRIM a été envoyé au Rutherford Appleton Laboratory en Angleterre pour être couplé avec l’autre partie de MIRI, le spectromètre MRS, puis testé dans une chambre à vide suffisamment grande pour l’instrument complet.

L’instrument MIRI après assemblage de MIRI et MRS.
Rutherford Appleton Laboratory

En 2012, MIRI a été envoyé au Goddard Space Center de la NASA, près de Washington, où il a été couplé avec les trois autres instruments du JWST. Trois séries de tests cryogéniques ont suivi entre 2012 et 2016.

Les 18 hexagones du miroir primaire du télescope ont aussi été assemblés au Goddard Space Center de novembre 2015 à février 2016. Les instruments ont été montés à l’arrière du miroir primaire du télescope et l’ensemble a été envoyé en 2017 à Houston pour être testé, car la station de test au Goddard Space Center n’était pas assez grande pour accueillir le télescope. L’équipe CEA était sur place pour les tests au moment où l’ouragan Harvey s’est abattu. Plus de peur que de mal ; juste quelques nuits au laboratoire sans pouvoir regagner l’hôtel et une voiture complètement noyée !

Assemblage du télescope (miroirs dorés et instruments, dont MIRI) et du bouclier thermique (qui ressemble à du papier d’aluminium ou plastique et est déployé à 0 :28 dans la vidéo). Source : NASA Goddard.

Une fois les tests finis, nous avons « laché » MIRI pour son voyage dans les locaux de la compagnie Northrop Grumman, en Californie, où il est arrivé début 2018. Là, le télescope a été couplé avec le satellite et les grands écrans thermiques qui vont empêcher les rayons du Soleil, de la Terre et de la Lune d’atteindre le télescope. Celui-ci pourra alors atteindre passivement une température d’environ 45K (-228 ℃), nécessaire pour ne pas gêner les observations dans l’infrarouge.

Enfin, fin septembre 2021, Webb a quitté la Californie pour Kourou où il est arrivé après un voyage en bateau de 16 jours qui l’a amené à passer par le canal de Panama (bloqué quelques mois plus tôt !).

Le navire MN Colibri est arrivé au Port de Pariacabo, sur la rivière Kourou, en Guyane française, le 12 octobre 2021. Dans un container spécialement conçu se trouve le James Webb Space Telescope.
Chris Gunn/NASA

Paré au décollage… et à débuter les tests et observations scientifiques

L’aventure spatiale va alors commencer le 22 décembre 2021, avec la série de tests sur le ciel qui vont durer 6 mois. Puis, fin juin 2022, c’est l’exploration scientifique qui va pouvoir commencer, après trois décennies de développements.

Une petite partie du temps d’observation est réservée aux astrophysiciens ayant participé au développement instrumental. Dans ce cadre, nous coordonnons les observations qui seront consacrées aux exoplanètes, à la Supernova 1987a, et à deux régions photodominées.

L’essentiel du temps d’observation sera « ouvert » : chaque année durant les 5 à 10 années de durée de vie de Webb, plusieurs appels pour l’utilisation du Webb sont programmés. Le premier appel a eu lieu en 2020. Plus de 1000 demandes ont été déposées, impliquant plus de 4000 astrophysiciens à travers le monde. Le nombre d’heures d’observation demandées est très supérieur (4 à 5 fois) au nombre d’heures disponibles et la sélection a été faite par des comités de scientifiques. Il est satisfaisant de voir que MIRI est le deuxième instrument le plus demandé. Nous avons bien fait d’insister pour qu’il « monte » à bord du Webb !


MIRI est un instrument co-développé par un consortium de laboratoires spatiaux européens, qui se sont occupé des aspects opto-mécanique, de l’assemblage et des tests d’ensemble de l’instrument, et le centre JPL de la NASA, qui a fourni les matrices de détecteurs et le système de refroidissement de MIRI.

MIRIm a été financé à moitié par le CNES, à moitié par le CEA.

Alain Abergel fait partie du Consortium Européen de l’instrument MIRI du JWST.

Christophe Cossou fait partie du Consortium Européen de l’instrument MIRI du JWST.

Dan Dicken fait partie du Consortium Européen de l’instrument MIRI du JWST.

Patrice Bouchet est directeur du Centre d’Expertise Français du JWST/MIRI.

Anthony Boccaletti ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le James Webb Space Telescope expliqué par ceux qui l’ont fait – https://theconversation.com/le-james-webb-space-telescope-explique-par-ceux-qui-lont-fait-171017

MIL OSI – Global Reports

Pourquoi supprimer des autoroutes peut réduire les embouteillages

Source: The Conversation – France (in French) – By Frédéric Héran, Économiste et urbaniste, Université de Lille

Autoroutes et voies rapides sont des « aspirateurs à voitures » (c’est le trafic dit « induit »), dénoncent les critiques de l’automobile. A contrario, supprimer ces infrastructures entraînerait « une évaporation du trafic » (c’est le trafic dit « déduit » ou « évaporé »). Est-ce bien sérieux ? Par quel prodige pourrait-on faire naître de tels effets ?

Ces phénomènes sont pourtant scientifiquement fondés et abondamment documentés.

Mais de nombreux élus et professionnels ne l’admettent toujours pas, limitant ainsi leur capacité à adapter nos villes aux exigences sociétales et environnementales du XXIe siècle.

De l’origine d’une expression bizarre

Reconnaissons-le, « trafic évaporé », cela ne fait pas très scientifique. En voici l’origine : en 1961, la journaliste et sociologue Jane Jacobs publie un ouvrage – Déclin et survie des grandes villes américaines – qui connaîtra un succès mondial.

Elle y décrit, avec une grande finesse, la façon dont l’essor du trafic automobile érode la ville et son urbanité et comment en redonnant, au contraire, la priorité à la vie urbaine, la circulation se rétracte d’elle-même. Et de fournir l’exemple suivant.

À New York, le parc Washington (4 hectares), situé au sud de Manhattan, était traversé en son milieu par une circulation automobile. Dans les années 1950, les habitants finissent par réclamer la suppression de ce transit bruyant, polluant et dangereux pour les enfants et les personnes âgées.

Mais Robert Moses, le tout puissant responsable de l’adaptation de la ville à l’automobile, y est opposé et veut même aménager une quatre voies en tranchée, à travers le parc. En 1958, devant l’insistance du Comité de sauvegarde du parc, il accepte d’expérimenter la fermeture de la voie pour trois mois et prédit qu’on viendra le supplier de la rouvrir au trafic, à cause des embouteillages qui en résulteront.

Au contraire, le trafic se réduit dans les rues alentour et le quartier devient nettement plus calme. Les voitures se sont évaporées (« disappeared into thin air »).

Les limites des modèles de trafic

Penchons-nous maintenant sur les racines de ces deux phénomènes. À partir des années 1950 aux États-Unis puis en Europe, les « ingénieurs trafic » ont mis au point, pour anticiper les besoins d’infrastructures routières, des modèles de simulation. Toujours utilisés aujourd’hui, ils se présentent sous des formes de plus en plus sophistiquées.

En cas d’augmentation ou de réduction de la capacité du réseau viaire, les modèles dits « multimodaux » s’efforcent ainsi d’évaluer les reports de trafic à la fois dans l’espace (entre voiries), dans le temps (entre moments de la journée) ou modaux (entre modes de déplacement).

Pourtant, ils échouent à prendre en compte les interactions entre transport, urbanisme et comportements de mobilité : par exemple, qu’une nouvelle autoroute favorise un étalement urbain amenant en retour les gens vivant en grande périphérie à se déplacer surtout en voiture.

Or ces interactions ont des conséquences sur les stratégies des ménages et des entreprises en fonction des déplacements à effectuer.

Trafic induit et trafic déduit

Lorsque, pour « faire sauter un bouchon », la capacité de la voirie est accrue par la création d’une voie nouvelle ou l’élargissement d’une voie existante, on constate que l’infrastructure finit par attirer un trafic automobile supérieur à ce qu’avait prévu le modèle : de quelques pour cent à plus de 50 %, selon le contexte et l’horizon temporel. Les scientifiques parlent « de trafic induit ».

À l’inverse, lorsque la capacité de la voirie est réduite par fermeture d’un pont, suppression d’une voie ou réduction du nombre de files, on constate qu’une partie du trafic disparaît au-delà de ce qu’avait prévu le modèle, dans des proportions similaires au trafic induit.

Ce phénomène est appelé l’évaporation du trafic, bien qu’il vaudrait mieux dire « trafic déduit » (au sens de « en moins »), car c’est l’exact symétrique du trafic induit (ou « en plus »). On parle aussi parfois de « désinduction ».

Prise de conscience dans les années 1990

Ces deux phénomènes ont été documentés par quantité d’exemples. Ce ne sont donc pas des « théories », comme l’affirment les promoteurs de voiries nouvelles que cela dérange. Parce que ces faits mettent en échec les modèles, il a fallu beaucoup de temps pour que les ingénieurs trafic admettent leur existence. C’est au cours des années 1990 qu’ils ont dû se rendre à l’évidence.

En 1993, pour trancher la question, le gouvernement britannique crée une commission chargée de vérifier l’existence de ce trafic induit. Après avoir analysé des dizaines de cas, les conclusions des chercheurs ne laissent plus aucun doute.

En 1996, la Conférence européenne des ministres des Transports s’empare de ces résultats et leur donne un retentissement mondial. Le trafic induit étant établi, logiquement l’évaporation du trafic existe aussi.

En 1998, des travaux menés par les mêmes chercheurs parviennent à le démontrer, sur la base d’une centaine de cas examinés.

Les modèles de trafic en question

Le trafic induit existe parce que les automobilistes profitent de l’effet d’aubaine qu’offre une nouvelle infrastructure pour se déplacer plus souvent et plus loin, voire à plus long terme pour localiser leur emploi ou leur logement à une distance plus importante.

De même, l’évaporation du trafic existe parce que certains automobilistes renoncent à se déplacer, s’organisent autrement en rationalisant leurs déplacements et, à plus long terme, localisent leur logement ou leur emploi plus près.

Les modèles de trafic peuvent être utiles pour gérer la circulation, mais sont inadaptés à prévoir son évolution quand le contexte change. Des modèles beaucoup plus élaborés (dits LUTI pour land use transport integration), tenant compte de la forme urbaine générée par les transports, peuvent mieux appréhender le sujet.

Certains d’entre eux ont permis d’anticiper positivement la transformation d’autoroutes en voies urbaines, comme à Séoul ou Helsinki.

Le pont Mathilde à Rouen

Le 29 octobre 2012, un camion chargé d’hydrocarbures rate la bretelle de sortie du pont autoroutier Mathilde, à Rouen, se renverse et s’enflamme. La structure étant fortement endommagée, le pont doit fermer. Il ne rouvrira que le 26 août 2014.

Où sont passés les 114 000 déplacements de personnes – correspondants aux 92 500 véhicules par jour avec 1,23 personne par véhicule – qui empruntaient le pont ? Les autorités ont tout mis en œuvre pour le savoir.

Le pont Mathilde, à Rouen.
Wikimedia

Elles ont alors découvert que, sur les autres ponts, 88 000 personnes se sont retrouvées en voiture, 9 000 en transports publics, 3 200 à pied et 400 à vélo. Soit 13 400 déplacements (12 %) « non retrouvés ».

De Séoul à Boston, des exemples parlants

Bien d’autres cas de désinduction de trafic parfaitement documentés – notamment par l’Institut Paris Région – dans le monde peuvent être cités : Portland (-20 % de trafic sur l’axe après suppression de la Harbor Drive et -9 % vers le centre), San Francisco (-45 % de trafic sur le boulevard Octavia après suppression de la Central Freeway), Séoul (-82 % le long de la Cheonggyecheon Expresway disparue et -5 % de trafic à l’échelle de la ville), Nantes (-50 % de trafic sur le boulevard remplaçant l’A801) ou Lyon (-30 % sur l’avenue Jean Mermoz après démolition du viaduc de l’A43).

La fermeture de West Side Highway à New York témoigne à la fois d’une évaporation du trafic lors de la fermeture partielle de la voie (-50 % sur l’axe et -10 % à l’échelle du sud de Manhattan) et d’une réinduction de trafic au moment de la mise en service de la nouvelle avenue plus capacitaire (+60 %).

L’induction de trafic entraînée par l’accroissement de l’offre routière est illustrée par le cas de Boston où l’enfouissement et l’élargissement de l’autoroute I-93 en centre-ville n’a pas résorbé les bouchons, mais les a reportés en périphérie.

Capacité d’adaptation des usagers

Les deux phénomènes sont la preuve qu’il existe bien plus d’élasticité dans l’évolution de la circulation automobile que ne le sous-tendent les modèles de trafic.

D’une part, à cause du trafic induit, les nouvelles capacités routières sont vite saturées et les embouteillages reviennent. Il est donc illusoire de croire qu’il suffit de quelques investissements routiers pour diminuer les bouchons, comme tant de politiciens l’affirment. C’est pourquoi l’Autorité environnementale (entité indépendante qui donne son avis notamment sur les grands projets routiers) recommande d’en tenir compte.

D’autre part, grâce au trafic évaporé, la réduction des capacités routières ne provoque pas de congestion durable, car les automobilistes s’adaptent plus qu’on le croit.

Toutefois, il convient, comme le soulignait déjà Jane Jacobs, d’ajuster le rythme d’apaisement du trafic aux capacités d’adaptation progressive des usagers et la mise en œuvre d’autres options positives.

Des villes plus attractives

Contrairement à ce qu’affirment les milieux économiques, cette politique n’a jamais les conséquences catastrophiques qu’ils annoncent. Elle contribue à l’inverse à améliorer l’attractivité des villes (qualité de vie) et leur productivité (intensité urbaine et sérendipité).

L’analyse réalisée par l’Institut Paris Region évoquée plus haut souligne que ces opérations ont retissé des quartiers dégradés, libéré de l’espace pour d’autres usages (logements, parcs…), redonné toute leur place aux modes actifs et aux transports publics, sans que la mobilité et l’activité économique en aient souffert, bien au contraire.

Au-delà de l’automobile et de ses infrastructures, un mouvement mondial se dessine pour refonder des villes sur les besoins humains fondamentaux, en osmose avec le vivant.

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Pourquoi supprimer des autoroutes peut réduire les embouteillages – https://theconversation.com/pourquoi-supprimer-des-autoroutes-peut-reduire-les-embouteillages-171562

MIL OSI – Global Reports

Gouvernance mondiale de la santé : quels enjeux éthiques pour demain ?

Source: The Conversation – France (in French) – By Stéphanie Tchiombiano, Maitresse de conférence associée dans le département de science politique, Université Paris 1 Panthéon-Sorbonne

L’épidémie a affecté l’ensemble de la planète. Sur le plan sanitaire, bien sûr, mais aussi sur le plan éthique. Viacheslav Lopatin/shutterstock

La crise Covid marque l’avènement d’une nouvelle façon de penser et de gérer les questions de santé. Raisonner à l’échelle de la planète, appréhender les problèmes sanitaires dans leur dimension globale, chercher des solutions collectives et coordonnées au niveau mondial : c’est que ce l’on appelle la « santé mondiale ».

Cette nouvelle approche n’est pas sans poser de questions éthiques et nous oblige à interroger les fondements de nos mécanismes actuels de gouvernance.

La crise Covid n’a cessé de mettre à l’épreuve nos principes éthiques : les effets collatéraux du confinement ont-ils été suffisamment appréhendés ? Les contraintes liées aux visites des personnes âgées dans les Ehpad sont-elles proportionnées au risque ? Sur quels critères prioriser les patients lorsque l’accès à la réanimation est menacé ? L’application StopCovid menace-t-elle la confidentialité de nos données personnelles ? Peut-on obliger le personnel soignant à se faire vacciner ? Dans quelle mesure le passe sanitaire remet-il en question les libertés individuelles ?

Si ces questions ont jusqu’à présent été posées essentiellement au niveau national, il est aujourd’hui important de les décliner au niveau international et de nous interroger collectivement. Qu’en est-il des principes éthiques d’humanité, d’autonomie, de justice, d’égalité, de non-malfaisance, de transparence ou encore de démocratie dans la gouvernance de la santé mondiale de demain ?

Humanité

Le premier principe éthique est celui de l’humanité : regarder l’autre comme soi-même, soulager la souffrance et prêter une attention particulière à ceux d’entre nous qui sont les plus vulnérables. La crise Covid a renforcé les inégalités, au niveau national bien sûr (surmortalité dans les territoires les plus pauvres, vulnérabilité accrue des plus modestes, augmentation des violences faites aux femmes, etc.), mais aussi au niveau international.

De la même façon que Didier Fassin nous alerte sur l’illusion dangereuse de l’égalité des hommes devant l’épidémie, les pays ne sont pas égaux face aux crises sanitaires.

Lorsque certains décideurs évoquent cette inégalité et appellent à la solidarité, c’est aussi qu’ils ont intégré le nouveau mantra de la communauté internationale : « Aucun d’entre nous n’est en sécurité tant que nous ne le sommes pas tous. » L’appel à l’humanité se double d’un intérêt bien compris des États les plus riches à partager leurs ressources et à mettre en place des fonds communs. Financer des dispositifs comme Act-A, par exemple, n’est pas (seulement) un geste de solidarité ou d’humanité, mais aussi (et surtout) une façon indirecte de se protéger soi-même.

Les résultats d’ACT-A sont pour le moment très décevants : non seulement la participation des pays riches reste relativement faible comparativement aux moyens qui sont les leurs mais, en plus, leurs contributions réelles ne sont pas à la hauteur de leurs promesses initiales.

Comment s’assurer que, demain, les financements collectés globalement, au nom de l’intérêt général, viendront effectivement combler les inégalités et appuyer les pays les plus fragiles ?

Autonomie

Le principe d’autonomie insiste sur le respect des choix de chacun, sur sa liberté à opter pour les options qui correspondent le mieux à ses souhaits, ses valeurs ou ses projets, en toute connaissance de cause.

Dans le cas d’une crise pandémique, l’autonomie des pays, leur totale liberté à choisir pour eux-mêmes peut-elle être totalement préservée, alors que certaines décisions qu’ils pourraient prendre peuvent avoir un impact sur l’ensemble de l’humanité ?

Lorsque le gouvernement brésilien de Jair Bolsonaro décide de ne pas prendre les mesures nécessaires contre la Covid, misant sur une stratégie d’« immunité collective », n’est-il pas, d’une certaine façon, redevable devant le monde entier des risques épidémiologiques qu’il nous fait collectivement courir ?

À quelles libertés les États sont-ils prêts à renoncer au nom de la sécurité́ sanitaire mondiale ? Si tous s’accordent à dire qu’il faut changer les règles du jeu, les pays discutent depuis plusieurs mois déjà pour savoir s’il vaut mieux rédiger un traité international dédié à la préparation aux pandémies ou renforcer le Règlement sanitaire international (2005) déjà en vigueur. Il n’est même pas encore question du fond que la forme devient l’objet de discussions et de querelles de clocher. C’est dire à quel point ces questions sont sensibles politiquement.

Dans quelle mesure les États seront-ils libres ou non de s’approprier les injonctions internationales auxquelles ils seront soumis dans cette nouvelle ère de la santé mondiale ?

Justice

Le principe de justice pose l’obligation de traiter tous et chacun de manière équitable, c’est-à-dire en tenant compte de ses besoins, de ses efforts, de sa contribution ou de ses capacités.

On sait à quel point la répartition des ressources (humaines, matérielles, financières) est profondément inéquitable entre les pays. L’accès au vaccin Covid est un exemple frappant d’injustice.

S’il est évidemment impossible de reprocher aux dirigeants de ce monde de se préoccuper en priorités de leurs administrés, cette nouvelle ère de la santé mondiale devra également mettre en place des garde-fous pour que les pays les plus riches ou les plus puissants ne monopolisent pas les ressources à leur profit au détriment du plus grand nombre.

Par mesure de prudence face à l’incertitude des différents candidats-vaccins, le Canada a par exemple pré-acheté dix fois plus de vaccins Covid qu’il n’a d’habitants, pendant que certains pays n’avaient pas les moyens d’en acheter du tout. Un dispositif mondial, l’initiative Covax, a été mis en place pour répartir plus équitablement les vaccins, et organiser le partage des doses excédentaires des pays les plus riches, mais les pays à revenus limités restent systématiquement en « queue de peloton » pour la livraison des vaccins et dépendants de la bonne volonté des pays riches. Fin octobre 2021, seuls 15 % des vaccins promis aux pays à ressources limités avaient été livrés.

Comment s’assurer d’une juste répartition des produits de santé disponibles et d’une réponse ciblant les besoins les plus pressants lorsque les ressources sont contraintes ? Comment s’assurer que les pénuries mondiales ne seront pas toujours subies par les mêmes, dans un contexte d’asymétrie des pouvoirs et des moyens ?

Égalité

Le principe d’égalité postule l’absence de hiérarchie entre les pays, quelles que soient leur puissance effective, leurs ressources ou leur démographie.

La santé mondiale peut-elle contribuer à construire une nouvelle éthique des rapports « Nord/Sud » ? La configuration originale de la pandémie de Covid (d’une maladie circulant, pour une fois, des pays riches vers les pays les plus pauvres) ne pourrait-elle être l’occasion de sortir de l’approche (trop) souvent paternaliste de l’aide au développement ? « La main de celui qui donne est au-dessus de celle qui reçoit », dit le proverbe africain. Les projets d’aide au développement sont trop souvent standardisés, fondés sur les priorités des bailleurs ou des ONG, indépendamment de la complexité du réel ou des aspirations profondes des populations bénéficiaires.

Des voix s’élèvent aujourd’hui pour appeler à « décoloniser la santé mondiale ».

De fait, les principales institutions de la santé mondiale ont leur siège à Genève (donc au Nord). Les acteurs les plus influents de la santé mondiale viennent du Nord, qu’il s’agisse de gouvernements (États-Unis, Royaume-Uni, Allemagne, France), ou d’acteurs non gouvernementaux (Fondation Bill et Melinda Gates, Médecins sans Frontières). Les grands dispositifs de la santé mondiale d’aujourd’hui sont marqués par les pratiques néo-managériales propres au libéralisme des pays du nord.

Une récente évaluation du dispositif ACT-A pointe par exemple le déséquilibre des pouvoirs au sein de la gouvernance d’ACT-A et le fait que la voix des pays à revenus limités, ou celle de la société civile, ne sont pas réellement écoutées. L’influence des pays du G7, ou éventuellement du G20, au sein de ce type de mécanisme de la santé mondiale reste particulièrement élevée. Les logiques de coopération sur lesquelles se sont longtemps fondées les politiques internationales doivent être (enfin) repensées, pour devenir plus égalitaires.

Non-malfaisance

Le principe de non-malfaisance consiste à s’abstenir de commettre des actions dont les conséquences pourraient être nuisibles à autrui. Comment s’assurer que les avantages potentiels des mesures prises au nom de la sécurité sanitaire globale sont bien supérieurs aux risques de préjudice sur chaque pays ?

Partout dans le monde, les efforts faits pour endiguer l’épidémie de Covid ont eu des effets collatéraux sur d’autres problèmes de santé (rupture de la continuité des soins, maladies chroniques, santé sexuelle, nutrition, etc.) ou sur d’autres secteurs essentiels (éducation, économie, nutrition, etc.).

Lorsque des décisions sont prises de fermer les frontières par exemple, mesure-t-on réellement l’impact de cette mesure, y compris sur les pays qui ne sont pas les plus touchés par l’épidémie ?

La surexposition à des risques (sociaux, économiques, politiques) de certains pays, ou de certaines populations, au nom de la sécurité sanitaire de tous est évidemment très difficile à évaluer. Cette question de la proportionnalité des recommandations internationales doit être en tout cas une question centrale.

Transparence

Le principe de transparence suppose une capacité de tous à accéder aux informations pertinentes. En matière de gouvernance de la santé mondiale, la transparence porte en premier lieu sur les processus de décision et sur la façon dont la « communauté internationale » aboutit, notamment autour de l’OMS, à des choix au nom de l’intérêt général.

L’exigence de transparence porte ensuite sur la diffusion des données sanitaires, qui doivent être partagées quasiment en temps réel, pour que les systèmes d’alerte mondiale puissent fonctionner. L’épidémie de Covid a montré le caractère essentiel de la notification rapide des cas et la nécessité de standardiser les indicateurs au niveau mondial.

On retiendra par exemple l’impossibilité d’avoir une vision totalement claire de l’épidémie mondiale du fait de l’incapacité des États à s’accorder sur un mode unique et universel de recueil des données, notamment pour comptabiliser les décès liés à la Covid.

Enfin, et c’est essentiel, il s’agira aussi de rendre transparentes les décisions et politiques internationales du médicament (liens avec les laboratoires pharmaceutiques, régulation des marchés, transparence des prix, etc.). Considérer la santé comme un bien public impose logiquement de poser des freins à l’économie de marché au nom du caractère supérieur des enjeux sanitaires.

Démocratie

Le principe de démocratie implique une participation de l’ensemble des acteurs aux décisions.

Le pilotage de l’action collective internationale est d’autant plus compliqué qu’il n’est pas seulement une affaire d’États. Un nombre important d’acteurs a émergé ces dernières années dans le champ de la santé mondiale, qu’il s’agisse d’ONG, d’acteurs du secteur privé (laboratoires pharmaceutiques, multinationales, banques), ou de fondations, comme la Fondation Gates qui joue un rôle majeur.

Cette nouvelle approche pose également la question de la déclinaison de nos principes de démocratie sanitaire au niveau global : quelle représentation des personnes touchées, infectées ou affectées par la maladie ? Quelle place pour les associations, la société civile ?

Au-delà des questions de principe, si l’on veut que les mesures soient acceptées, comprises, il faut qu’elles soient mises en débat, discutées, et que l’ensemble des acteurs participent à la décision collective. Faire vivre la démocratie sanitaire est déjà un enjeu de taille au niveau d’un hôpital, d’une collectivité, d’un pays. Il le sera encore plus au niveau global.

La crise Covid nous a mis à l’épreuve du réel. Elle nous a aidés à identifier les points sensibles, les failles, les limites de nos systèmes de gouvernance actuels, pour que nous soyons capables de nous préparer à répondre ensemble aux crises sanitaires de demain. Comme toutes les questions éthiques, ces « nœuds » mettent en jeu des arguments, des points de vue et des valeurs éthiques contradictoires. À nous maintenant de débattre collectivement et le plus sereinement possible de ces questions.

Stéphanie Tchiombiano est coordinatrice du think tank Santé mondiale 2030.

ref. Gouvernance mondiale de la santé : quels enjeux éthiques pour demain ? – https://theconversation.com/gouvernance-mondiale-de-la-sante-quels-enjeux-ethiques-pour-demain-171272

MIL OSI – Global Reports

Bonnes feuilles : « Culture de masse et société de classes. Le goût de l’altérité »

Source: The Conversation – France (in French) – By Philippe Coulangeon, Sociologue directeur de recherche au CNRS, Sciences Po

Nous vivons dans des sociétés dans lesquelles la diffusion de l’éducation et les transformations de l’économie des biens culturels semblent produire une certaine uniformisation des goûts et des styles de vie. Un peu partout dans le monde, alors que les classes supérieures diplômées conservent un accès privilégié aux répertoires culturels les plus légitimes, elles sont aussi partie prenante à l’univers de la culture de masse et des médias.

Cette transformation n’est pourtant pas à proprement parler synonyme de démocratisation culturelle, comme l’explique Philippe Coulangeon dans un ouvrage paru en septembre 2021 aux Presses universitaires de France (2021). Un chapitre de l’ouvrage s’arrête plus particulièrement sur les effets de l’expansion scolaire. Celle-ci a-t-elle réduit l’inégalité des chances ? Quelques éléments de réponse dans cet extrait.


Le degré auquel l’école contribue à la réalisation du principe d’égalité des chances peut se mesurer à travers l’écart à une situation de référence dans laquelle les trajectoires et les performances scolaires des élèves et des étudiants seraient totalement indépendantes de leur condition sociale d’origine, incarnation parfaite de ce principe. Les données disponibles dans un nombre croissant de pays et sur des périodes dont la durée s’allonge avec le temps livrent à ce sujet un enseignement qui est dominé par le constat d’une assez forte inertie, à des degrés variables selon les pays, mais sans véritablement remettre en cause ce constat déjà ancien.

Dans un ouvrage collectif publié au début des années 1990 portant sur l’évolution en longue période des inégalités sociales de réussite scolaire dans 13 pays situés dans des aires géopolitiques variées (États-Unis, Allemagne de l’Est, Pays-Bas, Suède, Angleterre et pays de Galles, Italie, Suisse, Taïwan, Japon, Pologne, Hongrie, Tchécoslovaquie et Israël), Yossi Shavit et Hans Peter Blossfeld faisaient le constat d’un niveau stable et persistant d’inégalité des chances de réussite scolaire selon le milieu social d’origine. Seuls deux pays, la Suède et les Pays-Bas, dans lesquels s’observait au contraire une réduction des écarts de réussite scolaire selon l’origine sociale, échappaient à l’époque à cette tendance générale observée dans des pays aux régimes politiques et économiques pourtant fort différents les uns des autres.




À lire aussi :
Le mérite est-il encore un idéal démocratique ?


Diverses nuances ont été apportées depuis aux conclusions de Shavit et Blossfeld. Richard Breen, Ruud Luijkx, Walter Müller et Reinhard Pollak ont identifié une dizaine d’années plus tard une tendance contraire dans huit pays européens (Allemagne, France, Irlande, Italie, Pays-Bas, Pologne, Royaume-Uni et Suède), à savoir un relâchement du lien entre l’origine sociale et le destin scolaire des individus entre les cohortes nées dans le premier quart du XXe siècle et les cohortes nées dans les années 1950 et 1960. Cette tendance ne concerne toutefois que l’accès à l’enseignement secondaire, dont le lien au milieu d’origine tend à se réduire dans chacun des huit pays. S’agissant de l’accès à l’enseignement supérieur, ce lien demeure en revanche globalement inchangé, mais il reste plus faible que pour l’accès à l’enseignement secondaire, ce qui est une conséquence logique de l’enchaînement des différents seuils de sélection.

La sélection sociale est nécessairement moins prononcée au stade de l’accès à l’enseignement supérieur, puisque les élèves et étudiants concernés ont déjà été sélectionnés en amont, lorsqu’ils ont accédé à l’enseignement secondaire. De ce point de vue, l’augmentation des durées de scolarisation et l’élévation générale des niveaux de diplômes diminuent mécaniquement le lien global entre origine sociale et réussite scolaire, tous niveaux de diplômes confondus. La diminution du lien entre origine sociale et réussite scolaire provient donc en partie de cet effet de composition des différents seuils de sélection, auquel elle ne se réduit cependant pas. Il y a bien un effet propre de l’expansion scolaire qui, dans de nombreux pays, se manifeste en particulier au niveau de l’accès à l’enseignement secondaire.

Le cas de la France, où l’on a pu aussi observer une certaine réduction du lien entre l’origine sociale et le niveau d’éducation atteint, amène toutefois à nuancer cet effet propre de l’expansion scolaire. Comme le montrent les travaux de Louis-André Vallet, il semble en effet que l’essentiel de la réduction de l’inégalité des chances scolaires se soit produit en France avant la massification de l’enseignement secondaire, pour l’essentiel au sein des générations nées entre 1935 et 1944 et entre 1945 et 1954, c’est-à-dire dans des générations scolarisées en grande partie antérieurement aux réformes qui, depuis les années 1960, ont abouti à la constitution d’un système unifié d’enseignement secondaire, d’abord au niveau du premier cycle, avec la création du collège unique par la loi Haby de 1975, du nom du ministre de l’Éducation nationale de l’époque, puis avec l’élargissement de l’accès au baccalauréat dans les années 1980, par le biais du développement des filières technologiques et professionnelles. Cette réduction de l’inégalité des chances scolaires est a fortiori intervenue avant la massification de l’enseignement supérieur.




À lire aussi :
Débat : Ce que dit la sociologie sur les origines des inégalités scolaires


Il n’en demeure pas moins que, même si l’on observe une certaine réduction de l’inégalité des chances scolaires, celle-ci demeure assez limitée. En France, Louis-André Vallet et Marion Selz montrent ainsi qu’au sein des générations concernées par cette réduction, seul un nombre assez réduit de personnes (de l’ordre de 6 à 7 %, soit une centaine de milliers) ont connu un destin scolaire différent de celui qui aurait été le leur si ce relâchement du lien entre origine sociale et réussite scolaire ne s’était pas produit. En outre, dans le cas français, la réduction de l’inégalité des chances scolaires observée dans l’accès à l’enseignement secondaire ne se prolonge pas s’agissant de l’accès à l’enseignement supérieur, où l’on constate même un certain renforcement du lien entre l’origine sociale et l’obtention d’un diplôme d’enseignement supérieur post-bac.

Ce renforcement de l’inégalité des chances dans l’enseignement supérieur est une nouvelle illustration de l’articulation des évolutions observées aux différents niveaux du système d’enseignement. La très large diffusion de l’accès au baccalauréat amène dans l’enseignement supérieur, et principalement sur les bancs de l’université, une population étudiante socialement et scolairement plus hétérogène que par le passé, au sein de laquelle n’opèrent plus les phénomènes de « sur-sélection », en vertu desquels la minorité d’étudiants d’origine populaire était autrefois composée d’étudiants en moyenne plus performants que les étudiants d’origine plus favorisée, compensant en quelque sorte par un surcroît de performance scolaire le handicap social de leur origine.

PUF

L’effet propre de l’expansion scolaire sur la réduction de l’inégalité des chances scolaires apparait au total relativement modeste et partiellement ambivalent, dès lors qu’il est tenu compte de la dimension séquentielle des trajectoires scolaires et du déplacement des seuils de sélection scolaire et sociale en aval de cursus dont la durée tend à s’allonger.

Une des limites des conclusions qui peuvent être tirées de l’observation de l’évolution des chances d’accès aux différents niveaux d’études secondaires et supérieures tient aussi à l’hétérogénéité des cursus, en particulier à la différenciation des filières courtes et longues, professionnelles et générales, non sélectives et sélectives, dont ce type de mesure ne tient que très imparfaitement compte. Une autre limite, tout aussi importante, tient à la disparité des contenus et des compétences attachées aux différents cursus, en sorte que la distribution des chances d’accès aux différents niveaux d’études ou de certification ne correspond que très imparfaitement à celle des performances des élèves et des étudiants.

Philippe Coulangeon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Bonnes feuilles : « Culture de masse et société de classes. Le goût de l’altérité » – https://theconversation.com/bonnes-feuilles-culture-de-masse-et-societe-de-classes-le-gout-de-lalterite-172438

MIL OSI – Global Reports

La dette publique, boulet des banques centrales dans la lutte contre l’inflation

Source: The Conversation – France (in French) – By Éric Mengus, Professeur associé en économie et sciences de la décision, HEC Paris Business School

Depuis 2008, les gouvernements ont émis des quantités importantes de dette publique – l’encours de la dette est désormais égal à 125 % du PIB aux États-Unis et a dépassé cet été la barre des 100 % dans la zone euro. Une part importante de cette dette a été rachetée par les banques centrales qui ont émis en contrepartie des réserves – plus de 30 % du PIB à la Réserve fédérale américaine (Fed) et 60 % à la Banque centrale européenne (BCE).

Jusqu’à présent, les taux d’intérêt bas ont permis un refinancement aisé des dettes publiques. En outre, l’inflation basse justifiait des opérations de soutien monétaire des banques centrales.

Cependant, cette situation risque de prendre fin avec la récente remontée de l’inflation des deux côtés de l’Atlantique. Certains observateurs, en particulier aux États-Unis comme l’économiste John Cochrane, ou encore Larry Summers, ancien secrétaire au Trésor de Bill Clinton, s’inquiètent aujourd’hui de la capacité des banques centrales à augmenter les taux d’intérêt ou à réduire leurs réserves lorsque cela s’avèrera nécessaire pour atteindre leur objectif de stabilité des prix (un taux d’inflation proche de 2 % pour la Fed et la BCE).

Inflation : Larry Summers détaille ses craintes dans une interview accordée à Bloomberg Markets and Finance (6 novembre 2021, en anglais).

Dans le contexte d’endettement actuel, les États pourraient en effet tirer profit d’une politique monétaire accommodante menant à un niveau élevé d’inflation. La hausse des prix éroderait la valeur réelle des dettes publiques et donc les rendrait plus supportables. Ils auraient ainsi intérêt à entraver tout resserrement entrepris par les banques centrales.

De telles inquiétudes mettent en évidence un risque de basculement de la « dominance monétaire », dans laquelle la banque centrale n’est confrontée à aucun obstacle budgétaire pour atteindre son objectif de stabilité des prix, à une « dominance budgétaire », dans laquelle la politique monétaire cherche d’abord à fixer l’inflation pour assurer la solvabilité de l’autorité fiscale.

Avec un tel passage à la dominance budgétaire, l’inflation, qui est actuellement considérée comme transitoire, pourrait bien devenir plus persistante et, surtout, plus difficile à combattre. Ce risque de dominance budgétaire est d’ailleurs l’objet de dissensions, notamment au sein de l’Eurosystème.

« Jeu de la poule mouillée »

Habituellement, lorsque la banque centrale resserre sa politique monétaire, la hausse des taux d’intérêt augmente la charge de la dette du gouvernement, qui doit alors procéder à une consolidation budgétaire sous forme de hausses d’impôt ou de réduction des dépenses publiques. Étant donné leur endettement massif, les gouvernements pourraient au contraire être tentés de ne pas réduire leurs déficits, voire d’augmenter leur endettement, pour forcer la banque centrale à revenir sur son resserrement monétaire.

Faut-il croire aujourd’hui à un tel scénario ? Dans nos récents travaux de recherche, nous analysons les incitations d’un gouvernement à pousser à la dominance budgétaire ou, au contraire, à se conformer à la dominance monétaire.

Dans le premier cas, ce jeu a été décrit comme un « jeu de la poule mouillée » entre le gouvernement et la banque centrale par l’économiste américain Neil Wallace à la suite de ses travaux avec son Thomas Sargent, prix Nobel d’économie en 2011.

Ce jeu est celui où deux pilotes lancent leurs voitures l’une contre l’autre, le perdant étant le premier qui dévie de sa trajectoire pour éviter la collision : le gouvernement accumule ainsi les déficits alors que la banque centrale maintient sa politique monétaire restrictive jusqu’au moment où l’un cède, soit par consolidation fiscale du côté du gouvernement, soit par de l’inflation du côté de la banque centrale. Le scénario du crash dans lequel personne ne cède correspond ici au défaut souverain.

Le jeu de la poule mouillée, une illustration du face-à-face actuel entre gouvernements et banques centrales.
Damian Gadal/Wikimedia, CC BY-SA

Ce que nous montrons, tout d’abord, est que la dominance budgétaire dans ce jeu de la poule mouillée nécessite que le gouvernement épuise sa capacité fiscale et rende un défaut crédible : il ne doit plus avoir de marges de financement, ni en termes de réduction de dépenses ni en termes de taxes supplémentaires. En effet, tant que le gouvernement dispose de marges d’ajustement, la politique monétaire peut le forcer à la consolidation fiscale afin d’éviter un défaut.

Comment un gouvernement peut-elle se retrouver dans une telle situation d’épuisement de sa capacité fiscale ? Des chocs comme des récessions ou des crises peuvent l’y mener via la baisse des recettes fiscales ou l’augmentation des dépenses pour le soutien à l’économie.

Nous montrons de plus que l’autorité fiscale peut également épuiser sa capacité fiscale de manière délibérée. En lieu et place d’une consolidation, le gouvernement peut décider d’enregistrer d’importants déficits et d’inonder le marché obligataire.

L’important stock de dette qui en résulte forcera ainsi la banque centrale à augmenter l’inflation à l’avenir pour éroder la valeur de la dette et éviter le défaut souverain. Cela se produira d’autant plus que la dette publique est initialement élevée, que les taux d’intérêt sont bas et peu sensibles à l’émission de dette publique, ou encore que les marges futures d’ajustement fiscal sont faibles.

Le paradoxe de l’inflation préventive

La banque centrale a-t-elle alors le pouvoir de faire pencher la balance vers la dominance monétaire ou, au moins, de réduire le coût inflationniste imposé par la dominance fiscale ?

Paradoxalement, la banque centrale peut avoir intérêt à s’engager dans une inflation préventive. En augmentant l’inflation actuelle, la banque centrale diminue la valeur réelle des passifs passés et ainsi rend la dette à nouveau soutenable pour le gouvernement. Ainsi, cette inflation rend coûteux et inutile une stratégie de victoire à la Pyrrhus d’émission incontrôlée de dette publique.

Le choix pour les banques centrales est donc entre deux options : ou bien laisser un peu filer l’inflation pour desserrer l’étau budgétaire, ou bien l’orthodoxie monétaire au risque de voir les gouvernements réagir violemment en contrecarrant leur action par des émissions massives de dette publique servant à repayer la dette passée. Cette stratégie d’inflation préemptive n’est pas sans risques : en particulier, la banque centrale peut donner l’impression de renier son objectif de stabilité des prix.

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. La dette publique, boulet des banques centrales dans la lutte contre l’inflation – https://theconversation.com/la-dette-publique-boulet-des-banques-centrales-dans-la-lutte-contre-linflation-172629

MIL OSI – Global Reports

Joséphine Baker et les États-Unis, un amour contrarié

Source: The Conversation – France (in French) – By François Drémeaux, Enseignant-chercheur en histoire contemporaine, Université d’Angers

Le déjeuner à l’Hôtel Theresa, pour le “Baker Day” du 20 mai 1951. Yale University library. Collection Carl von Vechten.

Le 28 août 1963, au cours de la Marche sur Washington, de nombreux orateurs se succèdent à la tribune avant que Martin Luther King Jr ne lance son célèbre I have a dream. Parmi les tribuns, une femme en uniforme de l’armée de l’air française : Joséphine Baker. Cet épisode rappelle que la célèbre meneuse de revues a été résistante dans la France Libre, mais aussi engagée contre la ségrégation raciale aux États-Unis.

Des deux amours de Joséphine Baker, « Paris » est le plus documenté, mais le tout premier demeure « mon pays », les États-Unis. Comme un lien entre les deux, les archives diplomatiques de Nantes conservent un dossier issu du consulat général de France à New York, qui éclaire la dernière partie de la vie de l’artiste, à partir de 1951, alors qu’elle réalise de nombreux séjours outre-Atlantique. Ces documents permettent d’interroger l’aura internationale de la chanteuse, ainsi ses rapports chaotiques avec son pays natal.

Après des années d’absence, Joséphine Baker rentre aux États-Unis en 1948, pour un tour de chant qui vire au cauchemar. Ne serait-ce qu’à New York, on lui refuse plus d’une trentaine de réservations d’hôtels à cause de sa couleur de peau. Dans cette Amérique d’après-guerre, la ségrégation raciale est telle qu’il existe un guide de voyage, le Green Book, pour aider les Afro-Américains à se déplacer en toute quiétude. En réaction, l’artiste rapatrie sa famille de Saint-Louis (Missouri) vers son domaine nouvellement acquis en France, les Milandes.




À lire aussi :
« Green Book » et la question du racisme : un film qui n’est ni tout noir ni tout blanc


Deux ans plus tard, et après bien des hésitations par suite de la précédente débâcle, son agent la convainc de signer un très rentable contrat avec le Copa City Club de Miami. Il est question de trois mois à résidence en Floride, suivi de deux mois et demi de tournée aux États-Unis. Une proposition que l’artiste ne peut refuser : ses projets aux Milandes nécessitent de lourds investissements. Ces premières années de la décennie représentent un tournant majeur dans la vie de Joséphine Baker avec, bientôt, l’essor de sa « Tribu arc-en-ciel » et plus généralement son engagement croissant contre la discrimination raciale.

Dans son contrat américain, elle n’accepte de se produire que dans les cabarets qui tolèrent tous les publics, sans distinction de couleur, et pousse ses demandes jusqu’à faire enlever les inscriptions discriminatoires dans les clubs. Elle exige d’être entourée d’équipes techniques mélangées. Preuve de la popularité de l’artiste, ces conditions inédites aux États-Unis sont acceptées, au prix de quelques lucratifs cachets perdus.

Joséphine Baker agit souvent à l’instinct et acquiert la réputation d’être difficile à contrôler. En avril 1951, elle s’implique en faveur de William McGee, un Afro-américain condamné à mort pour le viol supposé d’une femme blanche – une affaire typique de l’expéditive justice du sud des États-Unis sous l’influence des lois Jim Crow. L’historienne Bennetta explique que « Baker a défendu McGee avec ses émotions, sans réaliser que son cas s’inscrivait dans un contexte politique plus large. » Dans une lettre ouverte, la chanteuse proteste également contre les pratiques de recrutement et les stéréotypes raciaux dans les médias américains. Elle utilise sa notoriété pour batailler sur tous les fronts, le plus souvent sans concertation ni discussion préalable avec les groupes d’activistes locaux.

Interview de Joséphine Baker par un journaliste américain en 1950, à bord du paquebot Liberté

L’Association nationale pour la promotion des gens de couleur (NAACP) s’honore cependant de recevoir « la célébrité internationale, Joséphine Baker ». Le 20 mai 1951, elle organise le Baker Day, une grande parade dans les rues de Harlem suivie d’un banquet. L’événement donne l’occasion de se pencher sur l’attitude des diplomates français à l’égard de la turbulente artiste, naturalisée française depuis 1937. Pour le Baker Day, l’ambassade ne donne pas suite à l’idée d’associer « les représentants de la jeunesse française », mais le consul général Roger Seydoux est présent.

Le Baker Day, en mai 1951.

Le diplomate est sceptique sur l’avenir de cette vague d’égalitarisme portée par la chanteuse, mais il note, dans une dépêche à l’attention de son ministère, que « le coup a porté et le retentissement est extraordinaire dans les milieux nègres ». Le problème selon lui, c’est que l’artiste n’est pas consciente de la portée politique de l’événement : « Elle ne sembla pas voir l’épée qu’on lui tendait ». Une attitude perçue comme une faiblesse, mais qui évite à l’artiste d’être cataloguée.

Le consulat est de plus en plus embarrassé par les agissements de Joséphine Baker. Elle politise systématiquement ses spectacles avec de longues diatribes égalitaires. À Detroit, par exemple, elle discourt de la Révolution française, établissant un parallèle avec la nécessaire prise de conscience des Noirs américains pour se libérer de l’oppression. Longue ovation. Une dépêche consulaire note avec effroi que deux drapeaux français sont sur l’estrade.

Puis le rêve américain s’étiole. Alors qu’on lui promet un avenir à Hollywood, le scandale du Stork Club prend une tournure qui échappe à l’artiste. Le 16 octobre 1951, Joséphine Baker souhaite dîner dans ce restaurant new-yorkais à la mode. On refuse ostensiblement de la servir. Elle appelle la police, mobilise la NAACP, et prend à partie Walter Winchell, influent chroniqueur radio et… ami proche du propriétaire du club. Les médias proches du journaliste se déchaînent alors contre Baker, qui serait tout à la fois fasciste et communiste, internationaliste et antisémite. Le colonel Abtey, ancien chef de Joséphine Baker dans la France Libre, réalise même le déplacement depuis le Maroc pour témoigner devant la presse. Ces fake news avant l’heure entraînent deux longues années de procédures judiciaires et ternissent l’image de la chanteuse. Le FBI s’en mêle et ouvre une enquête. Les contrats s’évanouissent.

Extrait du St Louis Post Dispatch, février 1952.

En pleine tourmente, Joséphine Baker donne malgré tout un récital dans sa ville natale de Saint-Louis. Dans un long discours, elle affine ce que sa biographe américaine Bennetta appelle le Cinderella narrative, tout en affirmant que ce n’est pas la pauvreté qui a causé sa fuite des États-Unis, mais la discrimination, « cette bête horrible qui paralyse nos âmes et nos corps ». Elle se remémore alors les émeutes de East Saint-Louis en 1917 et idéalise son arrivée en France.

L’artiste se tourne vers l’Amérique latine pour de longues tournées, du Mexique à l’Argentine en passant par Cuba, où ses fréquentations ainsi que ses déclarations – parfois contradictoires – contribuent plus encore à brouiller son image pour celles et ceux qui, en cette période de guerre froide, ne disposent que d’une vision binaire. « J’aime beaucoup Joséphine Baker et j’admire son cran », écrit le consul général Seydoux à l’un de ses collègues. Elle « ne manque ni d’intelligence ni de courage, mais malheureusement la clarté d’esprit n’est pas une de ses vertus essentielles ». Pas assez tacticienne, l’artiste perd des soutiens, comme l’influent membre du congrès Adam Clayton Powell Jr qui la qualifie de « Jeanne d’Arc de pacotille ».

Dans les années 1960, la Marche sur Washington ou encore son passage dans le Cuba castriste lui valent plusieurs révocations de visas. Il y a moins d’enthousiasme dans les escales étatsuniennes. En 1963, Joséphine Baker donne même ses conférences de presse en français, accompagnée d’un traducteur. Elle prend ses distances avec la NAACP, mais continue d’être honorée pour ses engagements, comme en 1960 par le Congrès juif américain. Son dernier tour de chant à New York est un triomphe.




À lire aussi :
Auto-essentialisation : quand Joséphine Baker retournait le racisme contre elle-même


Les chercheurs Simmons et Crank ont étudié la performance physique comme une métonymie de la modernité. Et de citer Joséphine Baker et sa jupe de bananes. En s’appropriant l’accoutrement, elle le détourne du cliché racial dans une danse novatrice, qui contribue à la façonner en icône noire. Toute sa carrière est à l’avenant. Ses performances induisent fierté pour sa couleur de peau, mais aussi refus d’être enfermée dans l’idée monolithique d’une culture noire. Joséphine Baker qui chante La petite Tonkinoise et danse le charleston est exotique et française, coloniale et américaine, avant-gardiste et internationale. Elle est la figure de proue de l’émergence de la scène jazz en France, l’une des premières musiques populaires dont la portée peut prétendre être mondiale.

Joséphine Baker interprète La petite Tonkinoise en 1968.

« Intersectionnelle avant l’heure », Joséphine Baker est également transnationale. Sa modernité réside dans sa manière d’abolir les frontières, d’user puis de s’affranchir de tutelles institutionnelles. Plus qu’une activiste habitée par une idéologie particulière, c’est une militante indépendante. Ses causes correspondent à son vécu – elle est par exemple plus gaullienne que gaulliste. Elle prône un multiculturalisme sans affiliation, qu’elle diffuse grâce aux réseaux offerts par la pratique de son art, préfigurant ces artistes hollywoodiens dont les engagements tentent de sensibiliser le plus grand nombre.

François Drémeaux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Joséphine Baker et les États-Unis, un amour contrarié – https://theconversation.com/josephine-baker-et-les-etats-unis-un-amour-contrarie-171635

MIL OSI – Global Reports

Ondas gravitacionales: el canto silencioso de los agujeros negros

Source: The Conversation – France (in French) – By José Luis Jaramillo, Professeur des Universités, Institut de Mathématiques de Bourgogne (IMB), Université de Bourgogne – UBFC

Dúo de agujeros negros danzantes. LIGO/Caltech/MIT/Sonoma State (Aurore Simonnet), CC BY-NC-SA

Los agujeros negros bailan y, cuando lo hacen, lo hacen por parejas. Esta es la norma en el universo: la mayoría de las estrellas evolucionan en los llamados sistemas binarios, formados por dos objetos que orbitan entre sí.

No solo bailan, sino que mientras bailan los agujeros negros también cantan. Este canto tan inusual no adopta la forma de sonido, luz u otras ondas electromagnéticas. No obstante, es una radiación con sus ritmos, tonos y armónicos, incluso su melodía y sus diferentes voces

Un canto, codificado en las llamadas ondas gravitacionales, que permite identificar los detalles más finos de los agujeros negros que le corresponden y de su danza orbital: a la manera de un ornitólogo que reconoce sus especies y características en el canto de los pájaros, los astrofísicos extraen de las ondas gravitacionales las propiedades de cada uno de los agujeros negros y de sus órbitas.

Perturbación en la curvatura del espacio-tiempo

La existencia de estas ondas, extremadamente difíciles de detectar, fue predicha por Albert Einstein en 1916, justo después de su formulación de la relatividad general, que es la descripción teórica que utilizamos hoy para explicar la gravedad. Esta teoría explica los fenómenos gravitacionales en términos de lo que se conoce como “curvatura del espacio-tiempo”.

Las ondas emitidas por los agujeros negros binarios, de naturaleza gravitatoria, son entonces perturbaciones de esta curvatura del espacio-tiempo que se propagan. Es similar a las olas en un estanque, que son perturbaciones de la superficie del agua al propagarse.

El 14 de septiembre de 2015, la antena gravitacional Ligo detectó directamente estas ondas por primera vez. Desde entonces, se han producido unas 50 detecciones, iniciando una nueva etapa en el estudio del Universo: la astronomía de ondas gravitacionales.

Similar a las mareas

Pero describir estas ondas como perturbaciones de la curvatura del espacio-tiempo es bastante críptico. Un enfoque más intuitivo utiliza la noción más familiar de las mareas, es decir, la subida y bajada de los océanos dos veces al día.

Se producen por la acción gravitatoria de la Luna y el Sol, que distorsionan la superficie de los océanos en una especie de elipsoide.

Dada una posición relativa de la Tierra-Luna-Sol (que define lo que se llama un “día en un mes”), esta deformación elipsoidal de los océanos es “estacionaria”, es decir, su forma no cambia. Es la rotación de la Tierra, cuya corteza (más rígida) no se deforma por las mareas, la que hace que una determinada costa pase dos veces al día por una joroba en el elipsoide de las aguas (mareas altas) y dos veces al día por una depresión (mareas bajas).

Se trata del conocido fenómeno de las mareas.

Las ondas gravitacionales como mareas que se propagan

¿Qué pasaría si el Sol y la Luna desaparecieran de repente? Los océanos dejarían de tener una razón para estar distorsionados y recuperarían una forma más esferoidal.

Pero este proceso está sujeto a dos limitaciones: por un lado, la información de la desaparición de la Luna y el Sol debe propagarse a una velocidad finita (nada puede viajar más rápido que la luz, según la relatividad especial de Einstein). Por otro lado, la relajación de los océanos a su estado no distorsionado se realiza oscilando alrededor del esferoide.

Una “onda gravitatoria” es el fenómeno físico que informa de los cambios en una fuente gravitatoria (en el ejemplo, la Luna y el Sol) mediante una señal que se propaga a una velocidad finita e induce oscilaciones en la forma de los cuerpos que se encuentran en su trayectoria (en el ejemplo, los océanos).

En un sentido literal, las ondas gravitacionales son mareas dinámicas que se propagan en el espacio. Este canto gravitacional es un canto silencioso, se expresa por los cambios de formas.

Los orígenes de las ondas gravitacionales

¿Cuáles son los sistemas físicos que producen estas mareas de propagación? En otras palabras, ¿cuáles son las fuentes de estas ondas? La respuesta es sencilla: cualquier sistema cuya forma cambia con el tiempo es una fuente de ondas gravitacionales. Podría ser yo agitando rápidamente mis brazos o un sistema binario de objetos astrofísicos compactos.

Esto nos lleva a una aparente paradoja: si cualquier sistema que se deforma en el tiempo emite estas ondas, ¿por qué no estamos rodeados de estas mareas que a su vez deforman cualquier objeto que se encuentre a su paso? En realidad, están ahí pero son demasiado débiles para ser perceptibles. Este es mi caso cuando agito los brazos. Sólo los objetos muy masivos o con velocidades comparables a la de la luz son capaces de producir señales apreciables, como los binarios de los objetos compactos.

Por lo tanto, tenemos que mirar más allá de la Tierra para identificar las fuentes adecuadas. Y aquí es donde entran los agujeros negros binarios, con sus grandes masas y velocidades orbitales cercanas a la luz.

Rompiendo el silencio gravitacional

Ahora volvamos a nuestra afirmación original de que los agujeros negros binarios pueden cantar.

De hecho, todas las estrellas binarias cantan gravitacionalmente, pero solo las formadas por objetos muy compactos (agujeros negros, estrellas de neutrones, enanas blancas…) cantan lo suficientemente alto. Los otros hacen que su melodía suene demasiado baja para ser detectada: si todos los cantos de los sistemas binarios son silenciosos, algunos son más que otros…

Por lo tanto, gracias a un tour de force tecnológico, los astrofísicos han logrado romper este silencio gravitacional. El desarrollo de los interferómetros láser, verdaderas antenas gravitacionales, ha permitido la detección directa de estas ondas y el acceso a su información astrofísica y cosmológica.

Una red de interferómetros en la Tierra

Estos interferómetros están formados por dos brazos perpendiculares de exactamente la misma longitud, que son sometidos a oscilaciones (estiramiento y compresión) cuando una onda gravitacional los atraviesa. La interferometría óptica permite medir con gran precisión el cambio relativo de la longitud de estos brazos, identificando así el paso de una onda.

Como estas ondas gravitacionales son fenómenos de marea y su efecto es más fuerte cuanto mayor es el tamaño del objeto deformado, los brazos de los interferómetros tienen varios kilómetros de longitud (4 km en LIGO, en Estados Unidos).

Ilustración de LISA.
Wikimedia Commons / NASA

Hoy en día, existe una amplia red de interferómetros en la Tierra, cuyo funcionamiento simultáneo es crucial para el análisis de estas ondas. Para estudiar los objetos más masivos, como los agujeros negros de los centros galácticos, habrá que construir interferómetros en el espacio, lo que constituye el núcleo del programa espacial Lisa. Ahora tenemos oídos interferométricos para escuchar y descifrar la silenciosa canción gravitacional. Y su melodía es rica.

Un campo de investigación importante

El descubrimiento de las ondas gravitacionales fue un gran acontecimiento científico que se reflejó en el Premio Nobel de Física de 2017. De hecho, el estudio de la gravedad vive un momento especialmente dulce: tres de los últimos cinco premios Nobel se han concedido a investigaciones realizadas en el campo de la gravitación.

En 2017 ganaron las ondas gravitacionales y en 2019 la cosmología física y el descubrimiento de exoplanetas. El Premio Nobel de 2020 se concedió por la predicción teórica de los agujeros negros y su observación directa en los centros galácticos.

En la actualidad, la sinergia entre diferentes disciplinas está abriendo nuevos caminos en la cosmología, la astrofísica y la física fundamental. A cambio, el universo gravitacional nos canta para revelar sus misterios.

José Luis Jaramillo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Ondas gravitacionales: el canto silencioso de los agujeros negros – https://theconversation.com/ondas-gravitacionales-el-canto-silencioso-de-los-agujeros-negros-172587

MIL OSI – Global Reports

Ondes gravitationnelles : le chant silencieux des trous noirs

Source: The Conversation – France (in French) – By José Luis Jaramillo, Professeur des Universités, Institut de Mathématiques de Bourgogne (IMB), Université de Bourgogne – UBFC

Duo de trous noirs qui dansent. LIGO/Caltech/MIT/Sonoma State (Aurore Simonnet), CC BY-NC-ND

Les trous noirs dansent, et quand ils dansent, ils le font en couple. C’est d’ailleurs la norme dans l’Univers : la plupart des étoiles évoluent dans des systèmes dits binaires, formés par deux objets orbitant l’un autour l’autre.

Non seulement ils dansent, mais tandis qu’ils dansent, les trous noirs chantent également. Ce chant un peu singulier ne prend ni la forme d’un son, de la lumière, ni d’autres ondes électromagnétiques. C’est néanmoins bien un rayonnement avec ses rythmes, ses tons et ses harmoniques, même sa mélodie et ses différentes « voix »…

Un véritable chant, codifié dans des ondes dites gravitationnelles, qui permet d’identifier les plus fins détails des trous noirs qui lui correspondent et de leur danse orbitale : à la manière de l’ornithologue qui reconnaît dans le chant des oiseaux leur espèce et leurs caractéristiques, les astrophysiciens extraient à partir des ondes gravitationnelles les propriétés de chacun des trous noirs et de leur orbite.

Perturbation dans la courbure de l’espace-temps

L’existence de ces ondes, extrêmement difficiles à détecter, a été prédite par Albert Einstein en 1916, juste après sa formulation de la relativité générale, qui n’est autre que la description théorique dont nous usons aujourd’hui pour expliquer la gravité. Cette théorie explique le phénomène gravitationnel en termes de ce qu’on désigne comme « courbure de l’espace-temps ».

Les ondes émises par les binaires de trous noirs, de nature gravitationnelle, sont alors des perturbations de cette courbure de l’espace-temps qui se propagent sur le propre espace-temps. Similaires aux ondes dans un étang, qui sont des perturbations de la surface de l’eau quand elles se propagent sur celle-ci.

Le 14 septembre 2015, l’antenne gravitationnelle Ligo a pour la première fois détecté directement ces ondes. Depuis, une cinquantaine des détections ont suivi jusqu’à la date présente, initiant une véritable nouvelle étape dans l’étude de l’Univers : l’astronomie des ondes gravitationnelles.

Un fonctionnement similaire à celui des marées

Mais décrire ces ondes comme des perturbations de la courbure de l’espace-temps est assez cryptique. Une approche plus intuitive fait appel à la notion plus familière de marée, notamment la montée et descente des océans deux fois par jour.

Celles-ci sont produites pour l’action gravitationnelle de la Lune et le Soleil, qui déforment la surface des océans dans une espèce d’ellipsoïde.

Étant donnée une position relative de la Terre-Lune-Soleil (qui définit ce que l’on appelle un « jour dans un mois »), cette déformation ellipsoïdale des océans est « stationnaire », c’est-à-dire que sa forme ne change pas. C’est la rotation de la Terre, dont la croûte (plus rigide) n’est pas déformée par les marées, qui fait qu’une côte donnée va passer deux fois par jour par une bosse de l’ellipsoïde des eaux (marées hautes) et deux fois par jour par un creux (marées basses).

C’est le phénomène familier des marées.

Ondes gravitationnelles comme marées en propagation

Que se passerait-il si, d’un coup, le Soleil et la Lune n’étaient plus là ? Les océans n’auraient plus de raison d’être déformés et récupéreraient une forme plus sphéroïdale.

Mais ce processus est soumis à deux contraintes : d’une part, l’information de la disparition de la Lune et du Soleil doit se propager à une vitesse finie (rien ne peut voyager plus rapidement que la lumière, selon la relativité restreinte d’Einstein). D’autre part, la relaxation des océans vers son état sans déformation se fait en oscillations autour le sphéroïde.

Les ondes gravitationnelles, qu’est-ce que c’est ? (Futura, 2016).

Une « onde gravitationnelle » est le phénomène physique qui informe des changements d’une source gravitationnelle (dans l’exemple, la Lune et le Soleil) moyennant un signal qui se propage à une vitesse finie et qui induit des oscillations dans la forme des corps trouvés sur son chemin (dans l’exemple, les océans).

Dans un sens littéral, les ondes gravitationnelles sont des marées dynamiques en propagation dans l’espace. Ce chant gravitationnel est un chant « silencieux », il s’exprime par les changements des « formes ».

Aux origines des ondes gravitationnelles

Quels sont les systèmes physiques qui produisent ces marées en propagation ? Autrement dit, quelles sont les « sources » de ces ondes ? La réponse est simple : n’importe quel système dont la « forme » change avec le temps est une source des ondes gravitationnelles. Ça peut être moi en agitant rapidement mes bras ou un système binaire des objets compacts astrophysiques.

Cela mène à un apparent paradoxe : si tout système qui se déforme dans le temps émet ces ondes, pourquoi ne sommes-nous pas entourés par ces marées qui déforment à leur tour tout objet trouvé sur leur chemin ? En réalité, elles sont bien là mais trop faibles pour être perceptibles. C’est le cas de moi quand j’agite mes bras. Seuls des objets très massifs ou avec des vitesses comparables à celle de la lumière, sont capables de produire des signaux appréciables, comme la binaire d’objets compacts.

Par conséquent, il nous faut regarder au-delà de la Terre pour identifier les bonnes sources. Et c’est ici que les trous noirs binaires, avec leurs grandes masses et leurs vitesses orbitales proches à celle de la lumière, entrent en scène.

Percer le silence gravitationnel

Revenons maintenant sur notre affirmation initiale qui avançait la capacité des binaires des trous noirs à « chanter ».

En fait, toutes les étoiles binaires « chantent » gravitationnellement, mais seules celles constituées d’objets très compacts (trous noirs, étoiles à neutrons, naines blanches…) chantent « assez fort ». Les autres font résonner leur mélodie trop « bas » pour qu’on les détecte : si tous les chants des systèmes binaires sont « silencieux », certains le sont plus que d’autres…

C’est donc grâce à un véritable tour de force technologique que les astrophysiciens sont parvenus à percer ce « silence gravitationnel ». La mise au point des interféromètres Laser, véritables antennes gravitationnelles, a permis la détection directe de ces ondes et l’accès à leur information astrophysique et cosmologique.

Un réseau d’interféromètres sur la Terre

Ces interféromètres sont formés par deux « bras » perpendiculaires d’exactement la même longueur, soumis à oscillations (étirements et compressions) lorsqu’une onde gravitationnelle les traverse. « L’interférométrie » optique permet de mesurer de manière très précise le changement relatif dans la longueur de ces bras, identifiant alors le passage d’une onde.

Étant donné que ces ondes gravitationnelles sont des phénomènes de marée et que leur effet est d’autant plus fort que la taille de l’objet déformé est grande, les bras des interféromètres font plusieurs kilomètres (4 km dans LIGO aux États-Unis).

Aujourd’hui, il existe un réseau d’interféromètres étendu sur la Terre, dont le fonctionnement simultané est crucial pour l’analyse de ces ondes. Pour étudier les objets les plus massifs, comme des trous noirs aux centres galactiques, il faudra construire des interféromètres à l’espace, ce qui est le cœur du programme spatial Lisa. Nous avons désormais des oreilles interférométriques pour écouter et déchiffrer le silencieux chant gravitationnel. Et sa mélodie est riche.

Un champ de recherches majeur

La découverte des ondes gravitationnelles a été un événement scientifique de premier ordre qui s’est traduit dans le prix Nobel de physique de 2017. En fait, l’étude de la gravité vit un moment particulièrement doux : trois des cinq derniers prix Nobel ont été décernés à des recherches menées dans le cadre de la gravitation.

En 2017, ce sont les ondes gravitationnelles qui ont été primées, et en 2019 le tour de la cosmologie physique et la découverte des exoplanètes. Le prix Nobel de 2020 a consacré quant à lui la prédiction théorique de trous noirs et son observation directe aux centres galactiques.

En ce moment, la synergie entre différentes disciplines est en train de percer de nouveaux horizons en cosmologie, astrophysique et physique fondamentale. En retour, l’univers gravitationnel nous chante pour nous dévoiler ses mystères.

José Luis Jaramillo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Ondes gravitationnelles : le chant silencieux des trous noirs – https://theconversation.com/ondes-gravitationnelles-le-chant-silencieux-des-trous-noirs-168219

MIL OSI – Global Reports

Sécurité des vaccins anti-SARS-CoV-2 : pourquoi il ne faut pas relâcher la vigilance

Source: The Conversation – France (in French) – By Michel Goldman, Chair professor, Université Libre de Bruxelles (ULB)

Les vaccins contre le virus SARS-CoV-2 se sont révélés d’une très grande efficacité pour prévenir les formes graves de la maladie Covid-19, qu’il s’agisse des vaccins à vecteur adénoviral (AstraZeneca et Johnson & Johnson) ou des vaccins à ARN messager (BioNTech/Pfizer et Moderna).

Alors que près de 8 milliards de doses ont été administrées dans le monde depuis près d’un an, toutes les données disponibles indiquent que leur sécurité est également excellente. En effet, les réactions les plus fréquentes (douleur au site d’injection, fièvre, douleurs musculaires, maux de tête…) s’estompent rapidement et sont analogues à celles qui peuvent être observées avec les autres vaccins.

La balance bénéfice-risque de la vaccination anti-Covid-19 est donc incontestablement positive, et conduit à maximiser autant que possible la couverture vaccinale.

Les campagnes de vaccination se heurtent toutefois à l’opposition ou à l’hésitation d’une partie de la population. Parmi les différentes raisons invoquées, domine la crainte que certains effets indésirables n’aient pas encore été identifiés. Cette préoccupation est alimentée par des observations isolées pour lesquelles la relation de cause à effet est impossible à établir par les programmes de pharmacovigilance conventionnels.

L’objectif de cet article est d’encourager la mise sur pied d’études spécifiquement conçues pour identifier ou infirmer des complications très rares. Il sera essentiel de communiquer de manière transparente les informations qui seront recueillies, de manière à ne pas laisser le monopole de ces sujets aux adversaires de la vaccination.

Les effets indésirables rares qui ont retenu l’attention

Ce sont des thromboses atypiques (formation d’un caillot qui va bloquer une veine ou artère) survenues après l’administration du vaccin AstraZeneca chez des femmes jeunes qui ont été les premières complications graves à avoir été mises en lumière. Les conséquences de ces thromboses peuvent être dramatiques, en particulier lorsqu’elles touchent les vaisseaux cérébraux. La responsabilité de la vaccination a été initialement réfutée sur la base de l’incidence comparable des thromboses dans leur ensemble au sein des populations vaccinées et non vaccinées.

Il a fallu que quelques médecins perspicaces, frappés par l’analogie avec une complication rare du traitement à l’héparine (un anticoagulant), identifient les marqueurs biologiques de ces thromboses atypiques pour se rendre à l’évidence. Évidence ensuite été confirmée par des études épidémiologiques ciblées. Elles ont permis d’évaluer le risque à 2 cas pour 100 000 doses en dessous de l’âge de 50 ans.

Sur recommandation des agences réglementaires, les autorités sanitaires de nombreux pays ont alors adapté les stratégies d’utilisation des vaccins à vecteur adénoviral en fonction de l’âge, de manière à réduire autant que possible le risque de la complication. En France, les vaccins à vecteur adénoviral ont ainsi été réservés aux personnes de plus de 55 ans.

L’inflammation du cœur (myocardite) ou de son enveloppe (péricardite) occasionnellement observée dans les jours suivant l’injection de vaccin à ARN messager est l’autre complication rare qui a conduit à modifier les stratégies vaccinales contre le Covid-19. Elle survient le plus souvent chez des hommes jeunes, le risque étant le plus élevé après la deuxième dose du vaccin Moderna (de l’ordre de 13 cas pour 100 000 doses). C’est l’organisation exemplaire du système de santé israélien qui a permis de mettre en évidence cette complication sérieuse, mais dont l’évolution est heureusement rapidement favorable dans la très grande majorité des cas.

Le risque environ cinq fois plus élevé avec le vaccin Moderna est très vraisemblablement lié à la quantité d’ARN présent, plus de trois fois supérieure dans ce vaccin par rapport au produit de Pfizer/BioNTech. Elle a amené la Haute Autorité de Santé en France à déconseiller l’utilisation du vaccin Moderna chez les personnes de moins de 30 ans et à administrer une demi-dose de ce vaccin lorsqu’il est utilisé pour un rappel.

À ce stade, nous ne pouvons exclure que d’autres effets indésirables exceptionnels puissent survenir suite à l’administration de vaccins anti-SARS-CoV-2. Tout l’enjeu est de déterminer lesquels, en particulier si leur rareté risque de les faire passer entre les mailles des filets des systèmes de pharmacovigilance.

Des effets indésirables à explorer

L’observation par notre équipe de la flambée d’un lymphome après administration d’un rappel de vaccin Pfizer (tumeur du système lymphatique, qui se fait aux dépens de certaines cellules immunitaires – les lymphocytes B et T notamment) nous conduit à considérer particulièrement les conséquences possibles de l’hyperstimulation du système immunitaire qu’induisent les vaccins à ARN. Elle est liée à leur action sur une population particulière de lymphocytes, les lymphocytes T folliculaires.

Les vaccins à ARN messager s’avèrent en effet beaucoup plus puissants à cet égard que les vaccins basés sur les technologies conventionnelles. La question est de savoir si cette hyperstimulation ne représente pas, dans certains cas, une arme à double tranchant.

Dans le cas des maladies lymphoprolifératives, notre observation n’est pas isolée puisque trois autres cas de récidive de lymphome dans les suites d’une vaccination anti-SARS-CoV-2 ont été publiés, l’un après vaccin Pfizer, les deux autres après vaccin AstraZeneca.

Dans le domaine des maladies immuno-inflammatoires, un article récent attire aussi l’attention sur 13 cas de glomérulonéphrite (atteinte du glomérule, une unité fonctionnelle du rein) qui sont survenus ou ont été aggravés dans les suites d’une vaccination.

Nous suggérons de prêter aussi une attention particulière aux enfants qui ont un risque élevé de développer un diabète de type 1 (insulinodépendant). Ils présentent en effet des cellules T folliculaires activées en grand nombre, avant même que le taux de glucose ne s’élève dans leur sang. Il est donc prudent de s’assurer que les vaccins à ARNm ne stimulent pas davantage ces cellules, ce qui pourrait accélérer la survenue du diabète.

Améliorer encore les systèmes de pharmacovigilance

Il est très peu probable que les systèmes de pharmacovigilance existants permettent d’établir le risque de voir une vaccination SARS-CoV-2 révéler ou accélérer le cours des maladies évoquées ci-dessus. Non en raison de procédures accélérées et insuffisantes, mais parce que la méthode traditionnelle pour établir la responsabilité du vaccin dans une manifestation pathologique donnée repose sur la comparaison de sa fréquence dans des populations vaccinées et non vaccinées considérées dans leur ensemble.

Des études ciblées sur les populations à risque sur la base d’une hypothèse mécanistique crédible sont beaucoup plus appropriées pour prouver ou infirmer la réalité d’une complication très rare. Quels que soient les résultats de ces investigations, ils ne devraient pas affecter le rapport bénéfice-risque globalement très favorable des vaccins à ARN messager. Mais ces recherches révéleront peut-être la nécessité d’adapter les stratégies vaccinales pour les patients atteints de certaines pathologies les exposant à un risque spécifique.

Michel Goldman ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Sécurité des vaccins anti-SARS-CoV-2 : pourquoi il ne faut pas relâcher la vigilance – https://theconversation.com/securite-des-vaccins-anti-sars-cov-2-pourquoi-il-ne-faut-pas-relacher-la-vigilance-172641

MIL OSI – Global Reports

« Iel » : itinéraire d’une polémique

Source: The Conversation – France (in French) – By Albin Wagener, Chercheur associé l’INALCO (PLIDAM) et au laboratoire PREFICS,, Université de Rennes 2

Le dictionnaire n’impose pas l’usage de mots mais accompagne les évolutions d’une langue vivante. Pixabay, CC BY-NC-ND

La langue française nous fait-elle perdre la tête ? Comme régulièrement dans l’actualité, les jugements de valeur et les attachements affectifs nourrissent les débats dès que quelque chose bouge dans la langue – une passion très française qui montre les différences de perception sociohistorique et politique des langues en fonction des pays. Ainsi la langue espagnole a déjà connu plusieurs réformes tandis que la langue anglaise voyait le « they » singulier élu mot de la décennie, sans que cela ne déclenche d’excessives passions.

Et bien évidemment, la polémique n’a pas manqué d’enfler lorsque le très sérieux dictionnaire Le Robert, dans son édition en ligne, a choisi d’y faire figurer le pronom « iel » qui consiste en une proposition de contraction des pronoms français « il » et « elle ». Comme « they » en anglais, ce pronom a pour objectif d’aider les personnes ne s’identifiant pas à un genre biologique à se définir.

Contrairement à ce que l’on a pu entendre de la part des commentateurs les plus émus, les éditions Le Robert ne constituent pas une « armada militante » déterminée à malmener la langue française, mais simplement une équipe de lexicographes qui, avec patience et méthode, observent les évolutions lexicales et décident ensuite de faire entrer ou sortir les mots de leurs éditions – comme le souligne leur impeccable mise au point

Mais en France, lorsque quelque chose se passe au niveau de la langue, même certain·e·s linguistes y perdent leur latin, confondant attention aux évolutions de la langue et tentations prescriptivistes.

Pas UNE mais bien DES langues françaises

La langue est une chose complexe, quel que soit le pays, et les sciences du langage s’attellent à le montrer dans nombre d’initiatives. On peut citer (sans ordre de préférence ni désir d’exhaustivité) le remarquable ouvrage Parler comme jamais coordonné par Maria Candea et Laélia Véron (issu du populaire podcast du même nom), le passionnant Je parle comme je suis de Julie Neveux qui décortique les liens entre mots et représentations sociales, ou encore les chroniques sociolinguistiques de Médéric Gasquet-Cyrus sur France Bleu, « Dites-le en marseillais », qui nous rappelle à juste titre qu’il n’y a pas UNE mais bien DES langues françaises.

Présentation de l’ouvrage Parler comme jamais.

Ces initiatives de popularisation linguistique ne suffisent pas toujours à calmer les velléités de réaction passionnelle lorsqu’un simple pronom fait une entrée dans un dictionnaire.

S’ensuit alors une cascade de commentaires : Brigitte Macron rappelle (à tort) qu’il n’y aurait que deux pronoms dans la langue française. Pourtant La Grande Grammaire du Français en indique bien plus – sans compter « on » ou la neutralisation par le « je ». Le ministre de l’Éducation nationale, Jean-Michel Blanquer, ne rate évidemment pas l’occasion de rapprocher cette entrée lexicographique du « wokisme » qui chercherait à renverser la République française.

La réalité est cependant plus simple et moins idéologique : d’abord, si les occurrences de « iel » restent rares, elles sont suffisamment régulières pour motiver cette entrée – comme une multitude d’autres termes techniques ou régionaux par exemple, que l’on emploie dans des contextes précis, sans que cela crée de remous particulier. On pourra par exemple penser au gourmand et breton « klouker » (se goinfrer) ou au plus toxique « perfluoré » (en référence à des composants organisés dont la chaîne carbonée est totalement fluorée).

Pour « iel » en particulier, le limpide fil de Laélia Véron sur Twitter donne les indications qui permettent de comprendre posément le phénomène.

Un problème plus complexe

Au-delà de « iel », le problème est plus vaste – et aussi plus complexe. Les débats autour de la langue française reprennent les vieilles querelles entre évolution de la société et normativisme – en d’autres termes, un affrontement qui oppose anciens et modernes, ou bien encore conservateurs et progressistes, dès qu’un changement socioculturel tend à poindre. Ainsi, dans l’histoire récente, des entrées de mots comme « kiffer » ou « start-up », en raison des origines populaires ou anglo-saxonnes des termes, avaient également provoqué quelques polémiques, bien que plus réduites.

Ainsi, se pose la question du langage comme fait social : en d’autres termes, pour un linguiste spécialisé comme moi en analyse du discours (qui constitue l’un des nombreux courants scientifiques des sciences du langage), ce n’est pas tant « iel » en tant que tel qui m’intéresse, mais les discours qui se construisent autour de ce pronom, notamment du côté de celles et ceux qui s’en émeuvent.

En effet, dans l’usage, les mots peuvent être réutilisés pour satisfaire des intentions diverses – et notamment politique, pour ce qui concerne le cas présent. Ces usages provoquent la transformation de mots en ce que Marc Angenot appelait des idéologèmes, une notion historique qui explique que certains mots peuvent être chargés de représentations idéologiques et ne peuvent donc être considérés comme neutres. Cette idée a depuis permis de générer des travaux complémentaires en sciences du langage.

Ainsi, si « iel » devient un idéologème, ce n’est pas tant en tant que pronom – il a été conçu et proposé pour répondre à des manques grammaticaux patents qui n’existent d’ailleurs pas dans d’autres langues – mais en tant que pratique langagière commentée du point de vue des présupposés sociaux et politiques qu’on lui prête.

En d’autres termes, c’est la manière dont les opposants au « iel » en parlent et le dénigrent qui le transforme en objet de controverse idéologique, alors que la création de « iel » (comme de « celleux », du reste) constitue une création de contraction lexicale qui propose de combler un manque grammatical, afin de permettre une visibilité sociale de communautés qui ne se sentent pas représentées, y compris du point de vue linguistique.

Du reste, c’est finalement la polémique qui fait monter la fréquence d’occurrences du pronom « iel », lui assurant probablement un avenir certain dont plusieurs dictionnaires.

Le dictionnaire n’impose rien

L’affaire peut paraître étrange, puisque le fait qu’« iel » entre dans le dictionnaire ne signifie pas pour autant qu’on en impose l’usage : de nombreux mots sont dans le dictionnaire sans qu’on les utilise tous. Le but du dictionnaire n’est d’ailleurs pas d’obliger à utiliser les mots, mais simplement de proposer un inventaire des pratiques linguistiques communes, répandues et en émergence.

En résumé, personne n’oblige la population à utiliser « iel » avec un pistolet sur la tempe. Mais paradoxalement, les contempteurs du pronom, en le mettant au centre de l’attention, contribuent à le rendre inévitablement populaire.

Bien sûr, on a parfaitement le droit de ne pas apprécier ce pronom, de le trouver inutile ou inesthétique – le jugement des locutrices et des locuteurs sur leur propre langue est un fait sociolinguistique inévitable et parfaitement normal. Simplement, ce jugement ne doit pas empêcher d’autres locutrices et locuteurs de créer de nouveaux mots – comme c’est le cas depuis que les langues existent, tout simplement. Tous les mots sont créés, tous les mots sont littéralement inventés ; ils résultent de processus plus ou moins longs, de créations plus ou moins immédiates, mais toujours situé·e·s socialement.

« Iel » n’est pas un parangon du wokisme – mot qui, d’ailleurs, n’est pas dans le dictionnaire et, est-il besoin de le souligner, procède d’un import direct de la langue anglaise (« woke », par ailleurs différent de « wokisme » dans son acception sémantique), assorti d’un suffixe permettant de le franciser (le fameux « -isme »).

Il est par ailleurs plutôt intéressant de noter que les adversaires les plus farouches de ce malheureux pronom l’accusent de dévoyer la langue française en utilisant un anglicisme. La preuve, s’il en fallait une, que les langues évoluent en s’influençant entre elles, s’enrichissant mutuellement pour le plus grand bonheur des locutrices et des locuteurs.

Albin Wagener does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. « Iel » : itinéraire d’une polémique – https://theconversation.com/iel-itineraire-dune-polemique-172338

MIL OSI – Global Reports