Le James Webb Space Telescope expliqué par ceux qui l’ont fait

Source: The Conversation – France (in French) – By Pierre-Olivier Lagage, Chercheur CEA au Laboratoire Astrophysique, instrumentation, modélisation du CEA, CNRS, Université de Paris

L’immense miroir du James Webb Space Telescope ne rentre pas dans une fusée. Il faut le replier, puis le déplier une fois dans l’espace. NASA/Chris Gunn

Cette fois, ça y est ! Le télescope James Webb Space Telescope, ou « Webb », est à Kourou et va être lancé par une fusée Ariane le 22 décembre. Oui, c’est avec un retard de plus de 10 ans par rapport aux premières estimations ! Oui, son coût a été multiplié par 10 ! Mais la moisson scientifique s’annonce exceptionnelle.

Le Webb va permettre de sonder des zones du cosmos vierges d’observations, grâce à son miroir de 6,5 mètres de diamètre, le plus grand jamais déployé dans l’espace, et ses quatre instruments observant dans l’infrarouge : NIRCam, NIRISS, NIRSpec et MIRI (les consonances en « IR » viennent de l’« infrarouge »).

Webb, mission phare de la NASA et des agences spatiales européenne (ESA) et canadienne (CSA), va prendre le relais du télescope spatial Hubble pour observer plus loin dans l’Univers. Vitesse de la lumière oblige, il regardera ainsi plus tôt dans l’histoire, jusqu’aux moments où les premières galaxies et les premières étoiles se sont formées. Mais il va aussi relayer le télescope spatial infrarouge Spitzer pour aller sonder les atmosphères d’exoplanètes, les étoiles et les systèmes planétaires en formation, l’évolution des galaxies…

Fomalhaut est l’étoile la plus brillante de la constellation du Poisson austral. Elle est entourée d’un disque de débris et de poussières. À gauche, limage obtenue par le télescope spatial Spitzer, à droite, une simulation d’une observation typiaue attendue avec le Webb.
Andras Gaspar, Fourni par l’auteur

En somme, tous les domaines de l’astrophysique vont en bénéficier.

Nous faisons partie des plus de 1 200 scientifiques de 14 pays à avoir contribué au développement du JWST. En France, nous avons surtout participé au développement de l’instrument MIRI, le seul des quatre instruments qui opère dans le domaine de l’infrarouge dit « thermique ». Observant dans les longueurs d’onde entre 5 et 28 micromètres, il sera le plus à même à observer le gaz et les poussières dans des objets beaucoup plus froids que des étoiles comme notre Soleil. Il permettra par exemple de voir des étoiles jeunes encore profondément enfouies dans le nuage de gaz et de poussières dans lequel elles se forment. MIRI sera également le complément indispensable à NIRCam pour identifier les premières galaxies de l’Univers.

L’épopée du télescope Webb

Initialement, il était loin d’être acquis qu’un instrument pour l’infrarouge thermique fasse partie de la suite instrumentale du JWST (appelé « next generation space telescope » à l’époque). Il a fallu convaincre la NASA et l’ESA de l’importance scientifique et de la faisabilité d’un tel instrument. L’un d’entre nous (Pierre-Olivier Lagage) faisait partie du petit groupe d’astrophysiciens qui ont milité en Europe et aux US pour un tel instrument.

C’était… à la fin des années 90. Le lancement du Webb Telescope était alors prévu pour 2007. Mais le lancement de Webb a été repoussé de nombreuses fois et l’épopée de l’instrument MIRI illustre en fait bien les raisons de ces retards successifs.

Le Webb sera en orbite à 1,5 million de kilomètres de la Terre, soit 4 fois la distance Terre-Lune. Il ne sera pas possible d’aller le réparer en cas de problème, comme cela a été fait pour Hubble, qui orbite à « seulement » 570 kilomètres de la Terre : lors de la mise en fonctionnement de Hubble, la qualité des images s’est avérée très décevante, mais l’installation par des astronautes d’un correcteur optique a permis de rétablir la qualité image escomptée.

Amélioration de la qualité optique du téléscope spatial Hubble grâce à l’installation d’optiques correctives en 1993… alors que Hubble était déjà dans l’espace. Avant correction à gauche, après correction à droite.
NASA

Pour Webb, nous n’avons pas le droit à l’erreur – d’où l’importance du travail de conception et de tests avant le lancement !

MIRI, un instrument de pointe pour les exoplanètes

MIRI est constitué de deux parties principales : un « imageur », qui permet de faire des photos (c’est la partie appelée « MIRIM », et un spectromètre, qui permet d’étudier la lumière reçue en fonction de la longueur d’onde – et donc, par exemple, de déterminer quels éléments chimiques sont présents dans l’objet que l’on observe (c’est le « MRS »). Les performances de ces instruments placés au foyer du plus grand télescope spatial en opération seront sans précédent.

La supernova 1978A vue par le télescope spatial Spitzer à gauche, et une simulation de ce que l’on attend avec MIRI à droite. L’image illustre l’amélioration de la qualité d’observation, notamment en termes de résolution angulaire.
Patrice Bouchet, Fourni par l’auteur

Dans un sens, pour l’étude des exoplanètes, les retards du lancement de Webb sont une bonne nouvelle. En effet, ce domaine a explosé ces dernières décennies et nous disposons actuellement d’une richesse d’exoplanètes à observer, dont des planètes rocheuses, qui n’étaient pas connues en 2007.




À lire aussi :
Découvrir la première planète autour d’une étoile autre que le Soleil


On étudie désormais beaucoup les exoplanètes par la méthode dite « des transits » : on scrute les infimes variations de la luminosité d’une étoile distante dues au passage d’une exoplanète qui l’entourerait. MIRI a donc été « amélioré » pour utiliser cette méthode des transits. Il s’agit de lire seulement une petite partie du détecteur, afin de le faire très rapidement sans saturer le détecteur. Au fond, on « détourne » un peu le but premier du Webb, conçu pour observer des objets peu lumineux ou très lointains, pour profiter de sa grande sensibilité.

Tests de mode coronographique de MIRI faits à Saclay : on voit sur l’image de droite que lorsque l’on positionne la source juste au centre du coronagraphe à quatre quadrants, on « éteint » la source, bien visible sur la gauche.
Pierre-Olivier Lagage, Fourni par l’auteur

MIRI dispose aussi de « coronographes ». Utilisés historiquement pour observer la couronne du Soleil en cachant le disque trop brillant qui empêche de voir les détails alentour, les coronographes ont été adaptés pour observer les étoiles, et ainsi distinguer d’éventuelles exoplanètes qui se trouveraient à proximité. MIRI emporte un coronographe classique (dit « de Lyot ») et trois coronographes « à masque de phase », très performants, et qui vont être pour la première fois envoyés dans l’espace.

Du berceau au décollage

Après plusieurs années d’études préliminaires, c’est en 2004 que la contribution française à MIRI a été approuvée par le CNES, le CEA et le CNRS.

Le modèle de vol de l’imageur MIRIM a été assemblé et testé au CEA Paris-Saclay en 2008 et 2009 ; un banc de test qui permet de reproduire les conditions de vide et de froids que rencontrera MIRIM une fois dans l’espace a été développé spécialement pour l’occasion. En 2010, MIRIM a été envoyé au Rutherford Appleton Laboratory en Angleterre pour être couplé avec l’autre partie de MIRI, le spectromètre MRS, puis testé dans une chambre à vide suffisamment grande pour l’instrument complet.

L’instrument MIRI après assemblage de MIRI et MRS.
Rutherford Appleton Laboratory

En 2012, MIRI a été envoyé au Goddard Space Center de la NASA, près de Washington, où il a été couplé avec les trois autres instruments du JWST. Trois séries de tests cryogéniques ont suivi entre 2012 et 2016.

Les 18 hexagones du miroir primaire du télescope ont aussi été assemblés au Goddard Space Center de novembre 2015 à février 2016. Les instruments ont été montés à l’arrière du miroir primaire du télescope et l’ensemble a été envoyé en 2017 à Houston pour être testé, car la station de test au Goddard Space Center n’était pas assez grande pour accueillir le télescope. L’équipe CEA était sur place pour les tests au moment où l’ouragan Harvey s’est abattu. Plus de peur que de mal ; juste quelques nuits au laboratoire sans pouvoir regagner l’hôtel et une voiture complètement noyée !

Assemblage du télescope (miroirs dorés et instruments, dont MIRI) et du bouclier thermique (qui ressemble à du papier d’aluminium ou plastique et est déployé à 0 :28 dans la vidéo). Source : NASA Goddard.

Une fois les tests finis, nous avons « laché » MIRI pour son voyage dans les locaux de la compagnie Northrop Grumman, en Californie, où il est arrivé début 2018. Là, le télescope a été couplé avec le satellite et les grands écrans thermiques qui vont empêcher les rayons du Soleil, de la Terre et de la Lune d’atteindre le télescope. Celui-ci pourra alors atteindre passivement une température d’environ 45K (-228 ℃), nécessaire pour ne pas gêner les observations dans l’infrarouge.

Enfin, fin septembre 2021, Webb a quitté la Californie pour Kourou où il est arrivé après un voyage en bateau de 16 jours qui l’a amené à passer par le canal de Panama (bloqué quelques mois plus tôt !).

Le navire MN Colibri est arrivé au Port de Pariacabo, sur la rivière Kourou, en Guyane française, le 12 octobre 2021. Dans un container spécialement conçu se trouve le James Webb Space Telescope.
Chris Gunn/NASA

Paré au décollage… et à débuter les tests et observations scientifiques

L’aventure spatiale va alors commencer le 22 décembre 2021, avec la série de tests sur le ciel qui vont durer 6 mois. Puis, fin juin 2022, c’est l’exploration scientifique qui va pouvoir commencer, après trois décennies de développements.

Une petite partie du temps d’observation est réservée aux astrophysiciens ayant participé au développement instrumental. Dans ce cadre, nous coordonnons les observations qui seront consacrées aux exoplanètes, à la Supernova 1987a, et à deux régions photodominées.

L’essentiel du temps d’observation sera « ouvert » : chaque année durant les 5 à 10 années de durée de vie de Webb, plusieurs appels pour l’utilisation du Webb sont programmés. Le premier appel a eu lieu en 2020. Plus de 1000 demandes ont été déposées, impliquant plus de 4000 astrophysiciens à travers le monde. Le nombre d’heures d’observation demandées est très supérieur (4 à 5 fois) au nombre d’heures disponibles et la sélection a été faite par des comités de scientifiques. Il est satisfaisant de voir que MIRI est le deuxième instrument le plus demandé. Nous avons bien fait d’insister pour qu’il « monte » à bord du Webb !


MIRI est un instrument co-développé par un consortium de laboratoires spatiaux européens, qui se sont occupé des aspects opto-mécanique, de l’assemblage et des tests d’ensemble de l’instrument, et le centre JPL de la NASA, qui a fourni les matrices de détecteurs et le système de refroidissement de MIRI.

MIRIm a été financé à moitié par le CNES, à moitié par le CEA.

Alain Abergel fait partie du Consortium Européen de l’instrument MIRI du JWST.

Christophe Cossou fait partie du Consortium Européen de l’instrument MIRI du JWST.

Dan Dicken fait partie du Consortium Européen de l’instrument MIRI du JWST.

Patrice Bouchet est directeur du Centre d’Expertise Français du JWST/MIRI.

Anthony Boccaletti ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le James Webb Space Telescope expliqué par ceux qui l’ont fait – https://theconversation.com/le-james-webb-space-telescope-explique-par-ceux-qui-lont-fait-171017

MIL OSI – Global Reports

Pourquoi supprimer des autoroutes peut réduire les embouteillages

Source: The Conversation – France (in French) – By Frédéric Héran, Économiste et urbaniste, Université de Lille

Autoroutes et voies rapides sont des « aspirateurs à voitures » (c’est le trafic dit « induit »), dénoncent les critiques de l’automobile. A contrario, supprimer ces infrastructures entraînerait « une évaporation du trafic » (c’est le trafic dit « déduit » ou « évaporé »). Est-ce bien sérieux ? Par quel prodige pourrait-on faire naître de tels effets ?

Ces phénomènes sont pourtant scientifiquement fondés et abondamment documentés.

Mais de nombreux élus et professionnels ne l’admettent toujours pas, limitant ainsi leur capacité à adapter nos villes aux exigences sociétales et environnementales du XXIe siècle.

De l’origine d’une expression bizarre

Reconnaissons-le, « trafic évaporé », cela ne fait pas très scientifique. En voici l’origine : en 1961, la journaliste et sociologue Jane Jacobs publie un ouvrage – Déclin et survie des grandes villes américaines – qui connaîtra un succès mondial.

Elle y décrit, avec une grande finesse, la façon dont l’essor du trafic automobile érode la ville et son urbanité et comment en redonnant, au contraire, la priorité à la vie urbaine, la circulation se rétracte d’elle-même. Et de fournir l’exemple suivant.

À New York, le parc Washington (4 hectares), situé au sud de Manhattan, était traversé en son milieu par une circulation automobile. Dans les années 1950, les habitants finissent par réclamer la suppression de ce transit bruyant, polluant et dangereux pour les enfants et les personnes âgées.

Mais Robert Moses, le tout puissant responsable de l’adaptation de la ville à l’automobile, y est opposé et veut même aménager une quatre voies en tranchée, à travers le parc. En 1958, devant l’insistance du Comité de sauvegarde du parc, il accepte d’expérimenter la fermeture de la voie pour trois mois et prédit qu’on viendra le supplier de la rouvrir au trafic, à cause des embouteillages qui en résulteront.

Au contraire, le trafic se réduit dans les rues alentour et le quartier devient nettement plus calme. Les voitures se sont évaporées (« disappeared into thin air »).

Les limites des modèles de trafic

Penchons-nous maintenant sur les racines de ces deux phénomènes. À partir des années 1950 aux États-Unis puis en Europe, les « ingénieurs trafic » ont mis au point, pour anticiper les besoins d’infrastructures routières, des modèles de simulation. Toujours utilisés aujourd’hui, ils se présentent sous des formes de plus en plus sophistiquées.

En cas d’augmentation ou de réduction de la capacité du réseau viaire, les modèles dits « multimodaux » s’efforcent ainsi d’évaluer les reports de trafic à la fois dans l’espace (entre voiries), dans le temps (entre moments de la journée) ou modaux (entre modes de déplacement).

Pourtant, ils échouent à prendre en compte les interactions entre transport, urbanisme et comportements de mobilité : par exemple, qu’une nouvelle autoroute favorise un étalement urbain amenant en retour les gens vivant en grande périphérie à se déplacer surtout en voiture.

Or ces interactions ont des conséquences sur les stratégies des ménages et des entreprises en fonction des déplacements à effectuer.

Trafic induit et trafic déduit

Lorsque, pour « faire sauter un bouchon », la capacité de la voirie est accrue par la création d’une voie nouvelle ou l’élargissement d’une voie existante, on constate que l’infrastructure finit par attirer un trafic automobile supérieur à ce qu’avait prévu le modèle : de quelques pour cent à plus de 50 %, selon le contexte et l’horizon temporel. Les scientifiques parlent « de trafic induit ».

À l’inverse, lorsque la capacité de la voirie est réduite par fermeture d’un pont, suppression d’une voie ou réduction du nombre de files, on constate qu’une partie du trafic disparaît au-delà de ce qu’avait prévu le modèle, dans des proportions similaires au trafic induit.

Ce phénomène est appelé l’évaporation du trafic, bien qu’il vaudrait mieux dire « trafic déduit » (au sens de « en moins »), car c’est l’exact symétrique du trafic induit (ou « en plus »). On parle aussi parfois de « désinduction ».

Prise de conscience dans les années 1990

Ces deux phénomènes ont été documentés par quantité d’exemples. Ce ne sont donc pas des « théories », comme l’affirment les promoteurs de voiries nouvelles que cela dérange. Parce que ces faits mettent en échec les modèles, il a fallu beaucoup de temps pour que les ingénieurs trafic admettent leur existence. C’est au cours des années 1990 qu’ils ont dû se rendre à l’évidence.

En 1993, pour trancher la question, le gouvernement britannique crée une commission chargée de vérifier l’existence de ce trafic induit. Après avoir analysé des dizaines de cas, les conclusions des chercheurs ne laissent plus aucun doute.

En 1996, la Conférence européenne des ministres des Transports s’empare de ces résultats et leur donne un retentissement mondial. Le trafic induit étant établi, logiquement l’évaporation du trafic existe aussi.

En 1998, des travaux menés par les mêmes chercheurs parviennent à le démontrer, sur la base d’une centaine de cas examinés.

Les modèles de trafic en question

Le trafic induit existe parce que les automobilistes profitent de l’effet d’aubaine qu’offre une nouvelle infrastructure pour se déplacer plus souvent et plus loin, voire à plus long terme pour localiser leur emploi ou leur logement à une distance plus importante.

De même, l’évaporation du trafic existe parce que certains automobilistes renoncent à se déplacer, s’organisent autrement en rationalisant leurs déplacements et, à plus long terme, localisent leur logement ou leur emploi plus près.

Les modèles de trafic peuvent être utiles pour gérer la circulation, mais sont inadaptés à prévoir son évolution quand le contexte change. Des modèles beaucoup plus élaborés (dits LUTI pour land use transport integration), tenant compte de la forme urbaine générée par les transports, peuvent mieux appréhender le sujet.

Certains d’entre eux ont permis d’anticiper positivement la transformation d’autoroutes en voies urbaines, comme à Séoul ou Helsinki.

Le pont Mathilde à Rouen

Le 29 octobre 2012, un camion chargé d’hydrocarbures rate la bretelle de sortie du pont autoroutier Mathilde, à Rouen, se renverse et s’enflamme. La structure étant fortement endommagée, le pont doit fermer. Il ne rouvrira que le 26 août 2014.

Où sont passés les 114 000 déplacements de personnes – correspondants aux 92 500 véhicules par jour avec 1,23 personne par véhicule – qui empruntaient le pont ? Les autorités ont tout mis en œuvre pour le savoir.

Le pont Mathilde, à Rouen.
Wikimedia

Elles ont alors découvert que, sur les autres ponts, 88 000 personnes se sont retrouvées en voiture, 9 000 en transports publics, 3 200 à pied et 400 à vélo. Soit 13 400 déplacements (12 %) « non retrouvés ».

De Séoul à Boston, des exemples parlants

Bien d’autres cas de désinduction de trafic parfaitement documentés – notamment par l’Institut Paris Région – dans le monde peuvent être cités : Portland (-20 % de trafic sur l’axe après suppression de la Harbor Drive et -9 % vers le centre), San Francisco (-45 % de trafic sur le boulevard Octavia après suppression de la Central Freeway), Séoul (-82 % le long de la Cheonggyecheon Expresway disparue et -5 % de trafic à l’échelle de la ville), Nantes (-50 % de trafic sur le boulevard remplaçant l’A801) ou Lyon (-30 % sur l’avenue Jean Mermoz après démolition du viaduc de l’A43).

La fermeture de West Side Highway à New York témoigne à la fois d’une évaporation du trafic lors de la fermeture partielle de la voie (-50 % sur l’axe et -10 % à l’échelle du sud de Manhattan) et d’une réinduction de trafic au moment de la mise en service de la nouvelle avenue plus capacitaire (+60 %).

L’induction de trafic entraînée par l’accroissement de l’offre routière est illustrée par le cas de Boston où l’enfouissement et l’élargissement de l’autoroute I-93 en centre-ville n’a pas résorbé les bouchons, mais les a reportés en périphérie.

Capacité d’adaptation des usagers

Les deux phénomènes sont la preuve qu’il existe bien plus d’élasticité dans l’évolution de la circulation automobile que ne le sous-tendent les modèles de trafic.

D’une part, à cause du trafic induit, les nouvelles capacités routières sont vite saturées et les embouteillages reviennent. Il est donc illusoire de croire qu’il suffit de quelques investissements routiers pour diminuer les bouchons, comme tant de politiciens l’affirment. C’est pourquoi l’Autorité environnementale (entité indépendante qui donne son avis notamment sur les grands projets routiers) recommande d’en tenir compte.

D’autre part, grâce au trafic évaporé, la réduction des capacités routières ne provoque pas de congestion durable, car les automobilistes s’adaptent plus qu’on le croit.

Toutefois, il convient, comme le soulignait déjà Jane Jacobs, d’ajuster le rythme d’apaisement du trafic aux capacités d’adaptation progressive des usagers et la mise en œuvre d’autres options positives.

Des villes plus attractives

Contrairement à ce qu’affirment les milieux économiques, cette politique n’a jamais les conséquences catastrophiques qu’ils annoncent. Elle contribue à l’inverse à améliorer l’attractivité des villes (qualité de vie) et leur productivité (intensité urbaine et sérendipité).

L’analyse réalisée par l’Institut Paris Region évoquée plus haut souligne que ces opérations ont retissé des quartiers dégradés, libéré de l’espace pour d’autres usages (logements, parcs…), redonné toute leur place aux modes actifs et aux transports publics, sans que la mobilité et l’activité économique en aient souffert, bien au contraire.

Au-delà de l’automobile et de ses infrastructures, un mouvement mondial se dessine pour refonder des villes sur les besoins humains fondamentaux, en osmose avec le vivant.

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Pourquoi supprimer des autoroutes peut réduire les embouteillages – https://theconversation.com/pourquoi-supprimer-des-autoroutes-peut-reduire-les-embouteillages-171562

MIL OSI – Global Reports

Gouvernance mondiale de la santé : quels enjeux éthiques pour demain ?

Source: The Conversation – France (in French) – By Stéphanie Tchiombiano, Maitresse de conférence associée dans le département de science politique, Université Paris 1 Panthéon-Sorbonne

L’épidémie a affecté l’ensemble de la planète. Sur le plan sanitaire, bien sûr, mais aussi sur le plan éthique. Viacheslav Lopatin/shutterstock

La crise Covid marque l’avènement d’une nouvelle façon de penser et de gérer les questions de santé. Raisonner à l’échelle de la planète, appréhender les problèmes sanitaires dans leur dimension globale, chercher des solutions collectives et coordonnées au niveau mondial : c’est que ce l’on appelle la « santé mondiale ».

Cette nouvelle approche n’est pas sans poser de questions éthiques et nous oblige à interroger les fondements de nos mécanismes actuels de gouvernance.

La crise Covid n’a cessé de mettre à l’épreuve nos principes éthiques : les effets collatéraux du confinement ont-ils été suffisamment appréhendés ? Les contraintes liées aux visites des personnes âgées dans les Ehpad sont-elles proportionnées au risque ? Sur quels critères prioriser les patients lorsque l’accès à la réanimation est menacé ? L’application StopCovid menace-t-elle la confidentialité de nos données personnelles ? Peut-on obliger le personnel soignant à se faire vacciner ? Dans quelle mesure le passe sanitaire remet-il en question les libertés individuelles ?

Si ces questions ont jusqu’à présent été posées essentiellement au niveau national, il est aujourd’hui important de les décliner au niveau international et de nous interroger collectivement. Qu’en est-il des principes éthiques d’humanité, d’autonomie, de justice, d’égalité, de non-malfaisance, de transparence ou encore de démocratie dans la gouvernance de la santé mondiale de demain ?

Humanité

Le premier principe éthique est celui de l’humanité : regarder l’autre comme soi-même, soulager la souffrance et prêter une attention particulière à ceux d’entre nous qui sont les plus vulnérables. La crise Covid a renforcé les inégalités, au niveau national bien sûr (surmortalité dans les territoires les plus pauvres, vulnérabilité accrue des plus modestes, augmentation des violences faites aux femmes, etc.), mais aussi au niveau international.

De la même façon que Didier Fassin nous alerte sur l’illusion dangereuse de l’égalité des hommes devant l’épidémie, les pays ne sont pas égaux face aux crises sanitaires.

Lorsque certains décideurs évoquent cette inégalité et appellent à la solidarité, c’est aussi qu’ils ont intégré le nouveau mantra de la communauté internationale : « Aucun d’entre nous n’est en sécurité tant que nous ne le sommes pas tous. » L’appel à l’humanité se double d’un intérêt bien compris des États les plus riches à partager leurs ressources et à mettre en place des fonds communs. Financer des dispositifs comme Act-A, par exemple, n’est pas (seulement) un geste de solidarité ou d’humanité, mais aussi (et surtout) une façon indirecte de se protéger soi-même.

Les résultats d’ACT-A sont pour le moment très décevants : non seulement la participation des pays riches reste relativement faible comparativement aux moyens qui sont les leurs mais, en plus, leurs contributions réelles ne sont pas à la hauteur de leurs promesses initiales.

Comment s’assurer que, demain, les financements collectés globalement, au nom de l’intérêt général, viendront effectivement combler les inégalités et appuyer les pays les plus fragiles ?

Autonomie

Le principe d’autonomie insiste sur le respect des choix de chacun, sur sa liberté à opter pour les options qui correspondent le mieux à ses souhaits, ses valeurs ou ses projets, en toute connaissance de cause.

Dans le cas d’une crise pandémique, l’autonomie des pays, leur totale liberté à choisir pour eux-mêmes peut-elle être totalement préservée, alors que certaines décisions qu’ils pourraient prendre peuvent avoir un impact sur l’ensemble de l’humanité ?

Lorsque le gouvernement brésilien de Jair Bolsonaro décide de ne pas prendre les mesures nécessaires contre la Covid, misant sur une stratégie d’« immunité collective », n’est-il pas, d’une certaine façon, redevable devant le monde entier des risques épidémiologiques qu’il nous fait collectivement courir ?

À quelles libertés les États sont-ils prêts à renoncer au nom de la sécurité́ sanitaire mondiale ? Si tous s’accordent à dire qu’il faut changer les règles du jeu, les pays discutent depuis plusieurs mois déjà pour savoir s’il vaut mieux rédiger un traité international dédié à la préparation aux pandémies ou renforcer le Règlement sanitaire international (2005) déjà en vigueur. Il n’est même pas encore question du fond que la forme devient l’objet de discussions et de querelles de clocher. C’est dire à quel point ces questions sont sensibles politiquement.

Dans quelle mesure les États seront-ils libres ou non de s’approprier les injonctions internationales auxquelles ils seront soumis dans cette nouvelle ère de la santé mondiale ?

Justice

Le principe de justice pose l’obligation de traiter tous et chacun de manière équitable, c’est-à-dire en tenant compte de ses besoins, de ses efforts, de sa contribution ou de ses capacités.

On sait à quel point la répartition des ressources (humaines, matérielles, financières) est profondément inéquitable entre les pays. L’accès au vaccin Covid est un exemple frappant d’injustice.

S’il est évidemment impossible de reprocher aux dirigeants de ce monde de se préoccuper en priorités de leurs administrés, cette nouvelle ère de la santé mondiale devra également mettre en place des garde-fous pour que les pays les plus riches ou les plus puissants ne monopolisent pas les ressources à leur profit au détriment du plus grand nombre.

Par mesure de prudence face à l’incertitude des différents candidats-vaccins, le Canada a par exemple pré-acheté dix fois plus de vaccins Covid qu’il n’a d’habitants, pendant que certains pays n’avaient pas les moyens d’en acheter du tout. Un dispositif mondial, l’initiative Covax, a été mis en place pour répartir plus équitablement les vaccins, et organiser le partage des doses excédentaires des pays les plus riches, mais les pays à revenus limités restent systématiquement en « queue de peloton » pour la livraison des vaccins et dépendants de la bonne volonté des pays riches. Fin octobre 2021, seuls 15 % des vaccins promis aux pays à ressources limités avaient été livrés.

Comment s’assurer d’une juste répartition des produits de santé disponibles et d’une réponse ciblant les besoins les plus pressants lorsque les ressources sont contraintes ? Comment s’assurer que les pénuries mondiales ne seront pas toujours subies par les mêmes, dans un contexte d’asymétrie des pouvoirs et des moyens ?

Égalité

Le principe d’égalité postule l’absence de hiérarchie entre les pays, quelles que soient leur puissance effective, leurs ressources ou leur démographie.

La santé mondiale peut-elle contribuer à construire une nouvelle éthique des rapports « Nord/Sud » ? La configuration originale de la pandémie de Covid (d’une maladie circulant, pour une fois, des pays riches vers les pays les plus pauvres) ne pourrait-elle être l’occasion de sortir de l’approche (trop) souvent paternaliste de l’aide au développement ? « La main de celui qui donne est au-dessus de celle qui reçoit », dit le proverbe africain. Les projets d’aide au développement sont trop souvent standardisés, fondés sur les priorités des bailleurs ou des ONG, indépendamment de la complexité du réel ou des aspirations profondes des populations bénéficiaires.

Des voix s’élèvent aujourd’hui pour appeler à « décoloniser la santé mondiale ».

De fait, les principales institutions de la santé mondiale ont leur siège à Genève (donc au Nord). Les acteurs les plus influents de la santé mondiale viennent du Nord, qu’il s’agisse de gouvernements (États-Unis, Royaume-Uni, Allemagne, France), ou d’acteurs non gouvernementaux (Fondation Bill et Melinda Gates, Médecins sans Frontières). Les grands dispositifs de la santé mondiale d’aujourd’hui sont marqués par les pratiques néo-managériales propres au libéralisme des pays du nord.

Une récente évaluation du dispositif ACT-A pointe par exemple le déséquilibre des pouvoirs au sein de la gouvernance d’ACT-A et le fait que la voix des pays à revenus limités, ou celle de la société civile, ne sont pas réellement écoutées. L’influence des pays du G7, ou éventuellement du G20, au sein de ce type de mécanisme de la santé mondiale reste particulièrement élevée. Les logiques de coopération sur lesquelles se sont longtemps fondées les politiques internationales doivent être (enfin) repensées, pour devenir plus égalitaires.

Non-malfaisance

Le principe de non-malfaisance consiste à s’abstenir de commettre des actions dont les conséquences pourraient être nuisibles à autrui. Comment s’assurer que les avantages potentiels des mesures prises au nom de la sécurité sanitaire globale sont bien supérieurs aux risques de préjudice sur chaque pays ?

Partout dans le monde, les efforts faits pour endiguer l’épidémie de Covid ont eu des effets collatéraux sur d’autres problèmes de santé (rupture de la continuité des soins, maladies chroniques, santé sexuelle, nutrition, etc.) ou sur d’autres secteurs essentiels (éducation, économie, nutrition, etc.).

Lorsque des décisions sont prises de fermer les frontières par exemple, mesure-t-on réellement l’impact de cette mesure, y compris sur les pays qui ne sont pas les plus touchés par l’épidémie ?

La surexposition à des risques (sociaux, économiques, politiques) de certains pays, ou de certaines populations, au nom de la sécurité sanitaire de tous est évidemment très difficile à évaluer. Cette question de la proportionnalité des recommandations internationales doit être en tout cas une question centrale.

Transparence

Le principe de transparence suppose une capacité de tous à accéder aux informations pertinentes. En matière de gouvernance de la santé mondiale, la transparence porte en premier lieu sur les processus de décision et sur la façon dont la « communauté internationale » aboutit, notamment autour de l’OMS, à des choix au nom de l’intérêt général.

L’exigence de transparence porte ensuite sur la diffusion des données sanitaires, qui doivent être partagées quasiment en temps réel, pour que les systèmes d’alerte mondiale puissent fonctionner. L’épidémie de Covid a montré le caractère essentiel de la notification rapide des cas et la nécessité de standardiser les indicateurs au niveau mondial.

On retiendra par exemple l’impossibilité d’avoir une vision totalement claire de l’épidémie mondiale du fait de l’incapacité des États à s’accorder sur un mode unique et universel de recueil des données, notamment pour comptabiliser les décès liés à la Covid.

Enfin, et c’est essentiel, il s’agira aussi de rendre transparentes les décisions et politiques internationales du médicament (liens avec les laboratoires pharmaceutiques, régulation des marchés, transparence des prix, etc.). Considérer la santé comme un bien public impose logiquement de poser des freins à l’économie de marché au nom du caractère supérieur des enjeux sanitaires.

Démocratie

Le principe de démocratie implique une participation de l’ensemble des acteurs aux décisions.

Le pilotage de l’action collective internationale est d’autant plus compliqué qu’il n’est pas seulement une affaire d’États. Un nombre important d’acteurs a émergé ces dernières années dans le champ de la santé mondiale, qu’il s’agisse d’ONG, d’acteurs du secteur privé (laboratoires pharmaceutiques, multinationales, banques), ou de fondations, comme la Fondation Gates qui joue un rôle majeur.

Cette nouvelle approche pose également la question de la déclinaison de nos principes de démocratie sanitaire au niveau global : quelle représentation des personnes touchées, infectées ou affectées par la maladie ? Quelle place pour les associations, la société civile ?

Au-delà des questions de principe, si l’on veut que les mesures soient acceptées, comprises, il faut qu’elles soient mises en débat, discutées, et que l’ensemble des acteurs participent à la décision collective. Faire vivre la démocratie sanitaire est déjà un enjeu de taille au niveau d’un hôpital, d’une collectivité, d’un pays. Il le sera encore plus au niveau global.

La crise Covid nous a mis à l’épreuve du réel. Elle nous a aidés à identifier les points sensibles, les failles, les limites de nos systèmes de gouvernance actuels, pour que nous soyons capables de nous préparer à répondre ensemble aux crises sanitaires de demain. Comme toutes les questions éthiques, ces « nœuds » mettent en jeu des arguments, des points de vue et des valeurs éthiques contradictoires. À nous maintenant de débattre collectivement et le plus sereinement possible de ces questions.

Stéphanie Tchiombiano est coordinatrice du think tank Santé mondiale 2030.

ref. Gouvernance mondiale de la santé : quels enjeux éthiques pour demain ? – https://theconversation.com/gouvernance-mondiale-de-la-sante-quels-enjeux-ethiques-pour-demain-171272

MIL OSI – Global Reports

Bonnes feuilles : « Culture de masse et société de classes. Le goût de l’altérité »

Source: The Conversation – France (in French) – By Philippe Coulangeon, Sociologue directeur de recherche au CNRS, Sciences Po

Nous vivons dans des sociétés dans lesquelles la diffusion de l’éducation et les transformations de l’économie des biens culturels semblent produire une certaine uniformisation des goûts et des styles de vie. Un peu partout dans le monde, alors que les classes supérieures diplômées conservent un accès privilégié aux répertoires culturels les plus légitimes, elles sont aussi partie prenante à l’univers de la culture de masse et des médias.

Cette transformation n’est pourtant pas à proprement parler synonyme de démocratisation culturelle, comme l’explique Philippe Coulangeon dans un ouvrage paru en septembre 2021 aux Presses universitaires de France (2021). Un chapitre de l’ouvrage s’arrête plus particulièrement sur les effets de l’expansion scolaire. Celle-ci a-t-elle réduit l’inégalité des chances ? Quelques éléments de réponse dans cet extrait.


Le degré auquel l’école contribue à la réalisation du principe d’égalité des chances peut se mesurer à travers l’écart à une situation de référence dans laquelle les trajectoires et les performances scolaires des élèves et des étudiants seraient totalement indépendantes de leur condition sociale d’origine, incarnation parfaite de ce principe. Les données disponibles dans un nombre croissant de pays et sur des périodes dont la durée s’allonge avec le temps livrent à ce sujet un enseignement qui est dominé par le constat d’une assez forte inertie, à des degrés variables selon les pays, mais sans véritablement remettre en cause ce constat déjà ancien.

Dans un ouvrage collectif publié au début des années 1990 portant sur l’évolution en longue période des inégalités sociales de réussite scolaire dans 13 pays situés dans des aires géopolitiques variées (États-Unis, Allemagne de l’Est, Pays-Bas, Suède, Angleterre et pays de Galles, Italie, Suisse, Taïwan, Japon, Pologne, Hongrie, Tchécoslovaquie et Israël), Yossi Shavit et Hans Peter Blossfeld faisaient le constat d’un niveau stable et persistant d’inégalité des chances de réussite scolaire selon le milieu social d’origine. Seuls deux pays, la Suède et les Pays-Bas, dans lesquels s’observait au contraire une réduction des écarts de réussite scolaire selon l’origine sociale, échappaient à l’époque à cette tendance générale observée dans des pays aux régimes politiques et économiques pourtant fort différents les uns des autres.




À lire aussi :
Le mérite est-il encore un idéal démocratique ?


Diverses nuances ont été apportées depuis aux conclusions de Shavit et Blossfeld. Richard Breen, Ruud Luijkx, Walter Müller et Reinhard Pollak ont identifié une dizaine d’années plus tard une tendance contraire dans huit pays européens (Allemagne, France, Irlande, Italie, Pays-Bas, Pologne, Royaume-Uni et Suède), à savoir un relâchement du lien entre l’origine sociale et le destin scolaire des individus entre les cohortes nées dans le premier quart du XXe siècle et les cohortes nées dans les années 1950 et 1960. Cette tendance ne concerne toutefois que l’accès à l’enseignement secondaire, dont le lien au milieu d’origine tend à se réduire dans chacun des huit pays. S’agissant de l’accès à l’enseignement supérieur, ce lien demeure en revanche globalement inchangé, mais il reste plus faible que pour l’accès à l’enseignement secondaire, ce qui est une conséquence logique de l’enchaînement des différents seuils de sélection.

La sélection sociale est nécessairement moins prononcée au stade de l’accès à l’enseignement supérieur, puisque les élèves et étudiants concernés ont déjà été sélectionnés en amont, lorsqu’ils ont accédé à l’enseignement secondaire. De ce point de vue, l’augmentation des durées de scolarisation et l’élévation générale des niveaux de diplômes diminuent mécaniquement le lien global entre origine sociale et réussite scolaire, tous niveaux de diplômes confondus. La diminution du lien entre origine sociale et réussite scolaire provient donc en partie de cet effet de composition des différents seuils de sélection, auquel elle ne se réduit cependant pas. Il y a bien un effet propre de l’expansion scolaire qui, dans de nombreux pays, se manifeste en particulier au niveau de l’accès à l’enseignement secondaire.

Le cas de la France, où l’on a pu aussi observer une certaine réduction du lien entre l’origine sociale et le niveau d’éducation atteint, amène toutefois à nuancer cet effet propre de l’expansion scolaire. Comme le montrent les travaux de Louis-André Vallet, il semble en effet que l’essentiel de la réduction de l’inégalité des chances scolaires se soit produit en France avant la massification de l’enseignement secondaire, pour l’essentiel au sein des générations nées entre 1935 et 1944 et entre 1945 et 1954, c’est-à-dire dans des générations scolarisées en grande partie antérieurement aux réformes qui, depuis les années 1960, ont abouti à la constitution d’un système unifié d’enseignement secondaire, d’abord au niveau du premier cycle, avec la création du collège unique par la loi Haby de 1975, du nom du ministre de l’Éducation nationale de l’époque, puis avec l’élargissement de l’accès au baccalauréat dans les années 1980, par le biais du développement des filières technologiques et professionnelles. Cette réduction de l’inégalité des chances scolaires est a fortiori intervenue avant la massification de l’enseignement supérieur.




À lire aussi :
Débat : Ce que dit la sociologie sur les origines des inégalités scolaires


Il n’en demeure pas moins que, même si l’on observe une certaine réduction de l’inégalité des chances scolaires, celle-ci demeure assez limitée. En France, Louis-André Vallet et Marion Selz montrent ainsi qu’au sein des générations concernées par cette réduction, seul un nombre assez réduit de personnes (de l’ordre de 6 à 7 %, soit une centaine de milliers) ont connu un destin scolaire différent de celui qui aurait été le leur si ce relâchement du lien entre origine sociale et réussite scolaire ne s’était pas produit. En outre, dans le cas français, la réduction de l’inégalité des chances scolaires observée dans l’accès à l’enseignement secondaire ne se prolonge pas s’agissant de l’accès à l’enseignement supérieur, où l’on constate même un certain renforcement du lien entre l’origine sociale et l’obtention d’un diplôme d’enseignement supérieur post-bac.

Ce renforcement de l’inégalité des chances dans l’enseignement supérieur est une nouvelle illustration de l’articulation des évolutions observées aux différents niveaux du système d’enseignement. La très large diffusion de l’accès au baccalauréat amène dans l’enseignement supérieur, et principalement sur les bancs de l’université, une population étudiante socialement et scolairement plus hétérogène que par le passé, au sein de laquelle n’opèrent plus les phénomènes de « sur-sélection », en vertu desquels la minorité d’étudiants d’origine populaire était autrefois composée d’étudiants en moyenne plus performants que les étudiants d’origine plus favorisée, compensant en quelque sorte par un surcroît de performance scolaire le handicap social de leur origine.

PUF

L’effet propre de l’expansion scolaire sur la réduction de l’inégalité des chances scolaires apparait au total relativement modeste et partiellement ambivalent, dès lors qu’il est tenu compte de la dimension séquentielle des trajectoires scolaires et du déplacement des seuils de sélection scolaire et sociale en aval de cursus dont la durée tend à s’allonger.

Une des limites des conclusions qui peuvent être tirées de l’observation de l’évolution des chances d’accès aux différents niveaux d’études secondaires et supérieures tient aussi à l’hétérogénéité des cursus, en particulier à la différenciation des filières courtes et longues, professionnelles et générales, non sélectives et sélectives, dont ce type de mesure ne tient que très imparfaitement compte. Une autre limite, tout aussi importante, tient à la disparité des contenus et des compétences attachées aux différents cursus, en sorte que la distribution des chances d’accès aux différents niveaux d’études ou de certification ne correspond que très imparfaitement à celle des performances des élèves et des étudiants.

Philippe Coulangeon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Bonnes feuilles : « Culture de masse et société de classes. Le goût de l’altérité » – https://theconversation.com/bonnes-feuilles-culture-de-masse-et-societe-de-classes-le-gout-de-lalterite-172438

MIL OSI – Global Reports

La dette publique, boulet des banques centrales dans la lutte contre l’inflation

Source: The Conversation – France (in French) – By Éric Mengus, Professeur associé en économie et sciences de la décision, HEC Paris Business School

Depuis 2008, les gouvernements ont émis des quantités importantes de dette publique – l’encours de la dette est désormais égal à 125 % du PIB aux États-Unis et a dépassé cet été la barre des 100 % dans la zone euro. Une part importante de cette dette a été rachetée par les banques centrales qui ont émis en contrepartie des réserves – plus de 30 % du PIB à la Réserve fédérale américaine (Fed) et 60 % à la Banque centrale européenne (BCE).

Jusqu’à présent, les taux d’intérêt bas ont permis un refinancement aisé des dettes publiques. En outre, l’inflation basse justifiait des opérations de soutien monétaire des banques centrales.

Cependant, cette situation risque de prendre fin avec la récente remontée de l’inflation des deux côtés de l’Atlantique. Certains observateurs, en particulier aux États-Unis comme l’économiste John Cochrane, ou encore Larry Summers, ancien secrétaire au Trésor de Bill Clinton, s’inquiètent aujourd’hui de la capacité des banques centrales à augmenter les taux d’intérêt ou à réduire leurs réserves lorsque cela s’avèrera nécessaire pour atteindre leur objectif de stabilité des prix (un taux d’inflation proche de 2 % pour la Fed et la BCE).

Inflation : Larry Summers détaille ses craintes dans une interview accordée à Bloomberg Markets and Finance (6 novembre 2021, en anglais).

Dans le contexte d’endettement actuel, les États pourraient en effet tirer profit d’une politique monétaire accommodante menant à un niveau élevé d’inflation. La hausse des prix éroderait la valeur réelle des dettes publiques et donc les rendrait plus supportables. Ils auraient ainsi intérêt à entraver tout resserrement entrepris par les banques centrales.

De telles inquiétudes mettent en évidence un risque de basculement de la « dominance monétaire », dans laquelle la banque centrale n’est confrontée à aucun obstacle budgétaire pour atteindre son objectif de stabilité des prix, à une « dominance budgétaire », dans laquelle la politique monétaire cherche d’abord à fixer l’inflation pour assurer la solvabilité de l’autorité fiscale.

Avec un tel passage à la dominance budgétaire, l’inflation, qui est actuellement considérée comme transitoire, pourrait bien devenir plus persistante et, surtout, plus difficile à combattre. Ce risque de dominance budgétaire est d’ailleurs l’objet de dissensions, notamment au sein de l’Eurosystème.

« Jeu de la poule mouillée »

Habituellement, lorsque la banque centrale resserre sa politique monétaire, la hausse des taux d’intérêt augmente la charge de la dette du gouvernement, qui doit alors procéder à une consolidation budgétaire sous forme de hausses d’impôt ou de réduction des dépenses publiques. Étant donné leur endettement massif, les gouvernements pourraient au contraire être tentés de ne pas réduire leurs déficits, voire d’augmenter leur endettement, pour forcer la banque centrale à revenir sur son resserrement monétaire.

Faut-il croire aujourd’hui à un tel scénario ? Dans nos récents travaux de recherche, nous analysons les incitations d’un gouvernement à pousser à la dominance budgétaire ou, au contraire, à se conformer à la dominance monétaire.

Dans le premier cas, ce jeu a été décrit comme un « jeu de la poule mouillée » entre le gouvernement et la banque centrale par l’économiste américain Neil Wallace à la suite de ses travaux avec son Thomas Sargent, prix Nobel d’économie en 2011.

Ce jeu est celui où deux pilotes lancent leurs voitures l’une contre l’autre, le perdant étant le premier qui dévie de sa trajectoire pour éviter la collision : le gouvernement accumule ainsi les déficits alors que la banque centrale maintient sa politique monétaire restrictive jusqu’au moment où l’un cède, soit par consolidation fiscale du côté du gouvernement, soit par de l’inflation du côté de la banque centrale. Le scénario du crash dans lequel personne ne cède correspond ici au défaut souverain.

Le jeu de la poule mouillée, une illustration du face-à-face actuel entre gouvernements et banques centrales.
Damian Gadal/Wikimedia, CC BY-SA

Ce que nous montrons, tout d’abord, est que la dominance budgétaire dans ce jeu de la poule mouillée nécessite que le gouvernement épuise sa capacité fiscale et rende un défaut crédible : il ne doit plus avoir de marges de financement, ni en termes de réduction de dépenses ni en termes de taxes supplémentaires. En effet, tant que le gouvernement dispose de marges d’ajustement, la politique monétaire peut le forcer à la consolidation fiscale afin d’éviter un défaut.

Comment un gouvernement peut-elle se retrouver dans une telle situation d’épuisement de sa capacité fiscale ? Des chocs comme des récessions ou des crises peuvent l’y mener via la baisse des recettes fiscales ou l’augmentation des dépenses pour le soutien à l’économie.

Nous montrons de plus que l’autorité fiscale peut également épuiser sa capacité fiscale de manière délibérée. En lieu et place d’une consolidation, le gouvernement peut décider d’enregistrer d’importants déficits et d’inonder le marché obligataire.

L’important stock de dette qui en résulte forcera ainsi la banque centrale à augmenter l’inflation à l’avenir pour éroder la valeur de la dette et éviter le défaut souverain. Cela se produira d’autant plus que la dette publique est initialement élevée, que les taux d’intérêt sont bas et peu sensibles à l’émission de dette publique, ou encore que les marges futures d’ajustement fiscal sont faibles.

Le paradoxe de l’inflation préventive

La banque centrale a-t-elle alors le pouvoir de faire pencher la balance vers la dominance monétaire ou, au moins, de réduire le coût inflationniste imposé par la dominance fiscale ?

Paradoxalement, la banque centrale peut avoir intérêt à s’engager dans une inflation préventive. En augmentant l’inflation actuelle, la banque centrale diminue la valeur réelle des passifs passés et ainsi rend la dette à nouveau soutenable pour le gouvernement. Ainsi, cette inflation rend coûteux et inutile une stratégie de victoire à la Pyrrhus d’émission incontrôlée de dette publique.

Le choix pour les banques centrales est donc entre deux options : ou bien laisser un peu filer l’inflation pour desserrer l’étau budgétaire, ou bien l’orthodoxie monétaire au risque de voir les gouvernements réagir violemment en contrecarrant leur action par des émissions massives de dette publique servant à repayer la dette passée. Cette stratégie d’inflation préemptive n’est pas sans risques : en particulier, la banque centrale peut donner l’impression de renier son objectif de stabilité des prix.

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. La dette publique, boulet des banques centrales dans la lutte contre l’inflation – https://theconversation.com/la-dette-publique-boulet-des-banques-centrales-dans-la-lutte-contre-linflation-172629

MIL OSI – Global Reports

Les communautés côtières face au défi des changements climatiques

Source: The Conversation – in French – By Sebastian Weissenberger, Professeur en sciences de l’environnement, Université TÉLUQ

Signes d’érosion sur une falaise aux Îles-de-la-Madeleine. Partout au Canada, les communautés côtières font face à des risques accrus d’érosion et de submersion, conséquences des changements climatiques. Shutterstock

Le Canada est le pays avec la plus longue ligne de côte au monde, mesurant 243 042 km selon Statistique Canada. Bien que la majeure partie de cette côte se trouve dans des territoires peu peuplés, environ 20 % de la population du Canada, soit autour de 7 millions des presque 36 millions d’habitants du pays, habitent en zone côtière.

Avec les impacts des changements climatiques, incluant l’augmentation du niveau de la mer, des évènements hydrométéorologiques plus violents et des changements dans les conditions hivernales, les infrastructures côtières deviennent de plus en plus menacées par l’érosion et les risques de submersion marine. Les impacts varient selon les régions, en fonction de leur mode d’occupation du territoire côtier, des activités économiques dominantes et de la constitution du territoire.

En tant que professeur en sciences de l’environnement, je travaille principalement sur les questions d’adaptation aux changements climatiques, en particulier dans les zones côtières. Je préconise des approches de recherche participative avec des intervenants du domaine public, privé ou associatif, afin d’étudier les questions de vulnérabilité, d’adaptation et de gouvernance liées aux changements climatiques.

Une nouvelle réalité climatique

En Arctique, où le réchauffement est plus prononcé, on observe les taux d’érosion les plus importants, pouvant atteindre jusqu’à 40 mètres par an. En parallèle, dans le Golfe du Saint-Laurent, on observe une diminution du couvert de glace en raison du réchauffement des eaux et de l’atmosphère. Ce décroissement réduit la protection des côtes des impacts des tempêtes hivernales et entraîne une recrudescence des épisodes de gel-dégel, qui fragilisent les falaises côtières.




Read more:
Mauvaise nouvelle pour la planète: l’Arctique n’a pas été aussi chaud depuis 3 millions d’années


Ces conséquences forcent les communautés côtières à s’adapter à une nouvelle réalité climatique qui affecte la population, les infrastructures et l’activité économique. Or, souvent, ces communautés n’ont pas les ressources, autant matérielles qu’humaines ou scientifiques, nécessaires à cette adaptation. Les partenariats avec des universités, des instituts de recherche ou des ONG peuvent alors s’avérer de grande valeur.

L’importance d’une approche participative

Dans l’est du Canada, des projets de recherche-action participative (RAP) impliquant des chercheurs, des acteurs de terrain et la population ont aidé des communautés locales à développer des plans et stratégies d’adaptation. De tels partenariats permettent de jumeler les connaissances scientifiques aux connaissances locales, permettant la co-construction de plans et stratégies.

Ces derniers sont ainsi adaptés aux réalités locales et aux priorités exprimées par les communautés, en s’appuyant sur des acteurs clés dans les communautés. Dans plusieurs cas, cette approche a permis de renoncer à la logique de la protection à tout prix à l’aide d’ouvrages « en dur » (digues, enrochements), visant à limiter les aléas climatiques, au profit de solutions plus souples.

Exemple d’enrochement sur la côte du Nouveau-Brunswick.

Par exemple, à Pointe-du-Chêne, communauté côtière d’un peu plus de 700 habitants au Nouveau-Brunswick, un plan de construction d’une digue de protection entourant la presqu’île a été, du moins temporairement, abandonné. L’élévation du pont reliant la péninsule à la terre ferme a été préconisée, permettant d’éviter l’isolement de la communauté en cas d’inondation majeure, comme c’était régulièrement le cas avant.

Pont de Pointe-du-Chêne.

Or, dans certains cas, les protections côtières peuvent tout de même être retenues comme la meilleure solution aux problèmes d’érosion et de submersion. Il importe alors qu’elles soient mieux encadrées et rendues à la fois plus efficaces et moins dommageables pour l’environnement naturel.

Par exemple, à Pointe Carron, à Bathurst, au Nouveau-Brunswick, un projet collaboratif entre l’Université de Moncton et des acteurs locaux a résulté en une recommandation d’uniformisation des structures de protection. La mise en place d’un comité de suivi multiacteurs a ainsi permis d’assurer l’harmonisation de la protection côtière sur cette pointe exposée aux aléas côtiers.

Protection côtière à Pointe Carron, Bathurst, Nouveau-Brunswick.

Une question de gouvernance

Une adaptation efficace aux changements climatiques et aux risques hydrométéorologiques nécessite aussi de repenser la question de la gouvernance. Au Canada, la gestion des zones côtières relève essentiellement des autorités locales, qui sont responsables de la formulation de plans d’aménagement et de plans d’urgence. En effet, le soutien gouvernemental provincial et fédéral est généralement jugé trop faible. Des échelles intermédiaires de gouvernance, régionales, sont alors explorées.

Au Nouveau-Brunswick, afin de renforcer la gouvernance locale, 12 Commissions de services régionaux ont été mises en place en 2013 dans le cadre du Plan d’action pour un nouveau système de gouvernance locale. Ces commissions offrent, entre autres, un soutien à la gestion du territoire et aux services d’urgences. Ces services bénéficient surtout aux nombreuses communautés rurales, qui disposent de faibles moyens institutionnels et financiers pour planifier l’adaptation aux changements climatiques et aux risques naturels.

Au Québec, certains organismes semi-publics agissent à une échelle régionale, par exemple les comités ZIP (zone d’intervention prioritaire), les Organismes de Bassins Versants (OBV) et les Tables de concertation régionales. Ces organismes jouent un rôle important dans la planification du territoire et de l’adaptation.

Les initiatives de planification de l’adaptation peuvent aussi être initiée ou fédérée par des organismes à but non lucratif. Aux Îles-de-la-Madeleine, l’association FragÎle et le comité ZIP des Îles-de-la-Madeleine, travaillent depuis des années sur la question de l’adaptation aux changements climatiques.

Dans la Baie-des-Chaleurs, le CIRADD, un centre de recherche en innovation sociale spécialisé en développement durable à Carleton-sur-Mer, coordonne le projet « Gouvernance participative et résilience aux changements climatiques ». Cette initiative vise à mettre en place une démarche de gouvernance participative pour favoriser la résilience des communautés face aux impacts des changements climatiques.

Finalement, il ne faut pas oublier le rôle des institutions de recherche, qui peuvent non seulement fournir leur expertise et connaissance, mais également accompagner les communautés dans la co-construction de plans ou stratégies d’adaptation.

Il s’agit notamment de la visée du Laboratoire de dynamique et de gestion intégrée des zones côtières de l’Université du Québec à Rimouski, à travers le projet Résilience côtière. Ce type d’initiative favorise un dialogue entre l’acquisition de connaissances et la prise de décision.

Le legs du passé entraîne que l’augmentation du niveau de la mer, l’augmentation des températures et d’autres effets des changements climatiques se poursuivront pendant encore des décennies et même des siècles. Le défi de l’adaptation des zones côtière est donc considérable.

En raison des changements continus sur une longue échelle de temps, l’adaptation doit être vue comme un processus, et non une action ponctuelle. L’adaptation mobilise de nombreux intervenants des secteurs public, privé, associatif et académique. Il n’existe pas de solution unique à l’adaptation ; au contraire, des solutions localement conçues ont le plus de chance d’être efficaces et acceptables par les communautés. Il importe cependant de s’assurer de mettre à la disposition de ces dernières les moyens nécessaires pour les mettre en œuvre.

Sebastian Weissenberger a reçu des financements du CRSH, de l’UVED, du FFENB, du RQM et du FRQ pour des projets concernant l’adaptation aux changements climatiques. Ces projets ont été menés à travers l’Université de Moncton, l’UQAM et l’Université Téluq. S. Weissenberger a été participant de certains des projets évoqués dans cet article.

ref. Les communautés côtières face au défi des changements climatiques – https://theconversation.com/les-communautes-cotieres-face-au-defi-des-changements-climatiques-148238

MIL OSI – Global Reports

Joséphine Baker et les États-Unis, un amour contrarié

Source: The Conversation – France (in French) – By François Drémeaux, Enseignant-chercheur en histoire contemporaine, Université d’Angers

Le déjeuner à l’Hôtel Theresa, pour le “Baker Day” du 20 mai 1951. Yale University library. Collection Carl von Vechten.

Le 28 août 1963, au cours de la Marche sur Washington, de nombreux orateurs se succèdent à la tribune avant que Martin Luther King Jr ne lance son célèbre I have a dream. Parmi les tribuns, une femme en uniforme de l’armée de l’air française : Joséphine Baker. Cet épisode rappelle que la célèbre meneuse de revues a été résistante dans la France Libre, mais aussi engagée contre la ségrégation raciale aux États-Unis.

Des deux amours de Joséphine Baker, « Paris » est le plus documenté, mais le tout premier demeure « mon pays », les États-Unis. Comme un lien entre les deux, les archives diplomatiques de Nantes conservent un dossier issu du consulat général de France à New York, qui éclaire la dernière partie de la vie de l’artiste, à partir de 1951, alors qu’elle réalise de nombreux séjours outre-Atlantique. Ces documents permettent d’interroger l’aura internationale de la chanteuse, ainsi ses rapports chaotiques avec son pays natal.

Après des années d’absence, Joséphine Baker rentre aux États-Unis en 1948, pour un tour de chant qui vire au cauchemar. Ne serait-ce qu’à New York, on lui refuse plus d’une trentaine de réservations d’hôtels à cause de sa couleur de peau. Dans cette Amérique d’après-guerre, la ségrégation raciale est telle qu’il existe un guide de voyage, le Green Book, pour aider les Afro-Américains à se déplacer en toute quiétude. En réaction, l’artiste rapatrie sa famille de Saint-Louis (Missouri) vers son domaine nouvellement acquis en France, les Milandes.




À lire aussi :
« Green Book » et la question du racisme : un film qui n’est ni tout noir ni tout blanc


Deux ans plus tard, et après bien des hésitations par suite de la précédente débâcle, son agent la convainc de signer un très rentable contrat avec le Copa City Club de Miami. Il est question de trois mois à résidence en Floride, suivi de deux mois et demi de tournée aux États-Unis. Une proposition que l’artiste ne peut refuser : ses projets aux Milandes nécessitent de lourds investissements. Ces premières années de la décennie représentent un tournant majeur dans la vie de Joséphine Baker avec, bientôt, l’essor de sa « Tribu arc-en-ciel » et plus généralement son engagement croissant contre la discrimination raciale.

Dans son contrat américain, elle n’accepte de se produire que dans les cabarets qui tolèrent tous les publics, sans distinction de couleur, et pousse ses demandes jusqu’à faire enlever les inscriptions discriminatoires dans les clubs. Elle exige d’être entourée d’équipes techniques mélangées. Preuve de la popularité de l’artiste, ces conditions inédites aux États-Unis sont acceptées, au prix de quelques lucratifs cachets perdus.

Joséphine Baker agit souvent à l’instinct et acquiert la réputation d’être difficile à contrôler. En avril 1951, elle s’implique en faveur de William McGee, un Afro-américain condamné à mort pour le viol supposé d’une femme blanche – une affaire typique de l’expéditive justice du sud des États-Unis sous l’influence des lois Jim Crow. L’historienne Bennetta explique que « Baker a défendu McGee avec ses émotions, sans réaliser que son cas s’inscrivait dans un contexte politique plus large. » Dans une lettre ouverte, la chanteuse proteste également contre les pratiques de recrutement et les stéréotypes raciaux dans les médias américains. Elle utilise sa notoriété pour batailler sur tous les fronts, le plus souvent sans concertation ni discussion préalable avec les groupes d’activistes locaux.

Interview de Joséphine Baker par un journaliste américain en 1950, à bord du paquebot Liberté

L’Association nationale pour la promotion des gens de couleur (NAACP) s’honore cependant de recevoir « la célébrité internationale, Joséphine Baker ». Le 20 mai 1951, elle organise le Baker Day, une grande parade dans les rues de Harlem suivie d’un banquet. L’événement donne l’occasion de se pencher sur l’attitude des diplomates français à l’égard de la turbulente artiste, naturalisée française depuis 1937. Pour le Baker Day, l’ambassade ne donne pas suite à l’idée d’associer « les représentants de la jeunesse française », mais le consul général Roger Seydoux est présent.

Le Baker Day, en mai 1951.

Le diplomate est sceptique sur l’avenir de cette vague d’égalitarisme portée par la chanteuse, mais il note, dans une dépêche à l’attention de son ministère, que « le coup a porté et le retentissement est extraordinaire dans les milieux nègres ». Le problème selon lui, c’est que l’artiste n’est pas consciente de la portée politique de l’événement : « Elle ne sembla pas voir l’épée qu’on lui tendait ». Une attitude perçue comme une faiblesse, mais qui évite à l’artiste d’être cataloguée.

Le consulat est de plus en plus embarrassé par les agissements de Joséphine Baker. Elle politise systématiquement ses spectacles avec de longues diatribes égalitaires. À Detroit, par exemple, elle discourt de la Révolution française, établissant un parallèle avec la nécessaire prise de conscience des Noirs américains pour se libérer de l’oppression. Longue ovation. Une dépêche consulaire note avec effroi que deux drapeaux français sont sur l’estrade.

Puis le rêve américain s’étiole. Alors qu’on lui promet un avenir à Hollywood, le scandale du Stork Club prend une tournure qui échappe à l’artiste. Le 16 octobre 1951, Joséphine Baker souhaite dîner dans ce restaurant new-yorkais à la mode. On refuse ostensiblement de la servir. Elle appelle la police, mobilise la NAACP, et prend à partie Walter Winchell, influent chroniqueur radio et… ami proche du propriétaire du club. Les médias proches du journaliste se déchaînent alors contre Baker, qui serait tout à la fois fasciste et communiste, internationaliste et antisémite. Le colonel Abtey, ancien chef de Joséphine Baker dans la France Libre, réalise même le déplacement depuis le Maroc pour témoigner devant la presse. Ces fake news avant l’heure entraînent deux longues années de procédures judiciaires et ternissent l’image de la chanteuse. Le FBI s’en mêle et ouvre une enquête. Les contrats s’évanouissent.

Extrait du St Louis Post Dispatch, février 1952.

En pleine tourmente, Joséphine Baker donne malgré tout un récital dans sa ville natale de Saint-Louis. Dans un long discours, elle affine ce que sa biographe américaine Bennetta appelle le Cinderella narrative, tout en affirmant que ce n’est pas la pauvreté qui a causé sa fuite des États-Unis, mais la discrimination, « cette bête horrible qui paralyse nos âmes et nos corps ». Elle se remémore alors les émeutes de East Saint-Louis en 1917 et idéalise son arrivée en France.

L’artiste se tourne vers l’Amérique latine pour de longues tournées, du Mexique à l’Argentine en passant par Cuba, où ses fréquentations ainsi que ses déclarations – parfois contradictoires – contribuent plus encore à brouiller son image pour celles et ceux qui, en cette période de guerre froide, ne disposent que d’une vision binaire. « J’aime beaucoup Joséphine Baker et j’admire son cran », écrit le consul général Seydoux à l’un de ses collègues. Elle « ne manque ni d’intelligence ni de courage, mais malheureusement la clarté d’esprit n’est pas une de ses vertus essentielles ». Pas assez tacticienne, l’artiste perd des soutiens, comme l’influent membre du congrès Adam Clayton Powell Jr qui la qualifie de « Jeanne d’Arc de pacotille ».

Dans les années 1960, la Marche sur Washington ou encore son passage dans le Cuba castriste lui valent plusieurs révocations de visas. Il y a moins d’enthousiasme dans les escales étatsuniennes. En 1963, Joséphine Baker donne même ses conférences de presse en français, accompagnée d’un traducteur. Elle prend ses distances avec la NAACP, mais continue d’être honorée pour ses engagements, comme en 1960 par le Congrès juif américain. Son dernier tour de chant à New York est un triomphe.




À lire aussi :
Auto-essentialisation : quand Joséphine Baker retournait le racisme contre elle-même


Les chercheurs Simmons et Crank ont étudié la performance physique comme une métonymie de la modernité. Et de citer Joséphine Baker et sa jupe de bananes. En s’appropriant l’accoutrement, elle le détourne du cliché racial dans une danse novatrice, qui contribue à la façonner en icône noire. Toute sa carrière est à l’avenant. Ses performances induisent fierté pour sa couleur de peau, mais aussi refus d’être enfermée dans l’idée monolithique d’une culture noire. Joséphine Baker qui chante La petite Tonkinoise et danse le charleston est exotique et française, coloniale et américaine, avant-gardiste et internationale. Elle est la figure de proue de l’émergence de la scène jazz en France, l’une des premières musiques populaires dont la portée peut prétendre être mondiale.

Joséphine Baker interprète La petite Tonkinoise en 1968.

« Intersectionnelle avant l’heure », Joséphine Baker est également transnationale. Sa modernité réside dans sa manière d’abolir les frontières, d’user puis de s’affranchir de tutelles institutionnelles. Plus qu’une activiste habitée par une idéologie particulière, c’est une militante indépendante. Ses causes correspondent à son vécu – elle est par exemple plus gaullienne que gaulliste. Elle prône un multiculturalisme sans affiliation, qu’elle diffuse grâce aux réseaux offerts par la pratique de son art, préfigurant ces artistes hollywoodiens dont les engagements tentent de sensibiliser le plus grand nombre.

François Drémeaux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Joséphine Baker et les États-Unis, un amour contrarié – https://theconversation.com/josephine-baker-et-les-etats-unis-un-amour-contrarie-171635

MIL OSI – Global Reports

Pour vraiment taxer les entreprises multinationales, une réforme suffit-elle ?

Source: The Conversation – in French – By Vincent Vicard, Adoint au directeur, CEPII

C’est une avancée qualifiée d’« excellente nouvelle » par le ministre de l’Économie et des Finances français Bruno Le Maire (voir vidéo ci-dessous). Le 8 octobre dernier, 136 pays ont conclu un accord pour appliquer un taux d’imposition minimum de 15 % aux multinationales. La communauté internationale modifie ainsi des règles vieilles d’un siècle dans le but de limiter les pratiques d’évitement fiscal des grandes entreprises. Pour quelle efficacité dans les faits ? Pour y voir plus clair, Vincent Vicard, adjoint au directeur du Centre d’études prospectives et d’informations internationales (CEPII), répond aux questions d’Isabelle Bensidoun, économiste et adjointe au directeur du CEPII.


Début octobre, plus de 130 pays ont conclu un accord sur une réforme du système international de taxation des entreprises multinationales. Que faut-il en retenir ?

Cet accord s’attaque à la racine de l’évitement fiscal dans les paradis fiscaux. Il repose sur deux piliers. Le premier permettra aux pays de marché, ceux où sont situés les consommateurs, de taxer une partie des profits des plus grandes multinationales même si celles-ci ne sont pas implantées sur leur territoire. Cela concerne au premier chef les entreprises du numérique, mais pas seulement. Une centaine d’entreprises multinationales sont susceptibles de rentrer dans le champ d’application, celles dont le chiffre d’affaires mondial dépasse les 20 milliards d’euros et dont la rentabilité est supérieure à 10 %.

Le second pilier, celui dont on a le plus parlé, consiste à mettre en place une taxation effective minimum des multinationales à 15 %. Concrètement, les administrations fiscales pourront taxer les profits des filiales étrangères de leurs multinationales nationales si celles-ci sont taxées moins de 15 % dans leur pays d’opération. Par exemple, si une filiale d’une entreprise française paie 5 % d’impôt sur les sociétés là où elle est enregistrée, le fisc français pourra prélever la différence avec le taux minimal de 15 %, soit taxer les bénéfices de cette filiale à 10 %.

Ce taux de 15 % peut paraître faible au regard des taux d’impôt sur les sociétés (IS) de la plupart des pays de l’Organisation de coopération et de développement économiques (OCDE), mais il faut souligner qu’il s’agit d’un taux effectif, qui exclut donc les différentes exonérations dont peuvent bénéficier les entreprises ; et dans certains paradis fiscaux, les taux effectifs payés par les multinationales sont bien inférieurs à 5 %.

C’est ce second pilier qui aura l’impact le plus important en matière de recettes fiscales : l’OCDE estime ainsi à 125 milliards le surcroit de recettes fiscales au niveau mondial, dont une large part devrait revenir aux pays d’origine des multinationales, les pays riches.

Donc exit la question de la taxation des entreprises multinationales ?

Pas vraiment. Cette réforme, lorsqu’elle sera mise en place à partir de 2023, constituera sans aucun doute une étape majeure dans la lutte contre l’évitement fiscal des multinationales et les paradis fiscaux. Il faut bien avoir en tête qu’il y a seulement quelques années personne n’imaginait parvenir à réformer en profondeur les règles de taxation des multinationales à cet horizon, règles dont les grands principes datent de la fin des années 1920 !

Mais cette réforme n’épuise pas le sujet pour autant, et ce pour au moins trois raisons.

Tout d’abord, si elle assujettit les multinationales à un taux de taxation minimum de 15 %, elle n’aligne pas pour autant leur taux d’imposition avec le taux en vigueur dans leur pays d’origine, de 25 % en France par exemple. Non seulement cela implique moins de recettes fiscales – seule la moitié des montants estimés d’impôts éludés par les multinationales seraient recouvrés avec la réforme adoptée – mais, en plus, cela maintient et valide une concurrence faussée entre entreprises multinationales et petites et moyennes entreprises nationales qui n’ont pas la possibilité de transférer des profits à l’étranger.

Ensuite, cette réforme n’a que peu d’impact sur la concurrence fiscale entre États, qui sape la capacité des pays à taxer les entreprises de manière générale. La question n’est, en effet, pas seulement de savoir si les entreprises sont assujetties à l’impôt dans les pays où elles conduisent leurs activités réelles, mais aussi à quel taux leurs bénéfices seront taxés. Or, de ce point de vue, la concurrence fiscale entre États pour attirer les multinationales conduit à une baisse ininterrompue des taux d’IS au niveau mondial.

En 40 ans, le taux d’IS mondial moyen est ainsi passé de 40 % en 1980 à 23 % en 2020 (Graphique). Et cette tendance ne s’est pas ralentie ces dernières années, comme en témoigne la baisse de 35 % à 21 % aux États-Unis en 2018, ou encore celle de 33 % à 25 % prévue pour 2022 en France. De ce point de vue, le taux minimum met un plancher à cette concurrence fiscale (à 15 %), mais ne remet pas en cause les incitations des pays à la concurrence fiscale.

Or, la capacité des États à faire contribuer les entreprises aux recettes fiscales dans un monde globalisé reste d’autant plus importante dans une période de sortie de crise, au cours de laquelle le financement des dépenses publiques constituera un enjeu majeur.

Enfin, se pose la question de la répartition des droits à taxer entre pays, la réforme se faisant largement au bénéfice des pays riches d’origine des multinationales et produisant moins de recettes fiscales au bénéfice des pays les plus pauvres.

Faut-il alors aller plus loin ? Et comment ?

Cet accord est, comme tout accord international, le fruit de compromis. Ses imperfections traduisent les difficultés à aboutir à un accord satisfaisant l’ensemble des parties au niveau mondial. Mais ces contraintes, que les négociations internationales imposent, ne doivent pas empêcher un groupe restreint de pays d’aller au-delà de ce qui est prévu dans l’accord, notamment au sein de l’Union européenne (UE).

La directive permettant la transposition de l’accord mondial au sein de l’UE pourrait ainsi aller plus loin dans quatre dimensions : en s’assurant que les profits dans le pays d’origine des multinationales soient soumis au taux minimum de 15 % (et pas seulement les profits de ses filiales étrangères), en réduisant le seuil d’application pour élargir son champ d’application (seules les multinationales réalisant un chiffre d’affaires de plus de 750 millions d’euros sont aujourd’hui concernées par le taux minimum), en relevant le taux minimum au-delà de 15 % et/ou en réduisant les exonérations prévues dans l’accord, qui en limitent de fait la portée.

Si les deux derniers objectifs apparaissent difficilement atteignables à court terme, étant donné l’opposition de pays comme l’Irlande ou la Hongrie, la France, qui va prendre la présidence de l’UE au premier semestre 2022, pourrait porter les deux premières ambitions.

Surtout, la réforme actuelle ne règle pas la question de la concurrence fiscale entre États. Pour cela, il faudrait aller plus loin en généralisant la logique du premier pilier au sein de l’UE, c’est-à-dire en taxant l’ensemble des bénéfices européens des multinationales là où elles réalisent leurs ventes ou ont leurs employés, critères que les entreprises peuvent moins facilement manipuler que la localisation de leurs bénéfices.

La Commission européenne a déjà fait des propositions en ce sens, avec l’initiative BEFIT lancée en mai 2021 (« Entreprises en Europe : cadre pour l’imposition des revenus »), seules à même de réellement mettre fin à la course au moins-disant fiscal entre pays membres. Cela rapprocherait l’Union européenne des systèmes de taxation des entreprises au sein des pays fédéraux comme les États-Unis, ce qui apparaît pertinent pour une région aujourd’hui aussi intégrée sur le plan économique que notre partenaire états-unien dans de nombreuses dimensions.


Cet article est publié dans le cadre de la série du CEPII « L’économie internationale en campagne » un partenariat CEPII – The Conversation.

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Pour vraiment taxer les entreprises multinationales, une réforme suffit-elle ? – https://theconversation.com/pour-vraiment-taxer-les-entreprises-multinationales-une-reforme-suffit-elle-172417

MIL OSI – Global Reports

Et si nous construisions nos propres panthéons ?

Source: The Conversation – in French – By François Taddei, Chercheur Inserm, directeur, Centre de Recherches Interdisciplinaires (CRI)

« Aux grands hommes, la patrie reconnaissante ». L’adresse mémorielle du Panthéon – qui, dans sa concision, exclut deux fois les femmes –, apparaît de plus en plus anachronique. Temple consacré aux dieux dans la Grèce antique, le Panthéon laïque français, depuis la Révolution française, rassemble, pour les célébrer, les personnages qui se sont illustrés dans un domaine particulier ou dont la vie a été exemplaire.

Comme le disait le philosophe Hegel, ainsi que nous le rappelle France Culture, « les individus historiques sont ceux qui ont dit les premiers ce que les hommes veulent ». Leur mise en valeur nourrit la fierté nationale et la mémoire collective ou plutôt le devoir de mémoire collective.

Qui sélectionne ces personnages ? Le choix, enjeu de luttes, est tributaire de l’humeur politique du moment et se fait à l’Élysée. Comme le note l’historien Patrick Garcia, « la prise d’ampleur du rituel est un des effets de la présidentialisation, c’est-à-dire que le Panthéon est un des gestes qui fait le président » depuis la Ve République. Il décide seul, ce qui ne l’empêche pas d’être, à l’occasion, sensible aux demandes de la société.




À lire aussi :
Joséphine Baker ou les chemins complexes de l’exemplarité


Le transfert en ces lieux, le 30 novembre 2021, de Joséphine Baker témoigne de cette dynamique d’ouverture. Elle sera la sixième femme panthéonisée (la première, Marie Curie, n’y a fait son entrée qu’en 1995), aux côtés de 70 hommes – militaires, scientifiques, écrivains pour la plupart –, sans compter les épouses, époux ou père qui accompagnent une poignée d’entre eux. Artiste, résistante et militante contre le racisme et pour les droits des enfants, la Franco-américaine Joséphine Baker incarne la bataille de la tolérance et de l’émancipation pour toutes et tous.

Rendre hommage à nos héroïnes et héros personnels

La mythologie républicaine, autrefois napoléonienne, et ses rituels institués évoluent donc, mais timidement. Or, il est important de parler des héros et des héroïnes qui nous touchent. Le langage commun a d’ailleurs popularisé l’expression « dans mon panthéon personnel », qui incarne les personnes qui nous ont marqués, nos goûts et préférences. Les personnages que nous admirons, qui nous inspirent, ne sont pas nécessairement morts, au contraire.

Jacqueline Novogratz : Inspiring a life of immersion (TED).

Sans toujours faire consensus, ils nous invitent au dialogue et à l’échange, créent du lien, aident à faire société. Avec eux, avec elles, le principe du panthéon garde tout son sens, mais devient plus concret. Plus démocratique ?

De nombreux individus, partout dans le monde, s’engagent pour les autres et pour le bien commun, accomplissent des actes de générosité extraordinaire, sans en attendre ni gloire, ni honneurs ; ce n’est pas leur moteur. L’un des exemples les plus connus est celui de « Juste parmi les nations », distinction créée en 1953 par Israël pour honorer celles et ceux « qui ont mis leur vie en danger pour sauver des juifs » pendant la Seconde Guerre mondiale.




À lire aussi :
Le Chambon-sur-Lignon, une terre de « Justes » en Haute-Loire


Comme l’expliquait Nicolas Winton, surnommé le « Schindler britannique », qui a sauvé près de 700 enfants, juifs pour la plupart, à la veille de l’invasion de la Tchécoslovaquie par les nazis, « il y a toutes sortes de choses dont vous ne parlez pas, même à votre famille. En fait, tout ce qui s’était passé avant la guerre ne semblait plus important au regard de la guerre elle-même ».

Il y a d’autres Nicolas Winton aujourd’hui, et leur but n’est pas d’être reconnus. Martin Maindiaux dirige, au Cambodge, l’ONG Enfants du Mékong qui a sauvé de la misère des centaines d’enfants menacés par la maladie ou les mines. Dominique Pace a créé en 1992 Biblionef, après avoir rencontré des enfants qui habitaient des cités insalubres ou qui étaient isolés en camp dans la jungle. Cette association distribue gratuitement des centaines de milliers de livres neufs dans plus de 90 pays du monde.




À lire aussi :
Joséphine Baker et sa « tribu arc-en-ciel », au nom de la fraternité universelle


Sœur Ventura consacre sa vie, depuis 30 ans, aux populations pygmées, de plus en plus démunies face à une urbanisation grandissante. Le « Projet Imagine », une ONG fondée en 2010 par la journaliste Frédérique Bedos pour « créer un mouvement d’engagement citoyen en faveur d’une société plus inclusive et durable », permet de faire connaître ces initiatives.

S’inspirer pour agir

Et que dire de ces dizaines de jeunes filles et jeunes garçons, qui, sur tous les continents, s’engagent contre la prolifération du port d’armes, pour la préservation de la planète ou dans la lutte contre les violences faites aux femmes ou aux minorités ? Certains de ces jeunes ont récemment été mis à l’honneur dans le documentaire Bigger than us de Flore Vasseur qui est une source d’inspiration pour une génération qui, à juste titre, s’inquiète pour l’avenir de la planète.

Sur le site du film, des milliers de classes s’emparent de ces thèmes car, inspirés par ces jeunes engagés, enseignants et élèves prennent conscience qu’ensemble ils peuvent faire beaucoup plus pour construire demain. Tout le monde n’est pas forcément capable de changer la constitution de son pays avant 18 ans comme Memory a su le faire pour défendre le droit des jeunes femmes. Mais, comme la conférence TED ci-dessous le montre, tous peuvent contribuer à créer un mouvement et à inventer le monde de demain en rejoignant de tels pionniers.

How to start a movement (Derek Sivers/TED).

Découvrir ou redécouvrir ces actrices et acteurs humbles, qui accomplissent ou ont accompli des actes extraordinaires, c’est une manière de réaffirmer, de dire notre humanité, face aux déclinistes qui prospèrent. C’est pourquoi nous avons besoin de nouveaux panthéons, en sus mais également hors des cadres institutionnels. Des panthéons « vivants » que chacune et chacun peut créer, partager, faire connaître, dans le domaine qui nous tient le plus à cœur.

Démocratiser les panthéons suppose aussi de prendre acte du fait qu’aucune vie n’est « parfaite », que toute œuvre humaine, qu’elle soit artistique, militante, intellectuelle, peut être interrogée, contredite, débattue sereinement, comme dans une controverse scientifique, loin de toute sacralisation.

Construire des récits communs

Si nous savons, depuis les premières sépultures, honorer ceux qui ont contribué à notre patrimoine génétique, nous pourrions mieux célébrer ceux qui contribuent à notre héritage intellectuel et à nos engagements. Ces géantes et ces géants dont nous pouvons escalader les épaules pour voir plus loin. Nous pouvons le faire seuls, dans l’intimité au moment de notre choix. Mais nous pouvons aussi décider de le faire ensemble dans des moments opportuns et dans des lieux dédiés. Des lieux et des moments où nous pouvons nous rassembler autour de symboles, de notre commune appartenance. Les religions, le sport et la Nation ont su se doter de Panthéons et de moments dédiés à la mémoire commune.

Les Nations unies ont déjà créé des dizaines de « journées mondiales » sur des thématiques qui nous concernent toutes et tous. La plus connue est sans doute le 8 mars, Journée internationale des femmes, rebaptisée en France Journée internationale des droits des femmes. Mais il en existe bien d’autres – près de 200 – censées nous réunir. La journée des droits de l’Enfant le 20 novembre vient d’être célébrée. Il y a même une Journée internationale du bonheur, le 20 mars, où nous pourrions honorer celles et ceux qui nous rendent heureux.

Il manque encore des formes de célébration communes lors de ces journées. Chacune de ces journées pourrait être l’occasion d’enrichir nos panthéons personnels et collectifs, de célébrer ces personnes qui ont su nous aider à rêver plus grand, à oser penser que nous pouvons aussi contribuer à inventer demain.

Pour permettre aux plus jeunes de se projeter dans des utopies collectives, connecter celles et ceux qui ont des ambitions, des émotions et même des rêves similaires, pour développer leurs actions collectives en faveur du bien commun, il est important de s’appuyer sur la force politique de la reconnaissance qui, comme l’écrit le philosophe Axel Honneth, est au fondement des rapports sociaux, dès l’enfance.

Et si nous écrivions la devise d’un open Panthéon collectif où chacune et chacun pourrait célébrer les personnes qui ont su l’inspirer. Quel serait votre choix ?

– A celles et ceux qui ont su dépasser les frontières, les citoyens du monde reconnaissant ?

– Aux grands esprits, l’humanité reconnaissante ?

– A l’intelligence collective, la planète reconnaissante ?

En droite ligne avec l’idée d’ouverture et d’intelligence collective de ce site collaboratif (encore en phase de prototypage) où chacun peut créer son propre panthéon et qui par définition sera d’autant plus riche que tous y contribueront, n’hésitez pas à voter et proposer d’autres devises qui vous sembleraient plus appropriées.


Le prochain livre de François Taddéi, « Et si nous ? Comment relever ensemble les défis du XXIᵉ siècle » paraîtra aux éditions Calmann-Lévy, en janvier 2022.

François Taddei ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Et si nous construisions nos propres panthéons ? – https://theconversation.com/et-si-nous-construisions-nos-propres-pantheons-168593

MIL OSI – Global Reports

Les méta-organisations, une clé pour une économie plus durable ?

Source: The Conversation – in French – By Anne Albert-Cromarias, Enseignant-chercheur HDR, management stratégique, Groupe ESC Clermont

Alors que la COP26 vient de s’achever, la question de la lutte contre le réchauffement climatique est plus que jamais au centre des débats. Or, agir en faveur du climat, ou pour tout autre objectif de développement durable des Nations unies nécessite des actions collectives associant des acteurs divers. Ces derniers diffèrent tant par leur nationalité, leur culture, les attentes, leur statut ou leur taille, mais partagent un objectif commun et avancent, s’organisent et se coordonnent ensemble pour l’atteindre.

Écrit ainsi, cela semble simple. Mais dans les faits, les choses s’avèrent particulièrement complexes. En effet, les théories des organisations ont depuis longtemps mis en évidence les difficultés d’organiser et piloter l’action collective des individus au sein d’une organisation donnée – entreprise, association, collectivité locale, etc.

C’est encore davantage le cas au sein d’une organisation constituée d’autres organisations et non d’individus – ce que les théories des organisations nomment une « méta-organisation » (MO). En effet, parvenir à fédérer dans une action collective et confiante des acteurs nombreux (collectivités, associations, start-up, grands groupes, établissements d’enseignement et de recherche, etc.) qui présentent des caractéristiques et attentes a priori diverses, constitue en pratique un exercice complexe.

Combler les vides

L’exercice vaut néanmoins d’être tenté. En effet, les recherches ont montré que les MO peuvent véritablement peser sur leur environnement et combler les vides laissés par les organisations classiques (composées d’individus, donc) et le marché. Elles s’avèrent donc particulièrement efficaces pour répondre aux challenges socio-environnementaux majeurs qui nécessitent d’œuvrer collectivement, que ce soit au niveau international ou plus localement.

Ainsi, on trouve des ONG telles que Rainforest Alliance, dédiée à la restauration et la protection de la nature dans une logique de lutte contre le réchauffement climatique, qui regroupe des coopératives agricoles, des gouvernements, des entreprises et des associations de citoyens dans quelque 70 pays. Elle peut se prévaloir de bénéfices réels et mesurables sur les forêts, les populations et les communautés, en déployant, notamment, un programme de certification d’agriculture durable portant sur les produits de base de l’hémisphère Sud (café, cacao, bananes…).

Présentation du programme de certification de Rainforest Alliance (2020).

Au Kenya, des producteurs de miel se sont regroupés au sein d’une MO, associant également des agriculteurs, des organisations de développement et des institutions de microfinance. Collectivement, ces acteurs très complémentaires ont réussi à atteindre leur objectif : proposer un modèle d’agriculture alternatif, remettant en question le modèle classique, écologiquement intensif et peu respectueux des agriculteurs kenyans. Le miel ainsi produit est aujourd’hui un des leaders en matière de pratiques agricoles durables.

Comment émerge une MO ?

Si la recherche académique actuelle identifie clairement les enjeux associés à l’émergence et au développement de ce type de MO, les connaissances sur « comment » émergent, une nouvelle MO reste à construire.

Nous étudions ainsi OrbiMob’, une MO est en cours de constitution dans le domaine de la mobilité durable, au sein du territoire Clermont-Auvergne, afin de créer des synergies, d’accélérer, de connecter et d’enrichir les différents acteurs du territoire, aussi bien publics que privés. En effet, si les mobilités urbaines dans de grandes aires métropolitaines sont dans l’air du temps, les choses restent nettement moins avancées en matière de mobilités territoriales, avec des déplacements qui ont lieu dans un périmètre d’une centaine de kilomètres autour et à l’intérieur d’une ville moyenne.

Le projet OrbiMob’ Clermont-Auvergne a justement pour ambition collective de devenir un pôle de référence sur la mobilité territoriale durable en matière d’éducation, recherche, expérimentation, développement économique et implication citoyenne.

Notre étude en cours sur l’émergence de la MO OrbiMob’ a permis d’identifier trois phases dans le passage de l’intention à l’action. Une première phase d’ébauche renvoie à un travail de sensibilisation auprès des différents acteurs. Au cours de cette phase, les initiateurs du projet OrbiMob’ ont capitalisé sur les collaborations et les liens existants entre les différentes organisations ciblées pour intégrer la MO. Miser sur les relations de confiance préexistantes est clé dans cette phase d’ébauche où il est crucial d’échanger et de faire émerger sur un objectif collectif commun.

Ensuite, une phase d’intégration s’est matérialisée par l’organisation d’une semaine événementielle autour de la mobilité territoriale durable qui s’est tenue en novembre 2020 et réitérée en octobre 2021. Cet événement a constitué une opportunité concrète de valorisation, collaboration et de coopération des membres de la MO. Elle a permis de créer de nouvelles relations et collaboration et de renforcer celles existantes entre les membres de la MO.

Enfin, une phase de structuration a été observée, renvoyant à la création d’un partenariat officiel réunissant préfecture, métropole, région, université, rectorat, Michelin et d’autres entreprises concernées par les enjeux de mobilité durable sur le territoire. Ce partenariat s’est doté d’un comité de préfiguration OrbiMob’ dont les contours et les ambitions évoluent progressivement vers un véritable comité stratégique de la MO.

Patrick Oliva, instigateur d’OrbiMob’, présente le projet (OrbiMob’, 2020).

En outre, deux points de vigilance peuvent être mis en avant pour aider à l’émergence d’une MO. D’abord, il est important que les organisations impliquées réalisent un effort de présentation et de traduction de leurs besoins/intérêts et cultures respectives. Il est important de comprendre quels enjeux chaque membre associe à l’action de la MO. Cet effort est indispensable pour faire émerger un consensus autour de l’objectif collectif et une identité collective.

Ensuite, les membres doivent parvenir à organiser la gouvernance de leur MO en veillant aux dérives de prise de contrôle par un ou des acteurs dominants (en particulier quand sont présents des acteurs leaders de la mobilité comme Michelin dans le cas d’OrbiMob’). Il est important pour cela de construire des organes de gouvernance inclusifs avec une représentation équilibrée des organisations membres et de construire un mode de prise de décision démocratique qui facilite la libre expression (vote à bulletin secret par exemple).

Aujourd’hui, nous faisons face à des défis majeurs sur le plan socio-environnemental, en particulier en matière de lutte contre le réchauffement climatique. Dans ce contexte, l’organisation d’actions collectives de grande ampleur associant des organisations diverses qui représentent des intérêts et visions multiples semble indispensable. Si la coordination et la gouvernance des actions collectives constituent une question centrale des sciences de gestion et des théories des organisations depuis leur fondation, celle du pilotage de l’action collective méta-organisée apparaît majeure pour adresser nos enjeux collectifs du XXIe siècle. La recherche a encore beaucoup à faire pour développer et enrichir les connaissances sur les MO.

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Les méta-organisations, une clé pour une économie plus durable ? – https://theconversation.com/les-meta-organisations-une-cle-pour-une-economie-plus-durable-172447

MIL OSI – Global Reports