InitiationPhilo

http://www.initiationphilo.fr/

Developpement durable (Economie)

 
 
 
 
 
DÉVELOPPEMENT DURABLE
 
CAS DE L’EFFET DE SERRE
 
 
 La définition du développement durable[1]
 
« Le développement durable est celui qui répond aux besoins du présent sans compromettre la capacité des générations futures à satisfaire les leurs ». La formule, tirée du rapport de Mme Brundtland a fait le tour du monde. Elle a fait florès aussi, et le développement durable est devenu le point de fixation, un fil conducteur logiquement douteux mais symboliquement efficace de toutes sortes de préoccupations – environnement, santé, pauvreté – que la seule logique du marché semble incapable de prendre en compte. Véritable antidote ou simple leurre ? Le développement durable est surtout pour l’instant un sésame médiatique. Mais, dans leur diversité, les problèmes auxquels le concept fait écho, constituent une catégorie de défis auxquels les économies de marché sont confrontées. Dans cette catégorie large, dont on a dit l’unité problématique, nous concentrerons notre attention sur un des problèmes, assurément pas le moindre par son importance, et sans doute le plus emblématique, celui de l’effet de serre.    
 
. L’effet de serre : de quoi s’agit-il ?
 
Que savons-nous de l’effet de serre ? On rappellera brièvement l’essentiel en passant du registre le plus établi au plus incertain.
La concentration de gaz carbonique dans notre atmosphère est passée de 280 – au début de l’ère industrielle – à 370 parties par millions en volume aujourd’hui : l’accroissement dépasse les 30%. Cette montée de la concentration commence avec le début de la révolution industrielle ; elle est la conséquence du bouleversement de nos modes de production et de nos modes de vie. Les combustibles fossiles – charbon, pétrole et gaz – servent depuis cette époque à produire l’énergie utilisée par les transports terrestres (essence et gazole), une grande part de l’électricité et, plus généralement, l’essentiel de l’énergie mise à la disposition tant de l’industrie que des particuliers pour leurs usages domestiques (chauffage…)[2]. Pourquoi cette situation est-elle préoccupante ? C’est que le gaz carbonique est le principal responsable de l’effet de serre. L’atmosphère qui entoure la Terre piège, à la manière d’une serre, le rayonnement solaire grâce à la présence de gaz à effet de serre en son sein. Les deux plus importants, en termes de contribution contemporaine au réchauffement, sont le dioxyde de carbone – appellation chimiquement correcte du gaz carbonique – et le méthane. La longévité du gaz carbonique dans l’atmosphère – il a une demi-vie d’environ cent ans contre une dizaine d’années pour le méthane – en fait le plus important sur la durée.
L’importance de l’effet de serre dans la régulation du climat de la planète a été soulignée depuis longtemps, et en particulier, à la fin du XIXe siècle, par un physicien scandinave, Aarhenius. Cet effet n’est pas en soi maléfique, en son absence, la Terre serait assez inhospitalière, puisque la température moyenne se situerait aux environ de –18°. Pourquoi alors s’inquiéter ? D’abord, si le niveau contemporain de la concentration du gaz carbonique n’est pas inédit dans l’histoire de la planète, il faut quand même remonter (probablement) à – 16 millions d’années pour retrouver des concentrations analogues à la concentration contemporaine de gaz carbonique. Mais la comparaison des niveaux souligne en contrepoint le rythme de l’évolution : d’un côté, deux siècles de montée continue, de l’autre plus de cent mille siècles de quasi-stabilité ou de mouvements extrêmement lents. Ensuite, la température moyenne de la planète s’est élevée de 0,5 à 0,8° durant le XXe siècle et le parallélisme des courbes de concentrations et des températures est extrêmement troublant !
Nous entrons ensuite dans des zones d’incertitude. La relation entre émissions de gaz à effet de serre, et de dioxyde de carbone en particulier, et concentrations atmosphériques est avérée mais ses modalités exactes restent incertaines. Par exemple, l’absorption du gaz carbonique par l’océan, et plus généralement les échanges tant thermiques que gazeux entre la Terre, l’océan et l’atmosphère jouent un rôle déterminant mais incomplètement élucidé dans la régulation des concentrations atmosphériques. Aussi la responsabilité des gaz à effet de serre dans l’évolution contemporaine du climat reste-t-elle controversée. Car la température de la planète est affectée par toute une série d’autres facteurs, et pour apprécier la part spécifique de l’effet de serre, il faut démêler divers effets souvent périodiques – les modifications de l’inclinaison de l’axe de la Terre ont de longues oscillations, l’activité solaire évolue selon des cycles de courte période. Subsiste donc une incertitude scientifique sur la part attribuable à l’effet de serre dans les évolutions climatiques récentes.
Cette incertitude est plus significative encore lorsqu’il s’agit de prédire les effets sur le climat dans l’avenir et les dommages qui peuvent en résulter. On le verra plus loin. Ajoutons que pour un scénario climatique donné, l’estimation des dommages est un exercice particulièrement difficile : comment évaluer la disparition probable des récifs de coraux ou le coût économique d’éventuelles migrations climatiques de grande ampleur ?
 
. La stratégie économique des politiques climatiques
 
Voilà donc pour le diagnostic. En quoi l’économiste, l’économie et le marché sont-ils concernés ?
Inutile de redire que le problème n’est pas exclusivement économique. Dans la mesure où une modification des équilibres climatiques pourrait affecter, aussi peu que ce soit, la viabilité de notre vaisseau spatial, le problème fait écho au souci, que l’on peut appeler « métaphysique », du devenir de la planète. Il a des dimensions éthiques. La première est celle de la responsabilité historique des pays riches, particulièrement des plus riches et des plus pollueurs (les Etats-Unis, mais pas seulement !) dans la concentration actuelle des gaz à effet de serre : comment éluder le problème moral du péril que fait peser le changement climatique sur certains pays pauvres comme le Bangladesh, menacé de submersion partielle ? Seconde dimension, les effets du changement climatique seront essentiellement supportés par les générations futures et non par celles d’aujourd’hui. Quelle valeur attribuons-nous à leur bien-être ? L’économiste essaie d’éviter de se prononcer sur cette question, même si il est souvent accusé de le faire implicitement au travers des choix de taux d’actualisation.
Mais le regard économique sur le phénomène ne peut pour autant être éludé : le climat n’est-il pas, comme on l’a souligné dans la deuxième partie, l’archétype du bien collectif ? Et puisque la contribution d’une molécule de dioxyde de carbone à la concentration atmosphérique ne dépend pas du lieu où elle a été émise, ce bien collectif n’est-il pas global ou mondial ? Les émissions de gaz à effet de serre ne sont-ellespasdesexternalitésnégativesou des pollutions ? Voilà donc la réflexion arrimée à des catégories de l’analyse économique, celles que l’on a associées plus haut aux « défaillances de marché » : on mobilisera plus loin cette réflexion. Pour le moment soulignons seulement comment la stratégie de l’action contre l’effet de serre, disons la politique climatique, a nécessairement, quel que soit l’environnement social où elle va s’exercer, une dimension économique.
Cette dimension est reconnue dans les formulations canoniques du principe de précaution. Celui-ci stipule que « l’absence de certitudes, compte tenu des connaissances scientifiques et techniques du moment » – des attendus qui désignent, entre autres, l’effet de serre –, « ne doit pas retarder l’adoption de mesures effectives et proportionnées visant à prévenir un risque de dommages graves et irréversibles à l’environnement à un coût économique acceptable[3] ». L’injonction à évaluer le coût économique des mesures à prendre renvoie la balle dans le camp de l’économiste, fondé à y revendiquer une compétence particulière. De fait, le coût des politiques climatiques a suscité un travail de réflexion et, en l’occurrence, puisque le problème requiert la mobilisation de toutes les ressources et informations dont nous disposons, de modélisation considérable[4].
L’économiste, sollicité pour l’évaluation des coûts, paraît aussi fondé à donner un avis sur ce qu’est « un coût économique acceptable ». L’acceptabilité d’une action à un moment donné s’évalue à l’aune de son inscription dans une stratégie de réponse cohérente au problème envisagé. L’étude de la stratégie est l’objet de l’un des chapitres de réflexion traditionnels de la discipline et de champs de réflexion voisins, comme celui de la décision sous incertitude.
« Incertitude »esticiunmot-clé. L’incertitude des conséquences de concentrations accrues est une donnée lourde du problème climatique : si le diagnostic sur les évolutions passées, on l’a dit, n’est pas pleinement assuré, l’incertitude sur l’avenir s’accroît d’autant plus que l’avenir est plus lointain. Le Groupe international d’études du climat (GIEC), l’instance internationale d’expertise sur l’effet de serre, indique, par exemple, une fourchette des effets sur le climat d’une multiplication par 2,5 de la concentration de gaz carbonique de l’atmosphère par rapport à son niveau préindustriel – un niveau que les évolutions tendancielles pourraient faire rejoindre au début du siècle prochain. La prédiction de l’élévation de la température moyenne sur la planète varie de 2,7 à 4,7° C (un changement de température moyenne de 3 à 4° C est sans doute synonyme de bouleversement climatique). Il n’est pas interdit de penser que l’incertitude est plus grande encore qu’on ne le croit : les fourchettes des changements de température fournies par les modèles résultent d’un processus de confrontation qui tend à éliminer les extrêmes, c’est-à-dire les données les plus optimistes mais aussi les plus pessimistes.
L’incertitude est donc la variable clé de toute réflexion sur la stratégie des politiques climatiques. Evoquons deux dimensions essentielles.
Première dimension : une incertitude accrue implique-t-elle une action plus vigilante ? L’argument préféré de ceux qui dénigrent les politiques climatiques voire de certains « écolos qui doutent » (c’est la traduction que je propose du titre du best-seller de l’imprécateur B. Lomborg, The Skepital Environnementaist), est que l’incertitude sur les effets climatiques justifie l’inaction. L’argument est en général suspect et il l’est plus encore dans ce cas : une incertitude plus grande justifie souvent un effort plus grand.
Seconde dimension, celle de l’irréversibilité du phénomène. Même si l’on cessait, séance tenante, d’émettre tout gaz carbonique lié à l’activité économique – il faudrait pour cela revenir à la marine à voiles, au chauffage au bois et faire de la bicyclette le moyen de transport hégémonique –, la concentration atmosphérique mettrait plusieurs siècles à revenir à son niveau préindustriel. Pratiquement irréversible à nos horizons de préoccupations habituels, la montée de la concentration atmosphérique des gaz à effet de serre peut même susciter une irréversibilité climatique plus forte encore, c’est-à-dire un changement subsistant même après le retour des concentrations atmosphériques à des niveaux inférieurs. Aux coûts directs de l’inaction, il faut ajouter des coûts indirects, ceux de la disparition des options de contrôle des concentrations, options dont un accroissement d’information pouvait montrer la nécessité. Et ce coût va s’ajouter aux coûts directs : c’est ce que l’on appelle la « valeur d’option ».
 
. Les politiques climatiques dans une économie de marché : Kyoto or not Kyoto ?                    
 
La réflexion et la réflexion économique en particulier doivent être mobilisées pour penser une stratégie planétaire de lutte contre l’effet de serre qui intègre convenablement les données du problème et les incertitudes qui le dominent. Encore faut-il que cette stratégie puisse se concrétiser dans les cadres institutionnels et dans les économies dans lesquelles nous vivons. Telle est l’ambition du protocole de Kyoto qui tente d’organiser une politique climatique sur la planète. Signé à Kyoto en 1997, puis amélioré et finalisé, lors des conférences ultérieurs de La Haye, Bonn et Marrakech, il a défrayé la chronique de ces dernières années. Malgré la décision de l’administration Bush de ne pas le ratifier, les seuils de participation atteints (en nombre de pays et de volume d’émissions) ont été atteints. Le protocole est entré en vigueur le 16 février 2006.
Le protocole de Kyoto a deux caractéristiques qui seront évoquées ici. C’est d’une part une tentative de mettre en place un instrument de « gouvernance » ; c’est d’autre part, un instrument qui se propose de conjuguer marché et écologie au lieu de les opposer.
Instrument de gouvernance, c’est-à-dire substitut à un gouvernement mondial absent. Quel que soit l’adéquation du package deal/Kyoto – une question qui a pris, depuis le retrait américain, un tour plus polémique –, quel que soit le devenir à court et moyen terme du protocole, quelles que soient les informations que l’avenir nous apportera sur l’intensité et le déploiement temporel du risque climatique, on peut penser que le protocole de Kyoto restera dans l’histoire, au moins comme un exemple des tâtonnements inventifs que l’adaptation nécessaire des institutions aux besoins d’une économie mondialisée a suscités et va continuer de susciter.
Le protocole de Kyoto s’efforce de conjuguer marché et écologie : c’est du moins la manière dont on peut lire la novation la plus spectaculaire qu’il a introduite, le marché de permis d’émission. Pour en apprécier les dispositions, il convient de revenir à la discussion esquissée antérieurement à propos de la comparaison des outils des politiques de l’environnement. Les politiques gouvernementales diffèrent par les variables qu’elles s’efforcent de contrôler. Certaines jouent de façon privilégiée sur les prix, c’est le cas des politiques de taxation, d’autres sur les quantités, c’est le cas de la plupart des réglementations mais aussi des marchés de permis. En effet, un marché de permis fixe aux acteurs concernés – dans le cas de Kyoto, les pays signataires – des droits d’émission, on parle souvent de « quotas ». Chaque pays ne peut émettre au-delà de son quota que s’il obtient d’un autre participant une cession de droits : il devient alors acheteur sur le marché des droits. Parallèlement le vendeur doit réduire ses propres émissions en dessous de la limite de son quota de droits initial défalqué de la quantité cédée.
La somme des droits accordés à l’ensemble des participants détermine ainsi le niveau d’émission global. La cible de la politique est une quantité, la politique est une politique de quantités et l’objectif qu’elle définit est en principe concrétisé, sauf dépassements qui appellent des sanctions. Une telle politique n’est bien sûr effective que si le niveau visé est inférieur à celui qui prévaudrait si aucune action volontariste n’était mise en place (le « fil de l’eau » ou le business as usual).        
Il faut ensuite, deuxième variable de contrôle, répartir le quota global et le décliner en quotas individuels. Objectif global et déclinaison individuelle font référence, dans le cas du protocole de Kyoto comme dans beaucoup de cas de marchés de droits, à la situation initiale : c’est ainsi que le protocole visait à une stabilisation des émissions de l’ensemble des pays participants à un niveau total inférieur d’environ 5% à celui de leurs émissions de l’année 1990, quand le « fil de l’eau » aurait conduit à des émissions supérieures de 20 ou 30%. Cet objectif global n’était, de facto, que la résultante des quotas accordés individuellement : – 5% environ des émissions nationales de l’année de base.
Mais l’efficacité environnementale de la politique, dès lors qu’elle est effectivement mise en œuvre, est tout entière définie par la cible de réduction globale et ne dépend aucunement de sa répartition. Ce point est essentiel. La fixation des quotas individuels ne fait que déterminer la répartition du coût global, soit directement si les quotas ne sont pas échangeables, soit indirectement si un marché de permis conduit à une réallocation en principe mutuellement avantageuse desdits quotas. L’instauration d’un marché international de permis dans le dispositif Kyoto à partir du système de quotas nationaux initialement envisagé, qui fut à l’époque vivement critiquée en Europe, n’affecte donc pas la performance environnementale recherchée. A effort global donné, ce marché contribue en principe à diminuer le coût global de la politique climatique en transférant l’effort de là où il est le plus coûteux vers là où il est le moins coûteux. Chacun en principe bénéficie de la possibilité d’échanger et non, comme le débat public le laissait croire, les seuls acheteurs potentiels de permis, comme les Etats-Unis. La vraie question, celle de l’effort maximal qui peut être accepté par un pollueur, comme les Etats-Unis, renvoie au rapport de force qui a cours dans la négociation multilatérale, dont tout laisse à penser qu’il est indépendant de l’existence ou non d’un marché de permis. Contrairement à ce que laissaient suggérer à l’époque certains arguments polémiques, le marché international de permis n’est pas, par nature, un moyen d’exonérer le pollueur. On peut même retourner l’argument : en abaissant les coûts, ce marché permet au contraire, à rapport de forces donné, d’accroître sinon le coût, du moins le quota qui peut être imposé au pollueur !
Comme les autres instruments dits « économiques », un marché de permis tente de concilier marché et écologie. Il n’est pas pour autant exempt de critiques.
Passons sur le procès d’intention que l’expression « marché de droits à polluer » fait sournoisement peser. Voilà donc l’instauration d’une autorisation payante de polluer, sous-entendu là où il y avait interdiction. La vérité est presque exactement l’inverse : presque tous les marchés de droits instaurés à ce jour substituent à une autorisation de polluer gratuite et parfois quasi illimitée une autorisation limitée et payante !
On peut juger qu’il contribue à une regrettable « marchandisation » de la nature ; mais sauf à récuser globalement le marché, comment concilier marché et écologie sans recourir aux outils fournis par le marché ?
Le fonctionnement d’un marché de permis à l’échelle mondiale tel que celui envisagé à Kyoto soulève en revanche des questions légitimes. Le succès d’expériences antérieures conduites aux Etats-Unis, où un marché de permis pour le dioxyde de soufre a fonctionné de façon satisfaisante et avec des résultats plutôt probants, n’est pas directement extrapolable. Tout laisse supposer qu’il faudra du temps et des tâtonnements considérables pour le faire fonctionner convenablement s’il est mis en œuvre un jour.
Par ailleurs, le protocole élaboré à Kyoto fixe un objectif quantitatif mondial de réduction. Il instaure, même si elle se décline souplement dans l’espace en fonction des marchés de permis d’émission et des quotas nationaux, ce que l’on appelle une « politique de quantités ». Une telle politique peut être jugée trop rigide dès lors que son coût est incertain, ce qui est le cas ici. Nombre de spécialistes ont fait valoir que le système serait amélioré si les prix du marché de permis étaient encadrés : un prix maximum constituerait ainsi une « soupape de sécurité ». L’idée de privilégier une taxation harmonisée du carbone à travers le monde, initialement écartée, est redevenue d’actualité. Le débat n’est sans doute pas clos.
Le protocole de Kyoto a bien d’autres insuffisances, auxquelles les politiques climatiques de l’avenir devront remédier si elles veulent être efficaces. Il laisse hors jeu les pays en développement, dont la contribution des émissions, aujourd’hui minoritaire, deviendra majoritaire dans moins de vingt ans : concilier développement et écologie est plus difficile que concilier marché et écologie. Des solutions existent, même des solutions « Kyoto-compatibles », mais ce n’est évidemment pas le lieu de les discuter en détail. Mais les mettre en œuvre, dès l’après-Kyoto (2012) est un défi proche.
Autre défi, technologique celui-là : la stabilisation des émissions au niveau requis pour la stabilisation des concentrations atmosphériques. Diviser par deux les émissions actuelles en 2050 dans un contexte d’activité doublée réclamera selon toute vraisemblance des innovations technologiques radicales. La pile à hydrogène constitue un substitut attendu des carburants classiques, encore faut-il trouver une source d’énergie non carbonée pour fabriquer l’hydrogène. D’où viendra-t-elle ? Photovoltaïque, séquestration du carbone, nucléaire de nouvelle génération sont sur les rangs mais les pronostics sur leurs chances de percée sont mal assurés. Kyoto, de ce point de vue, fait la part trop belle aux réductions par rapport à l’effort de recherche. Il ne s’agit pas de nier que le signal de la communauté internationale a fait passer en s’engageant dans un effort significatif de réduction des émissions soit essentiel : recherche et réductions sont complémentaires. Mais à effort économique et financier donné, il aurait fallu idéalement faire moins pour la réduction des émissions et plus pour la recherche. Autre défi, celui des énergies sans carbone, « propres » ; elles sont les conditions de ce développement durable que chacun souhaite pour le siècle qui vient.                  
 
. La révision du protocole de Kyoto aura lieu en 2008
 
La communauté internationale a trouvé le 17 novembre 2006 à Nairobi un accord sur le calendrier des discussions de l’« après-Kyoto », au-delà de 2012[5].
Les discussions marathon de l’ONUqui ont réuni depuis deux semaines à Nairobi 6.000 participants, dont une centaine de ministres, auront permis à la communauté internationale de franchir une nouvelle étape dans le processus qui mène à la pérennisation du protocole de Kyoto. Hier soir un accord a été trouvé sur l’avenir de ce traité international qui vise à limiter les effets du réchauffement climatique et qui est désormais ratifié par 168 Etats après les signatures du Liban et de la Sierra-Leone.
Après 2012
La pierre d’achoppement était la révision du protocole de Kyoto pour sa deuxième période d’application, au-delà de 2012. Jusqu’à ce jour, il ne soumet que 35 pays riches à des engagements de réduction de leurs émissions de gaz à effet de serre et expire en 2012. De nouvelles modalités d’application du traité doivent être arrêtées pour le pérenniser au-delà de cette date. La communauté internationale s’est mis d’accord hier soir pour fixer 2008 comme date butoir au démarrage des discussions pour définir ces nouvelles règles. Cette révision devra être fondée sur les conclusions scientifiques du quatrième rapport du Groupe intergouvernemental d’experts (GIEC) sur le changement climatique attendu en 2007.     
Si les pays industrialisés ont fait valoir dans la capitale keyniane qu’ils n’y arriveraient pas seuls, les pays en développement, à commencer par la Chine, refusent tout engagement chiffré.
Pays industrialisés
Le groupe de travail spécial sur les engagements futurs des pays industrialisés a affiché l’objectif de division par deux des émissions mondiales d’ici à 2050. Un objectif qui correspond à peu près à celui affiché par l’Union européenne de contenir le réchauffement à + 2° C. Mais la Chine réclamait encore hier soir, tout comme pour la révision du protocole de Kyoto, une date limite à ces engagements futurs des pays riches.
Pays en développement  
Réunis au sein du groupe G77, ces pays n’ont pas manqué, au cours de ces deux semaines de négociations, de rappeler aux pays industrialisés leur responsabilité historique dans le réchauffement et les ont appelé à réduire en premier leur pollution.
Pays émergents
Une partie des débats de cette conférence, la première organisée en Afrique subsaharienne sur ce sujet, a porté sur l’adaptation des pays émergents aux conséquences du réchauffement. Le débat a été longuement cristallisé sur la question de savoir comment devait être géré le Fonds pour l’adaptation par le Fonds pour l’environnement mondial (FEM) de l’ONU ou un nouvelle instance. Les pays en développement craignaient principalement que la surreprésentation des pays industrialisés au sein du FEM ne leur soit défavorable. D’autres mettaient en avant l’inadéquation à la situation de la création d’une nouvelle structure compte tenu de l’urgence à lancer ces projets.  
Selon Monique Barbut, présidente du FEM, plusieurs pays africains souhaitent avant tout voir fonctionner le Fonds au plus vite. D’où l’accord passé à Nairobi sur un certain nombre de principes de fonctionnement de cette instance, notamment le fait d’en réserver la gouvernance aux parties prenantes au protocole de Kyoto. Ce qui exclut de facto les Etats-Unis de son conseil exécutif et permet en revanche aux pays émergents d’y être représentés. Le choix de l’entité dédiée se fera ultérieurement. « Il n’en demeure pas moins que le financement de ces projets demeure insuffisant : 600 millions d’euros, contre un besoin annuel estimé par la Banque mondiale de 10 à 40 milliards d’euros » souligne Morgane Créach, du Réseau Action Climat. Les ONG plaident que ce Fonds soit abondé non seulement par un prélèvement financier sur les « mécanismes de développement propre » (MDP), qui permettent aux pays industrialisés d’investir dans des technologies « vertes » dans les pays en développement[6], mais également sur d’autres outils mis en place par le protocole de Kyoto.
Une taxe Villepin    
Nelly Olin a annoncé jeudi à Nairobi à l’ouverture du segment ministériel de cette conférence, que la France allait lancer une discussion avec ses partenaires européens, à partir de 2007, sur cette taxe sur les produits importés provenant des parties n’ayant pas ratifié le protocole de Kyoto. Créant la surprise, loin de faire l’unanimité, cette proposition attire d’ores et déjà les foudres de l’Australie qui ne fait pas partie, de même que les Etats-Unis, du « Kyoto club ».
 
. Le plan climat à l’échelle de l’Europe[7]
 
Le plan climat image très clairement la répartition des tâches entre Les Etats-nations de l’Europe et Bruxelles, tel qu’il résulte de l’application du principe de subsidiarité. Aux Etats-nations, la charge d’élaborer leur plan climat et, il va de soi, l’exécuter ; à Bruxelles (le commissaire européen Stavros Dimas) d’assurer le contrôle à toutes les étapes et de rassembler les propositions des divers Etats-bations pour les mettre en harmonie avec les normes mondiales pour les présenter à l’institution internationale compétente.
A l’intérieur de cette organisation, le plan climat français, en cours depuis 2004, conformément à la règle de réactualisation biannuelle, devait recevoir une version 2006. Dans les faits, la France a tardé à transmettre son document à Bruxelles. Une première annonce des mesures envisagées avait été faite par le Premier ministre dans le cadre de son « pacte national pour l’environnement » : mise en place de ‘prêts écologiques’ pour les particuliers en faisant passer le plafond de certains Codevi « verts » de 4.000 à 6.000 euros – doublement des crédits de l’Ademe (Agence de l’environnement et de la maîtrise de l’énergie) affectés au chauffage collectif par chaleur renouvelable – multiplication par 4 du nombre des HLM peu consommatrices d’énergie – développement d’un moteur hybride Diesel qui permettra f’économiser 30% de carburant. Ce deuxième plan national d’allocation de quotas de CO² (PNAQ 2) a été jugé trop laxiste par Bruxelles : en
effet, il autorise un rejet de 150 millions de tonnes[8] de CO²par an de 2008 à 2012. Or, le premier PNAQ, couvrant la période 2005-2007, a déjà montré que les allocations de quotas étaient supérieures de 13% aux émissions réelles des entreprises françaises en 2005. « La France n’a plus qu’à revoir sa copie », lance Morgane Créach du RAC (Réseau action climat) groupement d’ONG. Car faute de contraintes suffisantes pesant sur les auteurs du système, le marché européen des droits d’émissions qui sera créé en 2008 entre Etats-nations dans le cadre du protocole de Kyoto, risque de s’effondrer. Certes la France n’est pas le plus mauvais élève de Kyoto : avec des émissions en baisse de 0,8% de 1990 à 2004, selon les derniers chiffres de l’ONU, elle est en mesure d’atteindre ses engagements (stabilisation des émissions entre 1990 et 2012). Mais la Grande-Bretagne (- 14,3%) et l’Allemagne (- 17,2%), ont fait mieux. A noter cependant que leur marge d’action est plus importante que la nôtre du fait du plus grand poids des énergies fossiles dans leur mixte énergétique.
Les révisions, cependant, ne sont pas seulement exigées de la France : elles concernent l’Allemagne qui s’en offusque fort et dix autres Etats membres. Une fois de plus, seule la Grande-Bretagne a été exemplaire puisqu’elle a rendu dans les temps un plan proche des exigences européennes. Neuf autres PNAQ devraient être évalués début 2007, tandis que cinq Etats, dont l’Italie et l’Espagne, n’ont fait encore aucune proposition et sont susceptibles d’être poursuivis devant la Cour de justice européenne. 
                          
                          Autorisations Emissions   Plafonds proposés   Nouv. autorisations      
                              2005-2007       2005            2008 à 2012            2008 à 2012
en millions de tonnes
Allemagne                499              474                   482                         453
Roy-Uni                    245              242                   246                         246 
France                       156              131                   150
Grèce                          74                71                     75                           69
 
Un nouvel outil de lutte contre le CO²pour la France[9]
 
L’idée est d’associer de nouveaux secteurs à la Bourse européenne des quotas de CO2 aux côtés des industriels les plus polluants qui en font partie.
Annoncée hier par le ministre de l’Economie et des Finances, Thierry Breton dans le cadre du colloque « Climat et projets domestiques CO» organisé à Bercy, cette initiative vise les transports, l’agriculture, le bâtiment et les petites installations industrielles. Le secteur des transports, qui représente déjà 27% des émissions en France, est celui qui connaît la plus forte augmentation (22,7% de 1990 à 2004). La CDC (Caisse des dépôts et consignations) sera la cheville ouvrière du dispositif qui s’inscrit dans le cadre du mécanisme prévu par le protocole de Kyoto de la mise en œuvre conjointe (MOC). Tout comme le mécanisme de développement propre (MDP) , la MOC permet à un pays industrialisé d’investir dans des projets « verts », mais cette fois, dans un pays industrialisé et non, en développement : remplacement de gaz HFC, mise en place d’énergies renouvelables… La CDC s’est engagée à financer 5 millions de tonnes d’équivalent CO2 sur la période 2008-2012. De quoi permettre à la France de respecter ses engagements de Kyoto (stabilisation de ses émissions de 1990 à 2012).
 
La France revoit ses quotas de CO2 à la baisse
 
Ce 13 décembre 2006, la France doit publier son plan révisé de « droits à polluer » pour la période 2008-2012 d’un montant de 132,8 millions de tonnes de CO², contre plus de 150 auparavant, a indiqué le Ministère de l’Ecologie. La version révisée de ce plan sera soumise ce même jour à un collège d’industriels et d’associations de défense de l’environnement. « Avec 132,8 millions de tonnes allouées par an, ce plan sera conforme aux recommandations de la Commission », d’après une source au ministère de l’Ecologie.
La France renonce par ailleurs au « banking », à savoir la possibilité de reporter sur la nouvelle période 2008-2012 les quotas non utilisés de la précédente.
 
 
L’engagement final de la France
 
En définitive après plusieurs consultations et réunions, le Ministère de l’Ecologie français a confirmé son engagement pour le chiffre de 150 millions de tonnes de CO² pour la période 2008-2012.
 
Naissance de controverses importantes
 
Deux articles se font écho en cette deuxième quinzaine de décembre sur le risque « totalitaire » qui guette l’écologie.
Le premier du 18/12, signé par Alain Gérard Slama, a pour titre « Ecologie : la tentation totalitaire ».
L’auteur attire l’attention des lecteurs sur l’utilisation pernicieuse de l’écologie faite par les « altermondialistes » et les « écologistes ». Ils considèrent que l’effet de serre condamne le modèle capitaliste de développement et le système représentatif de la démocratie parlementaire. Leurs moyens, inspirés du marxisme-léninisme, sont ceux du volontarisme révolutionnaire. Ils reposent sur l’interdiction, la planification en matière de production, de communication et d’urbanisme ; ils censurent les libertés de s’exprimer et de circuler, encadrent dans un réseau illimité de normes les modes de consommation et de comportement. A tous égards, la pensée écologiste, hantée depuis longtemps par la nostalgie d’un âge préindustriel et communautaire, est, avec les fondamentalismes religieux, l’avatar le plus dangereux des idéologies totalitaires du XXIème siècle(…). 
Dans le climat d’inquiétude actuel, ke documentaire catastrophiste de l’ancien vice-président américain Al Gore, An Inconvenient Truth, récemment présenté en France, et les objectifs volontaristes fixés avec vice-premier ministre à la clé, par le pacte en dix points de Nicolas Hulot laissent craindre de même, que la balance médiatique penche soit vers le fatalisme de l’« à quoi bon ? », soit vers l’option de la contrainte. Sans doute la raison a-t-elle la voix faible. Il n’en est pas poins irresponsable de renoncer à lui faire écho, sous prétexte que, à l’ère des médias de masse, seules les passions sont capables de se faire entendre.>
 
Le second article du 26/12, signé par Edgar Gärtner (Directeur du forum Environnement au Centre for the New Europe (CNE) à Bruxelles) est intitulé « Vers un totalitarisme écologique » ?
On y lit les éléments principaux suivants :
< Le protocole de Kyoto part de la supposition que le changement climatique, qui est indéniable est causé par l’augmentation de la concentration de gaz carbonique (CO²) dans l’atmosphère. Cette supposition ne peut pas s’appuyer sur des expériences scientifiques, mais relève d’un raisonnement spéculatif, jugé suffisant cependant, en Europe, pour justifier l’imposition de mesures coûteuses menaçant de manière radicale notre mode de vie.
Dans l’esquisse du nouveau rapport de Giec (Groupement intergouvernemental d’experts sur l’évolution du climat, l’organisme de l’ONU chargé de l’évaluation du changement climatique), qui est déjà accessible sur Internet, on estime le coût d’un plafonnement de la concentration du CO² à 550 ppm (parts par million) à 5% du PIB, ce qui est considérable. Mais l’Union européenne s’est fixé encore plus ambitieux : limiter le taux du CO² à 450 ppm. Cela causerait un appauvrissement généralisé de la population certainement plus dommageable que la passivité face au changement climatique.
[point 1]Le rapport Stern publié récemment en Angleterre arrive à des conclusions différentes, uniquement parce qu’il cache les gains possibles du réchauffement (comme par exemple la possibilité d’augmenter les rendements agricoles dans le Nord) et minore les estimations du cout des investissements nécessaires pour diminuer les émissions de CO², par les centrales, usines, chauffages domestiques et transports. En l’état actuel des connaissances, le diagnostic du Giec n’est pas scientifique, mais politique.
[point 2] Il est établi scientifiquement depuis le « compendium météorologique » de la société américaine de météorologie, en 1951, que le principal agent de l’effet de serre, est la vapeur d’eau (à concurrence de 95%) laquelle échappe à l’emprise humaine.
[point 3]Le CO² joue un rôle mineur : et encore, les émissions de CO², ne sont-elles que très partiellement d’origine humaine. Y a-t-il eujamaisuneexpériencedont les résultats pourraient contredire cette conclusion ?
On ne peut pas expérimenter avec l’atmosphère et il faut donc se contenter de simulations sur des ordinateurs puissants, rétorquent les défenseurs de Kyoto. Mais avec des simulations électroniques il est possible de démontrer n’importe quoi en manipulant les logarithmes dans la direction souhaitée. En réalité, il est aujourd’hui tout à fait possible de clarifier des questions clefs de la météorologie, soit par des observations directes de la circulation atmosphérique à l’aide de photos prises par des satellites ou, dans certains cas, par des expériences en laboratoire.
[point 4]Une équipe de physiciens danois, sous la direction de Henrik Svensmark vient de publier début octobre, les résultats très parlants d’une expérience en chambre close qui montrent que le réchauffement terrestre, enregistré ces dernières décennies, peut aussi bien avoir été provoqué par un accroissement parallèle du champ magnétique du soleil (indiqué par la présence plus grande de taches à la surface du soleil). Ce renforcement du champ magnétique solaire empêche l’entrée de particules cosmiques dans l’atmosphère, qui normalement favorisent la formation de nuages bas qui empêchent les rayons solaires de chauffer le sol terrestre. Une augmentation des taches solaires devrait donc être suivie, à l’inverse, d’une raréfaction des nuages : d’où le réchauffement. L’équipe de Svensmark a justement démontré dans une chambre de Wilson que les particules cosmiques qui ne sont pas déviées par le champ magnétique solaire provoquent l’ionisation de molécules d’air, ce qui facilite la formation de nuages. Voilà à n’en pas douter une théorie qui concurrence sérieusement la théorie du CO².
L’expérience des Danois va probablement être repérée bientôt au Centre européen de recherche nucléaire (Cern) à Genève. Si cette expérience appelée « Cloud » (nuage) confirme les conclusions de l’équipe danoise, le programme de la recherche en climatologie et de la politique internationale devrait être remanié. [point 4] Car il faut s’attendre à ce que le cycle solaire qui nous a donné, pendant trois décennies, du beau temps (chaud en été, mais parfois très froid en hiver) touche bientôt à sa fin. Des astronomes russes et américains ont annoncé un refroidissement terrestre vers le milieu du siècle qui devrait déjà être sensible dans une dizaine d’années. Des coûteuses réductions de CO² (un gaz qui, il faut le souligner, ne peut pas être appelé polluant car il nourrit la végétation et conditionne à ce titre la vie même) deviendraient alors non seulement superflues, mais nuisibles. Voilà qui viendrait opportunément rappeler à tous les marchands de peur que l’humanité n’est pas enfermée dans une serre, mais continue à évoluer dans un monde ouvert dont l’intelligence nous échappe encore largement.> 
 
 
L’article de M. Gärtner a trouvé un contradicteur en la personne de M. van Ypersele, climatologue, membre du Giec, qui cosigne l’article « Effet de serre : ne nous trompez pas ! » avec MM  Marbaix, Crucifix, Lefebvre et Mme Loutre[10]. Publié le 11 janvier 2007. Il affecte de répondre point par point à l’ attaché au « Centre for the New Europe » en commençant par stigmatiser le rôle de ce centre financé notamment par des dons provenant d'Exxon. Selon lui, il s'agit en fait du seul financement bien connu publiquement du Centre en question, et il n'est pas anecdotique : Exxon, l'une des plus grandes compagnies pétrolières privées, se montre très active dans le financement de la désinformation en matière de changements climatiques.(…) Les méthodes utilisées consistent notamment à semer le doute sur le rôle bien établi des gaz à effet de serre d'origine humaine ou exagérer l'incertitude dans nos connaissances.
Face à cette désinformation, il s'agit pour M. Ypersele, de rétablir les différents résultats scientifiques niés par M. Gärtner.
[point 1] S’il est exact que certains rendements agricoles vont augmenter dans les régions froides, en contre partie, des baisses de rendement sont projetées pour les zones chaudes, touchant des régions où l'agriculture est vitale pour des centaines de millions de personnes qui n'ont pas les moyens d'acheter de la nourriture produite ailleurs.
[point 2] Concernant les gaz à effet de serre, il nous parle de la vapeur d'eau, cite une source de 1951, et salit au passage le travail du Giec - la référence en matière d'évaluation scientifique à propos des changements climatiques. En vérité, le « piégeage de la chaleur », par la vapeur d'eau et d'autres gaz à effet de serre a été mis en évidence expérimentalement vers 1860, et les premiers calculs de l'effet des émissions de dioxyde de carbone (CO²) par les activités humaines ont été effectués à la fin du XIXe siècle. On sait très bien maintenant que le rôle de la vapeur d'eau est d'amplifier le réchauffement dû aux autres gaz, car la quantité d'eau présente dans l'atmosphère augmente avec la température.
[point 3] M. Gärtner poursuit en déclarant que les émissions de CO² ne sont que très partiellement d'origine humaine. Il confond ainsi les échanges naturels de carbone entre l'atmosphère, les océans, sols, etc. et l'ajout de carbone dans le système (ou sa remise en circulation) par les activités humaines, qui n'est pas compensé entièrement par l'absorption naturelle. L'augmentation de la concentration de dioxyde de carbone dans l'atmosphère est mesurée rigoureusement depuis 1958, et suit de façon indiscutable les émissions humaines. Un des scientifiques à l'origine de ces investigations, Roger Revelle, a d'ailleurs contribué à sensibiliser Al Gore à la problématique climatique, il y a plusieurs dizaines d'années (voir le film Une vérité qui dérange).
[point 4] Contrairement à ce que suggère M. Gärtner, la possibilité d'une influence de l'activité solaire sur le climat terrestre est étudiée depuis de nombreuses années. Les travaux de Henrik Svensmark sont d'ailleurs évalués dans les rapports du Giec, mais la connaissance actuelle des différents éléments (naturels et causés par l'homme) responsables des changements climatiques permet de conclure que ce rôle de l'activité solaire ne peut être, au plus, que secondaire.
[point 5] Quant à une glaciation prochaine... L'idée a été suggérée voici une bonne trentaine d'années, sur la base de l'alternance entre de longues glaciations et de courtes périodes plus chaudes qui avait été découverte pour les dernières centaines de milliers d'années. Mais ces cycles sont liés aux variations de la position relative de la Terre et du Soleil, dont l'effet sur le climat est plus complexe que la simple répétition du passé au même rythme. La conclusion scientifique actuelle est que la prochaine glaciation ne commencera pas avant 20 000 voire 50 000 ans.
 
En conclusion, aucun argument sérieux n'est présenté, et c'était prévisible : plus d'un siècle après que l'idée a été émise, il ne fait plus aucun doute que l'augmentation de la concentration en gaz à effet de serre est d'origine humaine et conduit au réchauffement de la Terre. Réduire radicalement les émissions de gaz à effet de serre ne requiert pas un effondrement économique, mais une adaptation en profondeur de l'économie et de la société. Certains pétroliers l'ont mieux accepté que d'autres, si l'on en croit par exemple le slogan de BP - beyond petroleum (au-delà du pétrole).
S'il y a des questions dont il faut débattre, c'est donc largement autour de ces changements nécessaires qu'elles se situent. Peut-on réduire les émissions en suffisance en utilisant principalement des changements technologiques ? Les populations démunies étant les plus vulnérables aux changements climatiques, s'attaquer à la pauvreté n'est-il pas une façon efficace de limiter l'ampleur du problème climatique ? Comment contribuer à l'utilisation d'énergie propre dans les pays en développement ? Comment bâtir une économie durable au service du bien-être de tous ? L'Europe fait-elle assez pour joindre les actes à la parole ? Autant d'enjeux éthiques, de choix politiques, de questions cruciales pour la poursuite du développement humain au XXIème siècle à traiter sans catastrophisme mais résolument.>
 
Il est hors de notre portée de séparer le vrai du faux et surtout de mettre un point final à ces argumentations contradictoires. Une personne a réagi le 17/01 dans le cadre du « courrier des lecteurs » du Figaro ; il s’agit de M. Henri Lepage dont nous relevons les principaux arguments :
< Je trouve choquant que M. van Ypersele qui se présente comme un scientifique, commence son papier en utilisant une figure de rhétorique habituellement maniée par les milieux politiques à caractère ouvertement totalitaire, consistant à jeter d’emblée le doute sur l’honnêteté de M. Edgar Gärtner en laissant entendre qu’il serait, en quelque sorte, « commandité » par des intérêts financiers douteux pour écrire ce qu’il a écrit. Ce genre de sous-entendu, encore plus quand il s’affiche dès la première ligne, est intolérable et indigne d’un scientifique. Il est symptomatique qu’aux yeux de M. van Ypersele, le seul fait de ne pas se soumettre au verdict « définitif » du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec) salit les travaux de cet organisme. L’usage de ce vocabulaire traduit le caractère profond de sa démarche : il s’agit typiquement d’une attitude « lyssenkiste » qui refuse d’admettre que le progrès de la science passe précisément par la confrontation permanente et sans limites avec des hypothèses alternatives. C’est cette ouverture du débat scientifique qui fait la grandeur de la science, et qui est précisément ici refusée par M. van Ypersele, comme par tous ceux qui font des affirmations du Giec un dogme indépassable. M. van Ypersele écrit : « L’augmentation de la concentration du dioxyde de carbone de l’atmosphère est mesurée rigoureusement depuis 1958 et suit de façon indiscutable les émissions humaines ». Fort bien. Je l’accepte. C’est sans doute un fait scientifiquement établi. Admettons. Mais il n’en suit pas qu’on ait le droit d’en déduire automatiquement toutes les conclusions que les alarmistes comme M. van Ypersele en tirent. Malheureusement M. van Ypersele semble avoir perdu de vue qu’une corrélation n’est pas nécessairement la preuve d’une causalité. Encore faut-il disposer d’un modèle d’explication causale qui tienne suffisamment compte de la complexité des phénomènes naturels ou humains. Encore faut-il également que ce modèle explicatif affirme sa robustesse par rapport à d’autres modèles possibles d’explication dynamique. Or la caractéristique de cette réponse à Edgar Gärtner est précisément de refuser a priori qu’il puisse désormais exister de telles alternatives. Il lui suffit d’invoquer le caractère « rigoureux » des mesures ainsi que leur aspect « incontestable » pour que tout soit réglé. Ce qui est le propre d’une attitude « scientiste » et non scientifique >.
                                                                             
Si une opinion personnelle est permise, bien qu’elle ne puisse faire avancer le problème global d’un pouce, je me rallie volontiers à l’argumentation de M.Lepage. Il sera intéressant de connaître, entre autres, les résultats du Cern sur l’expérience « Cloud ». Pour prendre date, j’indique, à la suite, les conclusions du rapport dit « scientifique » du Giec qui semble devoir être pris avec toutes les précautions d’usage. Il est intéressant de noter au passage, avant les conclusions du Giec, la position de Claude Allègre.
 
Extrait de l’article publié le 4 octobre par Stéphane Foucaer dans le journal éLe Monde » :
Vent debout contre Claude Allègre. Depuis la publication de sa chronique du 21 septembre dans l'hebdomadaire L'Express, le géophysicien suscite la colère des climatologues français. Rompant avec le consensus qui prévaut chez les spécialistes de l'évolution du climat, M. Allègre développait dans son texte l'idée selon laquelle les changements climatiques actuels ne sont pas le signe d'un réchauffement global de la Terre. Et, surtout, que la cause de ces changements demeure inconnue. En réponse, plusieurs climatologues ont adressé, mardi 3 octobre, une courte lettre de protestation à l'Académie des sciences, à l'Institut national des sciences de l'univers (INSU), au ministère de la recherche ainsi qu'à L'Express.           
 
 
Les principales conclusions du GIEC (datées)
NOUVELOBS.COM | 03.02.2007 | 13:16
 
Voici les principales conclusions du 4e rapport scientifique du Groupe d'experts intergouvernemental sur l'évolution du climat (Giec) publié vendredi 2 février.

ACTIVITE HUMAINE
 - L'essentiel de l'accroissement constaté de la température moyenne de la planète depuis le milieu du 20e siècle est "très vraisemblablement" dû à l'augmentation observée des gaz à effet de serre émis par l'homme (+de 90% de certitude contre 66% en 2001).

- Le réchauffement général observé de l'atmosphère et de l'océan, ainsi que la diminution de la masse des glaces, étayent la conclusion qu'il est "extrêmement invraisemblable" que le changement climatique mondial des 50 dernières années puisse être expliqué par les seules causes naturelles.

- Les émissions "passées et futures de CO2 continueront à contribuer au réchauffement et à l'élévation du niveau de la mer pendant plus d'un millénaire", du fait de la durée de vie des gaz à effet de serre dans l'atmosphère.

TEMPERATURES

- Onze des 12 dernières années figurent au palmarès des 12 années les plus chaudes depuis que l'on dispose d'enregistrements (1850).

- Le réchauffement s'est accéléré ces dernières années: 0,74 degrés supplémentaires sur les 100 dernières années (1906-2005), contre 0,6 degrés retenus pour la période 1901-2000 dans le précédent rapport publié en 2001.

- A la fin du siècle, les températures devraient augmenter de +1,8 à 4° par rapport à 1980-1999. Ces "meilleures estimations" sont des valeurs moyennes, au sein d'une fourchette plus large de 1,1 à 6,4 degrés (1,4 à 5,8 degrés dans le précédent rapport de 2001).

- Le réchauffement tend à réduire la capacité d'absorption du dioxyde de carbone (CO2) par les terres et les océans, accroissant d'autant la part des émissions humaines qui restent stationnées dans l'atmosphère.

OCEANS

- Les observations depuis 1961 montrent que la température moyenne de l'océan mondial a augmenté jusqu'à une profondeur de 3.000 m et que l'océan a absorbé plus de 80% de la chaleur ajoutée au système climatique.
 
- Le réchauffement de l'eau de mer provoque sa dilatation. Le niveau des océans pourrait, selon les scénarios, s'élever de 0,18 m à 0,59 m à la fin du siècle (par rapport à 1980-1999).

- un réchauffement moyen de 1,9 à 4,6°C par rapport aux valeurs de l'ère pré-industrielle entraînerait la disparition complète de la glace au Groenland, avec pour conséquence une élévation du niveau de la mer d'environ 7 mètres.

IMPACTS

- Le réchauffement le plus important est attendu sur les terres émergées et aux latitudes élevées, et le moins important devrait apparaître dans le sud de l'océan indien et dans certaines parties de l'Atlantique nord.

- Les simulations produisent une diminution de la glace de mer dans l'Arctique comme dans l'Antarctique pour tous les scénarios climatiques. Pour certaines simulations, la glace disparaît presque entièrement en Arctique à la fin de l'été dans la seconde partie du 21e siècle.
 
                                     
Dysfonction érectile[1] Ce fichier, par des mises à jour périodiques, est destiné à recueillir, au fur et à mesure de leur parution, toutes les informations qui s’y rapportent.
Le Développement durable sur Internet www.agora21.org


[1] Ce fichier, par des mises à jour périodiques, est destiné à recueillir, au fur et à mesure de leur parution, toutes les informations qui s’y rapportent.
Le Développement durable sur Internet www.agora21.org
[2] Trèsgrossièrement,lesémissionsdedioxyde de carbonesedivisentenquatreparts à peu près égales : un quart pour l’industrie (22% en France), un quart pour la production d’énergie (18% en France, effet d’un parc nucléaire qui produit de l’électricité sans carbone), un quart pour les transports (34% en France), un quart pour le résidentiel et l’agriculture (26% en France). Le bilan global est spectaculaire : chaque français contribue en moyenne à émettre chaque année dans l’atmosphère 1,7 t de carbone ! Mais la moyenne européenne est de 2,3 t. Aux Etats-Unis, la croissance est gourmande en énergie, laquelle est jusqu’à présent restée bon marché par consensus politique : résultat, 6 t de carbone rejetées par an et par habitant. 
[3] Texte de la loi Barnier, 1995.
[4] Voir « Combattre l’effet de serre nous mettra-t-il sur la paille ? », éditions du Pommier, « Les Petites Pommes du Savoir ».
[5] Informations publiées par Le Figaro du 18-19 novembre sous la signature de Caroline de Malet.
[6] Ces mécanismes de développements propres (MDP) permettent à des pays industrialisés d’investir dans des technologies non polluantes pour gagner des quotas et atteindre ainsi plus facilement leurs propres objectifs de réduction d’émissions. L’Afrique n’est concernée que par 3% des 450 projets validés par l’ONU, et force est de constater que parmi les freins à l’investissement « propre » dans ce continent, figure le manque de compétences et d’infrastructures pour accueillir et accompagner de tels projets. C’est pourquoi la France a signé, depuis 2003, des accords bilatéraux avec une dizaine de pays, en vue de mettre à leur disposition des outils d’accompagnement. Et elle vient d’annoncer à Nairobi avoir ajouté à cette liste deux pays d’Afrique subsaharienne, le Gabon et le Sénégal.
[7] Informations publiées par Le Figaro du 13 novembre sous la signature de Caroline de Malet.
[8] Ces objectifs chiffrés contestés par Bruxelles appellent deux remarques :
1/ Le Medef a fait savoir que ce chiffre a fait l’objet d’un calcul minutieux après que toutes les parties aient été consultées. Au Medef, on rappelle que la variable d’ajustement de la France est limitée, puisque son électricité est à près de 80% d’origine nucléaire. Autrement dit, seule l’industrie manufacturière est susceptible d’être concernée, alors même que les émissions pnt été réduites d’environ 20% entre 1990 et 2004. Le Medef s’étonne enfin que seule l’année 2005 ait servi de base à la Commission européenne, alors qu’il est prévu que la situation soit examinée sur plusieurs années. Tout cela pour dire que le débat avec Bruxelles ne manquera pas d’être animé.
2/Nelly Olin n’a pas manqué de faire remarquer qu’avec une telle proposition la France restait bien en deçà des exigences financières européennes (132 millions d’euros). Bruxelles a en effet toujours fait savoir que cette deuxième série de plans s’aligne sur les émissions de 2005, année de lancement de la Bourse d’échanges européenne de CO². Or, 2005, expliquent des experts français, correspond à une année de faible croissance et donc de faibles émissions. Nelly Olin, notre ministre de l’Environnement n’a pourtant pas ménagé ses efforts pour présenter une copie acceptable. Mais si son Ministère et les associations de défense de l’environnement plaidaient pour un plafond de 137 millions de tonnes, le Ministère de l’Industrie n’était guère prêt à accepter un tel effort. C’est dire que l’opposition entre croissance et environnement ne règne pas que chez les « absents de Kyoto ».    
[9] Informations publiées par Le Figaro du 5 décembre sous la signature de Caroline de Malet
[10] Professeurs ou chercheurs en climatologie à l'Université catholique de Louvain, Belgique.