Avant d'aborder l'étude de ce phénomène dynamique qu'est la croissance économique il convient de définir ses agents et objets.
La théorie économique enseignée dans les universités reconnaît deux facteurs de production grâce auxquels les biens sont fabriqués et les services prestés : le capital (K) et le travail (L) :
Q = f ( K , L ) où Q représente la quantité produite, et f() la fonction de production.
Sans travail humain il ne peut y avoir production de valeurs [1]. D'autre part le travail – même seulement intellectuel – requiert de la matière première (notamment comme source d'énergie). Par conséquent la fonction de production doit être formulée de telle sorte que f (0) = 0 dès qu'au moins un des deux facteurs de production est nul : par exemple Q = A * Kα * L1-α où A est une mesure de la productivité globale [approfondir]. On peut alors mesurer la productivité de chacun des facteurs par Q(L , K) / L et Q(L ,K ) / K.
Une première différence qualitative peut être proposée en assimilant le capital à un stock, lequel est accru par un flux de travail (et diminué par la consommation ?).
La typologie temporelle peut être affinée en précisant que le stock de travail est à effet différé, tandis que le flux de travail est à effet immédiat [M. Volle].
On est alors naturellement conduit à prolonger la distinction stock/flux par une dimension encore plus qualitative : moyen/agent.
Un fondement de l'idéologie "libérale" – la théorie économique enseignée dans les universités – est de rendre très floue voire de nier la distinction entre facteur et moyen de production : travail et capital seraient tout deux "facteurs" ou "moyens" de production, les deux termes étant interchangeables. Or en réalité seul le travail humain est facteur (c-à-d agent) de production, tandis que le capital n'est qu'un moyen (c-à-d objet) de production. Ainsi les moyens de productions (mêmes les robots qui fabriquent des robots) sont in fine produits par le travail humain, seul facteur de production.
Autrement dit, distinguer productivité "du travail" et "du capital" ne fait sens que pour expliquer comment les humains améliorent leur productivité.
Toute analyse n'opérant pas cette hiérarchie (verticalité) est l'expression de la chosification et marchandisation d'un prolétariat (majoritaire), par une classe (minoritaire) possédant l'essentiel des moyens de production. Force est de constater que la conception "horizontale" est ultra-dominante dans les milieux académique et politique. Cela est flagrant dans la comptabilité nationale ainsi que dans l'allocation de la création monétaire, où les notions "soeurs" de personne physique et de personne morale de droit privé (surtout de grande taille), reviennent à abaisser la première au rang de moyen/objet, ou d'élever la seconde à celui de facteur/agent.
La personne morale de droit public, ne pose pas problème ... dans la mesure où le système politique est réellement démocratique.
Capital financier. Il convient en outre de distinguer capital non financier et capital financier : ce dernier est un titre de propriété pouvant être converti en d'autres formes de capital financier (actions, obligations, ...) ou en capital non financier (investissement productif). Dans les deux cas cette transformation requiert du travail humain (très peu dans le premier, beaucoup plus dans le second). Notons enfin que sa nature physique est aujourd'hui essentiellement virtuelle et, partant, sa valeur intrinsèque quasiment nulle (les métaux précieux ne constituent plus qu'une part infime de l'épargne). En particulier la monnaie, étant constituée de bits d'informations, peut être produite à coût quasiment nulle, sa seule contrainte quantitative étant le risque inflationniste.
Facteurs de production = Agents | |
---|---|
|
|
Biens & services = Objets (physiques ou virtuels) | |
|
Sphère réelle |
|
Sphère financière |
L'opinion publique associe généralement le capital financier à l'activité dite "d'investissement". Or il y a deux types d'investissements :
L'investissement productif requiert nécessairement du travail, tandis que l'investissement financier n'est que l'appropriation de biens ou de revenus, qui proviennent nécessairement du travail fourni par les investissements productifs (P.S. La spéculation n'est qu'un pari se soldant par un transfert de richesse, du perdant vers le gagnant. Ainsi dans le chantage systémique du "too big to fail" les banque sont toujours gagnantes, ainsi que les décideurs politiques qu'elles achètent, tandis que les contribuables sont toujours perdants).
L'introduction idéologique du capital dans la fonction de production atteint son paroxysme dans une définition du capital qui intègre le travail dans une forme qualitative de "capital humain". Ainsi cette définition totalisante du capital distingue quatre type de capital :
On notera que cette description du capital – reprise de l'ouvrage de Klaus Schwab "Le Grand récit" (2022, p.168) – ignore le capital financier ...
Les crises économiques profitent-elles aux banques ? L'insolvabilité des ménages débiteurs entraîne la saisie de leurs biens immobiliers qui ont été mis en gage pour obtenir des prêts. Étant donné qu'un crédit bancaire n'est qu'une écriture comptable [approfondir], la faillite du débiteur permet ainsi de transformer du papier en richesse réelle dès lors que celle-ci est transférée du débiteur au créditeur.
La hausse du portefeuille immobilier de la banque lui permet alors des investissements risqués (donc potentiellement plus rentables), ce qui booste la bourse. Lorsque de grosses bulles spéculatives éclatent, elles provoquent généralement une crise économique. Les Banques centrales créent alors de l'argent ex-nihilo qu'elles "prêtent" (en réalité donnent) aux banques, ce qui les incite évidemment à recommencer.
C'est comme cela que les classes dirigeantes du monde entier s'enrichissent le plus. Pour neutraliser ce phénomène, trois mesures complémentaires sont :
Le piège des emprunts à l'étranger. Pour acheter des produits que l'économie nationale ne produit pas ou pas assez (haute technologie, matières premières, ...) un État doit payer soit dans la devise du pays où il achète ces biens, soit dans la devise d'un pays dont la monnaie est acceptée par des entreprises partout dans le monde (généralement le dollar US). Pour se procurer des devises étrangères un pays doit de préférence être exportateur net de biens/services, et dans le cas contraire (importateur net) il doit alors se résigner à emprunter des devises ... et donc à payer des intérêts.
Une alternative est d'échanger de la monnaie nationale contres des devises étrangères, mais il faut pour cela qu'il existe une demande étrangère pour la devise nationale, et dans l'affirmative que le taux de change ne soit pas trop défavorable.
Mais comment le pays va-t-il payer ces intérêts (en devises étrangères) s'il demeure importateur net ? Réponse : par de nouveaux emprunts !
Intérêts composés. Normalement la croissance de la charge d'intérêt annuelle augmente linéairement. Mais lorsque celle-ci est chaque fois ajoutée au principal (on parle alors d'intérêts composés) la croissance de la charge devient exponentielle, de sorte que la charge d'intérêt devient rapidement supérieure au principal ! Beaucoup de pays africains ont été asservis de cette manière (parfois même avec la complicité de leurs dirigeants) car le remboursement d'intérêts composés exige que le PIB du pays emprunteur connaisse également une croissance exponentielle !
FMI et privatisations. C'est là qu'intervient Le FMI, créé à la fin de la seconde guerre mondiale à l'initiative du gouvernement US. Le FMI accorde des prêts en dollars aux États qui en font la demande, mais en échange il impose aux gouvernements emprunteurs d'appliquer à leur économie un programme dit « plan d'ajustements structurels ». Ce programme fondé sur l'idéologie "libérale" consiste notamment dans la privatisation des biens nationaux et des services publics, et qui plus est, à des prix systématiquement (très) sous-évalués, au bénéfice des grandes sociétés privées (souvent sous contrôle US) qui achètent ces entreprises publiques étrangères pour les exploiter à leur profit.
Cette situation est extrêmement perverse car l'appareil d'État US (gouvernement + grandes sociétés) a donc intérêt :
"Cadeaux" intéressés. Lorsque les prêts se transforment éventuellement en dons (annulation de dette), c'est généralement en échange d'une accentuation des plans d'ajustement. En outre il demeure que les devises octroyées (en l'occurrence du dollar) ne peuvent de toute façon être utilisées que pour acheter soit des produits US, soit sur le marché international, ce qui permet d'asseoir le dollar comme devise internationale. Le fait que la devise internationale soit une devise nationale (le dollar US) plutôt qu'une devise spécifiquement créée à cet effet introduit un biais favorisant grandement l'État et les entreprises US qui n'ont jamais besoin de se procurer de devise étrangère pour acheter à l'étranger : il leur suffit de payer en dollars !
Double exploitation. Les pays développés investissent du capital non financier dans les pays en développement, qui eux exportent des travailleurs (et des matières premières) vers les pays développés, phénomène que la dialectique libérale décrit comme un "échange de facteurs de production". Or nous avons montré plus haut que le capital n'est pas facteur/agent de production mais seulement moyen/objet de production, et aussi titre de propriété (sauf les dons). Seul le travail humain est facteur/agent de production.
Par conséquent « exporter du capital » signifie en réalité « prendre possession de ». Le prétendu "échange" de capital contre de la main d'oeuvre est donc en fait une double exploitation, les pays riches prenant le contrôle des ressources naturelles des pays pauvres (avec la complicité de dirigeants indigènes), qui en outre perdent leurs facteurs de production (c-à-d les humains, surtout les plus jeunes ou les plus qualifiés) au profit des pays riches, ou du moins de leur classe dirigeante car la masse des salariés subit quant à elle la concurrence de cette main d'œuvre étrangère bon marché.
Autonomie. Enfin les éventuels revenus envoyés par les travailleurs immigrés à leur famille restée au pays ne compensent ni la perte de facteurs de production que sont les travailleurs émigrés, ni le rapatriement des plantureux dividendes engrangés par les propriétaires des entreprises étrangères. Le meilleur développement est donc celui qui est réalisé par les populations indigènes elles-mêmes, en commençant par installer des institutions politiques, administratives, judiciaires et scientifiques efficaces c-à-d adaptées à leur culture (ce que, par nature, elles seules sont en mesure de faire). Autrement dit, les entreprises occidentales et chinoises qui investissent en Afrique participent moins au développement de ce continent qu'à leur propre enrichissement.
Ces notions étant clarifiées nous pouvons maintenant aborder le mode opératoire de la croissance économique, et plus particulièrement la dynamique par laquelle le travail humain (seul facteur de production ) développe l'économie au moyen du capital matériel et immatériel (les moyens de production).
Le modèle microéconomique du cycle productif est composé d'inputs (flèches hachurées) et d'outputs (flèches continues), qui sont traités par trois types d'usines :
les usines de type 1 transforment les matières premières – et les produits finis usagés (recyclage) – en matières conditionnées, qui vont servir d'input aux trois types d'usines (PS : les livraisons de matières conditionnées au sein des usines de type 1 ne sont pas montrés) ;
les usines de type 2 transforment les matières conditionnées en machines-outils, qui sont utilisées par les trois types d'usine (PS : les livraisons de machines-outils au sein des usines de type 2 ne sont pas montrés) ;
les usines de type 3 réalisent les produits de consommation, qui une fois usagés sont éventuellement recyclés en matières conditionnées.
En résumé :
L'égalité fondamentale en macroéconomie est une égalité de comptabilité nationale Y = C + I + (X - M) où :
La comptabilité nationale ne considérant comme production que ce qui a été produit en échange d'un revenu, il en résulte que le PIB est équivalent (réduit ...) au revenu national brut (RNB = C + S où S = épargne : la partie du revenu qui n'est pas consommée est épargnée) . On déduit de ces deux égalités que S = I + (X - M). Par conséquent au niveau mondial ("économie fermée") X-M étant nul, on obtient que S = I : l'épargne finance ("est la contrepartie comptable") de l'investissement (productif et financier).
Le graphique ci-contre postule une économie fermée. Il fait apparaître que le mécanisme dynamique fondamental du développement économique (ΔY) est la boucle de rétroaction I-Y-S-I, dans laquelle la création monétaire – qui est une avance sur une production future (sans laquelle la monnaie créée s'évapore in fine en inflation) – peut être injectée de diverses façons.
I --> Y C'est là que se réalise la croissance économique ΔY. L'impact de I sur ΔY sera d'autant plus élevé que les investissements seront réalisés dans la production de biens et services pour lesquels il existe une large demande, ce qui pose la question du contrôle démocratique de la politique d'investissement.
Y --> S Étant donné que Y=C+S ⇒ S=Y-C de sorte que pour C constant S sera d'autant plus grand que le revenu réel sera élevé c-à-d que le revenu nominal sera élevé et l'inflation basse.
S --> I et S --> Fin. Si les dividendes rapportent plus que les intérêts et la spéculation financière, alors S ira vers I (investissements en capital non financier), et vers Fin. dans le cas inverse (investissements en capital financier --> spéculation --> bulles financières --> instabilité).
ΔM :
actuellement : la monnaie est créée ex-nihilo (mais pas en quantité illimitée, ... du moins en principe) par les crédits bancaires à la consommation (rouge) et aux investissements (orange) ; les crédits accentuent les écarts de richesse (qui sont nuisibles à la croissance) dans la mesure où, en cas de défaut du débiteur, ils permettent aux banques de s'approprier le bien apporté en garantie (immeuble ou terrain) ;
notre recommandation (vert) : la création monétaire devrait être partagée également et gratuitement entre les personnes physiques --> par leur consommation (plus exactement par les changements dans les types et quantités de produits consommés) les citoyens indiquent aux entreprises dans quelles directions elles doivent orienter leurs investissements.
De nombreux travaux empiriques suggèrent que les principaux déterminants du développement économique sont le cadre institutionnel, la formation, les investissements et la R&D :
Nous allons ici développer les thématiques suivantes : facilité d'entreprendre, droits de propriété intellectuelle, R&D.
La facilité d'entreprendre varie fortement selon les pays. La Banque mondiale réalise un classement des pays en fonction du degré favorable de la réglementation des affaires [source] pour :
N.B. Les mesures qui ont pour effet secondaire de limiter la facilité à réaliser des affaires (comme les mesures anti-pollution), ont généralement des motivations aussi utiles à la collectivité que la facilité à entreprendre ...
Les droits de propriété intellectuelle sont supposés favoriser la R&D en garantissant aux inventeurs la possibilité de s'enrichir (après avoir récupéré les investissements). Cependant ces droits ont également pour effets (i) de ralentir la propagation des innovations dans le temps et l'espace, et (ii) d'en augmenter le prix pour la collectivité. Il est donc primordial que l'État participe également à la R&D et mette ses découvertes et innovations dans le domaine public.
La relation formation --> R&D --> investissement (flèches continues) devient une boucle (flèches hachurées) lorsque les investissements génèrent une masse d'informations accumulées par la pratique, et pouvant enrichir la formation et/ou la R&D.
Cependant l'efficacité de ce "feedback" informationnel dépend de la façon dont il est organisé. Toute politique d'investissement devrait comporter une procédure pour collecter ces informations puis les injecter dans les systèmes de formation et de R&D.
Serait-ce l'insuffisante exploitation de cette rétroaction qui expliquerait la corrélation modérée entre entre R&D et productivité, ainsi que sa décroissance au-delà d'un certain niveau de dépenses de R&D ... ?
TIC. Les statistiques économiques suggèrent que les technologies de l'information et de la communication (TIC) n'ont pas (encore) eu d'effet positif sur la productivité. Cependant ces statistiques sont probablement trompeuses, et cela pour deux raisons.
D'une part l'adaptation des systèmes de production à une innovation technologique, et partant l'apparition des gains de productivité induits, sont des processus dont la réalisation peut prendre plusieurs décennies. C'est le temps qu'il faut pour que soient complètement remplacées les générations des travailleurs pour qui les TIC sont difficilement accessibles relativement aux nouvelles générations qui manipulent les TIC depuis leur plus jeune âge. Ce phénomène peut expliquer que des vagues d'innovation technologique peuvent commencer par une momentanée baisse de la productivité. Ainsi les ordinateurs de bureau et les programmes qu'ils permettent de faire tourner (tableurs, etc) étant apparus dans les années 1980, nous n'observerons leurs pleins effets sur la productivité que dans les années à venir [exemple de premier signe].
D'autre part les techniques de mesure du PIB s'améliorant elle devraient faire apparaître des richesses immatérielles créées par le développement des services (et notamment des technologies liées à Internet), actuellement sous-évaluées [approfondir].
En 2005, à l'occasion de sa visite à la Commission de l'UE, Bill Gates [source], PDG de Microsoft, a été reçu en chef d'État par Herman De Croo, président du Parlement belge ! Dans sa présentation des faits la presse belge a montré sa subordination au pouvoir politique, supposé "représentatif" de la population [exemple1, exemple2].
Il faut également prendre un compte un phénomène dénoncé par de nombreux enseignants du niveau universitaire : l'analphabétisme informatique de la population.
Lorsque l'on voit la facilité avec laquelle Bill Gates a pu convaincre les dirigeants de la quasi totalité des pays de la planète de ne pas substituer les logiciels libres aux produits Microsoft dans les administrations publiques – malgré le rapport qualité/prix nettement favorable aux premiers – on peut se demander si l'analphabétisme informatique n'a pas été également "encouragé", afin de créer "par le vide" une demande pour les services des ces entreprises devenues les "géants du web" : Facebook, Twitter, Google, etc.
Comprendre l'impact des gains de productivité sur l'économie (3m18s - 2015)
Le développement économique peut se mesurer en termes quantitatif et qualitatifs :
Il n'y a pas que les progrès "matériels" tels que l'accroissement de capacité de calcul et mémorisation des ordinateurs. Il y a aussi la hausse de l'espérance de vie, la baisse de l'analphabétisme et de la mortalité infantile. Au niveau mondial les progrès dans ces domaines "immatériels" durant les dernières décennies sont dus à l'Inde et la Chine qui représentent à eux deux un tiers de la population mondiale. La situation de l'Afrique demeure cependant préoccupante ...
La réduction du temps de travail en particulier se réalise par le partage des gains de productivité. Plus ce partage sera élevé moins nous devrons travailler. Ce partage est un déterminant majeur de la lutte des classes pour le contrôle des moyens de production [approfondir].
On obtient ainsi un critère objectif permettant de différencier les concepts de croissance économique et de développement durable :
Le Produit Intérieur Brut (PIB) mesure la quantité de biens et services produits durant une période déterminée (généralement une année ou un trimestre).
Le taux de croissance du PIB mesure la variation du PIB entre deux périodes. Avec un taux de 1% par an, le niveau de vie double tous les soixante-dix ans, avec 2% il double en 35 ans, et avec 4% il double en 18 années. Ce fut le cas en Europe de l'Ouest entre 1945 et 1973, période connue sous le nom des "trentes glorieuses".
Entre 1820 et 1950 le taux de croissance annuel moyen en Occident était de ... 1% [source p. 16]. Par conséquent, comment se fait-il que de nos jours un tel taux de croissance du PIB soit généralement considéré comme faible (du moins par les médias et les gouvernements ...) ?
D'autre part, nombreux sont les chefs d'entreprises, politiciens et journalistes qui, lorsque le taux de croissance du PIB diminue, parlent de "ralentissement économique", même si le volume de production n'a pas diminué ! Pour comprendre le caractère abusif de cette interprétation supposons que le PIB/hab était de 100 en période 1, puis 105 en période 2 et enfin 110 en période 3 (soit une croissance en volume constante, de 5 entre chaque période). Dans ce cas le taux de croissance est de 5 / 100 = 5% entre 1 et 2, puis de 5 / 105 = 4.8% entre 2 et 3. Il y a donc certes diminution du taux de croissance, cependant le volume produit n'a pas baissé mais augmenté !
Année | PIB | Δabs. | Δ% |
---|---|---|---|
1 | 100 | ||
2 | 105 | 5 | 5 % |
3 | 110 | 5 | 4,8 % |
Autre exemple. Supposons que début 1950 le PIB était de 1000 unités et le taux de croissance de 5% cette année là. Donc 0,05 x 1.000 = 50 furent produites en plus que l'année précédente. Supposons maintenant que début 2000 le PIB était de 5.000 unités mais le taux de croissance de seulement 2% cette année là. Donc 0,02 x 5.000 = 100 furent produites en plus que l'année précédente, soit deux fois plus qu'en 1950, et cela malgré que le taux de croissance a été divisé par 5/2=2,5.
1950 |
---|
1.000 * 0.05 = 50 |
2000 |
5.000 * 0.02 = 100 |
Le graphique ci-dessous illustre parfaitement la propension des politiciens et journalistes à évoquer perpétuellement un "crise économique", "justifiant" ainsi une perpétuelle modération salariale, ce qui permet aux propriétaires des moyens de production d'accaparer une partie considérable des gains de productivité.
Taux de croissance du PIB en France[année de base : 2005 - source]
Pourtant si l'on regarde l'évolution du PIB par habitant (certes à plus long terme) on obtient une image totalement différente, et qui révèle que le véritable problème est moins les supposées "crises économiques" que le partage insuffisant des richesses produites (NB : le PIB/hab indique la part de la production qui serait allouée à chacun si celle-ci était également partagée entre tous les citoyens)..
Pour une analyse mathématique formelle des taux de croissance, voir allocation-universelle.net/financement-distributif#rappels-mathematiques.
Le PIB est un indicateur très imparfait de l'adéquation, efficacité et répartition des richesses produites.
Ces limitations concernent aussi bien :
est-il vrai, comme l'affirme la théorie libérale, que les biens et services commerciaux (par exemple les armes de guerre) correspondent nécessairement à la demande et aux besoins réels des citoyens ? Ainsi la publicité commerciale et la propagande politique n'influencent-t-elle pas nos choix, vers des consommations que nous ne ferions pas, et des productions que nous n'accepterions pas en leur absence ?
le PIB/hab n'indique que la part de richesse produite qui serait allouée à chacun si celle-ci était également partagée entre tous les citoyens, de sorte que ce ratio n'est un indicateur que de la répartition potentielle, et non effective des richesses ; ...
Il existe des méta-indicateurs, composés d'indicateurs spécifiques (économiques, sociaux, environnementaux). Voici quelques exemples de méta-indicateurs et d'indicateurs spécifiques :
Ces indicateurs qualitatifs sont très utiles pour suivre l'évolution des grandeurs mesurées. Si cette approche relative pose relativement peu de problème d'interprétation, il n'en va pas de même pour l'approche absolue consistant à déterminer un seuil de valeur critique.
Le meilleur indicateur de performance économique à ce jour est selon nous un graphique indiquant pour chaque pays la performance relative de l'IDH par rapport aux ressources utilisées (que nous appelons IDHD pour "indice de développement humain et durable"). C'est précisément ce que fait le graphique ci-dessous, réalisé à partir des données du PNUD (2013) : l'axe vertical mesure l'IDH, tandis que l'axe horizontal mesure les ressources utilisées ("empreinte écologique"), à savoir « les surfaces de terres et d'eau (en hectares par personne), biologiquement productives, nécessaires pour (i) produire les ressources qu´un individu, une population ou une activité consomme, et (ii) pour absorber les déchets générés, compte tenu des techniques et de la gestion des ressources en vigueur » [source].
Pour agrandir, Cliquez-droit sur l'image > ...
Sources : Wikipedia et Investig'Action.
Lecture du graphique. Ce classement graphique des pays illustre le fait que ceux-ci devraient viser à maximiser l'IDH (progresser vers le haut de l'axe vertical) tout en minimisant l'utilisation des ressources (progresser vers la gauche de l'axe horizontal). Il ressort de ce classement que le champion toutes catégories est ... Cuba (en haut à gauche dans le graphique). En effet, parmi les pays ne dépassant la biocapacité de notre planète (2,1 hectares par personne - axe horizontal) Cuba est le pays avec le plus haut indice IDHD !
Le niveau de consommation des cubains (à ne pas confondre avec le niveau de qualité de vie !) est certes inférieur au nôtre, mais les soins de santé et l'enseignement y sont totalement gratuits. En outre le temps de travail y est inférieur, et l'environnement nettement mieux préservé.
Le fait que Cuba est l'économie la plus performante au regard de cet indicateur confirme notre thèse selon laquelle le développement durable requiert de maintenir les écarts de richesse en deçà d'une certaine limite, en intensifiant la redistribution des richesses produites par la société [approfondir].
Embargo contre Cuba. N'oublions pas que Cuba subit depuis 1962 (!) un embargo économique de la part du gouvernement US [source]. Par conséquent en l'absence de cet embargo les performances économiques de Cuba seraient bien plus élevées ...
Notons enfin qu'une mouvance de la théorie libérale moderne soutient que le PIB et le marché demeurent les meilleurs instruments, pour autant que le mécanisme de formation des prix évolue afin d'internaliser les coûts écologiques dans les coûts de production des entreprises. De telles mesures sont déjà appliquées. Nous en étudierons infra les limitations (#transition-energetique).
L'idéologie de maximisation du profit, conduisant au "toujours plus", est-elle incompatible avec le développement durable ?
Pour répondre à cette question, l'analyse doit être mené à deux niveaux : individuel (notamment les motivations) et collectif (notamment la taille de la population globale, relativement à la finitude des ressources planétaires).
Au niveau individuel, des études visant à évaluer le niveau de revenu de satiété (c-à-d au-delà duquel les individus ne ressent plus de besoins d'accroître leur revenu) a révélé deux faits notables [source] :
Au niveau global, il semble exister une taille optimale des organismes biologiques [exemple] et sociaux, qui est fonction des propriétés physico-chimiques de notre planète, ainsi que des cycles saisonnier et journalier. Selon l'éconophysique, approche thermodynamique de l'économie, plus on s'écarte de ces valeurs naturelles plus le retour à la normale est brusque et de grande ampleur, et donc perturbant pour les organismes concernés (certaines espèces ou sociétés pouvant même disparaître).
Mais alors qu'en est-il de la croissance économique, est-elle aussi vouée à s'arrêter ? Selon nous tout dépend de ce que l'on considère comme de la valeur économique, et en particulier des parts relatives de valeurs matérielles et immatérielles.
Notons enfin que selon la théorie relative de la monnaie – fondement du financement distributif de l'allocation universelle du modèle synthétique – il existerait un taux de "croissance naturelle" de la masse monétaire, correspondant à un partage égal et gratuit de la création monétaire entre les personnes physiques [approfondir].
Dans notre article consacré au libre-échange nous avons traité notamment des avantages apportés par la concurrence. Mais lorsque celle-ci dépasse une certaine limite, apparait alors un grave effet nuisible, appelé "effet reine rouge", par lequel des organismes vivant en compétition doivent travailler et dissiper toujours plus d'énergie pour subsister, de sorte qu'une limite est dépassée, au delà de laquelle la pérennité du système n'est plus garantie [source]. Il existe ainsi une risque d'augmentation du stress subi par les individus (cf. syndrome d'épuisement professionnel) et leur environnement (cf. diminution de la biodiversité, ... bien que l'on constate depuis le début des années 2010 le retour du loup, du lynx ou encore du castor dans des régions à très forte densité de population, telles que la Belgique).
La question fondamentale à laquelle le présent article tente de proposer une réponse est la suivante : existe-t-il une loi économique permettant de ne pas dépasser cette limite maximale, tout en y restant au plus près ? Pour découvrir cette éventuelle loi, procédons par étapes. La section suivante présente les fondements physiques de l'effet reine rouge.
Suite aux travaux d'Alfred Lotka et Ilya Prigogine au siècle passé des physiciens on suggéré que les structures dissipatives tendent à maximiser les flux d'énergie qui les traversent. Les physiciens énoncent cette possible loi sous la forme d’un troisième principe de la thermodynamique appelé principe d'entropie maximale. Selon le physicien François Roddier « la vie elle-même est un processus de dissipation d’énergie. Nous sommes faits pour dissiper l’énergie. Dès qu’une source d’énergie apparaît, nous nous précipitons vers elle comme les insectes vers la lumière à laquelle ils se brûlent » [source].
Ce troisième principe de la thermodynamique serait à la base d'une propension des structures dissipatives à s’auto-organiser en mémorisant de l’information sur leur environnement. Selon Roddier « plus une structure dissipative mémorise d’information, plus elle dissipe d’énergie. Mais plus vite elle dissipe de l’énergie, plus vite elle modifie son environnement, de sorte que l’information qu’elle mémorise devient assez vite obsolète. La structure dissipative a alors de plus en plus de mal à dissiper l’énergie. Pour pouvoir continuer à dissiper de l’énergie, une structure dissipative doit se restructurer. Elle a atteint un point, dit "critique", à partir duquel l’information mémorisée se restructure constamment suivant un mécanisme d’avalanches » [source].
Pour illustrer son propos Roddier compare l’entropie à de la poussière. « Celle-ci tend à s’accumuler sur place. Une structure dissipative est comme une ménagère qui balaie la poussière de sa maison pour l’envoyer vers l’extérieur. Le problème est que la poussière va chez le voisin. C’est ce qui se passe dans une société de compétition. La sélection naturelle favorise celui qui dissipe le plus d’énergie, c’est-à-dire celui qui balaie le plus vite. Il finit rapidement par l’emporter en polluant tous les autres, d’où une montée rapide des inégalités » [source].
Ainsi « les hommes s’unissent pour former des sociétés à l’intérieur desquelles chacun coopère pour balayer ensemble l’entropie à l’extérieur de la société. C’est alors la société qui balaie le plus vite qui l’emporte sur les autres sociétés jusqu’au moment où c’est toute la planète qui est polluée. Il ne reste plus alors à l’humanité qu’à s’unir pour envoyer de concert l’entropie vers l’espace » ... [source].
Ce GIF animé montre en cycle les interprétations physique, biologique et économique [source].
Stationnarité optimale. Selon l'ingénieur-chimiste Robert Ulanowicz plus la quantité d’information qu'elle mémorise est grande, mieux une structures dissipatives s’adapte à son environnement, mais plus elle doit modifier d’information pour rester adaptée, donc plus elle dissipe d’énergie. Il arrive un moment ou la fraction de mémoire disponible devient insuffisante, de sorte que les capacités d’adaptation de la structure n’augmentent plus et même diminuent. Il existerait une valeur de la fraction de mémoire utilisée (α) pour laquelle la capacité d’adaptation est optimale. Ulanowicz définit la robustesse R d’un écosystème comme étant sa capacité à s’adapter aux changements. Il montre que R doit être de la forme R = -α.log(α). La robustesse est nulle pour α = 0 et pour α = 1. Elle est maximale et égale à 1 pour α = 1/e où e est la base des logarithmes népériens (e = 2,718) [source].
Prolongeant la réflexion d'Ulanowicz, Bernard Lietaer associe la valeur α au rapport Capital/Revenus. 1/α est donc le patrimoine exprimé en années de revenu. On peut donc en déduire que le capitalisme serait optimal tant que le patrimoine demeure autour d'une valeur représentant 2,718 années de revenus. Or les travaux de Thomas Piketty confirment que cette valeur était justement vérifiée durant les "trente glorieuses" [source p.70-71].
Sources : francois-roddier.fr et piketty.pse.ens.fr
Nous sommes conditionnés à penser que pour survivre l'économie mondiale doit croître quantitativement. Or rien n'est plus faux. Nous venons de voir que pour survivre les organismes vivants ont besoin que leur "économie" soit stable et non pas croissante : principes d'homéostasie au niveau individuel, et d'économie stationnaire au niveau social.
Pour les humains ce fait n'exclut en rien l'aspect dynamique, mais cette dynamique devrait être moins quantitative (maximisation du profit ⇒ de la croissance) que qualitative (développement durable). Une fois que les besoins fondamentaux sont garantis par l'économie (nourriture, habillement, logement, énergie, transport, communication, formation, santé, sécurité), le progrès consiste à produire ces biens et services en travaillant et polluant de moins en moins.
Mais comment en sommes-nous venus à cette emprise idéologique de la croissance ? Commençons par constater que celle-ci est relativement récente dans l'histoire de l'humanité. Sa naissance est concomitante à celle du capitalisme moderne, au 19° siècle. En Europe cette évolution s'est traduite :
Le capitalisme privé (il peut être aussi d'État) conduit les entreprises à maximiser les profits, ce qui requiert d'accroître toujours la production. Il en résulte que le principe de maximisation des profits stimule :
Roddier rappelle que, théoriquement « la production d'énergie libre est maximale lorsque toutes les opérations sont opérées de façon réversible. Tout physicien sait qu'une transformation est d'autant plus proche de la réversibilité qu'elle est effectuée lentement. Il nous faut donc ralentir la vitesse des cycles, c-à-d augmenter la durée de vie de tous les produits que nous fabriquons » [source p. 165].
Sommes-nous devenus fous ? "Vincent Schaller n’en revient toujours pas. Le 6 décembre 2012, le jour de la Saint-Nicolas, ce directeur commercial offre cent iPad à ses salariés. En une fraction de seconde, l’effet de liesse gagne tous les bureaux de Systemat, à Waterloo. « Les gens se sont mis à hurler de bonheur et à courir dans les couloirs. J’ai cru qu’ils avaient bu du champagne. Jamais je n’ai eu droit à autant de remerciements de la part de mes salariés », sourit Vincent Schaller" ... [source].
Il importe de distinguer les petites des grandes entreprises privées. Dans les PME il apparaît que de nombreux chefs d'entreprises souhaitent limiter leur croissance en demeurant PME. La motivation de croissance chez les dirigeants de PME serait moins motivée par la recherche matérialiste du profit que par des considérations spirituelles (esprit de compétition, désir de réalisation, goût pour l'innovation, ...) [source]. Dans les grandes entreprises c'est l'inverse, et cela est du notamment au fait que le dirigeant de l'entreprise n'est pas son propriétaire. Les fusions-acquisitions peuvent être un moyen pour le dirigeant de masquer son manque de compétence, tout en maximisant ses revenus immédiats au détriment de la viabilité à long terme de l'entreprise.
Une grande majorité des fusions/acquisitions sont des échecs (3m46s - 2015)
Ce qui rend nuisible le principe de croissance c'est donc la subordination de son mode qualitatif (spiritualisme) par rapport à son mode quantitatif (matérialisme). L'ampleur de la dégradation de notre écosystème planétaire implique qu'un changement de paradigme sociétal s'impose. Il s'agit de (re?)donner la primauté au "mieux" (qualitatif, simplicité, biens publics, spiritualité) sur le "plus" (quantitatif, complexité, biens individuels, matérialisme).
Mentionnons à cet égard les résultats d'une étude de l'université de Berkeley qui montre une corrélation négative entre la richesse d'un individu et sa propension aux comportements éthiques : plus on est riche, moins on a de moralité [source]. Rappelons enfin que corrélation n'est pas causalité : ce peut être riche ⇒ immoral ou/et immoral ⇒ riche ...
Selon nous ce nécessaire changement de paradigme devrait s'opérer d'abord au niveau de l'enseignement et de la recherche scientifique. C'est le thème de la section suivante.
Le progrès scientifique est l'amélioration de notre connaissance du fonctionnement de la nature. Le savoir est la somme de ces connaissances. Le progrès scientifique est donc un processus d'accumulation d'informations. Cette accumulation permet – via le travail – de créer des richesses.
Ce processus d'accumulation du savoir est vécu à la fois individuellement (c-à-d par chaque individu durant sa vie) et collectivement (c-à-d par la société aussi longtemps qu'elle perdure). Accumulations individuelle et collective interagissent via le partage du savoir.
L'application pratique du savoir peut se réaliser selon deux modes :
dans le mode passif l'individu et la collectivité usent de leur savoir accumulé pour s'adapter rationnellement aux contraintes naturelles (c-à-d en minimisant leur dépense d'énergie) et profiter durablement des richesses naturelles ; ce mode correspond au modèle évolutif de type r (qui favorise les organismes les plus résilients c-à-d les plus adaptables) ou encore au yin de la philosophie chinoise ;
dans le mode proactif l'individu et la collectivité usent de leur savoir accumulé pour vaincre la nature voire carrément l'adapter à leurs volontés au moyen de technologies (association du savoir et du capital) ; ce mode correspond au modèle évolutif de type K (qui favorise les organismes les plus efficients c-à-d les plus adaptés) ou encore au yang de la philosophie chinoise .
On pourrait prolonger la liste de ces dualités : féminin/masculin, spiritualisme/matérialisme, savoir/pouvoir, réflexion/action, technique/technologie, services/biens, tradition/innovation, simplicité/complexité ...
On notera que :
l'impact écologique est nettement plus faible dans le mode passif que dans le mode proactif ;
le mode proactif étant fondé sur le principe de la force brute conduit nécessairement à la concentration de ses moyens financiers c-à-d au capitalisme (privé ou d'État).
Cycles. La thèse développée dans le présent article est que ces deux modes se complètent dans un cycle (à l'instar du yin et du yang), et que la problématique induite en terme de politique économique est de savoir où l'on se trouve dans le cycle, afin de concevoir une politique appropriée. Pour répondre à ces questions François Roddier propose une synthèse entre "physique > thermodynamique > cycles de Carnot", et "biologie > évolution > adaptation".
Application à la géopolitique. L'occident s'engage actuellement dans une phase d'élargissement du Yin, tandis que l'Orient est dans une phase d'élargissement du Yang.
Dans la section suivante nous analysons un dérive possible de l'approche proactive : le technologisme.
Nous appelons « technologisme » l'utilisation injustifiée de technologies, c-à-d le recours au mode d'application proactif du savoir même lorsque le mode passif permet de satisfaire les besoins. Le technologisme est intimement liés à deux phénomènes :
la corruption de politiciens par des sociétés privées pour acheter des produits/services sans intérêt réel pour la collectivité, et dont les services de maintenance constituent une rente pour ces entreprises (réseau de surveillance par caméra vidéo, avion de chasse F35, privatisation de la poste, ...) ;
le conditionnement publicitaire pour "susciter" une demande pour des produits/services dont les inconvénients l'emportent largement sur leurs avantages.
Ainsi le technologisme contribue grandement à la surconsommation, aux déficits publics et aux écarts de richesse.
Nous verrons plus loin que, comme le montre le physicien François Roddier, « le progrès scientifique et technique a un rendement analogue au rendement de Carnot d’une machine thermique. Il est d’autant plus grand que l’accroissement d’énergie dissipée par bit d’information mémorisée est élevé. Ce rapport mesure le progrès dit technique. Il exprime la température de sa "source chaude". Mais plus une société dissipe de l’énergie, plus elle fait évoluer son environnement. Elle ne peut se maintenir qu’en mémorisant constamment de l’information nouvelle. Elle le fait grâce à la recherche dite fondamentale. L’énergie requise par bit d’information nouvelle supplémentaire représente la température de sa "source froide". Plus celle-ci croît, plus le rendement de Carnot de la société décroît. Pour maintenir un bon rendement de Carnot, une société doit développer sa recherche fondamentale tout en évitant de dissiper trop d’énergie, c’est-à-dire en limitant ses développements techniques aux besoins fondamentaux: ceux qui améliorent le bien-être de chacun » [source].
On notera que le technologisme est particulièrement le fait du genre masculin [exemple], et que le fétichisme sur lequel il est fondé induit des comportements violents [exemple].
Des systèmes informatiques sont aujourd'hui capables de battre les meilleurs joueurs de jeu d'échec (première : superordinateur Deep Blue en 1997) et même du jeu de Go (première : programme AlphaGo en 2015). Cette performance est due aux capacités supérieures des ces systèmes en matière (i) de stockage de grandes quantités de données et (ii) de vitesse de traitement de ces données, qui rendent possible des fonctions d'apprentissage automatique.
L'intelligence artificielle (IA) est souvent évoquée comme moyen de rationaliser la consommation d'énergie. Ainsi Deepmind, la filiale IA de Google, a optimisé la consommation énergétique de ses centres de données et de ses systèmes de refroidissement grâce à l’apprentissage machine. Il a ainsi augmenté l’efficacité énergétique de ses centres de données de 15% [source p. 128].
Il importe cependant de souligner le caractère souvent illusoire de ces "économies d'énergie".
Il y a d'abord l'effet rebond – encore appelé "paradoxe de Jevons" – phénomène de "fuite en avant" par lequel, quand on augmente l’efficacité avec laquelle une ressource est employée, la consommation totale de cette ressource a toutes les chances d’augmenter au lieu de diminuer. Dans ces conditions, s'il s'avère que le réchauffement climatique est effectivement d'origine anthropique et nuisible au développement durable, alors la "supériorité" de l'IA est une victoire à la Pyrrhus. Peut-on alors encore parler "d'intelligence supérieure" ?
Il convient en outre d'évaluer correctement l'apport de l'IA en matière de rationnalisation énergétique, en intégrant dans les calculs la totalité des coûts directs et indirects, notamment l'énergie consommée pour fabriquer, utiliser et recycler le matériel, dont les processeurs et leur système de refroidissement.
Un processeur, c’est comme une résistance : presque toute l’électricité qu’il consomme est dissipée en chaleur. C’est pourquoi, en plus de consommer de l’énergie pour faire tourner ses serveurs, un data center doit être climatisé afin de préserver l’intégrité des circuits électroniques.
D'après une étude réalisée par Digital Power Group publiée en 2013 [source] les coûts énergétiques du numérique sont largement cachés, la partie connue n’étant que la pointe de l’iceberg. L’économie numérique de la planète consomme déjà 50% d’énergie de plus que l’aviation du monde entier. Les datacenters ne représenteraient que 20% de l’électricité consommée par les appareils et réseaux numériques, les 80% restants étant très dispersés. Selon DPG la demande d’usage des centres de données augmentera plus vite que leurs gains en efficacité énergétique. Ces tendances vont rendre nécessaire l’usage de plus de charbon, estime l’étude, qui est sponsorisée par deux organisations du secteur minier, la National Mining Association et l’American Coalition for Clean Coal Electricity [source].
Si l’on considère la totalité de son cycle de vie, le simple envoi d’un mail d’1 mégaoctet (1 Mo) équivaut à l’utilisation d’une ampoule de 60 watts pendant 25 minutes, soit l’équivalent de 20 grammes de CO2 émis. On ne s'étonnera donc pas de constater que le secteur des nouvelles technologies représente à lui seul entre 6 et 10 % de la consommation mondiale d’électricité, soit près de 4 % de nos émissions de gaz à effet de serre. Environ 30 % de cette consommation électrique est imputable aux équipements terminaux (ordinateurs, téléphones, objets connectés), 30 % aux data centers qui hébergent nos données, et 40 % aux réseaux, les fameuses "autoroutes de l‘information" [source].
Une transaction bitcoin (réseau décentralisé en chaînes de blocs) consomme 20.000 fois plus d'énergie qu'une transaction VISA (réseau centralisé).
Ces données datent de 2017, cependant si l'on considère que le progrès technologique vaut autant pour ces différentes technologies, il est alors probable que l'ordre de grandeur de ce rapport de 20.000 pour un est relativement constant. Autrement dit, il est moins déterminé par la technologie que par les business modèles.
Enfin la consommation énergétique des nouvelles technologies n’est qu’un aspect du défi environnemental qu’elles posent. Ainsi nos smartphones contiennent des dizaine de différents métaux et terres rares (or, cuivre, nickel, zinc, étain, mais aussi arsenic, gallium, germanium, thallium, tantale, indium, ...) qui sont extraits du sous-sol en utilisant des techniques particulièrement destructives et des produits nocifs pour l’environnement comme l’acide sulfurique, le mercure et le cyanure [source].
Il serait par conséquent hautement intéressant de voir si l'apparente supériorité de l'intelligence artificielle sur l'intelligence humaine/naturelle résiste à l'analyse économique, et plus particulièrement à l'aune du ratio "performance / consommation d'énergie". Pour une vitesse déterminée d'un traitement déterminé d'une quantité déterminée d'informations, l'intelligence artificielle consomme-t-elle moins, autant ou plus d'énergie que l'intelligence naturelle/humaine ?
Nous n'avons pas encore trouvé d'étude empirique à ce sujet, mais l'analyse théorique laisse peu de doutes. D'une part l'intelligence naturelle, étant le résultat d'un processus évolutif de plusieurs millions d'années, est probablement d'une efficacité redoutable. D'autre part, en raison du premier principe de la thermodynamique (la matière et l'énergie ne peuvent être créées ou détruites mais seulement transformées) la supériorité apparente de l'intelligence artificielle sur l'intelligence humaine ne peut "venir de nulle part", et doit très probablement impliquer une consommation plus élevée d'énergie.
S'il s'avère que le ratio performance/énergie de l'intelligence artificielle est effectivement inférieur à celui de l'intelligence naturelle/humaine, nous devons alors nous poser les questions suivantes :
Notons qu'il n'existe pas d'unanimité au sein du milieu scientifique quant à l'origine essentiellement anthropique du réchauffement climatique.
Nous avons évoqué plus haut la question du "comment produire" (facteurs et moyens de production). Se pose ici la question du "quoi produire" :
PIB = P x Q = ( Pb x Qb ) + ( Ps x Qs )
où Qb = volume des biens produits et Qs = volume des services produits
Par exemple on peut augmenter la production de services de consultance Qs pour apprendre à diminuer la production/consommation de biens Qb.
Cela montre bien que nous ne sommes pas nécessairement contraints à la décroissance matérielle, puisque le PIB peut mesurer également les productions immatérielles Qs, qui pourraient nous conduire à limiter voire réduire nos productions matérielles.
L'orientation prise par la société humaine dépend donc des choix opérés en matière de consommation et production. C'est pourquoi il importe de réfléchir sérieusement à la façon dont sont opérés ces choix, qui sont fondamentalement de nature politique.
Les choix politiques en matière d'enseignement et de recherche sont de plus en plus influencés voire déterminés par les grandes entreprises (moins de 0,1% du nombre total d'entreprises) et ses associations patronales (les "lobbies"), qui incitent au technologisme afin d'accaparer une part toujours plus grande des "richesses" produites (ou du moins du travail réalisé) par l'ensemble des individus.
Ce phénomène est renforcé par le conditionnement de la publicité.
Le tableau suivant montre que la télévision et la presse sont les premiers vecteurs de publicité. D'autre part les smartphones connaissent un taux de croissance exceptionnellement élevé en cette matière.
Le conditionnement que constitue la publicité non sollicitée (dans les lieux publics ou sur des applications web devenues indispensables) est incompatible avec la liberté de pensée que requiert l'implication des citoyens dans la gestion collective de la société et le respect de l'environnement.
Concernant Internet, nous recommandons non pas l'interdiction de la publicité, mais l'entrée sur le marché d'entreprises publiques nationales et confédérales pour proposer aux utilisateurs des services web sans publicité (NB : ce sera un des des avantages concurrentiels de cette offre publique) : réseau social, chaînes vidéos, ...
Le cas de l'industrie pharmaceutique
La publicité pour les médicaments est théoriquement interdite. Pourtant le budget marketing de cette industrie ‐ parmi les plus polluantes et cause majeure de la hausse des dettes publiques ‐ est supérieur à son budget R&D ! Comment cela est-il possible ? Parce que la publicité se fait non pas au niveau des consommateurs mais à celui des distributeurs que sont les médecins. En fait c'est plutôt de corruption dont il faudrait parler. Un médecin généraliste m'a confié que depuis le début de sa carrière il reçoit en moyenne chaque mois l'équivalent du salaire d'un employé de base en cadeaux divers gracieusement offerts par des sociétés pharmaceutiques : caisses de bouteilles de grands vins, vacances tous frais payés, restaurants étoilés, bons d'achats pour vêtements de luxe, etc. D'autre part les cas d'escroquerie scientifique semblent généralisés dans le secteur pharmaceutique [source, exemple]. Que les gouvernements tolèrent cette corruption ne peut s'expliquer que par leur propre corruption. La nationalisation totale et définitive du secteur pharmaceutique est donc une nécessité absolue, mais un telle mesure ne sera évidemment efficace que si l'État est réellement sous contrôle démocratique, ce qui ne peut être le cas qu'en démocratie directe ...
Nous avons mentionné plus haut que non seulement la croissance quantitative n'est pas indispensable à la subsistance d'une économie et à son développement qualitatif, mais qu'elle leur est même nuisible. Cela est important à savoir, particulièrement dans le cadre de la politique économique des États. Celle-ci est confrontée à deux défis majeurs :
Le second de ces défis est largement induit par le premier, de sorte que sa résolution requiert celle du premier. Pour ce faire l'AU est un moyen moderne et efficace.
Dans notre modèle synthétique d'AU celle-ci est financée à environ [source] :
Le schéma ci-dessous illustre la dynamique chronologique entre AUD et AUR (NB : notez que seule la flèche 1 est dans les deux sens...) :
Seul le travail est facteur/agent de production. Le capital n'est que moyen/objet de production. C'est donc la personne physique et non la personne morale qui est le référentiel.
Pour montrer le lien entre partage des richesses et préservation de l'écosystème, il nous faut introduire la notion de champs de valeur.
Si la Banque centrale était nationalisée, et l'État réellement démocratique, celui-ci pourrait alors décider de fournir l'économie en monnaie non plus via les banques commerciales mais directement via les citoyens en répartissant également entre eux la monnaie qu'elle créerait, en la versant sur leur compte bancaire (si nécessaire en nationalisant tout le secteur bancaire). Cette méthode est bien plus rationnelle que de laisser la création monétaire aux banques [Rappel : celles-ci créent (et répartissent) la monnaie via des prêts "ex-nihilo", contre intérêts, et "accordés" (sic) uniquement à qui elles souhaitent]. Or ce ne sont pas les banques mais les citoyens – clients ultimes de l'économie, mais aussi producteurs locaux – qui par leurs achats et productions locales, sont les mieux à même d'indiquer aux grandes entreprises globales (privées, mais surtout publiques) à quels types d'investissements celles-ci devraient consacrer leurs bénéfices pour développer des produits et services utiles à la collectivité et respectueux de l'environnement.
Ainsi la structure productive de nos économies serait bien plus efficace car développée, non plus en fonction des intérêts de cette infime minorité de la population que sont les actionnaires majoritaires des banques, mais bien en fonction des besoins de la majorité de la population. Il en résulterait une meilleure adéquation de l'offre à la demande de biens et services, et par conséquent une plus grande stabilité économique.
En outre l'impact écologique serait plus équilibré. En effet, dans le système économique actuel - sans allocation universelle telle que définie par nous - les populations pauvres convergent vers les zones de concentration du capital (capitalisme). La contrepartie de l'exode rurale c'est l'uniformisation des paysages par des méga-entreprises (agricoles dans les campagnes, industrielles dans les villes), ainsi que l'évincement de l'artisanat et des productions locales.
Un système monétaire fondé sur l'AU inverserait le processus : ce ne sont plus les individus qui devraient se déplacer vers le capital (migration ou navettage), mais au contraire celui-ci qui serait réparti vers les individus là où ils habitent. Ainsi en opérant une meilleure répartition géographique du capital le système monétaire participerait à :
On voit donc que l'AU permet le financement direct des circuits courts (production et consommation locales), c-à-d l'autosuffisance régionale, moins polluante que le modèle des méga-hub de production et de distribution, qui implique le transport des marchandises sur de plus longues distances, augmentant ainsi la pollution et le réchauffement climatique. Autre conséquence importante : la résilience du système économique serait ainsi accrue.
Pour une modélisation mathématique du champs de valeur voir l'article sur le financement distributif de l'AU.
Les notions d'allocation universelle et de champs de valeur sont perceptibles par tout individu durant sa vie. Mais il existe des forces à plus long terme, qui ne sont généralement perceptibles que dans les statistiques : les cycles économiques et la tendance exponentielle dans laquelle il s'inscrivent.
sur le long terme (durant les deux derniers millénaires) l'économie mondiale mesurée par le PIB/hab a crû de façon exponentielle [source]. Cependant à plus court terme on observe des cycles enchaînant périodes de croissance et de décroissance autour de la tendance exponentielle. Notons que les périodes de décroissance peuvent durer plusieurs dizaines d'années, c-à-d une bonne partie de la vie d'un homme [source].
Dans le cercle une période de récession historiquement accentuée suivie d'une période de croissance historiquement accentuée.
Nous avons vu que la tendance exponentielle serait principalement le fruit du progrès technologique. Quant aux cycles il existe diverses théories pour les expliquer, mais aucune ne nous apparaît convaincante, contrairement à l'approche thermodynamique (malheureusement ignorées par la plupart des économistes).
Nous allons voir qu'il existe une forte analogie entre cycles économiques et le cycle de Carnot. Cette analogie permet d'expliquer que la société humaine connaît régulièrement des phases de contraction, généralement caractérisées par de graves économiques et des conflits guerriers. Les phases de contraction correspondent à une transition vers un niveau supérieur en dessous duquel la société humaine ne descendra plus (PS : en termes d'information le cycle économique correspond donc à un algorithme d'apprentissage).
Il est important d'avoir conscience de ces phénomènes afin d'adapter nos politiques économiques. Malheureusement l'approche thermodynamique de l'économie est totalement absente des cursus académiques. Il en résulte une incohérence des politiques économiques (sauf hasard).
L'approche thermodynamique de la théorie des cycles économiques développée par le physicien François Roddier [source] repose sur le fait que toutes les structures dissipatives – du cyclone à la société humaine – produisent du travail mécanique en décrivant des cycles de Carnot autour d’un point critique (criticalité auto-organisée), point d’équilibre dynamique entre des forces opposées. Évoquant les travaux de Turchin et Nefedov sur les cycles séculaires, Roddier postule que dans le cas de l’économie, il s’agit d’un point d’équilibre entre l’offre et la demande : tandis que l’offre incite à la compétition, la demande incite à la coopération. Il s’en suit que, comme un moteur à quatre temps, l’économie passe par quatre phases successives appelées: dépression, expansion, stagflation et crises [source].
Roddier associe ainsi les cycles économiques à des cycles de Carnot décrits par les variables traditionnelles P, V, T, mais pour lesquels P représente un potentiel de Gibbs [source].
Le différentiel de potentiel énergétique détermine le sens et l'amplitude de propagation de l'énergie.
Ce faisant Roddier étend à l'économie la relation de Gibbs-Duhem, et à l'équilibre (état stationnaire) on a l'égalité entre la demande et l'offre [source p. 60].
le potentiel de demande (que Roddier note P par analogie avec la pression physique de Boltzmann ainsi que la pression sociale de Durkheim) correspond à la variation du flux d'énergie par unite de variation du flux de production (noté V par Roddier par analogie avec le volume) : P = ∂G / ∂V ≡ pouvoir de vente ≡ utilité de la production ≡ valeur d'usage ;
Concernant la signification des notation Δ, d, ∂ et δ voir wikipedia.org/Notations_delta_en_sciences.
le potentiel d'offre (que Roddier note T par analogie avec la température) correspond à la variation du flux d'énergie par unité de variation du flux monétaire : T = ∂G / ∂$ ≡ pouvoir d'achat ≡ richesse ≡ valeur d'échange.
Partant de l'équation des gaz parfaits (PV = RT où R est une constante) Roddier postule que « l’analogue économique d’un gaz parfait serait une ensemble d’agents indépendants procédant à des échanges commerciaux au cours de rencontres fortuites : de même que les molécules d’un gaz parfait ne sont pas liées entre elles, de même les agents d’une telle économie agissent indépendamment les uns des autres. D'autre part, appliquée à la production économique, la relation des gaz parfaits implique un potentiel économique P d’autant plus grand que le volume V de la production est plus faible » (...).
« De même que l’équation d’état des gaz parfaits s’applique aux températures élevées, de même elle s’applique aux économies d’abondance. On sait que l’équation d’état des gaz réels diffère de celle des gaz parfaits d’autant plus qu’on se rapproche des températures auxquelles le gaz se condense et devient liquide. Dans ces conditons, les molécules suffisamment proches peuvent s’attirer, créant des liaisons temporaires » [source].
La figure suivante montre la surface de van der Waals illustrant les transitions de phase entre les états liquide et gazeux. « Les zones sombres indiquent les régions de la surface pour lesquelles deux phases différentes subsistent en présence l’une de l’autre: solide et liquide (S+ L), solide et gaz (S + G), ou liquide et gaz (L + G). (...). Dans le plan (P,V), les isothermes rendent bien compte de l’existence d’un point critique en dessous duquel le gaz peut devenir instable et se condenser en une phase liquide et une phase vapeur » [source].
La figure suivante est identique à la précédente, mais tournée de 90° dans le sens anti-horlogique. Les trois axes de coordonnées sont toujours P, T, V maintenant désignés sous leur appellation économique de demande, offre et production. La production économique étant une grandeur extensive, celle-ci est maintenant portée sur un axe vertical en fonction des deux grandeurs intensives que sont l’offre (vers l’arrière) et la demande (vers la gauche). Les courbes dites "isothermes" sont les lignes le long desquelles l’offre reste constante. Le cercle autour du point critique représente un cycle économique arbitraire. « Projetée dans le plan production/demande, son aire représente l’énergie dissipée au cours d’un cycle (celle-ci étant positive, la rotation a nécessairement lieu dans le sens des aiguilles d’une montre) » [source].
Ainsi l'économie oscille constamment autour d'un point critique avec une amplitude inversement proportionnelle à la fréquence (de même que dans un couloir à avalanches il y a beaucoup de petites avalanches, de temps en temps des plus grosses, exceptionnellement des très grosses). La thermodynamique nous enseigne qu'aux points critiques se produisent des phénomènes de condensation comme le brouillard appelé "opalescence critique". Dans le cas des sociétés humaines, ce sont les richesses qui se condensent. Liées aux avalanches, les inégalités de richesses se répartissent suivant une loi de puissance ("the winner takes all") : les échanges commerciaux ne se développent plus qu'entre les riches qui eux seuls continuent à s'enrichir. Mise en évidence au XIXe siècle par l’économiste italien Vilfredo Pareto, cette loi est connue sous le nom loi de Pareto ou loi 80-20. Elle implique qu’environ 80% des richesses sont possédées par 20% de la population [source].
On pourrait songer à limiter l'amplitude des effondrements en maintenant constamment l'économie au voisinage du point C, mais plus on s'en approche, plus les différences de température économique diminuent au cours d'un même cycle et plus le rendement de Carnot devient faible. Selon Roddier un solution consiste en la mondialisation des échanges, ce qui a pour effet d'accroître le rendement de l'économie, par synchronisation des productions ... ce qui a aussi pour effet de la fragiliser (effet domino au-delà d'un seuil d'interconnectivité optimale) [source p. 122].
« Lorsqu’on pénètre dans la zone sombre, la classe moyenne s’effondre, laissant en présence deux économies distinctes, celle des gens riches et celle des gens pauvres [source]. L’économie se sépare en deux phases, une économie de gens pauvres et une économie de gens riches sans interactions entre elles. L’effondrement de la production s’interprète alors par le fait que les gens pauvres ne peuvent plus acheter ce que produisent les gens riches. Peu à peu l’ensemble de la population s’appauvrit » [source].
On distingue alors l'équivalent des quatre cycles de transformation "pression <--> travail" qui constituent le mécanisme fondamental de la machine à vapeur :
Machine à vapeur de Newcomen
1. Dépression. « Contrairement à ce que son nom semble indiquer, la phase de dépression économique correspond à celle où le fluide est le plus dense (demande forte). Sa température est initialement basse (offre faible), mais elle augmente progressivement (l’offre croit). Dans le cas d’une machine à vapeur, il s’agit d’eau liquide qu’on fait bouillir. C'est durant cette phase que se concentrent les innovations.
2. Expansion. La phase d’expansion économique correspond à la phase motrice durant laquelle la vapeur chaude arrive provoquant le mouvement du piston. Le volume du cylindre (production économique) augmente tandis que la pression de la vapeur (demande) diminue.
3. Stagflation. La phase de stagflation correspond à celle où le piston arrive en bout de course. La pression (demande) a fortement diminué, tandis que la température (offre) tend à baisser, sans toutefois que la vapeur puisse se condenser.
4. Crise (phase de transition). Mais, sans condensation, il est impossible de ramener le piston à son point de départ, c’est-à-dire de fermer le cycle ». Pour répéter l’opération afin de fournir continuellement un travail moteur, le système Newcomen refroidit le cylindre pour condenser la vapeur [source].
Selon Roddier la dynamique des fluides s'applique également à l'économie. Le nombre de Reynolds (R) est une valeur sans dimension dont l'augmentation correspond à un écoulement turbulent d'un fluide dans un tuyau :
R = u * L / v où
Ainsi si l'on constate une augmentation des flux d'énergie et des échanges commerciaux (ce qui est le cas), alors pour éviter les turbulences des flux économiques c-à-d empêcher une augmentation de R, et donc préserver la stabilité économique, il faut nécessairement accroître la cohérence entre les individus, notamment en réduisant la compétition entre eux au profit de la collaboration, ce qui implique d'accroître la redistribution des richesses [source p. 161].
Cette règle détermine la direction à suivre mais ne dit rien quant à la mesure c-à-d la distance à parcourir dans cette direction. Il reste donc à déterminer le point à ne pas dépasser (appelé point critique).
Roddier montre que, comme tout moteur thermique, l'écosystème, les organismes vivants et la société humaine sont fondamentalement instables et ne perdurent que grâce à des mécanismes de régulation. Ainsi le pancréas régule notre consommation de glucose grâce à deux hormones ayant des actions opposées, l’insuline et le glucagon. Cela entraîne le phénomène d'homéostasie.
De même, poursuit le physicien, il faudrait contrôler le flux d'énergie dissipée par l'humanité de façon à rester constamment au voisinage du point critique. Ainsi une politique monétaire optimale devrait viser à maintenir la température de l’économie au point critique [source]. Celui-ci correspond à un juste équilibre entre l'intérêt des individus et celui de la communauté. Ce faisant, on limiterait les inégalités sociales, conciliant au mieux les trois désirs de liberté, d'égalité et de fraternité qui ont inspiré la révolution française et sont devenus la devise de sa république » [source].
D'autre part, il importe donc de savoir où l'on se trouve au niveau cyclique. « Une société humaine se trouve ainsi dans des situations économiques très différentes suivant la phase du cycle qu’elle traverse. Selon l’époque à laquelle il vit, un économiste va décrire des faits bien différents. Il pourra même aboutir à des conclusions opposées de celles qu’il aurait tirées s’il avait vécu dans une économie de phase opposée ». Ainsi Adam Smith, théoricien du libéralisme économique, « a vécu en Angleterre dans une phase d’expansion. Il était donc naturel qu’il décrive une économie d’expansion. Il se trouve que c’est la plus simple car, située au dessus de la température critique, ses lois s’apparentent à celles des gaz parfaits. Sans savoir qu’il s’agit des lois de la mécanique statistique, Adam Smith les attribue à une "main invisible" qui fait que l’intérêt de chacun coïncide avec l’intérêt général. Il en déduit un peu hâtivement qu’il s’agit d’une loi générale de l'économie.
Les mathématiciens savent qu'on ne peut optimiser un ensemble en optimisant individuellement chacune de ses parties. Les principes du libéralisme économique sont donc viciés à la base. Il est facile de s’en rendre compte en considérant une économie dans la phase opposée, pour laquelle la "température économique" est en dessous du point critique.
Nous avons vu que c’est une économie de crises durant laquelle la société passe brutalement de l’abondance à la pénurie et s’endette. Karl Marx a connu une telle phase et l’a décrite mieux que tout autre. Il est clair qu’en période de pénurie, découvrir une source de biens matériels, sans la partager avec les autres, satisfait l’intérêt particulier sans satisfaire l’intérêt général, ce qui contredit Adam Smith. Même les insectes le savent et partagent entre eux l’information !
(...) Restent enfin les deux phases intermédiaires que sont la dépression et la stagflation. Elles sont souvent confondues car toutes deux sont des phases de stagnation de l’économie. La première est une phase de stagnation dans la pénurie tandis que l’autre est une phase de stagnation dans l’abondance. Si l’on cherche à affecter le nom d’un économiste à ces phases, le nom de John Maynard Keynes vient immédiatement à l’esprit. Il a traversé et théorisé la grande phase de dépression de 1929. L’apport essentiel de Keynes a été de montrer que l’économie ne s’auto-régule pas comme on le croyait jusque là et qu’une intervention gouvernementale peut être nécessaire. Il n’a malheureusement pas distingué clairement la dépression de la stagflation ».
Surface de van der Waals décrivant l'équation d'état d'un cycle économique. Plus l'économie se mondialise plus le cycle s'agrandit --> plus la période de crise est importante [source].
Un simple regard à la surface de van der Waals montre la politique à adopter :
Roddier note que c’est ce qui a été réalisé avec succès après la dernière guerre mondiale en créant la communauté européenne du charbon et de l’acier.
Par méconnaissance de ces principes les décideurs économiques ont souvent tendance à ré-appliquer les méthodes qui ont eu du succès dans une certaine phase de l’économie à une phase qui est maintenant son opposée.
« L’Amérique du Nord et à sa suite l’Europe sont aujourd’hui en stade de stagflation. Un coup d’œil à la surface de van der Waals montre qu’on ne peut maintenir la croissance économique qu’en longeant la falaise de Sénèque de plus en plus loin du point critique. C’est ce qu’on fait en internationalisant l’économie. C’est ce à quoi conduira tout traité transatlantique. Mais plus on s’éloigne du point critique plus la hauteur de la falaise augmente et plus la chute sera catastrophique.
Or cette chute est inévitable, car nos ressources actuelles en énergie s’épuisent. Il serait donc beaucoup plus sage de régionaliser l’économie, mais cela implique une décroissance économique, donc des dettes à résorber. Peu d’économistes sont prêts à l’accepter, encore moins à le suggérer. Rappelons seulement que les romains se sont trouvés devant la même situation. Ils n’ont pu maintenir leur économie qu’en étendant continuellement leur empire. On en connait le résultat. L’occident à mis des siècles à s’en remettre. Cette fois l’effondrement risque d’être beaucoup plus grave car la taille des populations et des énergies mises en jeu sont beaucoup plus importantes » [source].
Nous avons évoqué supra les modes de production "yin" et "yang". Selon le physicien François Roddier l'application de ce principe de complémentarité au système monétaire implique deux types de monnaie :
une monnaie "yang" pour les ressources matérielles (biens) et/ou "non-renouvelables" (pétrole, forêts, ...), qui sont des ressources de type "stock" ;
une monnaie "yin" pour les ressources immatérielles (services) et/ou renouvelables (énergie solaire, ...), qui sont des ressources de type "flux".
Ainsi par exemple les voitures s'achèteraient / se vendraient en monnaie "blanche" mais se loueraient en monnaie "noire" --> voyez l'effet de la relation entre l'évolution de la demande de voiture en location vs achat, et l'évolution du cours de change noire/blanche ...
Les fondements thermodynamiques de ce système bi-monétaire sont les suivants :
Pour François Roddier une monnaie "yin" « est nécessaire pour refermer le cycle économique, comme une source froide est nécessaire pour refermer le cycle de Carnot » [source]. « L’usage de deux monnaies différentes dont on peut faire varier le taux de change, permet d’ajuster la barrière de potentiel économique qui sépare deux économies, comme un régulateur ». Selon Roddier on pourrait procéder « en conservant la monnaie en euros (yang) pour l’achat de biens matériels, et en utilisant une nouvelle monnaie (yin) pour la nourriture, les salaires et les services » [source].
Et de même que les systèmes biologiques ago-antagonistes nécessitent deux hormones (insuline et glucagon) pour réguler le taux de glucose dans le sang, les systèmes économiques ago-antagonistes requièrent deux monnaies : une pour la production et une pour les services [source]. Cela permet d'assurer une transition continue entre des économies (...) différentes, et ainsi éviter une transition abrupte. Cela s’applique aussi bien aux transitions irréversibles (N.d.A. : évolution) telles que le passage d'une économie fondée sur des énergies fossiles à une économie fondée sur des énergies renouvelables, qu'aux transitions réversibles (N.d.A. : cycles) telles que le passage d’une économie de marché à une économie collaborative. Les salaires peuvent être versés dans l’une ou l’autre monnaie suivant l’origine des revenus. Ils peuvent en particulier être mixtes. L’évolution se fait de façon continue par variation du taux de change entre les deux monnaies. En outre on peut facilement distinguer les deux régimes par des taxes ou des impositions différentes ». [source].
Les lois de la thermodynamique et la biologie conduisent ainsi au concept d’économies ago-antagonistes associées à des monnaies distinctes :
Une économie de production de type libérale , liée à une monnaie générale (ex .: l’euro) et à la mondialisation. Elle correspond biologiquement au système orthosympathique.
Une économie de services de type nationale , liée à une monnaie propre et à la démondialisation . Elle correspond biologiquement au système parasympathique [source p. 41].
Espace et temps. Concernant la problématique de la réforme vers un système multi-monétaire il convient de distinguer la dimension temporelle (yin/yang) de la dimension spatiale (locale/nationale) :
L'on pourrait ainsi concevoir un système multi-monétaire composé de :
Temps → ↓ Espace | Yin | Yang |
---|---|---|
Nationale | une monnaie nationale yin | une monnaie nationale yang |
Locale | des monnaies locales yin et/ou yang |
Question : le modèle suivant est-il utile et réaliste ? :
Temps → ↓ Espace | Yin | Yang |
---|---|---|
Nationale | une monnaie nationale yang | |
Locale | des monnaies locales yin |
Cependant dans notre article consacré à la théorie relative de la monnaie, la section comparant monnaies symétriques décentralisées (MSD ici, "monnaies libres" dans la dénomination de la TRM) et monnaie symétrique centralisée (MSC), montre que les premières sont soumises à certaines limitations, et en particulier le fait qu'elles conduisent tôt ou tard à une asymétrie spatiale entre utilisateurs, relativement à leur situation dans un système MSC. Cela remet sérieusement en question la pertinence des monnaies libres.
Enfin pour synthétiser la problématique de façon exhaustive il convient d'ajouter la notion de monnaie complémentaire internationale c-à-d commune à l'ensemble des États : voir "confederation-etats-souverains#devise-internationale".
Selon nous il convient de concevoir les trois dimensions spatiales du système monétaire global dans l'ordre suivant : (i) nationales ; (ii) locales ; (iii) internationale. En effet, les monnaies locales doivent être subordonnées à la monnaie nationale (notamment en raison de la lutte contre l'évasion fiscale), et la devise internationale devrait être conçue comme une monnaie confédérale (dans la mesure où nous voulons éviter la dérive totalitaire d'un gouvernement mondial). L'excès nuisant en tout, la voie du milieu devrait être dominante.
Ainsi au travers de son financement distributif, l'AU du modèle synthétique constitue un élément essentiel du développement durable. Elle participerait à un changement de paradigme économique en (re?)donnant la primauté au "mieux" (qualitatif, simplicité, spiritualité) sur le "plus" (quantitatif, complexité, matérialisme).
Nous analysons ici la quadruple thèse d'un (i) réchauffement, (ii) anthropique, (iii) catastrophique et (iv) opérant via le CO2.
.1. MesuresD'après de nombreuses analyses statistiques, on observerait depuis une centaine d'années le plus rapide réchauffement climatique des deux derniers millénaires. En 2016, l'écart moyen par rapport à la température moyenne de la Terre (environ 15°) était d'environ +0,8% (cf. étoile sur le graphique).
Variation climatique sur 2.000 ans
Les courbes colorées représentent les estimations de diverses sources, et la courbe noire leur moyenne [source].
Le graphique ci-dessus doit cependant être interprété avec la plus grande prudence, car il compare des valeurs mesurées (période depuis 1850, ligne noire) avec des valeur calculées par des modèles mathématiques (période avant 1850). Autrement dit, les mesures avant 1850 peuvent être considérées comme des séries lissées, contrairement aux mesures post 1850. Il en résulte que l'exceptionnalité du pic observé sur les dernières décennies pourrait être une illusion.
Ainsi – comme suggéré par le graphique suivant, qui remonte à douze mille ans, et ne concerne que les données "lissées" – le niveau actuel de réchauffement climatique pourrait s'être déjà produit, durant plusieurs périodes au cours des douze derniers millénaires, de sorte qu'il n'est pas certain que le réchauffement actuellement observé soit essentiellement provoqué par l'activité humaine (réchauffement "anthropique").
Variation climatique sur 12.000 ans
Les courbes colorées représentent les estimations de diverses sources, et la courbe noire leur moyenne [source].
Principes élémentaires et limitations des modèles mathématiques (climat)
Les valeurs calculées du climat des millénaires passés reposent généralement sur des mesures actuelles – notamment les cernes des arbres et les carottes de glaces – qui servent de variables d'entrée ou de paramètres pour ces modèles mathématiques.
Ainsi dans le modèle élémentaire yt-n = a * xt + b :
Le problème est que l'on peut faire dire quasiment ce que l'on veut à un modèle (valeur des variables de sortie), selon les choix des modélisateurs concernant le nombre, la nature et les valeurs des variables d'entrée et des paramètres. C'est pour cette raison que les modélisateurs présentent généralement une série de résultats possibles, des "scénarios" allant du "plus optimiste" au "plus pessimiste". Il existe ainsi un marché des études scientifiques, dont les résultats peuvent être commandités par le client. Une manipulation fréquente d'études commanditées est que le scénario présenté comme "le plus optimiste" (/pessimiste) est en réalité relativement pessimiste (/optimiste), afin d'enfermer le lecteur dans un cadre cognitif déterminé par le commanditaire.
En raison de leur nature simplificatrice, les modèles mathématiques sont des outils très utiles pour l'enseignement (présentation des principes élémentaires) et la recherche fondamentale (structuration de l'analyse), mais dont l'usage a été détourné, parfois abusivement, pour remplacer la mesure de phénomènes naturels par le calcul. La motivation n'est pas nécessairement politique : ainsi la mesure directe peut-être impossible (cas des phénomène passés ou à venir) ou trop coûteuse. Mais dans les deux cas, il faut faire preuve d'une grande prudence dans l'estimation de la valeur informationnelle des variables de sortie, et particulièrement dans le cas des phénomènes dont la nature même – représentée par les valeurs constantes attribuées aux paramètres – n'est pas stable dans le temps.
Le recul des glacier est souvent évoqué comme "preuve" tangible de la nature anthropique du réchauffement. Le problème c'est que ce recul est inférieur à celui déjà observé durant la période 1850-1940, c-à-d avant l'accélération des émissions de CO2 [source].
François Gervais, expert reviewer des rapports AR5 et AR6 du GIEC, attire l'attention sur le fait que ce rapport omet certaines données importantes (cf. infra) et d'autre part interprète de façon tendancieuse les données qu'ils mentionnent, voire tire des conclusions opposées à celles-ci [source]. Ce dernier cas est illustré par le graphique ci-contre, montrant que les modèles de climat (CMIP5) ont prévu des températures deux à dix fois supérieures aux températures finalement observées (HadCRUT4) [source p. 63] !
La valeur d'un phénomène physique peut être soit mesurée (par des instruments de mesure) soit calculée (par un modèle mathématique). Un modèle peut être utilisé soit comme substitut à la mesure (généralement plus coûteuse) ou pour la prévision. Dans un cas comme dans l'autre, la qualité de ces simulations est fonction notamment de la stabilité temporelle et spatiale des paramètres du modèle : moins les paramètres sont stables, plus les simulations sont imprécises. C'est pourquoi les prévisions sont généralement présentées sous formes de différents scénarios correspondant chacun à une valeur de paramètre, généralement estimations "haute", "moyenne" et "basse" (cf. notion de "marges d'incertitudes"). Dans ces conditions on peut faire dire quasiment tout et son contraire à un modèle. Ainsi dans le cas des modèles climatiques, il suffit d'attribuer une valeur haute au paramètre "sensibilité climatique" et/ou une valeur basse au paramètre "aérosols" pour obtenir des "prévisions" hautes du "réchauffement climatique" [source1, source2].
Dans ces conditions il est extrêmement inquiétant que de nombreux lecteurs d'articles scientifiques ne distinguent pas valeurs mesurées et valeurs calculées. Cette confusion est d'ailleurs parfois sciemment entretenue par les auteurs. On notera à cet égard que le catastrophisme climatiste se fonde essentiellement sur des données calculées, et non pas sur des données mesurées.
Effet papillon. À l'instabilité des paramètres climatologiques s'ajoute un autre phénomène : la sensibilité aux conditions initiales. Ainsi les chercheurs du National Center for Atmospheric Research (NCAR) ont simulée quarante fois l'évolution du climat sur la période 1920-2100 en changeant à chaque fois la température initiale de moins d'un trillionième de degré (10-12) dans leur modèle CESM. Résultat : on n'observe aucune ressemblance entre les simulations [source] ! Dans ces conditions les prévisions à long terme sont impossibles [source].
La variabilité naturelle étant ainsi démontrée aussi bien empiriquement que théoriquement, quelle est la pertinence de la notion de "dérèglement climatique" chère au GIEC ?
On ne s'étonnera donc pas que les mesures par satellites révèlent un échauffement des tropiques limité à 0,1°C par décennie, soit beaucoup moins qu'annoncé par les modèles du GIEC [source].
Et là on suppose que ces modèles sont cohérents. Mais le sont-ils seulement ? Ainsi les modèles relatifs à la surface de la banquise sont incapables de reproduire l'évolution passée des banquises, et ont des marges d'incertitudes telles qu'ils peuvent produire des prévisions absurdes de superficie ...négative (!) à partir de 2050 [source] ?
Dans la section suivante nous allons étudier trois causes probables du changement climatique.
Le climat terrestre change constamment, sous l'effet de cycles naturels. Cela était évidemment déjà le cas avant l'apparition de l'homme. Une partie importante de la communauté scientifique affirme que l'activité humaine aurait atteint une telle ampleur depuis l'ère industrielle que sont impact sur le climat, et en particulier sur la température terrestre, serait devenu plus déterminant que les cycles naturels.
.2.1. Les cycles naturelsLe climat terrestre a toujours été variable. Ainsi bien avant l'ère industrielle, la Terre pourrait avoir connu des périodes plus chaudes qu'actuellement.
Variation climatique sur 12.000 ans
Les courbes colorées représentent les estimations de diverses sources, et la courbe noire leur moyenne [source].
Cette variabilité serait le fait de divers cycles naturels – solaire [source], planétaires [source] et océanologiques [source] – se distinguant notamment par leurs fréquences et amplitudes.
Climat vs météo. Certains scientifiques font une distinction entre climat, notion à grande échelle spatio-temporelle, et météo, notion à petite échelle temporelle, qui connaît elle aussi une variabilité :
• dans l'espace latitudinal : en été l'écart moyen entre le sud et le nord de la France atteint 7°;
• dans le temps saisonnier : en France, le différentiel de température moyenne entre l'hiver et l'été est d'environ 15°.
Dans le graphique suivant, les données HadCRUT (records de températures enregistrée à la surface terrestre) révèlent des cycles de 60 ans [source], inscrits dans d'autres cycles. Selon J.-E. Solheim, le réchauffement climatique récent peut être interprété comme une branche ascendante d'un cycle millénaire, identifiée dans les carottes de glace et les sédiments et également enregistrée dans l'histoire. Ce cycle culminerait dans la seconde moitié du 21° siècle, puis une tendance au refroidissement de 500 ans commencerait. Enfin un grand minimum solaire attendu en raison d'un cycle de 200 ans introduirait un refroidissement supplémentaire dans la première partie de ce siècle [source].
Selon Gervais, la modélisation par cycles naturels reproduit mieux les données observées (température, niveau des océans, superficie de la banquise) que les modèles mathématiques du GIEC.
Cycles naturels et niveau des océans
NB : hausse d'environ 20 cm entre 1900 et 2000 Source p. 126-127
La thèse de la détermination essentiellement anthropique du climat repose sur l'effet de serre, un phénomène naturel (*), qui depuis le 20° siècle serait amplifié par l'activité humaine, et par lequel celle-ci serait devenue le principal déterminant du climat terrestre.
(*) Sans cet effet de serre – principalement causé par la vapeur d'eau – la température moyenne à la surface terrestre serait de seulement -18°. Grâce à l'effet de serre de la vapeur d'eau cette température est de 15°. Nous verrons cependant que certains scientifiques contestent la réalité de l'effet de serre.
La thèse anthropique est à priori peu crédible lorsque l'on constate que la chaleur dégagée par la combustion de charbon, de gaz ou de pétrole ne représente que 0,03 W/m2 ... contre 342 W/m2 du flux solaire rentrant (NB : 0,03/342=0,009 %) [source p. 62-63]. Pourtant, grâce à un très puissant lobbying soutenu par les green hedge funds, la thèse du réchauffement est devenue un véritable dogme ... dont nous allons analyser ici la crédibilité.
La variable théorique de base de l'effet de serre est la "sensibilité climatique au CO2", c-à-d l'augmentation de température résultant d'un doublement du taux de CO2 dans l'air.
NB : si l'on suppose que le taux de CO2 atmosphérique continue d'augmenter au rythme observé en moyenne entre la fin des années 1990 et la fin des années 2020, soit en moyenne 2 ppm/an (hors fluctuations El Niño), alors étant donné le taux de 410 ppm observé à la fin des années 2020, le doublement serait atteint vers l'année 2160.
Plus généralement il s'agit de l'évolution de la température de l'atmosphère terrestre en réponse à un forçage radiatif donné. La fourchette d'estimation de la sensibilité climatique au CO2 par le GIEC est passée de 1,5°–4,5° (AR5, 2014) à 2,5°–4° (AR6, 2021). Dans les années 1970 – époque à laquelle la revue Nature anticipait un ... âge glaciaire [Nature, 6 mars 1975], et cela malgré que le monde connaissait depuis 25 ans la plus forte croissance économique de tous les temps – Rasool et Scheider estimaient la sensibilité climatique à 0,8° [source]. Près de cinquante ans plus tard plus d'une centaine de travaux scientifiques l'estiment toujours inférieure à 1° [source dont source1, source2].
Le graphique suivant montre que les estimations de la sensibilité climatique au CO2 (transitoire:TCR et d'équilibre:ECS) est à la baisse depuis le début des années 2000, ce qui suggère que la thèse climatiste s'étiole progressivement devant la réalité des faits.
Une façon de le calculer [source p. 103], à partir de
ΔF / F = 4 ΔT / T où :
• F = 240 W/m2 est le flux thermique moyen émis par la Terre vers l'espace ;
• ΔF = 2,6 W/m2 est déduit du spectre infrarouge pour un doublement du CO2 ;
• T = 288 est la température moyenne de la Terre (15°C + 273K) ;
de sorte que :
ΔT = ΔF / F * T / 4 = 2,6 / 240 * 288 / 4 = 0,78°C
On notera un graphique de même type concernant la contribution des océans au forçage radiatif, suite à l'amélioration de la précision des mesures.
Source p. 86
On notera à cet égard les résultats de cette étude publiée en 2020 et montrant que les océans se révèlent une "pompe de carbone" beaucoup plus efficace qu'on ne l'imaginait [source].
Le site web créé par la Nasa (l'agence spatiale États-unienne) pour convaincre l'opinion publique de "l'évidence" du réchauffement climatique et de son origine anthropique, semble montrer que l'activité solaire ne serait plus le principal déterminant de la température terrestre, et que l'activité humaine serait devenue plus déterminante que le soleil ! Ainsi le graphique suivant montre que depuis la fin des années 1970, la corrélation entre émissions solaires (jaune) et variation de la température terrestre (rouge) a disparu.
On est évidemment tenté de déduire du graphique précédent que le réchauffement climatique observé depuis 1970 n'est pas lié à l'activité solaire.
Cependant la Nasa est-elle crédible ? Le graphique suivant confirme la thèse selon laquelle Nasa fonctionnerait plus comme une agence de propagande US que comme une agence spatiale (les probables raisons seront étudiées plus loin). On y voit ainsi que le différentiel de température entre les décennies 1890 et 1980 a été progressivement élevé de 0,35° à 0,9°, tentatives récurrentes de faire coller les données "mesurées" à celles calculées par les modèles climatiques.
Nous avons documenté la réalité de la manipulation d'analyses statistiques scientifiques, en l'occurrence dans le domaine des énergies "vertes", les auteurs justifiant la manipulation (en l'occurrence, par omission de données) au nom de "l'éthique" (sic), ce qui est un terme politiquement correct pour "idéologique" : cf. infra science-vs-ideologie.
Source p. 89
On notera la différence entre les données HadCRUT (cf. section précédente), qui révèlent une hausse de 0,4° de la température moyenne de la Terre entre 1945 et 2013, alors que selon la Nasa cette hausse serait de 0,9°.
D'autre part la Nasa a été prise en flagrant délit de mentionner des mesures dont l’erreur estimée est supérieure à la mesure elle-même, ce qui doit logiquement classer la mesure comme non pertinente [source]. En conclusion, la crédibilité des documents "scientifiques" de la Nasa doit être considérée comme très faible.Étant donné ces manipulations des statistiques de température, on peut donc légitimement se demander quelle est la validité de la relation activité humaine ⇒ effet de serre ⇒ réchauffement climatique :
Des études suggèrent que les émissions de gaz à effet de serre par la combustion d'énergies fossiles (gaz et charbon) dans les processus de production (usines, ...) et de consommation (automobiles, avions, ...) seraient aujourd'hui nettement supérieures à la production naturelle de CO2 (laquelle est notamment le produit de phénomènes géologiques tels que les volcans et les cheminées hydrothermales, qui émettraient 645 millions de tonnes/an : source).
L'émission de CO2 par la combustion d'énergie fossile dans les processus de production d'énergie et de ciment serait de 35 milliards de tonnes/an en 2019 [source].
Cependant, corrélation n'est pas nécessairement causalité. Même s'il s'avère que la quantité de gaz à effet de sert produite par l'activité humaine est devenue supérieure à celle produite par la nature, cela n'implique pas pour autant que l'activité humaine serait le facteur le plus déterminant dans le réchauffement climatique. Ainsi le graphique suivant montre l'augmentation du taux de C02 dans l'air : il augmente, certes, de 310 ppm à 420 ppm entre 1960 et 2020, soit de 0,03 % à 0,04 % ... ⇒ est-il pertinent d'attribuer l'augmentation de 500 % de la variation de température (1/0,2) à une augmentation de 33% d'un taux de 0,03 % ?
Notons que le passage de 0,03% à 0,04% entre 1960 et 2020 suggère que la part anthropique dans la concentration de C02 serait de (4-3)/4=25%. Une étude de 2017 estime à 15% la part anthropique de l'accroissement du taux de CO2 durant l'ère industrielle, et à 4% sa part dans la concentration actuelle [source].
Il reste à multiplier ces pourcentages par celui de la part du C02 dans le réchauffement climatique pour obtenir les estimations correspondantes de la part anthropique du réchauffement. Mais dans quelle mesure le CO2 contribue-t-il aux variation de la température terrestre ? Autrement dit, l'effet de serre influe-t-il significativement sur la température terrestre ?
Dans son cinquième rapport (2013-14 - ipcc.ch) le GIEC estime la valeur du forçage radiatif entre 1 et 3 W/m2 [source, p. 14]. François Gervais souligne que, soit un forçage radiatif de 2,2 W/m2, et en admettant provisoirement que la totalité de l'augmentation de CO2 dans l'air serait imputable à l'activité humaine, et continuerait d'augmenter de 2 ppm par an (rythme observé en moyenne depuis la fin des années 1990, hors fluctuations El Niño), la contribution du surcroît de CO2 au réchauffement d'ici 2100 ne dépasserait alors pas :
288/4 * ln( ( 414 ppm + 2 ppm * 80 ans) / 414 ) * 3,75 /238 ≈ 0,4° [source1 p. 110 ; source2 p. 104] où :
• 288 : température moyenne de la Terre (15°C + 273K) ;
• 414 ppm : concentration en CO2 (2020) ;
• 3,75 : facteur multiplicatif utilisé pour calculer le forçage radiatif ΔF= ? * ln(C/C0) ⇒ 2,6=3,75*ln(2) ;
• 238 W/m2 : flux thermique moyen émis vers l'espace.
On notera en outre que +0,4°C sur 80 ans, c'est très petit relativement à la variabilité naturelle du climat :
• dans l'espace latitudinal : en été l'écart moyen entre le sud et le nord de la France atteint 7°;
• dans le temps saisonnier : en France, le différentiel de température moyenne entre l'hiver et l'été est d'environ 15°.
D'autre part, évoquant le fait que la spectrométrie infrarouge livre des informations utiles sur les fréquences spécifiques auxquelles opère l'absorption du rayonnement thermique par les gaz de l'atmosphère, Gervais s'étonne que, malgré sa recommandation, le rapport du GIEC ne mentionne pas le spectre infrarouge de l'atmosphère et son évolution en fonction du taux de CO2 atmosphérique ... [source p. 56-57]. Selon Gervais, la raison de cette censure est que le spectre infrarouge du CO2 (dont on déduit son flux radiatif) présente une variation extrêmement faible relativement à celle du taux de CO2 de sorte que l'écart radiatif déduit du spectre infrarouge aboutit à une sensibilité inférieure à 1° [source p. 66]. Ainsi au rythme actuel d'augmentation du CO2 sa contribution à la température terrestre n'excéderait pas +0,15° d'ici 2050. S'y ajouteront, ou s'en retrancheront, des contributions naturelles. [source].
L'effet de serre est-il crédible ? On notera que certains scientifiques contestent la validité de la théorie de l'effet de serre. Ainsi par exemple une étude examine le concept de « gaz à effet de serre » et diverses définitions du phénomène connu sous le nom d’« effet de serre radiatif atmosphérique ». Les six descriptions les plus citées sont les suivantes : (a) rayonnement piégé entre la surface de la Terre et son atmosphère ; (b) la couverture isolante de l'atmosphère qui maintient la Terre au chaud; (c) le rayonnement de retour de l'atmosphère vers la surface de la Terre; (d) les gaz absorbant l'infrarouge qui entravent le refroidissement radiatif et maintiennent la surface plus chaude qu'elle ne le serait autrement – connu sous le nom de "otherwise radiation" ; (e) les différences entre les températures de surface réelles de la Terre (telles qu'observées également sur Vénus) et celles fondées sur des calculs ; (f) tout gaz absorbant le rayonnement infrarouge émis depuis la surface de la Terre vers l'espace libre. Cette étude affirme « qu'aucune des descriptions ci-dessus ne peut résister aux rigueurs de l'examen scientifique lorsque les lois fondamentales de la physique et de la thermodynamique leur sont appliquées » [source].
NB : le principal gaz à effet de serre n'est pas le CO2 mais ... la vapeur d'eau, pour 72%.
Ces analyses théorique sont confirmés par des études empiriques. Ainsi les fluctuations de l'augmentation annuelle de CO2 présentent un ... retard de six à onze mois sur les fluctuations de température [source]. La relation Température ⇒ CO2 s'expliquerait par le fait que l'augmentation de température diminue la solubilité du CO2 dans l'eau, et partant stimule l'émission de CO2 par les océans (qui contiennent 60 fois plus de CO2 que l'atmosphère).
Cette corrélation inversée (par rapport à la doctrine du GIEC) entre température et CO2 (que, souligne Gervais, le rapport du GIEC a fait disparaître au moyen d'une moyenne de cinq ans) est observée sur les dernières décennies. Une estimation sur les 240.000 dernières années suggère un retard de plusieurs siècles du CO2 sur la témpérature [source]. Enfin sur les temps très longs de l'histoire de la Terre (milions d'années) – où par ailleurs les fluctuations de température vont de +4° au-dessus à -6° en-dessous de la température moyenne actuelle, sous l'effet de fluctuations de l'activité solaire – la corrélation disparaît [source].
Le ΔCO2 est-il anthropique ? On complétera utilement les faits ci-dessus à une nouvelle donnée que nous révèle la crise de la covid-19 : alors que le monde a connu la plus grave dépression économique depuis la seconde guerre mondiale, on observe pas d'effet sur la tendance du taux de CO2 dans l'atmosphère, ce qui suggère que l'activité humaine n'expliquerait pas l'évolution tendancielle du taux de CO2 atmosphérique !
Sur une échelle de temps en millions d'années, le taux actuel de CO2 dans l'atmosphère est non pas à son plus haut, mais ... quasiment au plus bas ! Ainsi il y a environ 50 millions d'années, le taux était environ le double de ce qu'il est aujourd'hui, ... et la température certes plus élevée de 5 à 6 degrés, mais tout cela sans intervention humaine (le genre humain n'étant apparu qu'il y a deux cents mille ans), et sans interruption du processus de la vie ! Le réchauffement actuel est certes réel, mais minime : de 0,7°C en 137 ans (entre 1880 et 2017), soit 0,0051°C/an. Il en va de même de sa part anthropique : de l’ordre de quelques pourcents suivant des études sérieuses, par exemple 4,3% ou 5% [source].
J'ai trouvé deux graphiques intéressants, issus de la Banque Mondiale, et qui illustrent ces chiffres : le premier concerne le PIB mondial par habitant, et le second les émissions mondiales de CO2 par habitant, de 1960 à 2018, soit près d'un demi-siècle. J'ai téléchargé les données des deux graphiques, pour les intégrer dans un même graphique ...
Source : datacommons.org, tableur PIB-CO2.ods.
Le modèle multifactoriel d'Ollila propose une thèse éloignée des considérations idéologiques et passionnées. L'auteur décrit un modèle climatique semi-empirique (SECM) incluant les principales forces qui auraient des impacts sur le réchauffement climatique, à savoir :
L'auteur a ainsi reconstruit les données de température mondiale de 1630 à 2015 en utilisant les estimations de température publiées pour la période de 1600 à 1880, et pour la période de 1880 à 2015, il a utilisé les deux ensembles de données basés sur les mesures des années 1970 avec deux ensembles de données actuels.
Le SECM explique les changements de température de 1630 à 2015 avec l'erreur standard de 0,09°C, et le coefficient de détermination r2 étant de 0,90. L'augmentation de température selon le SCEM de 1880 à 2015 est de 0,76°C répartie entre le Soleil 0,35°C, les GES 0,28°C (CO2 0,22°C), et l'RHA 0,13°C. Les effets AHR peuvent expliquer la pause de température des années 2000. Les scénarios de quatre tendances différentes de la IST de 2015 à 2100 suggèrent que la température diminuera, même si la IST se maintenait au niveau actuel [source].
NASA : science ou propagande ?
Gavin Schmidt est le directeur du laboratoire de la NASA, qui étude l'atmosphère de la Terre et des exoplanètes.
Le texte de présentation d'un article – intitulé "L'interférence anthropique dangereuse avec le climat", et qu'il cosigne avec 47 co-auteurs (*) – commence par cette phrase : « Nous étudions le problème de "l'interférence anthropique dangereuse avec le climat", à l'aide de simulations réalisées par le modèle GISS, lequel est paramétré par des valeurs mesurées ou estimées (...) »
(*) Lorsqu'un article scientifique contient autant d'auteurs, c'est souvent qu'on a voulu compenser la faible qualité du fond, par la quantité de la forme.
Ainsi, le titre de l'article décrit ce que leurs auteurs se sont donnés comme objectif de démontrer ! Comprenons bien, normalement, c-à-d si l'article était réellement scientifique, il devrait s'intituler simplement "L'interférence anthropique avec le climat".
Ce que ces scientifiques font, c'est ce que l'on appelle de l'induction, une méthode qui présente de sérieuses limites, et peut aboutir à des résultats biaisés. En effets, les scientifiques peuvent inconsciemment ou consciemment rechercher des preuves qui confirment leurs hypothèses préconçues ou leurs croyances, négligeant ainsi des données qui pourraient contredire leurs idées. Cela peut entraîner une généralisation inexacte ou une interprétation erronée des résultats.
Ainsi par exemple, en l'occurrence, dès lors que seuls les effets négatifs de "l'interférence" humaine sont pris en compte, on a aucune idée des influences que pourraient avoir sur eux les effets positifs de cette même "interférence".
C'est pourquoi la méthode inductive doit être complétée par d'autres méthodes scientifiques, telles que la déduction ou l'expérimentation contrôlée (quasiment impossible dans les phénomènes climatiques ...), afin de garantir des conclusions plus solides et fiables.
Les effets pervers de l'induction sont particulièrement importants lorsque la thèse est défendue au moyen de modèles mathématiques, dont les valeurs attribuées aux paramètres, ainsi que le choix des variables d'entrée, peuvent considérablement influencer les valeurs de sortie.
« En plus de soixante ans au service de la communauté scientifique, y compris comme président de l'Académie des sciences et de l'American Physical Society, je n'ai jamais été témoin d'une corruption plus inquiétante d'un processus de revue par les pairs que ceui du rapport du GIEC » Frederick Seitz [source, The Wall Street Journal, 1996].
On notera à cet égard que le président du GIEC n'est pas un climatologue mais un économiste...
Dans un ouvrage publié en 2022, Steven Koonin, également membre de l'Académie des sciences des USA, et ancien conseiller scientifique du président Obama, reconnaît que le climat est certes en train de changer, mais précise que le pourquoi et le comment ne sont pas aussi clairs qu’on le croit, pas plus que la mesure exacte de la responsabilité humaine. D’abord parce que la climatologie est une science récente, née dans les années 1960, et qu’elle est extraordinairement complexe. Souvent incapables d’entrer dans les détails des travaux de recherche, les journalistes et politiques non scientifiques ont besoin de simplifier pour sensibiliser, au risque de mentir. La science ne dit pas ce que les médias écrivent. Steven Koonin montre que nos connaissances scientifiques ne sont pas suffisantes pour faire des projections utiles et fiables sur la façon le climat évoluera au cours des prochaines décennies et encore moins pour savoir quels effets auront nos actions sur lui [source].
En 2023, John Clauser, Prix Nobel de Physique 2022, déclarait que « le récit officiel sur le changement climatique reflète une dangereuse corruption de la science qui menace l'économie mondiale et le bien-être de milliards de personnes. La science climatique malavisée s'est métastasée en une pseudoscience journalistique de choc massif. (...) Celle-ci a été promue et étendue par des agents commerciaux, des politiciens, des journalistes, des agences gouvernementales et des écologistes tout aussi égarés. À mon avis, il n'y a pas de véritable crise climatique » [source].
Les défenseurs de la quadruple thèse d'un réchauffement, anthropique, catastrophique et opérant via le CO2 affirment pourtant que cette thèse ferait l'objet d'un large consensus au sein de la communauté scientifique [source].
Pertinent ? Ce faisant ils font également l'hypothèse implicite que le consensus serait un critère scientifique pertinent. Mais est-ce le cas ? L'histoire suggère que non : ainsi pendant plusieurs siècles l’hypothèse de la révolution de la Terre autour du Soleil fut minoritaire. Le "consensus" c'est seulement "l'air du temps".
Fabrication. D'autre part est-il vrai qu'il existe un consensus concernant la quadruple thèse d'un réchauffement, anthropique, catastrophique et opérant via le CO2 ?
NB : il n'y a plus de consensus sur la quadruple thèse dès qu'il n'y a plus consensus sur au moins une des ses quatre thèses.
Une étude suggère ainsi que seulement 0,3% des articles sur le sujet considèrent explicitement le réchauffement climatique comme étant principalement d'origine anthropique [source]. C'est donc exactement l'inverse d'un prétendu consensus de 97% affirmé par une étude largement médiatisée, mais dont les biais méthodologiques ont été clairement exposés [source].
On notera à cet égard la fermeture de la bourse climatique du Chicago Climate Exchange en 2010, par manque de participants [source], ce qui suggère que les agents économiques ne croient pas dans l'avenir du marché climatique, et cela malgré l'ampleur de la surmédiatisation catastrophiste du réchauffement climatique. Nous verrons plus loin que le business climatique est maintenu artificiellement en vie par des interventions des États, ce qui relève in fine du détournement de fonds publics au profit d'intérêts privés.
Intimidations. Force est de constater que les scientifiques ou journalistes, qui contestent la quadruple thèse, subissent des pressions considérables, sous la forme de censures (exemple), lynchages médiatiques (exemple) ou encore de licencicements (exemple1, exemple2). Dans ces conditions, il est évident qu'un prétendu "consensus" n'a plus aucune valeur informative, si ce n'est de démontrer la réalité de graves atteintes à la liberté du débat scientifique [source1, source2].
Au 16° et 17° siècles c'était la religion, et en particulier le risque de finir au bûcher, qui déterminaient le "consensus" du géocentrisme ...
On notera que dans ces conditions, il est légitime de se poser des questions sur la sincérité des données brutes sur lesquelles repose la quadruple thèse. D'autant plus que, comme exposé dans la section suivante, de nombreux faits confirment que le débat n'a plus grand chose de scientifique, et relève plutôt d'intérêts politiques et économiques.
Ces faits ont été dénoncés par plus d'un millier de scientifiques à travers le monde (dont beaucoup de retraités étant donné les hallucinantes pressions professionnelles), qui se sont regroupés au sein de clintel.org (signataires francophones : France, Canada, Belgique (fra)).
Cycles de Milanković. Une première théorie scientifique alternative pour expliquer le réchauffement climatique a été énoncée par le géophysicien croate Milutin Milanković durant l'entre-deux-guerres. L'orbite de la Terre varie selon trois cycles naturels : son excentricité, son obliquité et la précession des équinoxes. Chacune de ces variations suit un cycle, entre 20 000 et 100 000 ans, parfaitement calculable. Ces trois variations combinées influent sur l'insolation de la Terre et donc sur son climat. Cette théorie a été confirmée, en 1976, par l'étude des carottes glaciaires lors du forage de Vostok (Antarctique) source].
Cycles d'émission d'hydrogène. En mai 2023, l'Académie des Sciences de Russie a proposé une troisième théorie, selon laquelle « la principale cause des catastrophes climatiques locales est l'émission croissante d’hydrogène naturel due aux forces gravitationnelles alternées de la lune et du soleil, qui provoquent des trous dans la couche d'ozone. L'élévation de température qui en résulte et le mélange d'ozone et d'hydrogène sont les principales causes des feux de forêts et de steppes » [source]. L’Académie des Sciences ne se contente pas de remettre en cause le dogme du GIEC, elle conteste aussi le dispositif visant à réduire les trous de la couche d'ozone. À savoir la convention de Vienne et le Protocole de Montréal « dont la mise en œuvre a anéanti des sous-industries entières de l'industrie chimique sans affecter la taille des trous d'ozone, qui n'ont fait qu'augmenter ». La théorie de l'Académie des Sciences russe repose aussi sur l'idée que le réchauffement climatique n'est pas un phénomène comparable selon les régions du monde. Or, on vient de mesurer que, contrairement à un cliché répandu, la température de l'océan Pacifique refroidit [source1, source2].
Il est indéniable que le développement économique et social ne peut ignorer la finitude des ressources disponibles (à commencer par les surfaces exploitables). Il est donc nécessaire de préparer l'avenir. Malheureusement de nombreux faits suggèrent que cette tâche a été détournée par des considérations géopolitiques ainsi que par des intérêts privés qui voient dans la stimulation médiatique du catastrophisme climatique une occasion de détourner à leurs profits d'énormes ressources publiques (impôts et dettes) pour financer du business, notamment dans le domaines des énergies prétendues "vertes".
Précisions que le catastrophisme se situe moins dans l'ampleur de la catastrophe environnementale vers laquelle conduit (peut-être irrémédiablement) le développement économique, que dans sa prétendue urgence.
La médiatisation du "global warming" connut un premier coup d'accélérateur au début des années 2000, à l'initiative de l'ancien vice-président US Al Gore [source] – perdant de l'élection présidentielle de 2000 – et cela au moment où la Chine se profile en rival économique (et polluant) de plus en plus menaçant pour les "intérêts US dans le monde", et où le déficit courant des USA atteint un record historique.
Le graphique suivant montre que la publication de "An Inconvenient Truth" [source] – un documentaire américain qui bénéficia d'une médiatisation planétaire, affirmant le caractère anthropique du réchauffement climatique, et basé en grande partie sur une présentation multimédia de Al Gore – eut lieu au moment où le déficit extérieur US atteignait un niveau record.
Blances courantes USA et Chine (% PIB)
2006 (ligne verticale) : publication de "An Inconvenient Truth" [Tableur].
On pourra bien sûr rétorquer que la Chine est pourtant partie prenante dans la "lutte pour le climat". Mais le gouvernement chinois n'a aucunement l'intention de brider le développement économique chinois sur l'autel du climatisme c-à-d de la surévaluation du risque climatique. Par conséquent il s'agit presque certainement d'une réponse de stratégie géopolitique fondée sur le "green-washing". Le gouvernement chinois, dont le niveau de formation des cadres est élevé, ne peut ignorer que l'éolien comme le solaire sont grevés par leur nature intermittente ainsi que par un très faible rendement énergétique (cf. infra #energie-principes). Enfin nous verrons plus loin que le business climatique peut s'avérer rentable, et ainsi diminuer (mais pas éliminer) le coût d'opportunité (allocation non optimale des ressources) que représente ce "green-washing".
Al Gore – reconverti dans le business des fonds d'investissement dans "l'économie durable" [source] – se vit décerner le prix Nobel de la paix 2007, en commun avec le GIEC « pour leurs efforts visant à renforcer et diffuser les connaissances sur les changements climatiques d'origine humaine (souligné par nous), et à poser les bases de mesures nécessaires pour contrer de tels changements » [source].
En 2007, se fondant sur l'évolution récente, Gore prédisait qu'en 2014 la banquise arctique aurait complètement disparu. En 2021 on peut constater que ce n'est pas le cas, car la réduction de superficie s'est ralentie. Quant à la banquise antarctique, elle est stable (voire haussière selon certaines estimations) depuis le début des mesures par satellite en 1979, contredisant ainsi les prévisions faites par le GIEC [source].
Mais la propagande alarmiste est bien antérieure à 2007. Ainsi en 1989, l'ONU déclarait que « des nations entières pourraient disparaître de la surface de la Terre à cause de l’élévation du niveau de la mer si la tendance au réchauffement climatique n’est pas inversée d’ici l’an 2000 » [source]. Nous sommes 23 années après 2000 (!), et rien de cela ne s'est produit ...
Pourtant (ou "par conséquent" ?), la propagande "pour le climat" est aujourd'hui encore plus intense. Ainsi, dans certains pays occidentaux, l'appareil d'État encourage même les écoliers à dénoncer l'inaction de ... l'appareil d'État ! [exemple1, exemple2]. C'est de la "schizophrénie" pur jus !
On constate la même forme de "schizophrénie" chez ces jeunes mobilisés pour le climat, qui dans leur très grande majorité ne renoncent ni au smartphone, ni aux sports d'hiver ni aux voyages en avion. Les manifestations médiatisées sont l'occasion de se donner bonne conscience, à l'instar du tri des déchets et autre recyclage, dont la forte popularité est inversement proportionnelle à l'efficacité (toujours en raison des premier et second principes de la thermodynamique). Ces jeunes (et leurs parents) vont aux manifestations "pour le climat" comme leurs arrières grands-parents allaient se confesser auprès du curé pour se laver des péchés commis.
Manifestation d'État "pour le climat"
Dès le 1° octobre 2021, l'appareil d'État belge (gouvernement, presse, "ONGs", ...) a fait massivement la promotion d'une « marche pour le climat » ayant lieu le 10 octobre à Bruxelles [1], soit quelques semaines avant la COP26.
Les chemins de fer (SNCB) ont ainsi mis en place des trains supplémentaires à destination et au départ de Bruxelles pour « compenser l'affluence à la marche pour le climat » (sic) prévue à Bruxelles le dimanche 10 octobre. La Stib, la société de transport public bruxelloise, a annoncé que son réseau sera gratuit le 10 octobre entre 12 et 19 heures (sans doute aussi pour "compenser l'affluence à la marche pour le climat" ...). Les portes d'entrée du métro seront temporairement ouvertes et les valideurs seront mis en mode inactif [source1, source2].
23 octobre 2022, rebelote, les partis écologiste et socialiste – membres de la coalition gouvernementale – manifestent "pour le climat" ...
À votre avis, lorsque l'appareil d'État organise une manifestation, c'est pour envoyer un message à lui-même, ou pour conditionner la population ... ?
La propagande climatique a convaincu les gouvernements de mobiliser des ressources financières (in fine, essentiellement via la dette et les impôts) pour alimenter un business du climat. En 2015 la Banque mondiale estimait ce marché à 89.000 milliards de dollars pour les quinze années à venir [source] ! Ce montant correspondant à 53% du commerce mondial annuel.
On ne s'étonnera donc pas de constater que le monde de la finance est très favorable au climatisme. Ainsi en 2016, Blackrock, Goldman Sachs, UBS ou encore AXA lançaient aux gouvernements des pays membreS du G20 un appel à l’adhésion dès que possible à l’accord de Paris sur le climat issu de la COP21 [source]. Ainsi le mouvement Extinction Rebellion, dont la presse relate abondamment les actions, peut recevoir jusqu'à trois millions d'euros de dons par an grâce aux "hedge funds activistes" (sic) [source].
Au début des années 2000 les hedge funds ont commencé à entrer sur le marché des produits d'investissement présentés comme "respectueux de l'environnement ou socialement responsables". Il existe pour ces produits financiers une demande de la part des fonds de pension (qui sont parmi les plus grands fournisseurs de capitaux aux fonds spéculatifs) ainsi que de fondations "caritatives" [source].
Mais un marché pour quoi faire ? Rappelons que (i) le GIEC prévoit un réchauffement de 1 à 2,5° en cas de doublement de la concentration de CO2 dans l'air ; (ii) la COP21 recommande une baisse de 20% des émissions de CO2 ; (iii) la part anthropique dans la concentration de CO2 est de 25%. Par conséquent, étant donné que l'Europe représente 10% des émissions mondiales, l'effort européen permettrait d'abaisser la température de maximum 20%*10%*25%*2,5 degrés, c-à-d seulement 0,01 degré ... [source p. 42] !
N.B. : 0,01 ° c'est un dixième du seuil de température mesurable...
Le niveau de formation et de professionnalisme des gestionnaires de hedge funds étant très élevé, il est peu probable qu'ils ignorent ces faits. Par conséquent leur véritable motivation n'est évidemment pas environnementale, mais le fait que « en plus de répondre aux appétits changeants de leurs investisseurs, les gestionnaires de fonds spéculatifs ont pu utiliser ces fonds spéculatifs pour obtenir des rendements en exploitant la tarification et d'autres inefficacités qui caractérisent les nouveaux marchés des instruments financiers basés sur le carbone » [source].
On ne s'étonnera donc pas de constater que chaque COP est présentée comme un nouvelle avancée, alors qu'en réalité, si on lit les rapports avec attention, on constate qu'il ne s'agit que de déclarations d'intentions. L'histoire de ces COP montre bien que les véritables motivations des décideurs politiques sont nettement moins altruistes qu'il n'y paraît.
Les motivations réelles des acteurs des COP peuvent être très diverses selon la profession : ministres achetés, cadres d'institutions internationales actifs dans le climatisme, scientifiques en quête de subsides, experts en quêtes d'engagements,... D'autre part la fréquence annuelle des COP dans des lieux touristiques (plus les réunions préparatoires) fait penser qu'il s'agit là d'une forme maquillée de tourisme subsidié.
François Gervais note que le "Résumé à l'intention des décideurs" du rapport AR5 du GIEC omet de mentionner des données pourtant fondamentales du rapport, notamment les écarts considérables entre les modèles ainsi qu'entres les valeurs calculées et celles mesurées (cf. graphique ci-dessous). Gervais nous apprend que, « à la différence du rapport écrit par des scientifiques, les conclusions du résumé doivent avoir l'onction des représentants des États, paragraphe par paragraphe, ligne à ligne, mot à mot ». Ainsi « les valeurs du réchauffement les plus basses sont considérées comme les plus probables (N.d.A. : ce que suggère le graphique ci-dessous) mais ce point essentiel reste "oublié" dans le résumé pour (par ?) les décideurs » [source p. 94].
Source p. 87
On notera que la mission repose sur un postulat, c-à-d la quadruple thèse d'un (i) réchauffement, (ii) anthropique, (iii) catastrophique, (iv) opérant via le CO2. Partant de ce postulat, le GIEC référence principalement des articles scientifiques confirmant ce postulat (cherry picking) : « Le GIEC a pour mission d'évaluer, sans parti pris et de façon méthodique, claire et objective, les informations d'ordre scientifique, technique et socio-économique qui nous sont nécessaires pour mieux comprendre les fondements scientifiques des risques liés au changement climatique d'origine humaine, cerner plus précisément les conséquences possibles de ce changement et envisager d'éventuelles stratégies d'adaptation et d'atténuation. Les rapports du GIEC doivent rendre compte des différentes orientations de façon impartiale, tout en traitant avec objectivité les facteurs scientifiques, techniques et socio-économiques sur lesquels reposent ces orientations » [source]. Ainsi "l'impartialité" et "l'objectif" dont il est question sont de facto limitées au seul champs de mission du GIEC, qui repose sur le postulat que l'activité humaine influe substantiellement sur le climat (NB : le mot "substantiellement" est important car sans influence substantielle il serait inutile d'en étudier les effets ⇒ il y a donc bien raisonnement circulaire). Autrement dit, il n'y a ni objectivité ni impartialité, mais au contraire une propagande visant à promouvoir la mission du GIEC. Pour ce faire il faudra privilégier les études confirmant la thèse réchauffiste et anthropique du GIEC.
Ainsi le GIEC est accusé de donner la préférences aux articles scientifiques "confirmant" la quadruple thèse ("cherry picking"), notamment en privilégiant les articles rédigés par des auteurs des rapports du GIEC [source].
On ne s'étonnera donc pas que dans un tel contexte de propagande « le sophisme du raisonnement circulaire est courant dans la recherche sur le changement climatique. Elle est facilitée par un biais de confirmation et par un activisme tel que la conviction préalable des chercheurs est englobée dans la méthodologie. Des exemples de travaux de recherche sur l'impact des émissions de combustibles fossiles sur les cyclones tropicaux, sur l'élévation du niveau de la mer et sur le cycle du carbone démontrent que les conclusions tirées par les chercheurs sur leur cause anthropique découlent d'un raisonnement circulaire. Ce fait suffit à lui seul pour remettre en cause la validité du caractère anthropique du réchauffement climatique » [source].
Force est de constater que le débat médiatique et même "scientifique" est emporté dans une tempête catastrophiste focalisant sur les seuls effets négatifs du réchauffement climatique, et occultant ses effets positifs [vérifier : climate.nasa.gov/effects]. Or le réchauffement climatique induit aussi des effets positifs : augmentation de la production agricole, développement du transport maritime, accès aux ressources de l'océan Arctique, baisse de la facture et des émissions de chauffage, etc. Il n'y évidemment aucune raison pour que le réchauffement climatique ne comporte que des effets négatifs.
Focus sur l'effet de fertilisation. Une étude publiée dans la prestigieuse revue Nature montre une augmentation de 25 % à 50 % de la superficie végétalisée mondiale entre 1982 et 2009, et suggère (par modèles) que les effets de la fertilisation par le CO2 expliquent 70 % de la tendance au verdissement observée, suivis des dépôts d'azote (9 %), du changement climatique (8 %) et du changement de la couverture terrestre (4 %) [source]. Ainsi, contrairement aux affirmations de la très puissante propagande climatiste, le CO2 compenserait le stress hydrique [source]. Les effets bénéfiques de l'augmentation du taux de CO2 a également été constaté sur le plancton [source].
Par le phénomène de photosynthèse, les plantes captent l'énergie du soleil, de l'eau, du sol et du CO2 atmosphérique. Avec cette énergie les plantes produisent le glucose nécessaire à leur croissance. Le carbone est assimilé, et l'oxygène renvoyé dans l'air.
En terme de croissance de plantes nutritives, le bénéfice du verdissement a été évalué, au niveau mondial, à une moyenne de 60 milliards d'euros par an entre 1961 et 2011 [source]. Étant donné que l'agriculture et la pêche sont les principales sources de revenus et d'emplois pour 70% de la population mondiale pauvre vivant en zones rurales et côtières, ces chiffres sont une mesure du nombre de personnes sauvées de la sous-nutrition grâce à l'augmentation du CO2.
L'effet d'un changement climatique sur la faune et la flore est catastrophique si deux conditions sont simultanément vérifiées : le changement doit être d'un ampleur et d'une rapidité qui dépassent les capacités d'adaptation, notamment génétique, des organismes vivants [source].
Richard Tol, professeur d'économie du changement climatique à l'université d'Amsterdam, évalue le "bénéfice social du carbone" à 411 $ la tonne de carbone, et en conclut que le bénéfice social du carbone est nettement plus élevé que son coût social [source], ce que reflète la comparaison entre cette valeur de 411 $/T et la cotation des droits d'émission... (indice CKZ17). Tol a ainsi calculé qu'un réchauffement climatique pourrait être bénéfique au bien-être global jusqu'à +2° [source]. Selon ses estimations « le changement climatique aura probablement un impact limité sur l'économie et le bien-être humain au XXIe siècle ». Il s'agit là d'une évaluation globale : dans certains pays, l'effet net du réchauffement climatique pourrait être négatif [source].
La concentration actuelle de gaz carbonique dans l'air reste insuffisante pour une croissance optimale des plantes. En effet, la végétation a dépéri depuis l'époque où elle était luxuriante grâce à des concentrations 10 à 25 fois supérieures à ce que notre atmosphère contient aujourd'hui. Cette concentration très élevée n'a pas empêché des glaciations comme à la fin de l'Ordovicien. [source].
William Nordhaus, prix Nobel d'économie 2018, estime quant à lui que le niveau optimal de réchauffement climatique par rapport à la période pré-industrielle, c’est-à-dire correspondant à un équilibre entre coûts et bénéfices liés au réchauffement, serait de 3 à 4 °C [notez le ton étonnement militant et dénigrant des sources que nous avons pu trouver : source1, source2].
La sous-estimation, voire la négation des effets positifs du réchauffement climatique – très fréquente chez les partisans de la quadruple thèse d'un (i) réchauffement, (ii) anthropique, (iii) catastrophique, (iv) opérant via le CO2 – a deux conséquences importantes :
Dans le réchauffisme tout est bon. Des scientifiques ont dénoncé l'exploitation du réchauffisme anthropique pour prétendument "expliquer" toutes sortes de phénomènes (exemple) :
Ainsi les décès dus aux catastrophes naturelles sont cent fois moins nombreux qu'il y a un siècle, et cela alors que la population de la planète a quadruplé [source].
La décroissance c'est l'inverse de la croissance. Or le développement économique a permis un développement social considérable :
Durant les dix années précédant 2020, l'extrême pauvreté fut divisée par deux, la mortalité infantile réduite d'un tiers, et la pollution réduite de près de 20% [source].
Par conséquent la décroissance inverserait ces tendances. Voulons-nous cela ? Cela serait d'autant plus irrationnel qu'il a été démontré que même si tous les signataire de l'accord de Paris tenaient leurs engagement, le réchauffement évité ne dépasserait pas 0,2° d'ici 2100 [source].
Inutilité de la décarbonisation : soient :
- sensibilité climatique = ( 1 - 2,5 )° ;
- quantité de carbone dans l'atmosphère (fin 2019) = 873 109 t ;
- pourcentage du carbone émis capté par la végétation et les océans : 56% ;
⇒ une baisse de 1 tonne des émissions de carbone diminuerait la température de :
1/( 873 109 ) * ( 1 - 2,5 ) * ( 1 - 0,56 ) ≈ 10-12 °
c-à-d un millième de milliardième de degré !
Or un individu émet en moyenne 1,5 tonne de carbone par an (France, 2019). Par conséquent, même une (irréaliste) décarbonisation intégrale de l'économie française (population = 67 106) ne diminuerait la température que de :
67 106 * 1,5 * 10-12 = 0,0001 °/an (NB : soit beaucoup moins que le seuil de mesurabilité de la température terrestre à 0,06°) [source p. 30].
Conclusions :
Avertissement. Nous faisons ici l'hypothèse de départ qu'il y aurait actuellement un changement climatique d'ampleur substantielle. Or dans les sections précédentes nous avons montré que, contrairement à ce que tente de nous faire croire le quotidien matraquage médiatique, cette hypothèse doit être relativisée. Mais soit...
La nature de la cause ou des causes des changements climatiques n'est pas anodine car les mesures à implémenter pour minimiser les effets négatifs et maximiser les effets positifs sont généralement différentes selon que la cause principale est humaine ou naturelle :
D'autre part, dans les deux cas, il importe de déterminer si ce sont les effets négatifs ou positifs qui l'emportent, et surtout quelle est la nature des relations (peut-être complexes) entre effets négatifs et positifs.
Base pour une stratégie climat non partisane
Lecture : le GIEC considère que le réchauffement est d'origine anthropique, et que ses effets sont globalement négatifs.
Si la cause principale est l'activité humaine au moins deux voies, éventuellement complémentaires, sont envisageables :
au niveau de la consommation : une diminution quantitative substantielle, mais :
au niveau de la production : une transition énergétique vers des énergies dites (à tort ou à raison) "renouvelables", "vertes" ou encore "non fossiles", mais :
l'idéologie libérale dominante prônant la suppression de toute politique industrielle publique via des entreprises publiques (et cela même au sein des partis politiques prétendument "socialistes" et "écologistes"), il en résulte une incapacité à réaliser suffisamment rapidement la transition vers des énergies et technologies à faible taux d'émission de gaz à effet de serre. En effet, les entreprises privées étant motivées par la maximisation des bénéfices à court terme, c-à-d pendant la vie de leurs propriétaires, ceux-ci ne sont pas disposés à réaliser des investissements qui ne porteront leurs fruits qu'après leur mort, et surtout qui ne seront peut-être rentables que d'un point de vue collectif.
l'écologie politique c-à-d l'écologie en tant qu'idéologie plutôt que science est cependant opposée au nucléaire. Or cela pose problème car la comparaison des taux de retour énergétique suggère que la transition énergétique serait grandement facilitée par le recourt au moins temporaire au nucléaire (cf. supra "#taux-retour-energetique"). Certaines analyses suggèrent même qu'en raison de limitations physiques les technologies éoliennes et solaires ne pourront apporter de solution énergétique de masse avant longtemps voire jamais (cf. limite de Betz) en l'absence de baisse drastique de la consommation.
Les besoins de financement pour amorcer la transition écologique vers le développement durable en Europe sont estimés à 3% du PIB européen pendant au moins dix ans [source 2013]. PS : s'agit-il d'une transition avec ou sans nucléaire ?
La possibilité de causes non anthropiques au réchauffement climatique étant supposément rejetée par le supposé "consensus scientifique", la réflexion en matière de politique environnementale est ici très limitée. La réputation de la communauté scientifique risque d'être durablement dégradée dans l'opinion publique s'il s'avère in fine qu'elle s'est laissée emporter par une vague médiatique (cf. notre thèse selon laquelle la communauté scientifique serait particulièrement sujette au phénomène d'info-dépendance : philosophie.jortay.net/parcours-de-vie#info-addiction-consommateur).
Les indicateurs observés pour concevoir une politique climatique efficace devraient être de deux types :
D'autre part, le pouvoir judiciaire ne doit pas rester passif devant la systématisation des pressions médiatiques (diffamation) et professionnelles (menaces voire licenciement) à l'encontre des scientifiques dont les propos dévient par rapport au prétendu "consensus" de la quadruple thèse d'un réchauffement, anthropique, catastrophique et opérant via le CO2. Non seulement cette coupable tolérance mine la confiance dans le pouvoir judiciaire, mais en outre, en ne protégeant pas la liberté du débat scientifique, elle a aussi pour effet de détériorer l'efficacité de la R&D, et partant ses effets positifs sur le développement réellement durable.
NB : il n'y a plus de consensus sur la quadruple thèse dès qu'il n'y a plus consensus sur au moins une des ses quatre thèses.
Enfin, la promotion de la vie simple est une voie pertinente, puisqu'elle peut convaincre même des "climato-sceptiques" d'adopter un mode de vie qui participe à réduire l'empreinte écologique de l'activité humaine sur le climat.
La problématique énergétique repose sur au moins quatre facteurs :
L'électricité n'est pas stockable en tant que telle : dans les piles elle est convertie en énergie chimique (PS : une batterie est une pile rechargeable).
Dans le cas de l'électricité on distingue le transport (grandes quantités sur grandes distances ; réseau haute tension) et la distribution (petites quantités sur petites distances ; réseau basse tension). La concurrence n'est ici pas possible, de sorte que l'on parle de monopole naturel. La distribution coûte environ deux fois plus cher que le transport [source].
Niveau de développement. Nous verrons que la problématique énergétique varie considérablement selon que l'on considère le cas des pays développés ou celui des pays en développement.
En amont l'extraction/production concerne les énergies primaires (c-à-d telles qu'on les trouve dans la nature : charbon, pétrole, uranium, vent, soleil, ...), et en aval nous consommons des énergies finales (c-à-d qui ont une composition/forme utilisable : électricité, fuel de chauffage, essence, ...). Cette distinction est fondamentale car en raison du second principe de la thermodynamique ("toute transformation de l'énergie – nécessaire pour la rendre utilisable – dégrade l'énergie en émettant de la chaleur non utilisable") la quantité d'énergie finale disponible est nécessairement inférieure à la quantité d'énergie primaire correspondante [approfondir].
Les diverses sources d'énergie se distinguent par un profil spécifique dans la combinaison des quatre facteurs mentionnés plus haut. Et chaque type d'énergie peut être caractérisé par un taux de retour énergétique (TRE), qui mesure l’autoconsommation du processus de transformation d’énergie primaire à finale.
TRE : énergie utilisable (finale, output) / énergie dépensée (primaire, input) < 100 %
On peut classer les types d'énergie selon leur TRE. Celui-ci est déterminé par :
le niveau de profondeur de l'évaluation de l'énergie dépensée pour traiter les effets sur l'environnement, au niveau de la production d'énergie primaire et de la consommation d'énergie finale ; ce niveau de profondeur peut modifier le classement.
Le tableau suivant montre que les énergies renouvelables ont un TRE relativement faible (PS : ce qui ne facilite pas la transition énergétique vers ces énergies considérées comme "vertes").
Science et idéologie ...
Mais pourquoi le tableau ci-dessus n'intègre-t-il pas les données concernant le nucléaire ? J'ai posé la question aux auteurs de l'étude dont le graphique est extrait (des chercheurs de l'université catholique de Louvain). Voici leur surprenante réponse :
« Nous avons volontairement exclu le TRE de l'énergie nucléaire dans ce tableau comparatif. En effet, l'étude de l'énergie investie par unité d'énergie produite donne place à de nombreux débats, notamment à cause du coût énergétique du traitement des déchets qui n'est pas pris en compte dans la plupart des études existantes. Il existe des études qui intègre l’énergie nucléaire, et on voit que le TRE des centrales nucléaires est très bon. Par exemple dans une étude récente qui compare les TRE de 19 technologies différentes, ce sont les centrales nucléaires EPR qui présentent de loin le meilleur TRE (N.d.A. : souligné par nous). Mais comme mentionné plus haut, le nucléaire pose d'autres problèmes éthiques que nous n'avons pas souhaité approfondir dans le cadre de cette étude. N'hésitez pas à nous contacter à nouveau si vous souhaitez discuter d'autres points ! ».
J'ai donc répondu en posant les deux questions suivantes : « Les évaluations du TRE des énergies autres que nucléaire incorporent-elles les coûts énergétiques liés à leurs propres effets indésirables ? Dans la négative comment justifiez-vous l'exclusion du nucléaire dans votre étude ? ».
Les chercheurs de l'université de Louvain n'ont pas répondu, ce qui n'est pas étonnant puisque leur raisonnement est évidemment une violation flagrante de la méthode scientifique, qui impose l'application des ces deux principes élémentaires concernant les études comparatives en matière d'énergies :
Par conséquent, en ne mentionnant pas dans leur étude les données du nucléaire sous le prétexte bancal de « problèmes éthiques » ces chercheurs de l'université ont agi de façon anti-scientifique. L'ont-il fait par conviction ou par crainte de sanctions professionnelles ? Quoi qu'il en soit, dans un cas comme dans l'autre, il y a là une implicite diffamation des scientifiques favorables au nucléaire, ainsi accusés de comportement "non éthique", et par ceux-là mêmes qui foulent aux pieds les principes élémentaires de la méthodes scientifique !
L'énergie finale électrique produite à partir des énergies primaires éolienne, solaire et hydraulique sont confrontées au problème de leur intermittence : il n'y a pas toujours de vent, le ciel n'est pas toujours dégagé, et en outre l'occurrence de ces phénomènes naturels dans l'espace et le temps est généralement imprévisible (on peut cependant mesurer des moyennes dans le cadre des cycles saisonnier et journalier). Par conséquent pour adapter la production de cette énergie électrique aux besoins des agents économiques il faut donc disposer :
de capacités de stockage, mais un courant électrique ne peut être stocké, il faut le convertir (par exemple en énergie chimique comme dans les batteries au lithium), or en vertu du second principe de la thermodynamique toute conversion implique une dégradation de l'énergie (en l'occurrence l'effet joule) ;
d'un réseau mondial pour transférer le courant électrique des zones en surplus temporaire vers les zones en déficit temporaire de production : mais ces zones peuvent parfois être très éloignées, de sorte que ces réseaux devront être de grande taille et en mesure de gérer efficacement les variations de tensions et de charge.
Type | Primaires | Renouv. | Production | Pollution |
---|---|---|---|---|
Nucléaires | Uranium, deuthérium, ... | Quasiment. | Prévisible. |
|
Fossiles | Pétrole, charbon, gaz, ... | Non. | Prévisible. | La combustion émet des gaz à effet de serre. |
Mouvantes | Courants d'eau, vent, rayonnement solaire, ... | Oui. | Intermittente et imprévisible. |
|
Biomasses | Bois, déchets biologiques, ... | Oui mais sous contraintes de quantités et temps. | Relativement prévisible. | Faible (parce que les quantités sont faibles). |
Eau | Hydrogène | Oui | Prévisible. | Faible si production par de l'hydrogène par électrolyse (cependant le TRE est encore faible dans l'état actuel des technologies). |
Selon nous le débat public sur la conversion énergétique (que nous développerons plus loin) serait facilité si les scientifiques remplaçaient – pour décrire les énergies éolienne, solaire et hydraulique – le terme "vertes" par "intermittentes" ou "mouvantes", et laissaient aux individus le choix de décider si celles-ci sont plus "vertes" que les énergies nucléaires.
L'évolution de la problématique énergétique depuis les années 1950 est caractérisée par trois grandes tendances :
le remplacement du charbon par le nucléaire, dans les pays les plus développés (mais avec une inversion depuis le début du 20° siècle, suite à la propagande anti-nucléaire) ;
la diversification des sources d'énergie :
Pays développés et en développement se distinguent par leur mix énergétique : dans les seconds la part du charbon et des biomasses est encore prépondérante.
l'augmentation de l'efficacité énergétique (rapport entre produit intérieur brut et consommation d'énergie) : +25% entre les années 1970 et 2000 [source] en raison :
Cependant, malgré l'augmentation de l'efficacité énergétique, la consommation globale d'énergie continue de croître. C'est l'effet rebond – encore appelé "paradoxe de Jevons" – phénomène de "fuite en avant" par lequel, quand on augmente l’efficacité avec laquelle une ressource est employée, la consommation totale de cette ressource a toutes les chances d’augmenter au lieu de diminuer.
On observe cependant une tendance baissière dans les pays développés depuis la crise financière née en 2007 aux USA.
Consommation d'énergie par habitant depuis 1980
Le graphique ci-dessus montre (i) l'énorme part de l'Amérique du Nord dans la consommation globale, (ii) la forte baisse dans cette partie du monde (*), (iii) que la croissance mondiale de la consommation d'énergie est due aux pays en développement et aux pays émergents.
(*) Dans quelle mesure cette baisse est-elle due à une augmentation de l'efficacité énergétique ou à une décroissance économique en Amérique du Nord, masquée par des indicateurs obsolètes ? La concomitance avec la crise de 2008 et l'observation de l'effet de rebond dans les décennies précédentes suggèrent que la seconde explication n'est pas à rejeter.
Pourquoi la Banque mondiale a-t-elle cessé de collecter ces données depuis 2015 [vérifier], alors que ces informations sont primordiales, notamment pour le suivi de l'activité économique et la politique de gestion du changement climatique ... ?
Au niveau mondial, notre consommation d'énergie est composée comme suit :
78% d'énergies fossiles (pétrole, charbon, gaz) : très polluantes car leur combustion émet de grandes quantité de gaz à effet de serre (dont le CO2) ;
17% d'énergies renouvelables (biomasses, courants d'eau, vent, rayonnement solaire, géothermie, ...) : leur production & consommation émet peu d'équivalent CO2, mais :
Le classement des biomasses (essentiellement le bois) en tant qu'énergie renouvelable (9 points de % sur les 17 dans le tableau infra) doit être relativisée car de nombreuses sortes d'arbres n'atteignent leur taille adulte qu'après plusieurs décennies, ce qui dans certains pays en développement a d'ailleurs conduit à des émigrations massives de régions complètement déboisées.
5% d'énergie nucléaire : sa production & consommation émet peu d'équivalent CO2 et est disponible de façon continue et centralisée, cependant la technologie actuelle (la fission nucléaire) est caractérisée par un profil statistique de risque de pollution non linéaire : peu polluante si pas d'accident dans les lieux de production et de stockage des déchets, mais potentiellement très polluante en cas d'accidents (heureusement très rares).
Dans les pays développés la part du nucléaire est beaucoup plus élevée, et parfois même très majoritaire (France, Belgique, ...).
Cependant, dans certains pays développés comme l'Allemagne, le poids politique des écologistes a conduit le gouvernement à fermer progressivement ses centrales nucléaires. Mais comme la population n'est pas disposée à réduire d'autant son mode de vie, et que les technologies & infrastructures d'énergies "vertes" (solaire, éolien, ...) ne sont pas encore en mesure de se substituer au nucléaire (elles ne permettent pas encore de neutraliser les effets de l'intermittence des énergie "vertes" sur la stabilité de l'approvisionnement énergétique) ces gouvernements ont été contraints d'augmenter leur consommation de charbon, dont la combustion émet énormément de CO2 (alors que le nucléaire en produit très peu) ...
[source]
Le diagramme de Sankey ci-dessous montre la répartition de la production d'énergies primaires. Il est composé de quatre parties (de gauche à droite) :
L'efficacité énergétique est le rapport entre l'énergie utilisable (gris foncé) et l'énergie consommée (rose). énergie utilisable (gris foncé) = énergie consommée (rose) - énergie perdue (gris clair). En vertu du second principe de la thermodynamique, toute transformation d'énergie s'accompagne d'une dégradation qualitative ("pertes"), généralement sous forme de chaleur due aux forces de frottement.
La lectrice est invitée à vérifier que le classement des secteurs selon leur efficacité énergétique est bien :
Autres faits notables révélés par ce diagramme :
La politique énergétique doit répondre à deux groupes de questions :
Nous verrons plus loin que ces énergies sont intermittentes, ce qui augmente considérablement leur coût d'utilisation (y compris les coûts liés à leurs pollutions spécifiques).
Le projet dit de "transition énergétique" vise à passer à 0% d'énergies fossiles, la question subsidiaire étant de savoir s'il faut également renoncer au nucléaire, et dans l'affirmative à quelle échéance.
Nous allons voir que dans l'État actuel des technologies en matière de stockage de l'électricité (pas assez performantes) et de réseau mondial de compensation électrique entre régions en surplus et régions en déficit (encore quasiment inexistant) la transition énergétique doit, soit se réaliser avec le nucléaire, soit impliquer une réduction drastique de notre niveau de vie (ce qu'une large majorité de la population ne semble pas disposée à accepter).
Le marché du prix carbone s'est avéré un échec en raison du caractère irréaliste de ses fondements théoriques. Selon nous la transition vers une production énergétique décarbonée nécessitera l'implication massive de l'État dans le cadre d'une double action :
(*) Concernant Internet, nous recommandons non pas l'interdiction de la publicité, mais l'entrée sur le marché d'entreprises publiques nationales et confédérales pour proposer aux utilisateurs des services web sans publicité (NB : ce sera un des des avantages concurrentiels de cette offre publique).
d'un réseau mondial de compensation (*) d'énergies intermittentes (solaire, éolien, ...), permettant le transfert d'électricité des régions en surproduction temporaire vers celles en sous-production temporaire, notamment d'électricité photovoltaïque entre régions du monde dont les cycles journaliers ou saisonniers (**) sont opposés. Voir à cet égard les travaux de Damien Ernst, professeur à l'université de Liège, sur "The Global Grid" : vidéo en français ; article en anglais .
La réponse apportée par l'UE a surtout consisté à appliquer son credo libéral : stimuler la concurrence, dans l'espoir que cela (i) augmente le rapport qualité/prix, et (ii) diversifie l'offre de produits énergétiques. Comme le marché de l'énergie est généralement un monopole naturel (notamment, dans le cas de l'électricité, aux niveaux de son transport et de sa distribution), il n'est pas rationnel de stimuler la concurrence par multiplication horizontale du nombre des producteurs de biens et services énergétiques. La "logique" libérale se tourne alors vers une division verticale des trois composantes : production, transport et distribution.
Ainsi EDF a été éclatée en trois entités :
• EDF (production)
• RTE (transport)
• Enedis (distribution)
Cependant la logique décentralisatrice de l'idéologie libérale se heurte ici à la réalité : l'électricité, étant un flux d'électrons, ne peut être stockée, et il faut donc également maintenir un équilibre entre production et consommation. Or il est difficile de gérer tout cela efficacement dans un système décentralisé.
International. Un autre aspect de la problématique est le fait que si deux États voisins appliquent des politiques énergétiques incompatibles, il le sera plus difficile de collaborer dans la gestion des échanges énergétiques, notamment pour la régulation des flux.
Quel est le mix énergétique optimal, eu égard aux contraintes de coût, de sécurité d'approvisionnement et d'impact environnemental ?
.5.1. Énergies vertesSoleil. Constatant que l'équilibre thermodynamique en biologie correspond à la mort, le physicien François Roddier en conclut que pour survivre sur sa planète considérée comme système isolé, la société humaine doit arriver à n'utiliser que des énergies externes (dont le soleil) afin de ne pas augmenter son entropie. « Il faut suivre la recette de Carnot, celle des cycles réversibles. Pour cela il faut un apport extérieur de chaleur provenant d'une source chaude. Le soleil la lui procure sous une forme de rayonnement dans le domaine visible. (...) L'humanité doit nécessairement rendre une partie de cette chaleur à une source froide. Là encore l'univers la lui procure. Le fond diffus cosmique à 3°K la lui procure sans s'échauffer notablement. (...) [source p. 164-165].
L'équilibre stable/stationnaire des économistes correspond-il l'équilibre thermodynamique des physiciens ?
Découplage. Les partisans de la transition énergétique (TE) vers les énergies renouvelables affirment même que l'amélioration de l'efficacité énergétique des processus de production rendrait possible une croissance économique plus rapide que l’augmentation de la consommation d’énergie primaire (principe de "découplage relatif"), voire même avec une diminution de la consommation d’énergie primaire ("découplage absolu").
Cependant les données empiriques, qui montrent une forte corrélation entre croissance économique et consommation énergétique, ne confirment toujours pas ces espoirs. Le faible couplage relatif que certaines études affirment mesurer serait de toute façon un "espoir sans avenir" : ainsi l'éolien aurait déjà atteint le maximum physiquement possible en matière d'efficacité (cf. limite physique de conversion imposée par la loi de Betz).
Coût total. Les considérations physiques ci-dessus doivent être complétées par des considérations d'ingénierie. La durée de vie d'un système producteur d'énergie peut-être décomposée en (au moins) trois étapes :
(*) graphite de carbone pour les batteries lithium-ion ; silicium pour les panneaux photovoltaïques ; terres rares telles que le néodyme pour les aimants des éoliennes ; ...
Ces opérations consomment également de l'énergie et ont aussi un impact sur l'environnement. Il importe alors de vérifier si l'énergie produite rembourse la somme des énergies investies. Par exemple des études montrent qu'en prenant compte de l'ensemble de ces coûts il apparaît que le véhicule électrique serait plus polluant que le véhicule thermique [source1, source2]. Autre exemple : les biocarburants produiraient finalement plus de CO2 qu'ils ne sont supposés en économiser [source1, source2]. Et c'est sans parler de la concurrence exercée sur les surfaces agraires dédiées à la cultures de plantes nutritives.
Il apparaît ainsi que taux de retour énergétique de l'éolien et du solaire est généralement plus faible que celui des combustibles fossiles et du nucléaire (cf. supra #energie-principes), notamment en raison de leur nature intermittente et de la décentralisation de leur réseau de distribution (qui est caractérisé par des économies d'échelle très faibles voire négatives).
Le début fait rage, notamment en raison de son fort contenu géopolitique. Il serait naïf de croire que la communauté scientifique ne serait pas influencées par ces forces économiques. Ainsi alors qu'une étude montre que sur 24 scénarios de production d'énergie 100% renouvelable, aucun ne serait viable [source], une autre étude la contredit intégralement ... [source].
Sur base du coût moyen en sortie d’usine du kWh produit tout au long de la vie de l’usine (calculé en intégrant toutes les dépenses en capital, opérationnelles et de carburant, pendant la durée de vie de l’usine, puis divisé par la quantité d’énergie utile fournie au réseau électrique), le coût du kWh éolien ou photovoltaïque serait passé en dessous de celui du nucléaire [source].
La baisse des coûts des technologies liées aux énergies renouvelables est particulièrement flagrante dans le prix par unité de capacité des batteries au lithium, qui a baissé de 97% entre 1992 et 2022 [source]. Cependant, les batteries entraînent des coûts supplémentaires, qui ne sont pas pris en compte dans cette baisse apparente de leur prix ! Ces coûts externes spécifiques sont liés à la complexité des systèmes de stockage des énergies renouvelables, qui requièrent beaucoup plus de métaux critiques (fer, cuivre, silicium, nickel, chrome, zinc, cobalt, lithium, graphite, platine, irridium et métaux de terre rares comme le néodyme ou le tantale) que le bouquet énergétique non intermittent. Or leur extraction, utilisation et recyclage posent des problèmes de pollution, de dépendance géostratégique ou encore de sécurité [source].
La problématique du stockage implique des technologies complémentaires. Cette diversité est illustrée notamment en termes de temporalité : quelques secondes en cas de régulation de fréquence, plusieurs minutes ou heures pour lisser la production, plusieurs mois pour le stockage intersaisonnier.
Par conséquent, la problématique de l'intermittence des énergies renouvelables étant loin d'être résolue, il importe donc de prendre en compte les coûts dits "d'intégration", imposés au réseau par l’intermittence du solaire et de l’éolien. Il s'agit notamment de coûts d’équilibrage du réseau ("balancing costs"), liés à la nécessité de conserver davantage de centrales gazières actives pour amortir les à-coups de production liés aux sautes de vent de l’éolien. Les turbines gaz tournent au ralenti et conservent ainsi une énergie cinétique suffisante pour entrer en action à quelques secondes près en cas de variation brusque de la puissance envoyée dans le réseau par l’éolien [ŝource].
Compenser l'intermittence. Durant la majorité des heures de l’année, le vent ne souffle pas et le Soleil ne brille pas. Qui plus est, en particulier pour l’éolien, cette intermittence est aléatoire car on ne sait guère longtemps à l’avance quand les installations vont produire (ainsi le facteur de charge est de seulement 25% pour le solaire, et 35% pour l'éolien, contre 95% pour le nucléaire). Pour répondre à la demande, notamment de pointe, il faut donc avoir sous le coude des centrales capables de démarrer instantanément. Les centrales les mieux adaptées à cette tâche sont les centrales au gaz et ensuite les centrales nucléaires, qui constituent ainsi un complément nécessaire aux renouvelables. Plus de renouvelables, c’est donc davantage de gaz.
Deux problèmes, viennent encore accroître ce coût dit "d'intégration" lié aux énergies renouvelables intermittentes (ERI) :
Dans l'état actuel des technologies (mais qui progressent rapidement), le nucléaire est un moins bon amortisseur de chocs d'intermittence que le gaz, car il ne peut pas faire varier sa puissance instantanément (délai de deux ou trois heures). Quant aux centrales à hydrogène (par électrolyse), qui présentent le double avantage d'être rapidement activables et également peu émettrices de CO2, leur TRE est encore trop faible pour que cette solution soit économiquement viable.
Ainsi l’Agence internationale de l’Énergie souligne que la valeur systémique des énergies renouvelables intermittentes telles que l’éolien et le solaire décroît lorsque leur part dans la production électrique augmente [source]. Cela signifie que la baisse de coût des énergies intermittentes évoquée plus haut est plus qu'annulée lorsque l'on prend en compte leurs coûts externes (notion de valeur systémique).
L’intermittence impose ainsi aux autres centrales non intermittentes une externalité négative que les mécanismes actuels de tarification des énergies renouvelables intermittentes ne font pas porter aux producteurs desdites ERI mais par des taxes sur les consommateurs finaux. En effet, les producteurs éoliens/PV sont payés au kWh produit, indépendamment que cette production survienne quand elle est utile ou quand elle ne l’est pas.
Conclusion : pour que l'intégration des ERI dans le réseau électrique soit économiquement viable, il faut développer l'efficacité des centrales nucléaires de nouvelle génération (augmenter leur vitesse d'activation) et des centrales à hydrogène par électrolyse (augmenter leur TRE). Une mesure complémentaire, de nature globale, consiste à développer un réseau mondial d'électricité "verte", permettant les compensations inter-continentales des zones en surplus vers celles en déficit temporaire (PS : cela impliquerait un réseau de très grande taille, avec des pertes par effet Joule proportionnelles, qui pourraient cependant être atténuées par le développement des technologies de supraconductivité).
Mais comment développer toutes ces technologies intensives en capital sans le nucléaire...?
Énergie : le tout renouvelable est-il possible ? (4m24s - 2017)
Dans les pays les plus développés l'énergie nucléaire est largement majoritaire. Cependant, suite aux accidents de Three Mile Island (1979), Tchernobyl (1986), et Fukushima (2011), une partie importante (majoritaire ?) de la population souhaite renoncer totalement à cette énergie, ce qui pose évidemment la question de la transition énergétique.
On peut résumer cette problématique en trois points essentiels : (i) il n'existe pas immédiatement d'infrastructure pour fournir une offre alternative d'énergie ; (ii) par conséquent la sortie immédiate du nucléaire exigerait nécessairement un forte diminution de la consommation en attendant que l'infrastructure soit adaptée [source] ; (iii) or il apparaît que même les partisans de la sortie du nucléaire ne sont pas disposés à modifier drastiquement leur mode de vie.
Le graphique suivant montre que depuis 1985 l'évolution du rapport entre le nombre de centrales fermées et le nombre de nouvelles centrales est telle que l'évolution du parc nucléaire mondial a été gelée (et ne suit donc plus celle du PIB mondial, ce qui se traduit par la réouverture de mines de charbon, extrêmement polluantes ...).
Force est de constater que le débat public en la matière est biaisé par des approches partisanes, alors qu'il devrait être guidé par les règles de la méthode scientifique. D'une part les lobbies industriels du secteur énergétique, étant essentiellement composés d'entreprises privées, tentent d'influencer les recherches scientifiques dans un sens qui maximise leurs profits plutôt que l'intérêt collectif. D'autre part les médias, partis politiques et ONG subsidiées focalisent sur le lucratif catastrophisme climatique et nucléaire (*) : "les trains qui arrivent à l'heure, ça ne fait pas vendre".
(*) Il est frappant de constater que les partis écologistes attisent la peur du nucléaire tout comme l'extrême droite attise celle des étrangers. Cela confirme l'inefficience du système représentatif et des partis politiques. C'est pourquoi la démocratie directe est probablement une condition nécessaire du développement durable.
Si la responsabilité des lobbies industriels est souvent évoquée on évoque beaucoup moins celle des lobbies écologistes (partis politiques et ONG), qui de façon très populiste prônent la sortie immédiate du nucléaire tout en évitant de trop s'impliquer dans la complexe problématique de la transition énergétique ("comment sortir du nucléaire sans pénurie énergétique"). C'est que, dès que l'on rentre en détail dans cette problématique, on est confronté à des arbitrages dont aucune solution n'est complètement satisfaisante en raison de la résistance de la population à modifier son mode de vie. Ainsi l'actuel sous-investissement dans le nucléaire a pour effet qu'un nombre croissant de pays développés (dont l'Allemagne) ont du augmenter leur production de charbon, dont la combustion émet énormément de CO2, contrairement au nucléaire qui en émet très peu ! On se retrouve ainsi dans une situation absurde où les ONG et partis écologistes, en niant le risque très réel de pénurie énergétique induite par une transition sans nucléaire, provoquent ainsi une hausse des émissions de CO2 via le retour au charbon, voire empêchent de facto une planification pragmatique de la sortie du nucléaire, même dans les pays ayant théoriquement renoncé à cette forme d'énergie !
Ecolos-bobos. En raison de la résistance à la diminution du niveau de vie, la transition énergétique se traduira par une hausse du prix de l'énergie, ce qui touchera surtout les plus pauvres, dont la facture d'électricité ponctionne une portion plus importante du revenu. Cela est d'autant plus révoltant que les "bourgeois bohèmes" – qui ont généralement les moyens financiers de se payer une électricité plus chère – ne sont pas du tout disposés à modifier leur mode de vie. Pour le constater regardez parmi vos connaissances le nombre d'écologistes de salon qui se déplacent en voiture personnelle, voyagent en avion pour le tourisme, utilisent un smartphone et possèdent une télévision !
Le risque nucléaire frappe les imaginations en raison des images des attaques atomiques US sur le Japon en 1945, et du populisme des partis et ONG écologistes pour qui le catastrophisme est politiquement ou financièrement rentable.
Les cas d'accidents graves dans des centrales nucléaires sont pourtant statistiquement très rares, et leurs nuisibilités sur les organismes vivants ont été manifestement surestimés comme en témoignent l'état de la faune et de la flore dans la région de Tchernobyl [source] et la très faible augmentation du nombre de cancers suite à l'accident de Fukushima [source].
Une thèse est qu'en raison d'une durée de vie généralement plus courte que celle des humains les animaux n'auraient pas le temps de ressentir l'impact des radiations. Cependant, l'examen en février 2019 d'un sanglier sauvage tué par des loups a montré que la teneur en strontium (Sr-90) dans son organisme dépassait de 37 fois la norme, et celle de césium (Cs-137) de 96 fois. Cela indique que le sol et l'eau restent fortement "contaminés" dans la zone de Tchernobyl [source], ... mais aussi que les normes de nocivités surestiment la nocivité des taux d'intoxication.
Ainsi une étude révèle que la décision d'évacuation du site de Fukushima avait été prise sur base de mesures de radioactivité qui ne dépassaient pas la radioactivité naturelle maximale observée dans plusieurs régions de la planète [source].
L'OMS a fourni une estimation du nombre de victimes accidentelles par origine de l'électricité produite. Le résultat est sans appel : le nucléaire est dans la pratique l'énergie la moins dangereuse !
Origine | Décès / pétawattheure |
---|---|
Hydroélectrique | 1000 |
Photovoltaïque | 440 |
Éolien | 150 |
Nucléaire | 90 |
Source p. 166.
Ce classement ne correspond pas à celui de ourworldindata.org car celui-ci surestime la dangerosité du nucléaire. Ce site de l'université d'Oxford le reconnaît dans un texte de bas de page, mais ne le mentionne pas dans le tableau. C'est là une pratique de manipulation courante, également appliquée dans les statistiques covid-19 de ce site connu pour être un propagateur de statistiques biaisées en faveur des thèse climato-covidistes.
Nationalisation. Il importe cependant de réduire le risque d'accidents, notamment en nationalisant les centrales énergétiques car l'expérience montre que les privatisations ont logiquement conduit à des sous-investissements dans les infrastructures, les entreprises privées privilégiant par essence la profitabilité à court terme [exemple].
L'énergie de fission nucléaire émet très peu de CO2. D'autre part, bien qu'étant théoriquement non renouvelable (sa matière première – l'uranium – existant en quantités limitées) elle l'est cependant pratiquement dans la mesure ou ses réserves connues sont suffisantes pour alimenter le parc nucléaire actuel pour au moins 135 années [source]. Or entre-temps le progrès technologique aura très probablement modifié la problématique énergétique. Ainsi avec les réacteurs de quatrième génération, la quantité de déchets nucléaires serait limitée à 1 % de ce que les réacteurs actuels génèrent en déchets [source]. La plupart de ces déchets – qui disparaissent en 300 ans – occupent un volume insignifiant, et leur quasi totalité pourra être recyclée comme carburant des centrales du futur (l’uranium 238 et le plutonium 239) [source].
La fusion nucléaire (actuellement au stade de R&D) est moins polluante et risquée que la technologie de fission appliquée dans nos centrales : déchets à radioactivité plus faible et à durée de vie plus courte, pas de risque de fusion du cœur. En outre elle constituerait une source d'énergie quasiment illimitée [source].
Alors que la matière première de la fission nucléaire est l'uranium (ou plus exactement son isotope 235U, seul isotope naturel fissible) celle de la fusion nucléaire est l'hydrogène (ou plus exactement son isotope 2H encore appelé deutérium, disponible en grandes quantités dans les océans).
La libération d'énergie par la fusion nucléaire est maîtrisée depuis 1952 (bombe H). On est donc aujourd'hui capable de déclencher une fusion nucléaire, mais pas encore de contrôler la réaction, ce qui permettrait d'utiliser la fusion comme source d'énergie pour construire plutôt que pour détruire. Le projet ITER est actuellement le plus avancé en matière de R&D sur la fusion nucléaire contrôlée, mais on n'est pas encore capable de libérer plus d'énergie sous contrôle qu'on en "consomme" pour ce faire ...
Certains scientifiques doutent d'ailleurs de la faisabilité de la fusion nucléaire à grande échelle, ce qui explique probablement le budget relativement modéré alloué au projet international ITER : une vingtaine de milliards d'euros (partagés entre Russie, Chine, Corée du Sud, États-Unis, Japon, Union européenne, Inde) ce qui est peu comparé aux 400 milliards de dollars qu'a nécessité le développement de l'avion de chasse F35 de l'armée US [source].
D'autre part il faut se demander quel serait l'impact écologique et psychologique d'une source d'énergie sans presque plus aucune contrainte d'approvisionnement (illimitée, disponible de façon continue, faible coût). Ainsi selon le physicien François Roddier « en tant qu’êtres vivants nous sommes adaptés à un flux limité d’énergie, celui de l’énergie solaire, pas à un flux capable de croître indéfiniment » [source]. Se basant sur le second principe de la thermodynamique, qui stipule l'on ne peut durablement produire du travail mécanique que par des cycles fermés de transformations extrayant de la chaleur d’une source chaude pour en rendre une partie à une source froide, Roddier en déduit que seule l'énergie solaire devrait être utilisée : « elle est notre source chaude à 6000°K. Notre source froide est le ciel nocturne à 3°K. Elle implique que nous prenions soin de la couche d’ozone qui nous en sépare » [source].
Si les gouvernements ne relancent pas la construction de nouvelles centrales nucléaires, le prix de l'énergie risque de s'envoler, ce qui devrait susciter une forte inflation des prix à la consommation et, partant, une remontée importante et durable des taux d'intérêt. Ainsi – étant donné la contrainte budgétaire que représentent les règles de l'Union européenne en matière de dette publique – disparaîtrait la marge de manoeuvre que constitue actuellement pour les gouvernements le faible niveau des taux d'intérêt !
Par conséquent, sans relance du nucléaire, le risque grandit de bloquer le développement économique et social, voire de provoquer une crise économique majeure. Dans les deux cas ce serait préjudiciable à la reconversion énergétique, qui requiert de considérables investissements.
Le nucléaire est donc nécessaire pour la transition énergétique ! Ce n'est qu'un paradoxe apparent que pour en finir à terme avec le nucléaire il faut temporairement le relancer. Nous l'avons abandonné trop tôt, car la politique énergétique fut menée sur base de critères idéologiques plutôt que pragmatiques. Ce sont ainsi les partis écologistes qui ont provoqué le retour du charbon, extrêmement polluant en particules fines et CO2.
La croissance, c’est avant tout de l’énergie (6m10s - 2016)
L'idéologie libérale dominante prônant la suppression de toute politique industrielle publique via des entreprises publiques (et cela même au sein des partis politiques prétendument "socialistes" et "écologistes"), il en résulte une incapacité à réaliser suffisamment rapidement la transition vers des énergies et technologies à faible taux d'émission de gaz à effet de serre. En effet les entreprises privées étant motivées par la maximisation des bénéfices à court terme, c-à-d pendant la vie de leurs propriétaires, ceux-ci ne sont pas disposés à réaliser des investissements qui ne porteront leurs fruits qu'après leur mort, et surtout qui ne seront peut-être rentables que d'un point de vue collectif. C'est pourquoi les États sont appelés à appliquer des mesures incitatives.
On distingue généralement quatre types de mesures pour limiter les émissions de gaz à effet de serre : plafonds d'émission, subventions, taxes, marché des droits d'émission. Toutes visent à inciter les agents économiques à "internaliser" le coût social des émissions de CO2, en réalisant les investissements nécessaires pour réduire leurs émissions individuelles [source-a, source-b].
Condition d'efficacité. Selon la théorie économique pour que les efforts d'internalisation soient réalisés de façon optimale, il faut que leur coût marginal, c-à-d le coût de réduction d'une unité supplémentaire d'émission de CO2, soit identique pour tous les émetteurs de CO2.
Les quatre méthodes devront être (i) configurées par les gouvernements qui les appliquent de telle sorte que la condition d'internalisation optimale (égalité des coûts marginaux) soit vérifiée ; et (ii) appliquées identiquement par ces gouvernements (sans quoi on assisterait à des phénomènes de délocalisation vers les pays les moins strictes). Dans tous les cas il faut en outre pouvoir mesurer les émissions, et sanctionner les comportements non autorisés.
Plafonds d’émission (= type "réglementation") : fixés (en kilogrammes de CO2) individuellement pour chaque agent économique (sur sa production et consommation).
Subvention (= type "carotte") : attribuée aux agents économiques pour chaque réduction d’une tonne de leurs émissions de CO2 --> ils diminuent alors leurs émissions tant que le coût marginal de réduction d’une tonne de CO2 est inférieur à la subvention, et inversement dans le cas contraire --> et les coûts marginaux tendent ainsi à s'égaliser.
Taxation (= type "bâton") : chaque tonne de CO2 émise dans l’atmosphère est taxée d'un montant égal au coût pour la société de l’émission d’une tonne de CO2 supplémentaire --> les agents économiques réduisent alors leurs émissions tant que le coût marginal de réduction d’une tonne de CO2 est inférieur à la taxe, et dès qu’il devient plus important, ils ont intérêt à payer la taxe plutôt que de réduire plus leur pollution --> et les coûts marginaux tendent ainsi à s'égaliser ; en outre pour que cette égalisation corresponde à la situation optimale le montant de la taxe devrait être fixé au coût marginal social c-à-d le coût pour la société de l’émission d’une tonne de CO2 supplémentaire (taxe pigouvienne).
Marché des droits d'émission (= type "marché") : c'est le système de plafonds d'émission mais avec en plus (i) la vente aux enchères (par l'État) de quotas initiaux, et (ii) la création d'un marché où les agents n'ayant pas atteint leur plafond vendent le solde à des agents qui ont atteint le leur et ont besoin de quotas supplémentaires --> si le marché est efficient (*), un unique prix d’échange de la tonne de CO2 s’établit et les agents réduisent leurs émissions de CO2 tant que le coût de cette réduction est inférieur à ce prix, et inversement dans le cas contraire --> et les coûts marginaux tendent ainsi à s'égaliser ... sur le prix de marché.
(*) Un marché est dit efficient si les prix sur ce marché reflètent pleinement et toujours l’information disponible [source].
La taxation et le marché de droits d'émission présentent deux avantages. D'une part ils génèrent des recettes pour les États. D'autre part ils sont supposés moins interférer dans la formation des prix par le marché (que les économistes libéraux considèrent comme le mieux à même de déterminer le prix permettant de répartir efficacement les efforts de dépollution).
Nous allons étudier plus en détail le système des droits d'émission, car il applique pleinement les principes théoriques de l'économie de marché, ce qui explique probablement son échec (car les marchés ne vérifient généralement pas les conditions telles que la concurrence y seraient pure et parfaite, de sorte que le prix de marché ne correspond généralement pas à un optimum de Pareto).
Dans le système des droits d'émissions une autorité (de préférence internationale) impose aux entreprises (de préférence à des pays, selon le principe de subsidiarité) un quota d'émission de (tonnes) de CO2, mais tout en permettant aux agents économiques qui émettent moins de revendre leurs quotas excédentaires à ceux qui ne parviennent pas à réduire leurs émissions en dessous de leur allocation.
En pratique tout agent économique doit disposer à la fin de l'année du nombre de droits correspondant à ses émissions. S'il est en déficit il doit en acquérir sur le marché ou payer une amende (en principe supérieure au prix du marché). Ainsi une entreprise qui aura réalisé des investissements ayant pour effet de réduire ses émissions de CO2 ("investissements verts") pourra donc revendre une partie de ses droits d'émission (l'autre lui servant à développer son activité) à une entreprise ayant besoin de droits supplémentaires pour développer son activité. Celle-ci préférera acheter un droit si son prix est inférieur au coût de l'investissement requis pour réduire d'une tonne ses émissions de CO2. Si par contre le prix du droit d'émission est supérieur au coût de l'investissement vert, l'entreprise préférera réaliser celui-ci.
NB : le système des droits d'émission ne fonctionne donc que si le prix du droit d'émission (c-à-d le prix de la tonne de CO2) ne descend pas en dessous du coût de l'investissement vert. Or à ce jour le prix du droit d'émission n'a jamais pu dépasser le niveau requis ...
On peut montrer qu'il est plus rationnel (moins coûteux pour la collectivité) d'utiliser ce système plutôt que d'imposer à toutes les entreprises une diminution proportionnelle de leurs émissions de CO2 :
Soient deux entreprises A et B qui émettent chacune 2 tonnes de CO2, le coût de l'investissement vert par tonne étant de 1000 pour la première et 10 pour la seconde. Si l'on impose à chacune de réaliser l'investissement vert pour une tonne alors le coût total est de 1010 pour deux tonnes d'émission en moins. Cependant l'on arriverait au même résultat (deux tonnes d'émission en moins) à un coût nettement inférieur (20) si l'entreprise B réalisait à elle seule l'investissement vert pour deux tonnes. Or on arrive "naturellement" à ce résultat si le prix du droit est situé entre 10 et 1000 [source p. 287].
Stabilité. Cependant cet exemple montre aussi que le système des droits d'émission ne fonctionne plus si le prix du droit descend en dessous de 10 (dans l'exemple fictif ci-dessus). Or rien n'empêche que le prix de marché des droits d'émission descende en dessous du niveau requis. Il faut donc prévoir un système de stabilisation relative du prix du carbone (par exemple en réduisant suffisamment le quota global des droits d'émission on peut théoriquement repousser le prix au-dessus du niveau minimum).
NB : selon la doxa libérale le prix de marché est supposé mieux refléter la structure des coûts des entreprises qu'un prix fixé par l'autorité transnationale ...
Unicité. Le prix de la tonne de CO2 (c-à-d le prix du droit d'émission de cette quantité de CO2) doit en outre être identique dans tous les pays si l'on veut éviter les délocalisations vers les pays où ce prix serait le plus bas.
Équité. Mais cela induit une discrimination à l'égard des pays en développement, habituellement gros émetteurs de CO2 (comme ce fut le cas des pays développé au 18° siècle, époque où il n'existait pas de restriction aux émissions de CO2). Il faut donc prévoir des compensations financières, soit à partir d'un "fonds vert" alimenté par les pays les plus développés, soit en augmentant le quota des droits d'émissions des pays en développement. Oulala, ça devient complexe ce système des droits d'émission ...
Coordination internationale. Tout cela doit être réalisé dans le cadre d'un accord international, qui puisse de façon crédible :
Les États, ou une "banque centrale des droits d'émission" pourraient même intervenir à l'achat ou la vente sur le marché secondaire afin d'influer sur les cours (en l'occurrence , plutôt en acheter pour les rendre plus rares et ainsi faire augmenter leur prix).
Peu efficace. Force est malheureusement de constater que le système du prix carbone est à ce jour peu efficace. Le graphique suivant montre que le prix des droits d'émission de CO2 (prix effectif résultant de la fiscalité et des marchés de droits) a toujours été inférieur à 30 euros la tonne. Or on estime que ce prix devrait être d'environ 45 euros pour réaliser l'objectif du GIEC, à savoir limiter le réchauffement climatique à 2° ... [source p. 275]. Et selon une estimation de l'OCDE publiée en 2018, le prix devrait être d'au moins 60 euros en 2030 (et l'estimation "haute" est de 180 euros !) pour réaliser l'accord de Paris [source].
La première bourse du carbone a été créée en Europe en 2005.
En outre de nombreuses fraudes ont été signalées sur ce marché : à la TVA, vol de quotas, installations qui ferment mais conservent leurs allocations, etc. Il est également à craindre que les grandes entreprises polluantes instrumentalisent ce système comme instrument de marketing (greenwashing). Ainsi un des promoteurs majeurs du marché des droits d'émission est l’IETA (International Emissions Trading Association), qui regroupe plus de 150 entreprises comme Shell, BP ou Total ... [source]. À ce jour, les faits donnent donc raison aux critiques selon lesquelles le droit d'émission ne serait qu'un droit de polluer.
Il faut cependant noter que le principe des droits d'émission négociables aurait été appliquée avec succès dans les années 1990 aux USA pour réduire de 50% en quelques années les émissions de dioxyde de soufre (NO2). Si cela fut effectivement le cas, la difficulté est cependant toute autre lorsqu'il s'agit de mettre sur pied un marché mondial ...
Le graphique suivant révèle néanmoins depuis 2012 un découplage progressif entre émission de CO2 et croissance économique, probablement en raison du progrès technologique, dont le développement des énergies renouvelables.
Il en résulte depuis 2014 une tendance à la baisse des émissions de CO2 !
Étant donné que ces résultats positifs ont été obtenus malgré que le prix de la tonne de CO2 n'a jamais dépassé 30 euros, deux questions viennent à l'esprit :
Qu’entend-on par marché au carbone ? (2m07s - 2015)
Un document de la Banque de France (Banque centrale française) publié en mai 2023 montre que les énergies renouvelables & technologies associées requièrent plus de métaux et minerais que l'offre prévisible ne peut en fournir (notamment cuivre, graphite et nickel) [source].
Or d'autres secteurs économiques que ceux liés au énergies renouvelables & technologies associées, dont l'informatique, ont un besoin croissant de ces ressources naturelles. Et d'autre part, ces ressources sont généralement concentrées dans un petit nombre de pays.
La conclusion évidente est que si nous ne mettons pas fin à la marche forcée vers les énergies renouvelables (cf. supra #incitation-publique-renouvelable), nous risquons de provoquer des catastrophes économiques et des guerres partout dans le monde.
Il importe certes de continuer à investir dans la R&D en matière d'énergies renouvelables (*), mais il faut mettre un terme à l'incitation publique en faveur de technologies dont la pertinence scientifique et économique actuelle est contestable (cf. supra #energie-principes et #mix-energetique).
(*) Un domaine de R&D à haut potentiel est probablement le développement d'un réseau mondial de compensation d'énergies intermittentes (solaire, éolien, ...), permettant le transfert d'électricité des régions en surproduction temporaire vers celles en sous-production temporaire, notamment d'électricité photovoltaïque entre régions du monde dont les cycles journaliers ou saisonniers sont opposés.
Étant donné la taille actuelle de la population mondiale, on peut considérer qu'une famille de cinq personnes pourrait disposer en moyenne d'une surface exploitable de 7,5 ha :
• surface terrestre émergée = 130 millions km2 [source] ;
• population humaine = 8 milliards (20221) [source] ;
⇒ surface habitable par habitant = 130 106 / ( 8 109 ) * 100 ≈ 1,6 ha/hab ;
⇒ si 10% de la surface habitable est réservée à l'espace public (voies de communication, hôpitaux, etc) ⇒ une famille de cinq personnes pourrait disposer en moyenne d'une surface exploitable de 0,9 * 1,6 * 5 = 7,2 ha.
Ce chiffre correspond-il à une situation de surpopulation, des points de vue écologique et économique ? Pour répondre à cette question, il convient de compléter l'analyse quantitative (surpopulation) par une approche qualitative, portant notamment sur la concentration et la circulation des populations.
Circulation vs migration. Par "circulation" des populations nous entendons leur mobilité récurrente pour le travail ou les loisirs, à partir de leur domicile. Elle ne doit pas être confondue avec la "migration", qui est nettement moins fréquente, et correspond à un changement de domicile.
Le graphique suivant illustre le phénomène de concentration urbaine. C'est un phénomène initié au 19° siècle dans les pays les plus industrialisés : les populations des régions agricoles émigrent vers les villes, pour y travailler dans l'industrie ou les services.
L'image suivant illustre le cas de la région Bourgogne-Franche-Comté, avant dernière de la liste ci-dessus, avant la Corse et après le Centre-Val de Loire.
Paysage de la région Bourgogne-Franche-Comté
Paysage de la région Bourgogne-Franche-Comté, une des régions de France avec la plus faible densité de population (58 hab/km2).
Le graphique suivant montre que les années 2000 sont marquées par la fin de la croissance de la population rurale (en bleu), laquelle est devenue inférieure à la population urbaine (en rouge).
L'urbanisation est-elle favorable ou défavorable à l'environnement et aux humains ? :
En conclusion, il n'est pas évident de déterminer le signe de l'effet global de l'urbanisation sur l'environnement et les humains. Mon intuition est que l'effet global est négatif mais modéré.
Photo du ciel au-dessus de Saint Jean d’Arves (Savoie, France) le 6 novembre 2022.
La mobilité des populations – c-à-d leur propension à circuler plus souvent et sur de plus longues distances – est influencée par des considérations technologiques, économiques et culturelles.
L'augmentation de la mobilité des populations sur le volume de trafic est identique à celui d'une augmentation de la population. Cette problématique est illustrée par le trafic aérien, et ses effets de pollution visuelle et climatique (notamment via les traînées de condensation). Le progrès technologique (dont les avions électriques ou à hydrogène) pourra peut-être apporter des solutions à ces effets indésirables.
La surpopulation globale (nous ne parlons pas ici des surpopulations locales par concentration) est d'autant plus problématique que :
On observe cependant que plusieurs espèces sauvages européennes ont augmenté en taille et en répartition géographique au cours des cinquante dernières années [source].
Cependant, au niveau global, on observe une surproduction alimentaire : le graphique ci-dessous montre qu'entre 1960 et aujourd’hui, la population mondiale a certes plus que doublé, mais la production alimentaire a plus que triplé (c-à-d + 300 %). On notera que dans le même temps, les surfaces agricoles ont crû de moins de 15 %, ce qui témoigne d'une hausse considérable de la productivité, grâce au progrès des techniques de production. La cause première de la faim et de la malnutrition est la pauvreté (souvent exacerbée par les conflits), qui empêche d’accéder aux produits alimentaires [source].
Source : OCDE
Ces faits suggèrent que les effets de pollution que nous attribuons à une "surpopulation" pourraient en réalité être causés par une prédominance de la logique de maximisation des profits sur la minimisation de l'impact écologique, mais aussi sur la maximisation de l'utilité et de l'efficacité des biens et services produits (cf. obsolescence programmée, médicaments bidons, publicité, ...).
Population mondiale durable. Une méta-analyse réalisée en 2004 révèle que la taille durable de population mondiale varie très fortement selon les estimations : de 650 millions à près de ... 100 milliards d'humains ! Une valeur moyenne de l'ensemble de ces estimations se situe à 7,7 milliards, soit cent millions en-dessous de la population actuelle [source].
Consensus ? La valeur scientifique de cette moyenne doit être questionnée, alors que les pressions professionnelles et médiatiques sur les scientifiques non catastrophistes se font de plus en plus agressives, induisant ainsi un bais auto-réalisateur dans la production scientifique.
Faut-il alors réduire activement la population mondiale ? Réduire progressivement la population peut être réalisé de diverses façons, induisant toutes une baisse du taux de fécondité (nombre moyen de naissances par femme de 15 à 50 ans) :
Exception fait de la première mesure, les autres comportent des risques (notamment démocratiques, lorsque les mesures sont coercitives), qu'il convient de ne pas sous-estimer. Or, si à la grande variabilité des estimations de la taille durable de population mondiale, on ajoute l'analyse statistique par régression suivante, il apparaît alors que la pertinence d'une réduction planifiée de la population mondiale commence à poser question, au regard de ces coûts.
Ainsi le graphique suivant montre que le taux de croissance de la population mondiale est inscrit dans une tendance baissière depuis 1970. Une régression linéaire de cette tendance suggère que, si elle se maintient dans sa tendance actuelle, la population mondiale commencera à diminuer vers 2080.
Taux de croissance de la population mondiale (1970-2021)
Source : Banque mondiale, tableur population-mondiale.ods.
Selon les mêmes principes statistiques, on peut en déduire que la population mondiale (dont la croissance sur les cinquante dernières années fut très linéaire) serait alors d'environ 12,5 milliards.
Par conséquent, en 2080, la surface exploitable par famille de cinq personnes ne serait donc plus que de 0,9* 133 106 / ( 12,5 109 ) * 100 * 5 ≈ 4,8 ha/hab. Mais attention : les techniques de production, agricole comme industrielle, auront continué de progresser (en terme de productivité et d'impact écologique), de sorte qu'au moins du point de vue économique, cette situation serait probablement proche de l'actuelle. Elle pourrait l'être également du point de vue écologique, dans la mesure où les gains de productivité peuvent réduire l'impact écologique par unité produite : ainsi entre les années 1970 et 2000, le progrès technologique a eu pour effet d'abaisser l’intensité énergétique (mesure inverse de l'efficacité énergétique d'une économie, calculée par le rapport entre consommation d'énergie et produit intérieur brut) de 25%, soit 0.7% par an.
D'autre part, l'analyse en terme de taux de fécondité suggère que la population mondiale pourrait commencer à décroître bien avant 2080. En effet, le seuil moyen de renouvellement des générations étant de 2,3 [source], le graphique suivant suggère que si la baisse du taux de fécondité suit la même progression (en l'occurrence, de puissance) que depuis les cinquante dernières années, alors la population mondiale devrait commencer à décroître vers la moitié de ce siècle (voire avant ?).
Taux de fécondité de la population mondiale (1970-2020)
Source : Banque mondiale, tableur population-mondiale.ods.
Le graphique suivant illustre un scenario de décroissance démographique, basé sur une extrapolation de l'évolution de la population mondiale entre 2015 et 2021, par courbe de tendance polynomiale de degré 2. Cela correspond à un taux de croissance moyen de 0,5 % par an sur la période 2020-2050, soit un net ralentissement par rapport à la moyenne de 1,6 % par an observée durant la période 1960-2020.
Un scénario de décroissance démographique (monde)
Source : Banque mondiale, tableur population-mondiale.ods.
On notera que ce scénario est cohérent avec le graphique supra sur la surproduction alimentaire, qui montre une croissance exponentielle de la population entre 1800 et 1960, suivie d'une croissance linéaire jusqu'en 2010, ce qui renforce la thèse selon laquelle nous entrerions depuis 2015 dans une phase de renversement de tendance.
Enfin, une question étonnamment peu étudiée est celle de l'impact la très forte baisse de la fertilité masculine – moins 50% depuis 1970 [source] – sur l'évolution de la population mondiale ...
Une dépopulation via le taux de fécondité doit être accompagnée par une augmentation de la productivité, si l'on veut éviter les effets négatifs de la baisse de la population active sur le niveau de vie.
Nous raisonnons ici dans le cas de l'économie mondiale. En économie ouverte, la dynamique des flux migratoires s'ajoute à la problématique, en termes positifs (compensations ... locales) ou négatifs (difficultés d'intégration).
Force est donc de constater un flagrant biais catastrophiste dans les prévisions de l'ONU concernant la taille de la population mondiale : 10,5 milliards en 2080, et maintien à ce niveau jusqu'en 2100 [source]. Selon notre analyse, les prévisions de l'ONU surestiment le risque quantitatif de surpopulation (qu'il est facile de biaiser, en sur-pondérant les estimations hautes des prévisions démographiques). Il importe d'autre part de concevoir la politique de développement en prenant en compte les questions liées à la concentration des populations et des moyens de production, et son impact sur la circulation optimale de ces facteurs et moyens de production. Nous avons suggéré qu'une allocation universelle permettant de vivre (chichement) sans devoir travailler, serait un moyen efficace pour inverser le phénomène de concentration des populations, stimulant ainsi par ailleurs la démocratie et la résilience du système économique (cf. supra #partage-et-preservation-des-ressources).
L'identité de Kaya formalise les émissions anthropiques de CO2 comme étant fonction :
le ratio inverse PIB/E est appelé "efficacité énergétique".
L'identité de Kaya est une construction comptable, fondée sur une tautologie :
CO2 = CO2 ⇔
CO2 = E * CO2/E ⇔
CO2 = PIB * E/PIB * CO2/E ⇔
CO2 = P * PIB/P * E/PIB * CO2/E
N.B. Ce type de développement algébrique ne constitue aucunement une démonstration mathématique de la pertinence d'une thèse, mais seulement une modélisation illustrative de cette thèse. Cette construction comptable repose d'ailleurs sur une tautologie ... du CO2
Ainsi – si est vraie la quadruple thèse d'un (i) réchauffement, (ii) anthropique, (iii) catastrophique, (iv) opérant via le CO2 – alors il serait utile, pour réduire les émissions anthropiques de CO2, d'appliquer tout ou partie des mesures suivantes :
Ainsi par exemple, si durant les quarante prochaines années, la population mondiale croît de 1% par an (soit * 1,33 sur la période), et le niveau de vie augmente de 2 % par an (soit x 2,2 sur la période), alors pour diviser par trois les émissions anthropiques de CO2, il faudra donc diviser le produit des deux intensités par un facteur 9 :
CO2 / 3 = ( P * 1,33) * ( PIB/P * 2,2 ) * ( E/PIB * CO2/E ) / x ⇒
1/3 = 1,33 * 2,2 / x ⇒
x = 1,33 * 2,2 * 3 ≈ 9
Cependant, entre les années 1970 et 2000, le progrès technologique a eu pour effet d'abaisser l’intensité énergétique de 25 %, soit -1 % par an, ce qui, pour la période de quarante ans considérée dans les calculs ci-dessus, correspond à une baisse de 33 %, soit la division par un facteur 100 / 67 ≈ 1,5, ce qui est six fois moins que le facteur 9 auquel aboutit le calcul supra. Par conséquent, si cette tendance se maintient, alors pour atteindre l'objectif de division du taux de CO2 par trois en quarante ans, il faudrait donc nécessairement agir sur les deux autres facteurs – population et/ou PIB/hab – et cela sur la même période de quarante années ...
En l'occurrence, il faudrait :
À titre de comparaison, la crise économique des subprimes (la seconde plus grande crise économique depuis la seconde guerre mondiale après la crise du covid), c'est une baisse du PIB/hab mondial de -1,9 % pendant une année (2009) ...
Pour ce faire, à natalité et mortalité inchangées, il faudrait assassiner 150 millions de personnes par an, pendant quarante ans.
Ces scénarios reposent sur l'hypothèse que serait vraie la quadruple thèse. Or la mesure des critères qui fondent le facteur 3 de division supposée "nécessaire" du taux de CO2 est-elle crédible ? En effet, ces mesures sont en réalité des estimations fondées sur des modèles mathématiques. Or nous avons vu que les valeurs produites par ces modèles sont parfois inférieurs à leur marge d'erreur, ce qui rend ces estimations caduques [source]. Enfin, quid si tout ou partie de la quadruple thèse est fausse ... ?
Notre avis. Il est risqué et dangereux d'utiliser ce modèle, car :
Conclusion. Fonder une politique de développement sur une thèse spécifique – en l'occurrence, la quadruple thèse d'un (i) réchauffement (ii) anthropique, (iii) catastrophique, (iv) opérant via le CO2 – c'est prendre des risques inconsidérés. Il est bien plus pertinent d'utiliser un modèle de développement durable fondé sur les variables essentielles de la thermodynamique, à savoir l'énergie et la matière. Rappelons à cet égard que le CO2 est compris dans le terme PIB en tant que matière, et dans le terme E en tant qu'énergie.
Le narratif officiel du CO2 n'a-t-il pas en réalité pour fonction de nous faire croire que l'on peut "maigrir sans effort" ? Car c'est bien l'énergie, et non le CO2, qui est fondamentale : ainsi, il n'existe pas pour le CO2 une loi aussi fondamentale que E=mc2.
Notre modèle de (dé)croissance durable, encore appelé modèle de "découplage", montre que le niveau de vie durable est fonction de la croissance de l'efficacité énergétique moins celle de la population.
Nous allons ici développer ce modèle comme suit (NB : à lire deux fois, pour s'habituer aux notations) :
Variables :
D : demande
S : offre
Y : PIB (NB : la notation Y remplace D et S lorsque D=S)
YD : PIB durable
P : population (facteur travail & consommation)
N = D/P = Y/P : niveau de vie
E : énergie
T = S / E : efficacité énergétique, mesure de la Technologie (capital immatériel)
R = E / P : énergie disponible par habitant, mesure des Ressources (capital matériel)
Les taux de croissance des variables sont notés en minuscules (même lettre).
Thermodynamique. La composante matérielle des technologies est déjà comprise dans les ressources (capital matériel). Celles-ci peuvent être mesurées par l'énergie disponible, si l'on suppose que, du point de vue de l'humanité, la quantité de matière disponible est infinie. Rappelons à cet égard, que l'énergie c'est de la matière transformée, et qu'une partie de l'énergie "produite" est "perdue" sous forme de chaleur (approfondir : allocation-universelle.net/thermodynamique).
Demande :
D = F(N,P)
D = D/P * P ⇒ par passage en taux de croissance :
d = n + p
Interprétation : la croissance de la demande égale la croissance du niveau de vie (qualitatif) plus celle de la population (quantitatif).
Offre :
S = F(T,R,P)
S = S/E * E/P * P
s = t + r + p
Interprétation : la croissance de l'offre égale la croissance de la technologie (capital immatériel) plus celle des ressources (capital matériel) plus celle de la population (travail).
Demande = Offre :
D = S (= Y)
d = s
n + p = t + r + p
n = t + r
Interprétation : la croissance du niveau de vie égale la croissance de la technologie (efficacité énergétique, capital immatériel) plus celle des ressources (consommation d'énergie par habitant, capital matériel).
On retrouve ce même résultat plus simplement en partant de la tautologie comptable :
E = E ⇔
E = PIB / ( PIB / E ) ⇔
E / hab = ( PIB / hab ) / ( PIB / E ) ⇔
( PIB / P ) = ( E / P ) * ( PIB / E ) ⇔
Niveau de vie = Ressources * Technologie
(quantitatif = ressources * qualitatif)
⇒ soit n, r, t les taux de croissance de N, R et T ⇒
n = r + t
Ainsi, dès si l'on considère que le développement durable consiste à augmenter le PIB (numérateur) sans que la quantité d'énergie mobilisée (ratio E) ne dépasse le niveau maximum compatible avec la capacité de résilience de l'écosystème terrestre, alors si ce niveau est atteint (comme l'affirment les écologistes), le développement (n>0) doit respecter la condition suivante pour demeurer durable :
r ≤ 0 ⇔
n - t ≤ 0 ⇔
n ≤ t
: le taux de croissance du niveau de vie (PIB/hab) ne doit pas dépasser celui de l'efficacité énergétique (PIB/E).
On peut même formuler explicitement le développement durable YD:
YD = F(Y/E)
YD = kD * Y/E
Il n'est pas possible d'accroître le PIB durable YD en augmentant E (à P et T constants) ou P (à E et T constants). Par contre, à E et P constants, il est possible d'accroître YD, en stimulant T (cela en raison de sa nature immatérielle).
⇔
Y / YD = E / kD ⇒
Y > YD ⇔ E > kD
Interprétation : un niveau de PIB est non durable parce qu'il correspond une consommation d'énergie supérieure à kD, la "constante de durabilité".
kD = YD / Y * E est la quantité d'énergie consommée lorsque le niveau de PIB est durable.
Introduisons dans le modèle la croissance p de la population P, ce qui permet d'identifier les deux conditions du développement (1° condition) durable (2° condition) :
Résumons les conditions du développement durable, et la mesure de correction :
Mais pour connaître nD, il faut connaître YD, et pour connaître YD il faut connaître la valeur de la constante de durabilité kD, qui est inconnue à ce jour. Il reste donc à découvrir la valeur de cette grandeur universelle, tâche qui devrait rassembler ingénieurs, économistes et biologistes ...
En l'absence de connaissance de la valeur de k, nous recommandons la politique de développement suivante :
Or il existe un facteur qui influe à la fois p et t – et en sens inverses – c'est le niveau d'éducation de la population !
Enfin, à commencer par les pays développés, il importe également de développer une culture (re?)donnant la primauté au "mieux" (qualitatif, simplicité, biens publics, spiritualité) sur le "plus" (quantitatif, complexité, biens individuels, matérialisme).
Paradigme actuel : "PLUS"⇒ | Pardadigme durable : "MIEUX" |
---|---|
Quantitatif | Qualitatif |
Complexité | Simplicité |
Biens individuels | Biens publics |
Matérialisme | Spiritualité |
Citons enfin l'économiste Alexandre Delaigue : « il n'y a pas de moyen crédible de réduire les inégalités mondiales significativement sans croissance économique (jointe à une meilleure distribution des revenus à l'intérieur des pays). Et il n'y a pas de moyen crédible de lutter contre le réchauffement climatique sans envisager des changements technologiques majeurs qui toucheraient l'intégralité de notre consommation et de notre production. Il n'y a pas d'autre voie pour préserver l'environnement et réduire les inégalités mondiales qu'une combinaison de croissance économique, de redistribution, et de progrès technologiques majeurs. La seule décroissance qui marche, c'est une bonne guerre » [source].
Le TUC est notre proposition, complémentaire au modèle de (dé)croissance durable, et reposant sur les trois faits suivants :
la croissance permanente du PIB/hab n'est pas incompatible avec la baisse infinie de son taux de croissance (cf. supra #PIB-quantitatif) ;
les pays moins développés souhaitent rattraper le niveau de vie (mesuré ici par le PIB/hab) des pays les plus riches ;
Écart de richesse entre pays (2021)
Lecture : le niveau de vie moyen des trois pays les moins développés représente moins de 1 % de celui des trois pays les plus développés ; quant à leur espérance de vie moyenne, elle ne représente que 70 % de celle des trois pays les plus développés.
Source : Banque mondiale, tableur : niveau-de-vie.ods
ce rattrapage peut être réalisé tout en veillant à ce que le taux de croissance annuel du PIB/hab des deux groupes de pays soit lui même constamment décroissant : il suffit pour cela que le taux de croissance du PIB/hab demeure suffisamment supérieur à celui des pays avancés. C'est ce que nous allons montrer.
Rattrapage
Le graphique suivant compare l'évolution historique du PIB/hab, entre pays "avancés" et "en développement ou émergeant", de 1980 à 2022. De 2000 à 2022, le ratio PIB(riches) / PIB(pauvres) (ligne verte) est passé de 13 % à 23 %. À ce rythme, le rattrapage serait réalisé dans une soixantaine d'années, vers le début des années 2080.
En effet, alors que la tendance du taux de croissance du PIB est baissière dans les pays riches (ralentissement), elle est haussière (accélération) dans les pays pauvres.
Pour opérer le rattrapage , la théorie relative de la monnaie nous indique une voie de réflexion : viser un taux de croissance du PIB proportionnel au taux de croissance universel de la monnaie, tel que défini par la théorie relative de la monnaie c = 4 / v où v est l'espérance de vie de la zone monétaire (cf. allocation-universelle.net/monnaie-libre).
La facteur de proportionnalité peut être calculé par le rapport entre le taux de croissance du PIB/hab [source] et celui de la masse monétaire [source], de la zone euro depuis sa création :
1,4 / 5,5 = 0,25 ⇒
gU / c = 0,25 ⇒
gU = c / 4 ⇒
gU = 4 / v / 4 ⇒
gU = 1 / v
Mais la formule est manifestement incomplète, car le rattrapage est très lent – voire nul dans le cas de la Chine – par rapport à l'économie la plus avancée, actuellement l'Allemagne (*), dont gU = 1 / 80,9 ≈ 1,2.
(*) L'économie la plus avancée est, selon nos critères, celle qui est en tête du classement PIB/hab * espérance de vie [source], après avoir retiré les paradis fiscaux, les pays dépendant d'une rente naturelle (généralement le pétrole), ainsi que les pays de moins de cinquante millions d'habitants.
Il faut donc compléter comme suit notre formule du taux de croissance universel :
gU t = 1 / vt-1 + 2 * ( 1 - (PIB/hab)t-1 / (PIB/hab)A t-1 ) / 100 où :Ainsi en t = 2023 :
Contributions. Le tableau suivant compare, pour l'Inde et l'Allemagne, la valeur observée du taux de croissance du PIB/hab (g), et celle calculée par la formule du taux universel (gU). On constate que la limite maximale que constitue le taux de croissance universel est plus contraignante pour le pays en rattrapage que pour l'économie dominante (ce qui peut se se justifier par le fait que les économies en développement sont plus polluantes). Cela est particulièrement visible sur la période 2003 et 2019.
Taux de croissance du PIB/hab (PPP in constant 2017 international $)
Source : Banque mondiale, tableur : taux-croissance-universel.ods
Rattrapage. Le graphique suivant illustre que :
si l'Inde et l'Allemagne se fixaient leur taux de croissance annuel au taux universel, le rattrapage, en terme de PIB/hab, se ferait en un peu plus de trois siècles : de 6.677 / 53.180 ≈ 13 % (2022) à ( 6.677 * ∏i=1320(1+gu,IN)i ) / ( 53.180 * ∏i=1320(1+gu,US)i ) ≈ 99 % (en 2343) ;
Le tableur permet de vérifier que pour réduire le rattrapage à 80 années, il faudrait remplacer le facteur 2 de la formule par un facteur 7,5, ce qui ferait passer le taux de 2020 de 3,2 à 8,0.
PIB/hab et son taux de croissance universel (IND, GER : 2020-2300)
Tableur : taux-croissance-universel.ods
En résumé :
Hypothèses de calcul
On considère que les espérances de vie continuent d'augmenter au rythme historique de la période 1990-2021. Les deux courbes de tendance apparaissent très faiblement logarithmiques, presque linéaires, à l'échelle d'un siècle. Il en résulte que l'espérance de vie de l'Inde atteint le niveau de l'Allemagne en 2077.
Enfin, on suppose qu'à partir de 2077, la fonction de croissance de l'espérance de vie en Inde est identique à celle de l'Allemagne.
Voici les points essentiels de la politique de développement durable que nous recommandons. Elle concerne les politiques du savoir, énergétique et monétaire, la production/consommation et enfin le commerce international :
Politique du savoir :
Politique énergétique : retarder la fermeture des centrales nucléaires, et si nécessaire construire des centrales de nouvelle génération, jusqu'à ce qu'à ce que, éventuellement, les technologies d'énergies renouvelables aient atteint un niveau de maturité permettant de les substituer au nucléaire sans réduire notre niveau de vie, c-à-d sans consommer moins et/ou sans payer plus cher ; il s'agit de garantir la disponibilité de ressources énergétiques – en l'occurrence, nucléaires – pour développer les technologies de stockage de l'électricité et/ou un réseau mondial de compensation entre régions en surplus et régions en déficit, ce qui permettrait ensuite de limiter la conversion énergétique aux seules énergies "vertes" (solaire, éolien, ...), éventuellement sans le nucléaire.
Politique monétaire : symétriser la création monétaire et l'allocation de cette création, par l'instauration de l'allocation universelle.
[1] Même la simple consommation de fruits sauvages ou d'eau de la rivière requiert un travail, consistant notamment à se déplacer vers les lieux où se situent ces ressources naturelles. Les techniques et outils peuvent simplifier ce travail humain (minimiser la dépense d'énergie) mais jamais le supprimer complètement.
[2] Corruption de la classe politique européenne par Washington :
Déclaration de Paul Craig Roberts, qui fut Secrétaire Adjoint au Trésor pour la politique économique et rédacteur en chef adjoint du Wall Street Journal : "Lors de mon doctorat, mon président de thèse, qui est devenu un haut fonctionnaire du Pentagone, en réponse à ma question sur la façon dont Washington a toujours réussi à imposer aux Européens ce que Washington voulait m’a répondu :
- « L’argent, nous leur donnons de l’argent ».
- « L’aide étrangère ? » ai-je demandé.
- « Non, nous donnons aux dirigeants politiques européens des valises pleines d’argent (bags full of money). Ils sont à vendre, nous les avons achetés. Et ils viennent rapporter ».
Peut-être que cela explique les 50 millions de dollars amassés par Tony Blair en une année ..." [source].
Corruption de la classe politique US par les super-riches et les grandes sociétés :
Dans un interview télévisé datant d'août 2015 le milliardaire US Donald Trump déclare qu'il achète des politiciens chaque fois qu'il en a besoin, et que ce système est généralisé [source].
Auteur : F. Jortay | Contact : | Suivre : infolettre-K