L'objectif de cette étude en édition continue et initiée en mars 2020, est – au moyen d'une analyse mutidisciplinaire (mathématique, économique, politique, historique) – de confirmer ou d'infirmer ce qui me paraissait une évidence dès le début du mois de mars 2020, à savoir que ce qui était présenté comme un crise sanitaire (phénomène naturel) est en réalité une crise politique (phénomène idéologique), et cela au niveau mondial.
L'insistance des appareils d'États (presse, autorités académiques et médicales, gouvernements, ...), dès les premiers jours de l'épidémie, pour marteler que "plus rien ne serait jamais comment avant", était évidemment le signe que quelque chose de majeur est en train de se produire, et que cela n'a rien à voir avec une quelconque crise sanitaire, aussi réelle (quoi que non atypique) soit-elle.
Nous n'avons d'ailleurs trouvé à ce jour aucun document scientifique (articles ou manuels) datant d'avant 2020 et recommandant l'imposition du confinement général pour neutraliser une épidémie.
Régulièrement des continents sont confrontés à des épidémies d'agents infectieux dont certains sont "inconnus" (grippes aviaires, H1N1, SARS, MERS, Ebola, chikungunya, Zika, ...) [source], causant des morts, et dont la croissance est exponentielle.
Pandémie et OMS. Le monde a connu diverses pandémies depuis celle de 1918 : dont les plus sévères furent celles de 1957 (grippe "asiatique", 1968 ("grippe "de Hong-Kong") et 2009 (H1N1) (NB : une partie de la mortalité attribuée à la pandémie de 1918 fut en réalité causée par les effets de la première guerre mondiale sur la santé publique). L'ancêtre de l'OMS a été créée par la Société des Nations (ancêtre de l'ONU) en 1920 [source].
À chaque épidémie ou pandémie (épidémie internationale) il existe un risque plus ou moins élevé que le système hospitalier d'un pays soit surchargé. Déjà en 2009 (soit quelques années après l'apparition des "médias sociaux" du web) l'OMS et la presse avaient suscité une atmosphère de panique. Mais jamais on avait atteint un état d'hystérie et de psychose collective tel qu'avec covid-19. En particulier on avait jamais appliqué le confinement général à l'ensemble de la population d'un pays.
Covid-19 ("COronaVirus Disease 2019") est le nom de la maladie, tandis que SARS-CoV-2 ("Severe Acute Respiratory Syndrome COronaVirus 2") est celui du virus causant cette maladie chez une partie des personnes infectées [source].
Oui certains hôpitaux furent saturés en 2020 (NB : comme chaque année !), mais le taux d'occupation de la capacité nationale n'a jamais atteint 100%. Il n'a même jamais atteint 80% !
Il importe de comprendre pourquoi et comment la bouffée délirante autour de la covid-19 a pu se produire. La similitude du phénomène covid-19 avec la guerre (la vraie), cette autre folie collective, est flagrante. Or en situation de guerre, il n'y a plus de place pour le débat : si vous critiquez le gouvernement, celui-ci et ceux qu'il a rallié à lui grâce à la peur, vous accusent de jouer le jeu de "l'ennemi meurtrier". Cette vision réductrice a pour effet d'inhiber (voir criminaliser) le débat public et partant l'intelligence collective. Cela conduit à l'incapacité collective de s'adapter intelligemment à l'évolution de la situation et des informations disponibles. Il en résulte généralement des catastrophes. Ainsi en cédant à la panique on peut perdre une guerre face à un ennemi même insignifiant (prophétie autoréalisatrice). Ainsi, si l'on peut encore croire les statistiques, il y aurait bien eu une forte surmortalité toutes causes, dans un certain nombre de pays. Mais cette surmortalité toutes causes est-elle causée par le virus, ou par les effets pervers de la stratégie non médicale ?
Pour répondre à ces questionnements, le présent article est composé de huit chapitres, répartis en trois parties :
1. Introduction
2. Résumé
partie mathématique
3. Modèles mathématiques
4. Modèle SIR
5. SIR et la grippe
6. SIR et covid-19
partie pratique
7. Stratégies anti-épidémiques
8. Indicateurs et suivi épidémique
9. Covid-19 : analyse factuelle
partie politique
10. Covidisme
La lecture de la partie mathématique n'est pas indispensable pour la compréhension des parties suivantes.
Plus généralement, "Gestion des épidémies" peut être lu aussi comme une sorte d'encyclopédie du covidisme (son impression vous coûtera 174 pages A4...). On lit rarement une encyclopédie du début à la fin : chacun choisit plutôt les chapitres, sections ou sous-sections qui l'intéressent. Notez à cet égard le bouton avec une croix, situé au début du sommaire : en cliquant dessus le sommaire s'étend pour montrer également les sections et sous-sections. Enfin l'accès direct (vs séquentiel) de la lecture encyclopédique peut également se faire sur base de mots clefs : CTRL+F (MS Windows, Linux) ou Commande+F (Mac).
Résumé en dix points.
Auto-extinction. Depuis qu'elles sont mesurées scientifiquement (c-à-d depuis 1920) il a été observé que toutes les épidémies se sont éteintes sans que la stratégie non médicale (SNM : confinement, distanciation, masque, antisepsie, injections expérimentales) ait été imposée à l'ensemble des populations. Même durant les pandémies de virus "nouveaux" il n'y a jamais eu de surcharge hospitalière à la mesure des prévisions apocalyptiques des modèles épidémiologiques.
Focalisation. Le covidisme repose sur une confusion entre hyper-focalisation scientifique – jamais égalée avec la covid-19 – et atypisme de cette maladie, qui est en réalité d'une nature très proche d'une grippe sévère. L'hyper-focalisation "médiatico-scientifique" participe ainsi d'une dérive catastrophiste, dont les conséquences sanitaires, sociales et politiques sont quant à elles gravissimes (effet de "prophétie autoréalisatrice").
Harcèlement. Depuis 2020, dans la plupart des pays, l'appareil d'État (presse, gouvernement, autorités scientifiques, ...) harcèle la population par de quotidiens messages anxiogènes et des mesures coercitives, pour qu'en échange de la fin de ce harcèlement les populations "acceptent" les injections expérimentales ainsi que le traçage systématique de leurs activités sociales. L'épidémie de covid-19 fut ainsi instrumentalisée pour forcer le vote de bases législatives facilitant la généralisation de ces pratiques.
Surmortalité. La dangerosité de la covid-19 est du même ordre de grandeur que pour une grippe sévère. L'essentiel de la surmortalité toutes causes depuis 2020 est causée non pas le virus mais par les effets pervers de la stratégie de la peur, dont la désorganisation du système médical. L'offre des services médicaux fut ainsi fortement dégradée, en termes quantitatif (allocation non optimale des ressources) comme qualitatif (stress du personnel soignant). En outre, pour "justifier" l'imposition de facto des injections expérimentales, et le consécutif passe sanitaire (= le traçage systématique de nos activités sociales), les appareils d'État ont (i) entravé l'utilisation des traitements habituels pour les infections respiratoires, et (ii) instantanément divisé par 18 (15*12/10) la durée habituelle avant autorisation de mise sur le marché (AMM) pour les nouveaux vaccins.
Homicides. Le nombre de décès causés par les seules entraves politiques à la voie thérapeutique représentent environ 55% du nombre total de victime attribuées à la covid-19. Si l'on prend en compte les autres effets pervers de la stratégie non médicale, la part de la surmortalité toutes causes provoquée par cette "stratégie" devrait être très nettement supérieure à 55%. C'est précisément en raison d'un ratio "effets positifs / effets négatifs" défavorable en cas d'application de la SNM à l'ensemble de la population, que cela n'avait jamais été fait avant 2020. Le covidisme est ainsi en passe de devenir un des plus grands crimes contre l'humanité dans l'histoire.
Hôpitaux. Depuis le début de la crise de la covid-19 en 2020, dans aucun pays la capacité hospitalière nationale n'a été saturée. Ainsi en France et Belgique, le taux d'occupation atteint au pire de la crise se situait aux alentours de 80% des lits de soins intensifs. En outre une partie considérable de ces hospitalisations étaient abusives, et motivées par la peur voire par une volonté d'apeurer les personnes présentant des symptômes grippaux.
Privatisation. Malgré une capacité hospitalière nationale suffisante, il y a, quasiment chaque année, de (courtes) périodes durant lesquelles certains hôpitaux sont saturés. Une des principales causes de cette situation est la privatisation progressive du secteur hospitalier, qui rend extrêmement difficile la création d'un système de gestion centralisée et en temps réel des transferts de patients entre hôpitaux.
Statistiques. Les statistiques épidémiques nationales en temps réel sont sujettes à de gigantesques biais statistiques, dont la correction (souvent fortement à la baisse) nécessite généralement plusieurs années. D'autre part il y a une volonté manifeste, dans le chef de l'appareil d'État, d'entretenir la confusion entre cas positifs et malades, de sorte que, via les tests, les vagues de panique (éventuellement provoquées) deviennent des vagues "épidémiques". Dans ces conditions, la notion de "pilotage épidémique", au moyen de modèles mathématiques, est une absurdité ouvrant la porte aux manipulations. Enfin ces procédés suscitent logiquement de légitimes suspicions quant à la la sincérité même des statistiques officielles.
Business. La presse propage de plus en plus le catastrophisme, et intoxique ainsi la société. D'autre part, des scientifiques, ministres et journalistes ont investi dans des actions pharmaceutiques (vaccins) et du "big data" (pass "sanitaire"). Certains sont peut être même corrompus par ces entreprises privées.
Intimidations. Un pseudo "consensus scientifique" a été fabriqué par la répression des médecins et scientifiques dénonçant ces faits (diffamation, pressions professionnelles…).
La lecture des chapitres 3 à 6 n'est pas nécessaire pour la compréhension des chapitres suivants.
Avant d'étudier le modèle épidémiologique de base (SIR), il est utile de prendre connaissance des principes élémentaires de la modélisation mathématique.
3.1. PrincipesLa modélisation mathématique d'un phénomène naturel permet au moins trois types d'utilisation :
Cette stabilité des paramètres est vérifiée dans le cas de phénomènes tels que la chute d'un corps, mais nous verrons que ce n'est pas le cas des phénomènes épidémiques autres que in vitro.
Corrélation. Ainsi le modèle M ≡ y = a * x + b décrit une relation (linéaire) entre des variables x et y, les grandeurs a et b étant considérées (à tort ou à raison) comme constantes et par conséquent qualifiées de "paramètres".
Mesure vs calcul. En présentant le modèle comme ci-dessus plutôt que, par exemple, comme M ≡ a * x + b * y = c on suggère que y est la variable déterminée par la variable explicative x, c-à-d que x est la variable d'entrée (input) et y la variable de sortie (output), c-à-d que x est mesurée, tandis que y est calculée. NB : cela n'implique pas nécessairement une causalité entre les deux, mais peut se justifier par exemple parce qu'il est moins coûteux de mesurer x que y, et donc de calculer y plutôt de le mesurer.
Dans y = a * x + b le coefficient b représente l'ordonnée à l'origine de la droite, tandis que le coefficient a représente la "pente" de la droite (Δy/Δx, interprétation géométrique) ou encore la "dérivée" de l'équation (dy/dx, interprétation algébrique), c-à-d la "sensibilité" de y à une variation de x.
Causalité. Tel que formulé ci-dessus, c-à-d sans indices de temps, le modèle ne dit rien quant à une éventuelle causalité soit de x sur y, ou inversement, ou les deux (boucle de rétroaction), ou/et d'une ou plusieurs variables non représentées dans le modèle. Du point de vue physique l'effet d'une relation causale ne peut être instantanée, sauf à supposer qu'un corps peut se déplacer, du lieu de la cause à celui de l'effet, à une vitesse infinie c-à-d supérieure à celle de la lumière, ce qui dans l'état actuel de la science physique est généralement considéré comme impossible. La cause doit donc nécessairement précéder temporellement son effet. Par conséquent une causalité de x sur y devrait être formulée par : yt+k = a * xt + b où k est le temps écoulé entre une variation de x et son effet sur y.
Calcul descriptif ou prédictif. On pourra alors tirer les conclusions suivantes sur les possibilités d'utilisations du modèle M ≡ y = a * x + b :
La valeur calculée y0 (descriptive) ou yk (prédictive) sera d'autant moins proche de sa valeur réelle que les erreurs de mesure de x0 (variable explicative), a et b (paramètres) seront élevées, et que la valeur de chacun de ces deux paramètres a et b ne sera pas constante (ou suffisamment peu variable, puisque dans le monde réel les véritables constantes sont relativement rares).
Grandeur | Constante | Changeante |
---|---|---|
Connue | Paramètre | |
Inconnue | Variable |
Le tableau ci-contre suggère que le terme "paramètre" implique théoriquement les notions de grandeur "constante" et "connue", tandis que "variable" est généralement associée aux notions de grandeur "changeante" et "inconnue".
N.B. Cette typologie – dont on peut critiquer la pertinence – a pour but de structurer l'analyse de lectures biaisées de la réalité, consistant soit à exploiter une confusion entre variable calculée vs mesurée, soit à minimiser les biais de mesure en temps réel des variables.
En théorie, si la grandeur y de notre système est changeante c'est donc uniquement parce qu'elle dépend d'une autre variable x. Et si les paramètres du système sont constants (dans l'espace et le temps), alors la valeur théorique de cette grandeur y est toujours égale à sa valeur réelle (ou disons plutôt "proche", en raison des erreurs de mesure).
En pratique la problématique est plus complexe car on constate que "tout change tout le temps", ... mais dans des proportions différentes, de sorte que l'on peut malgré tout considérer certaines grandeurs comme "relativement constantes" c-à-d que leur variation ne change pas significativement les solutions du système ("significativement" signifiant "relativement aux besoins des utilisateurs du système", ce qui introduit la subjectivité !). Ce sont les paramètres.
D'autre part, si la moyenne d'une variable est relativement constante (dans le temps et/ou l'espace), on peut alors l'utiliser à la place de la variable, pour "transformer" celle-ci en paramètre. Mais là encore la subjectivité intervient dans ce qui est considéré comme une valeur acceptable de la dispersion des valeurs par rapport à leur moyenne (et qui peut être mesurée notamment par l'écart-type). Comprenons donc bien que l'utilisation d'une moyenne, à la place de l'échantillon de valeur sur base duquel elle a été calculée, ne supprime pas la problématique décrite ci-dessus, mais la réduit au champs des moyennes. Or cette réduction n'est pas nécessairement significative !
Dimensions temporelle et spatiale
Les notions de variables et constantes concernent les dimensions temporelle et spatiale : une grandeur change (variable) ou pas (constante) :
À noter que le temps est de dimension 1 (une droite) et ne peut évoluer que dans le sens positif (on ne peut reculer dans le temps), tandis que l'espace est de dimension 3 (voire plus) et un corps peut s'y déplacer dans les deux sens positif (avancer) et négatif (reculer) d'une droite, ainsi que dans toutes ses directions. D'autre part le temps passe inexorablement tandis qu'un corps peut être soit à l'arrêt soit en mouvement.
Modèle épidémiologique SIR
Un modèle est donc nécessairement une représentation simplifiée de la réalité. Il y a là une rationalité économique : on veut pouvoir reproduire (simuler) un phénomène au moyen d'un système le plus simple possible (petit nombre de variables et paramètres, relations linéaires, ...). Cela ne veut pas dire qu'il n'est pas possible de simuler un phénomène complexe (grand nombre de variables et paramètres, relations non linéaires, effets de rétroactions, ...), c'est même dans ce cas qu'un modèle programmé dans un ordinateur permet de dépasser les limites de l'intuition humaine. Il serait donc injuste d'assimiler ces modèles à l'allégorie de la caverne.
Il importe cependant de faire preuve de prudence dans les modes d'application et l'interprétation des modèles. La relative facilité à les concevoir et "faire tourner" peut rapidement conduire au fétichisme du jouet mathématique voire à un enfermement cognitif (tels qu'observés chez de nombreux adeptes des modèles astrologiques), consistant notamment à croire que la modélisation mathématique constitue la démonstration d'une thèse alors qu'elle n'en est que la formulation.
Ainsi en économie et épidémiologie les modèles mathématiques doivent être constamment reparamétrés (la valeur des paramètres doit être réévaluée) pour qu'ils puissent simplement reproduire les phénomènes observés. L'instabilité temporelle (voire même spatiale) des paramètres – due à la nature écosystémique des phénomènes économiques et épidémiologiques – induit l'impossibilité pour ces modèles de prédire le développement futur de ces phénomènes. Dans ce dernier domaine la mutabilité des virus ou bactéries (qui en font de nouveaux objets biologiques dont les propriétés sont alors supposées inconnues) ne fait qu'accroître cette incertitude.
Le lecteur est vivement invité à approfondir les principes de la modélisation mathématique : philosophie.jortay.net/savoir-de-base#principes-modelisation.
Nous allons étudier ici les limitations intrinsèques à la capacité des modèles mathématiques à prédire l'évolution de certains phénomènes.
3.2.1. ExempleNeil Ferguson, physicien converti à la modélisation épidémiologique, qui en 2020 a réussi à convaincre de nombreux gouvernements que l'épidémie de covid-19 allait provoquer au moins 55 millions de morts si l'on appliquait pas le confinement général, est pourtant connu pour ses prévisions aussi catastrophistes ... qu'erronées [source] :
Dans aucun de ces cas les mesures sanitaires de la stratégie préventive "non médicale" (SNM : confinement, distanciation, masque, antisepsie, vaccination expérimentale) n'ont été imposée à la population. Heureusement, car sinon les adeptes des modèles épidémiologiques auraient affirmé que la catastrophe a été évitée grâce à la SNM. En 2020, ce fut malheureusement différent : le confinement général a été appliqué ⇒ les adeptes des modèles affirment que la catastrophe a été évitée grâce à l'imposition de la SNM à l'ensemble de la population ...
Un phénomène stochastique (c-à-d soumis au hasard) ne peut-être reproduit qu'en adaptant à chaque fois la valeur des paramètres du modèle puisque ceux-ci sont par nature variables dans le temps et l'espace. Par conséquent il est impossible de prédire l'évolution d'un phénomène stochastique.
Avec le développement des capacités de traitement des donnés (quantité et vitesse) sont apparus des modèles dits "stochastiques". Ils concernent des quantités "macroscopiques" vues comme des moyennes statistiques de quantités microscopiques (par exemple la pression et la température d'un volume gazeux). Le principe est ici que l’instabilité exponentielle du système "microscopique", c-à-d l'imprévisibilité des variables du niveau micro, n'impliquerait pas l'imprévisibilité de moyennes statistiques au niveau macro. Il existe cependant des situations particulières dites "critiques" où l'on observe des phénomènes de type "transition de phase" c-à-d tel que le système "hésite" de façon imprévisible et changeante entre deux chemins possibles [source].
Les scientifiques avaient l’habitude de penser que si l'on pouvait isoler un système des influences de son environnement et le décrire à l’aide d’un nombre réduit de variables, il serait à la fois déterministe et prévisible. Mais on sait aujourd'hui que pour être prévisible, un système doit être déterministe et stable : de petites incertitudes sur l’état initial du système ne doivent pas s’amplifier trop vite, sinon toute prédiction sur le comportement futur du système devient illusoire [source]. Des systèmes déterministes, c-à-d dont l’état futur est complètement déterminé par leur état présent, peuvent donc être imprévisibles. Et cela n'a rien à voir avec la complexité : ce phénomène de sensibilité aux conditions initiales concerne également les systèmes simples (petit nombre de variables, relations linéaires, ...).
Sensibilité aux conditions initiales
Dans cette animation en boucles (30 sec.), après quelques secondes les deux pendules se désynchronisent brusquement [source].
Un système est dit chaotique si une infime perturbation de son état initial peut bouleverser entièrement son évolution. Un système chaotique n'est pas nécessairement complexe.
Les modèles mathématiques reposent sur un certain nombre d'hypothèses – notamment la formulation des relations entre variables (les équations), la valeur des paramètres (les supposées "constantes" de ces équations) et conditions initiales – supposées représenter la réalité.
Voici quelques hypothèses sur les modes de transmission du virus covid-19, tirées de l'article de Neil Ferguson [source], sur base duquel de nombreux gouvernements ont décidé d'appliquer la distanciation sociale (confinement et masque généralisés) lors de l'épidémie de 2020 :
"30% des hospitalisés le seront en soins intensifs, et 50% de ceux-ci meurent" ;
Dans la section #modeles-mathematiques-principes nous avons vu que l'intérêt des modèles réside précisément dans leur simplicité. Mais lorsqu'un phénomène est difficilement modélisable et que par conséquent les modèles n'arrivent pas à simplement reproduire correctement ses instances (ce qui implique évidemment l'incapacité de prédire celles-ci), des scientifiques qui ont investi leur carrière dans la modélisation de ce phénomène peuvent être tentés, plutôt que de changer de domaine de recherche, de s'obstiner en augmentant sans fin le nombre des variables, paramètres et équations (ce qui est le cas des modèles dérivés de SIR). Il en résulte des modèles complexes qui non seulement ne sont pas plus performants mais qui en outre sont beaucoup plus difficiles à comprendre, de sorte qu'ils n'ont plus aucun intérêt (notamment pour l'enseignement). C'est le cas notamment en économie et épidémiologie/infectiologie, qui semblent bien être des phénomènes irréductibles.
L'incapacité prédictive des modèle épidémiologiques (sauf effet du hasard) n'est pas étonnante car la dynamique des maladies transmissibles est extrêmement complexe. On observe ainsi une grande diversité dans la nature et la puissance des vecteurs : tous ne transmettent pas la maladie de la même manière, certains individus étant plus contaminants mais moins malades (par exemple les enfants) tandis que d'autres sont plus sensibles mais moins contaminants (par exemples les personnes âgées).
D'autre part les comportements culturels, comme cracher par terre et consommer peu ou beaucoup de certains aliments, peuvent induire des différences dans la propagation et la létalité d'un virus. Les maladies infectieuses sont donc des maladies d'écosystème. Par conséquent même si un modèle fonctionnait bien pour tel pays il pourrait ne pas fonctionner du tout pour d'autres pays. À cette variabilité spatiale s'ajoute une variabilité temporelle : les écosystèmes sont par nature changeant d'une année à l'autre (cf. la grippe qui chaque année peut changer de nature au niveau de sa virulence ou/et ténacité).
Didier Raoult – premier expert mondial dans le domaine des maladies transmissibles selon le classement expertscape – dénonce « une façon de transformer en mathématiques des phénomènes extrêmement complexes qui n'est jamais lucide » [source]. Il y a une incapacité des modèles mathématiques à représenter la complexité des maladies transmissibles, qui plus est dans le cas de virus nouveaux et/ou à mutations fréquentes. Aucun modèle ne peut prendre en compte toute l'hétérogénéité spatiotemporelle d'un contexte écoépidémiologique, ni même le degré de transmissibilité ou la vulnérabilité à une infection. On notera ainsi le gigantesque réductionnisme consistant à ramener à la seule problématique de propagation d'un virus celle, beaucoup plus complexe, de neutralisation de ses effets sur la santé publique.
L'incapacité éventuelle d'un modèle mathématique à représenter un phénomène naturel n'est pas nécessairement liée à la conception (erronée ou incomplète) du modèle, mais peut aussi s'expliquer par l'inexistence du phénomène modélisé. Par exemple est-il certain que les notions "d'incidence épidémique d'un virus", de "maladie virale" ou encore de "taux de mortalité d'une maladie", correspondent à une quelconque réalité ? Ainsi lorsque nous pensons mesurer la durée moyenne d'une maladie virale nous ne mesurons en fait que des indicateurs dont nous supposons qu'il permettent de mesurer le début et la fin d'un concept que nous appelons "maladie virale".
Ainsi la notion de "réalité" est liée à celles de "définition" et de "complexité" : pour comprendre la complexité du monde, c-à-d pouvoir agir sur lui ou par rapport à lui, nous en définissons des objets, dont nous mesurons les valeurs. Ce faisant nous pouvons éventuellement ouvrir des portes sur des applications (R&D), mais peut-être aussi nous éloignons-nous d'autres voies plus intéressantes (enfermement cognitif).
Ces considérations nous conduisent à la dernière partie de la section consacrée aux modèles mathématiques en général, traitant de la dimension idéologique.
L'incapacité d'un modèle à simplement reproduire (par simulation dans un laboratoire ou sur un ordinateur) différentes occurrences d'un phénomène autrement qu'en adaptant à chaque fois la valeur des paramètres, implique évidemment l'impossibilité de prédiction par ce modèle, puisqu'une condition de cette capacité prédictive est précisément la stabilité des paramètres.
Or les limites intrinsèques que nous venons d'étudier ont pour effet de rompre l'éventuelle relation entre nombre de variables et stabilité des paramètres : augmenter le nombre de variables ne permet pas de stabiliser les paramètres.
L'incapacité prédictive intrinsèque des modèles peut avoir trois types de causes :
Les modèles mathématiques ne sont pas seulement soumis à des contraintes logiques et physiques. Ils sont aussi l'objet d'utilisations abusives, fruits de leur incompréhension ou de motivations non scientifiques (idéologiques, financières, égotiques, ...). Nous allons illustrer ce fait par le cas des modèles épidémiologiques.
3.3.1. Méthodes d'enfumageComprenons bien que les résultats d'un modèle mathématique ne constituent aucunement une démonstration (c-à-d une preuve) de la thèse modélisée ! Un modèle mathématique ne fait rien d'autre que de produire des valeurs (les "résultats du modèle") correspondant à différentes valeurs de ses paramètres. Un modèle permet seulement d'illustrer différents scénarios d'une thèse (par exemple : "le confinement général permet de retarder et abaisser le sommet de la courbe épidémique"), mais cela ne démontre pas cette thèse (ainsi il est certes incontestable que les modèles astrologiques produisent des prévisions, mais cela ne prouve en rien que ces modèles sont effectivement capables de prédire l'avenir).
La plupart des journalistes, décideurs politiques et même des scientifiques tombent dans le piège de cette confusion. C'est alors que peut entrer en jeu la manipulation des paramètres.
Nous avons vu que les résultats d'un modèle sont des scénarios correspondant à différentes valeurs des paramètres. Ces paramètres sont déterminés par les utilisateurs du modèle, mais sont généralement entachés de deux types de biais :
On passe alors au stade suivant de la confusion voire manipulation : faire passer une valeur calculée pour une valeur observée.
Les modèles peuvent être utilisés comme instrument d'analyse descriptive, par exemple pour calculer une valeur (estimation) lorsque sa mesure n'est pas disponible ou trop coûteuse. Il n'y a là rien d'abusif, sauf si on ne le mentionne pas. Or de nombreux articles de presse mélangent sans distinction des données mesurées et des données calculées (donc provenant de modèles), ce qui a pour effet que des valeurs calculées (qui peuvent être très éloignées de la réalité) sont présentées comme valeurs mesurées.
Enfin en toile de fond de ces confusions voire manipulation, il y a la question fondamentale de la causalité.
Une autre pratique abusive est d'interpréter une simple corrélation entre deux variables comme étant une relation de causalité selon laquelle l'une déterminerait l'autre. Exemple : « la vitesse de croissance de l'épidémie a diminué peu après l'implémentation du confinement général », alors que vitesse diminue toujours après une première phase exponentielle ...
Quelques lignes extraites d'une étude scientifique [source], et qui nous rappellent que les modèles doivent être interprétés avec prudence et sens critique :
Ces « Certaines études antérieures « représentent-elles l'intégralité des ordres de grandeur de R0 ? (N'y a-t-il pas des études qui mentionnent des valeurs inférieures à 1 ?).
Dans quelle mesure ces "degrés de liberté" permettent-ils de faire dire ce que l'on veut à une telle étude ?
Mais cette question n'est-elle pas futile, alors qu'il existe des cas documentés de falsifications des données mesurées, afin de les rendre compatibles avec les données calculées par les modèles. De nombreux exemples de telles manipulations ont été documentées dans le domaine climatique [source p. 88-89 et 106].
Le graphique hyper-catastrophiste ci-dessous est le résultat d'une modélisation mathématique réalisée par le physicien anglais Neil Ferguson de l'Imperial College London. Selon ce graphique – publié le 16 mars 2020 c-à-d au début de l'épidémie de covid-19 en Europe – les malades sévères de covid-19 (c-à-d qui nécessiteront une hospitalisation) représenteront près de 30 fois les capacités hospitalières (3000 % !) en l'absence de stratégie non médicale (SNM : confinement, distanciation, masque, antisepsie, vaccination expérimentale).
UK : une modélisation catastrophiste de covid-19 (scénarios de prévisions)
Ligne rouge : capacité hospitalière en lits de soins intensifs. Courbes : différents scénarios d’utilisation de la capacité selon la stratégie appliquée. Conclusion : dans tous les cas la capacité hospitalière serait submergée ... [source]. Voir aussi cette interface de simulation.
Le graphique suivant concerne la Suède – pays où la SNM fut nettement plus modérée que dans le reste de l'Europe – et compare la courbe effective des hospitalisations en soins intensifs (en bleu) avec les prévisions du modèle mathématique de Neil Ferguson du Imperial College of London (en tonalités de gris selon le niveau d'intensité de la SNM).
Si la courbe en gris le plus foncé est celle de la prévision correspondant au niveau d'application de la stratégie non médicale effectivement observé (SNM : confinement, distanciation, masque, antisepsie, vaccination expérimentale) que signifie alors la courbe en bleu (courbe épidémique effectivement observée) si ce n'est que les modèles épidémiologiques prévisionnels sont bancals et surestiment, dans des proportions gigantesques, le risque épidémique et infectiologique ?
Même à supposer que les modèles épidémiologiques seraient capables de prédire la date et la hauteur du sommet épidémique d'une épidémie naissante (nous verrons que ce n'est pas le cas), le niveau des sommets est tellement élevé (cf. supra #Neil-Ferguson) que de toutes façons l'imposition de la SNM ne serait d'aucune utilité : les services hospitaliers seraient totalement submergés et par conséquent hors d'usage en 24h. Imposer la SNM aux populations est donc totalement absurde, et d'autant plus que les prévisions catastrophistes des modèles épidémiologiques ne correspondent à aucune réalité épidémiologique observée depuis que l'on mesure les épidémies en temps réel (c-à-d depuis 1920 dans les pays les plus avancés).
Étant donné qu'augmenter les capacités hospitalières dans de telles proportions est quasiment impossible à court et même moyen terme (et cela sans parler de la faisabilité politique et économique d'une surcapacité permanente en dehors des périodes d'épidémies) ces "prévisions" permettent de "justifier" les politiques néolibérales de santé : le recours récurrent au confinement général permettrait d'abaisser le niveau requis de capacité hospitalière [source] ! Le caractère délirant de ces prévisions et de la politique de santé qu'elles impliquent a valu à Ferguson le sobriquet de "Lysenko du néolibéralisme".
Rappelez-vous : au début de l'épidémie le message officiel était que le confinement permettrait de reculer le sommet épidémique et de nous donner ainsi du temps pour augmenter la capacité hospitalière. Or absolument aucun programme de développement de la capacité hospitalière n'a été mis sur pied, ni aucune entreprise publique de fabrication de masques et de respirateurs n'a été créée. Pourtant l'on nous assure que l'épidémie pourrait durer des années et que le pire pourrait être à venir. Il n'y a donc plus aucune connexion entre le discours politico-médiatique et la réalité.
Ferguson, qui s'est fait connaître grâce à ses prévisions catastrophistes, a bien compris que ce qui compte le plus ce n'est pas la valeur scientifique mais médiatique des prévisions épidémiques [source] : plus il exagère plus il gagne en notoriété publique, et plus ils obtient des contrats en tant qu'expert, notamment auprès de l'OMS, la Banque mondiale, l'Union européenne et de nombreux gouvernements [source]. Ferguson est devenu un véritable business man du catastrophisme épidémique. En 2008 il fonda le MRC Centre for Global Infectious Disease qui reçut plusieurs dizaines de millions de dollars de la Bill & Melinda Gates Foundation [source].
Ferguson fait évidemment des émules. Et en 2020 il prédit avec l'états-unien Anthony Fauci que la covid-19 devrait tuer au moins 55 millions d’humains dans le monde ! Le nombre final est au moins 20 fois inférieur. Et il s'agit là d'une estimation (octobre 2020) qui sera certainement fortement revue à la baisse, comme le suggèrent les statistiques de mortalité toutes causes (difficulté voire impossibilité de distinguer les décès par covid-19 des décès avec covid-19). Il conviendra également de déterminer la part les décès causés par les effets pervers du confinement général et du climat de terreur qu'il a suscité (cf. infra #effets-pervers-strategie-non-medicale).
En 2020 Ferguson a réussi à convaincre de nombreux gouvernements, qui ont imposé le confinement général malgré le scepticisme de nombreux scientifiques, comme en témoigne ces extraits révélateurs d'un article du journal Le Monde du 15 mars 2020, concernant l'influence de Ferguson sur la stratégie du gouvernement Français pour gérer la crise covid-19 [source] :
Neil Ferguson a pris pour habitude de qualifier ses détracteurs de "théoriciens du complot". Il n'est pourtant nul besoin d'invoquer un "complot" pour expliquer qu'un scientifique arrive à exploiter habilement les processus médiatico-politiques pour promouvoir sa carrière professionnelle. On pourrait par contre qualifier Ferguson d'habile théoricien du "nouveau risque épidémique" (NRE), et de charlatan.
Mais est-il vrai que Ferguson est capable de faire plier des gouvernements ? N'est-il pas plus réaliste de penser que ceux-ci ont simplement sauté sur l'occasion ? Pour répondre efficacement à cette question il importe de ne pas pas brûler les étapes. Passons donc maintenant à l'analyse du modèle SIR.
Le modèle mathématique SIR est le modèle épidémiologique de base. Les modèles mathématiques se distinguent par leur degré de complexité (nombre de variables & paramètres, types de relations), mais leurs principes fondamentaux sont généralement identiques, et sont les plus visibles/compréhensibles dans les modèles les plus simples.
4.1. Système d'équationsLe modèle de base de la plupart des modèles épidémiologiques est appelé SIR [source1, source2]. Il sépare la population en trois groupes, des individus du premier passant progressivement au second puis au troisième : "Susceptible" (c-à-d contaminables) ⇒ "Infected" (c-à-d infectés) ⇒ "Removed" (c-à-d retirés, le terme "résistants" est aussi utilisé en français). Pour éviter certaines confusions de notation dans la suite de l'exposé nous allons remplacer le nom "Removed" par "Excluded" (exclus).
Ce dernier groupe (E) comprend :
À la lecture de cette liste on peut déjà entrevoir pourquoi la sous-estimation de certaines de ses composantes, joue un rôle majeur dans la nature catastrophiste des modèles épidémiologiques. Ce point sera approfondi plus loin.
Mathématiquement la relation entre ces trois groupes, exprimés en pourcentage de la population totale, est :
St + It + Et = 1 où :
S : groupes des Susceptibles ;
I : groupes des Infectés ;
E : groupe des Exclus c-à-d "immunisés" + "guéris" + "décédés" (ce troisième sous-groupe étant généralement proportionnellement insignifiant par rapports aux deux sous-groupes "immunisés" et "guéris").
En dérivant n_S+I+E=1 par rapport au temps on obtient :
dS/dt + dI/dt + dE/dt = 0
On peut alors décrire la dynamique des flux S --> I --> E au moyen d'un système d'équations différentielles tel que :
dS/dt = - β * It * St
dI/dt = β * It * St - It / λ
dE/dt = It / λ
N.B. Cette version basique du modèle suppose donc que les personnes guéries sont immunisées, ... ce qui n'est pas toujours le cas. Il semble cependant que les maladies non immunisantes sont généralement peu sévères, au point que la plupart des infectés sont asymptomatiques.
Lecture : durant la période dt, le flux net de I (c-à-d dI) est égal (au signe près) au flux sortant de S (dS) moins le flux rentrant dans E (dE).
Description des paramètres (on utilise également le terme "coefficient") :
N.B. β est supposé constant dans le temps. Nous verrons cependant que ce paramètre, en raison de sa variabilité et de biais de mesure en temps réel, constitue l'une des principales causes de l'incapacité des modèles épidémiologiques à prédire le développement d'une épidémie.
Une typologie plus précise consiste à qualifier λ de paramètre médical, le phénomène infectiologique constituant le lien entre le phénomène épidémiologique (β) et la problématique médicale (λ).
Il faut bien comprendre que β et λ ne sont que des objets mathématiques, dont la pertinence en tant que représentation des phénomènes physiques qu'ils modélisent (incidence épidémique d'un virus ou d'une bactérie, et durée de maladie/contagiosité) n'est fondée que si les valeurs de ces paramètres, ou leur moyenne, sont constantes dans le temps et l'espace. C'est cette constance spatio-temporelle de la valeur des paramètres qui lie leur objet mathématique au phénomène physique modélisé. Prenons le cas d'un virus saisonnier (par exemple la grippe) : si la stabilité spatio-temporelle théorique des paramètres n'est pas observée dans la réalité, alors on ne peut affirmer que le modèle représente celle-ci. Il ne pourra ainsi systématiquement "reproduire" par le calcul les courbes épidémiques observées (en particulier la hauteur du pic épidémique), avec une marge d'erreur considérée comme "faible", que par l'adaptation récurrente de la valeur des paramètres. Dans ces conditions il est évidemment impossible que le modèle puisse prédire l'évolution d'une épidémie.
On notera ainsi le gigantesque raccourci que représente le modèle SIR, en résumant en trois lignes d'équations différentielles des phénomènes d'écosystèmes complexes, englobant les problématiques :
Bien évidemment ce raccourci constitue l'intérêt pédagogique des modèles épidémiologiques. Cependant il y a abus lorsqu'en outre ceux-ci sont utilisés à des fins prédictives, alors que leurs paramètres ne sont pas stables dans le temps (et en l'occurrence ils ne le sont pas même dans l'espace !). Cette supercherie scientifique exploite habilement la notion de taux de reproduction, en lui attribuant une capacité prédictive (c-à-d ex-ante), ce qui n'est aucunement le cas : nous allons voir que le taux de reproduction n'est qu'une grandeur descriptive (c-à-d ex-post) !
À partir de l'équation dI/dt = β * It * St - It / λ n_dI/dt on montre que :
la croissance du nombre d'infectés correspond à :
dI/dt > 0 ⇔
β * It * St - It / λ > 0 ⇔
Le membre de gauche de n_β*St*λ est supposé représenter le nombre moyen de personnes contaminées par individu infecté (*), et est par conséquent appelé "taux de reproduction" (noté Rt) :
Rt = β * λ * St(*) Ce qui est inexact : il ressort de dI/dt = β * It * St - It / λ n_dI/dt que le nombre moyen de personnes contaminées par individu infecté c-à-d dI / I * λ = ( β * St * λ - 1 ) * dt.
En résumé :
Le tableau ci-dessous est une réalisation graphique du modèle. On y voit notamment que la valeur de Rt (courbe hachurée orange, échelle de droite) baisse au fur et à mesure de l'épidémie, et que le sommet de la courbe rouge (infectés) correspond au passage de Rt en-dessous de 1. La baisse théorique continue de Rt s'explique évidemment par sa relation positive avec St, qui diminue tout au long de l'épidémie : Rt = β * St * λ n_Rt.
Tableur SIR.ods
Le modèle SIR montre donc bien que le taux de reproduction (Rt) diminue de toute façon c-à-d même sans politique de distanciation sociale (à supposer que celle-ci soit efficace ...). Le modèle illustre un fait observé de façon récurrente : les épidémies s'éteignent naturellement avant extinction de la population. Les entreprises "d'information" et leur conseillers scientifiques vous ont-il informé de ce fait ? Pas vraiment : il vous ont plutôt asséné, jour après jour, que la baisse de Rt était due aux mesures de distanciations sociales. Nous verrons que les articles scientifiques "démontrant" cette affirmation sont en réalité des fraudes scientifiques grossières. Pour démonter celles-ci, il convient de procéder avec méthode. Commençons par étudier la notion douteuse d'estimation du R-zéro.
De nombreux scientifiques d'autre domaines sont abusés par cet écran de fumée cognitif qu'est le très médiatisé "taux de reproduction de base" ou "R zéro". Le lecteur attentif se demandera quelle est la différence entre le taux de reproduction en t=0 R0 = β * S0 * λ n_Rt et le taux de reproduction "de base". La réponse – hautement ambiguë lorsque l'on utilise la notation R0 plutôt que de dire "taux de base", et R0 plutôt que de dire "taux initial" – est que le taux de base est un type de valeur moyenne (*) des Rt (donc des valeurs de βt et λt), calculée sur la période précédant une date arbitraire, et de durée arbitraire ...
(*) Il existe divers types de moyenne : arithmétique, géométrique, harmonique, quadratique [source] ...
Voici comment le concept de "R zéro" peut être mathématiquement construit. Partant de dI/dt = β * It * St - It / λ n_dI/dt ⇔ It+1 = It + ( β * It ) * St - It / λ on va exprimer βt en fonction du taux de croissance des It :
soit it+1 = ( It+1 - It ) / It ⇒
it+1 = βt * St - 1 / λ ⇔
βt = ( it+1 + 1 / λ ) / St
que l'on substitue dans Rt = βt * St * λ n_Rt ⇒ :
Rt = it+1 * λ + 1
Or on peut montrer [approfondir] que le taux croissance moyen d'une variable It entre t=0 et t=n peut être calculé par la formule :
i = ln( It / I0 ) / t ⇔
It = I0 * e i * t
où n_It=I0*e^(i*t) est l'équation d'une courbe (exponentielle) moyenne qui représentera d'autant mieux le nuage des points constitués par la série réelle des It que celui-ci sera proche d'une exponentielle.
Courbe de régression
Δ+It : période pré-confinement en Belgique.
[Tableur covid19-be.ods > feuille "Data"].
Dès lors – pour en revenir au modèle SIR – en remplaçant it par i dans n_Rt=i*λ+1 on obtient le taux de reproduction de base :
R0 ≈ i * λ + 1
De même dans βt = ( it+1 + 1 / λ ) / St n_βt on pourra également remplacer it par i ⇒ si St est proche de 1 (ce qui est le cas durant les premières semaines d'une épidémie, voire même durant toute l'épidémie lorsque celle-ci ne touche qu'une petite partie de la population) on obtient la valeur correspondante de beta (correspondant à cette période) :
β0 = ( i + 1 / λ ) ⇒
β0 = (R0 - 1) / λ + 1 / λ ⇒
β0 ≈ R0 / λ
Cependant, alors que le taux de reproduction initial R0 fait sens (du moins en tant qu'objet mathématique), le taux de reproduction de base R0 – et son correspondant β0 c-à-d β (NB : sans indice t) – en tant que moyennes sont des un objets mathématiques sans utilité prédictive dès lors que ces moyennes ne sont pas stables dans le temps voire pas même dans l'espace.
Nous venons de montrer que la notion de R0 ne fait pas sens. Mais supposons maintenant que ce n'est qu'une autre façon d'écrire R0 ⇔ le taux de reproduction de base c'est le taux de reproduction initial. Nous allons voir que même dans ce cas le concept de R zéro n'a quasiment aucune utilité.
Comparaisons spatiales ? Théoriquement ce R0 pourrait être utilisé pour comparer la situation de différents pays dans le cas d'une même épidémie. Cependant en pratique, la pertinence de R0 comme référentiel de comparaison est illusoire pour deux raisons :
Par exemple ce que l'on considère comme le début des premiers décès liés à tel virus est en réalité le moment à partir duquel on a commencé à attribuer (à tort ou à raison) des décès à ce virus, ce qui très différent.
Comparaisons temporelles ? On pourrait également utiliser R0 pour comparer les épidémies saisonnières d'un virus connu ... ce qui revient à reconnaître l'instabilité temporelle des paramètres β et λ, et par conséquent l'incapacité des modèles épidémiques à prédire l'évolution d'une épidémie d'un virus, même "connu" ...
Le concept théorique d'immunité collective permet d'expliquer pourquoi les épidémies s'éteignent naturellement avant d'avoir contaminé 100% de la population. Mais attention, comme nous allons le voir, ce concept mathématique est de nature uniquement descriptive, sa nature éventuellement causale n'ayant pas été démontrée.
Pour exposer le mécanisme décrit par cette théorie, commençons par constater que, face à n'importe quel virus, il y a toujours une partie de la population qui est immunisée : de naissance, par vaccin, par immunité croisée ou par guérison immunisante. Tous ces individus sont repris dans le groupe Et (cf. supra #SIR-equations), avec E0 composé des personnes qui sont immunisées (de naissance, par vaccin ou par immunité croisée) au début de l'épidémie (t=0).
À partir de St + It + Et = 1 n_S+I+E=1 ⇔
St = 1 - It - Et ⇒
substitué dans β * St * λ > 1 n_β*St*λ ⇒
β * ( 1 - It - Et ) * λ > 1 ⇔
Et < 1 - It - 1 / ( β * λ )
L'épidémie est donc neutralisée dès que Et – c-à-d la part de la population qui est immunisée – est supérieure à E*t ("E étoile") qui est tel que :
E*t = 1 - It - 1 / ( β * λ )
C'est pourquoi on appelle Et* : "seuil d'immunité collective" (taux d'immunité collective neutralisante), et Et : "immunité collective".
N.B. D'un point de vue relatif, la sous-estimation de Et est donc équivalente à une sur-estimation de E*t : dans les deux cas cela conduit à surestimer le niveau qu'atteindra le sommet de la courbe épidémique (... à supposer que la théorie de l'immunité collective explique effectivement pourquoi les épidémies s'éteignent naturellement).
Et en particulier, selon ce concept mathématique d'immunité collective, l'épidémie, ne pourra pas même démarrer – c-à-d I0 = 0 – si E0 est supérieur à :
E*0 = 1 - 1 / ( β * λ )
Autrement dit, si une épidémie s'est déclenchée c'est nécessairement que Et était inférieur à E*0 (du moins selon ce modèle ...).
Quant au graphique suivant il montre que E*t atteint son minimum lorsque Et lui devient supérieur, et que ce moment correspond au sommet de la courbe des infections.
Immunité collective et son seuil
NB : la courbe rouge (E*t) est symétrique par rapport à la courbe verte (It).
Paramètres : β=0,60 ; λ=15 [tableur].
On peut également exprimer E*t en fonction des variables plutôt que des paramètres : en substituant Rt = β * St * λ n_Rt ⇔ 1 / ( β * λ ) = St / Rt dans E*t = 1 - It - 1 / ( λ * β ) n_E*(t) ⇒
E*t = 1 - It - St / Rt
de sorte que :
E*0 = 1 - S0 / R0
Il découle de It = 1 - St - Et n_S+I+E=1 une modélisation probabiliste de l'extinction naturelle de toute épidémie (courbe en cloche) avant contamination (et potentielle extermination) de 100% de la population : la valeur de E*0 = 1 - 1 / ( β * λ ) n_E*(0) détermine un seuil au-delà duquel l'incidence β (probabilité de propagation du virus) est trop faible relativement au nombre de susceptibles St c-à-d de potentiels vecteurs de transfert.
Plus précisément, la dynamique d'extinction des épidémies repose sur deux compsantes :
La forte propension des modèles épidémiologiques (ou faut-il parler plutôt de leurs paramétreurs ?) à produire des prévisions qui s'avèrent ex post de gigantesques surestimations du taux de mortalité des épidémies (cf. supra #Neil-Ferguson) peut s'expliquer notamment par la sur-estimation du seuil d'immunité collective E*t = 1 - It - 1 / ( β * λ ) n_E*(t) via :
L'animation suivante montre qu'une sous-estimation de E0 (ici courbe verte démarrant à 0% vs 40%) se traduit par une surestimation du sommet de la courbe des infections (en rouge, 70% vs 30%). La sous-estimation de E0 peut trouver son origine dans la sous-estimation de l'immunité de naissance et de l'immunité croisée.
Effet de la sous-estimation de E0
Si en t=0 on suppose un niveau de E0 qui est en fait inférieur à la réalité (sous-estimation), alors le modèle va surestimer la gravité de l'épidémie (mesurée ici par la hauteur du sommet).
NB : ces paramétrages sont arbitraires.
Tableur SIR.ods
Autres causes. Nous verrons plus loin (#immunite) que l'incapacité des modèles épidémiologiques à prédire le développement d'une épidémie (sauf effet du hasard), et en particulier leur propension à surestimer le risque épidémique (où s'agit-il d'une propension des paramétreurs ?), peut avoir des causes exogènes. Parmi ces causes il y a très probablement la non prise en compte de facteurs opérant en amont du phénomène épidémique, et spécifiques aux virus ou aux écosystèmes (le modèle est alors dit "incomplet").
Autrement dit le concept de taux d'immunité collective ne serait pas le seul facteur explicatif de l'extinction naturelle des épidémies avant extinction de la population cible. Et cela à supposer que le concept mathématique de seuil d'immunité collective corresponde à une réalité dans le monde naturel, dont aucun modèle mathématique ou culture in vitro ne peut reproduire la complexité ...
Immunité collective, vaccination et lobby pharmaceutique
Le concept d'immunité collective est à la base de l'idée selon laquelle la vaccination devrait être généralisée à la quasi totalité de la population.
Dans ces conditions, le marché des vaccins est beaucoup plus large que celui des médicaments. Et en outre il se renouvelle annuellement par la nécessité de rappels pour s'adapter aux constantes mutations du pathogène. Tandis que le marché des médicaments (dont les médicaments repositionnés) ne concerne que les seuls malades, soit une infime portion de la population. Cette différence explique-t-elle les subtiles entraves dressées, depuis le début de la crise de la covid-19, par les autorités politiques et médicales, contre l'utilisation des médicaments (surtout repositionnés) comme stratégie anti-épidémiques.
Ainsi dans son communiqué de janvier 2021, le Secrétaire général de l’ONU (António Guterres) n'évoque que de nouveaux vaccins comme solution médicale contre la covid-19. À aucun moment il n'évoque l'option des médicaments, et encore moins l'utilisation de médicaments repositionnés [source].
Il serait donc utile d'évaluer le rôle joué par le lobby pharmaceutique dans la promotion du concept d'immunité collective, notamment via la publication d'articles de propagande déguisés en articles scientifiques (cf. infra #pharma-data-business). Ce concept a acquis aujourd'hui un statut de véritable dogme épidémiologique, que plus personne ne pense à remettre en cause (notamment, les supposées confirmations empiriques ne reposent-elles pas sur une confusion entre corrélation et causalité ?).
Nous étudierons plus loin la relation entre vaccination et immunité collective (#vaccination).
Nous avons vu que la décroissance du nombre de contaminés (seconde partie de la courbe en cloche) correspond à une situation telle que Rt = β * St * λ < 1 n_Rt, et que par conséquent l'on pourrait théoriquement neutraliser une épidémie en appliquant à l'ensemble de la population une stratégie ayant pour effet d'abaisser la valeur d'un des deux, ou des deux paramètres β et λ. On peut alors distinguer deux types possibles de stratégie :
Il s'agit d'abaisser la valeur du paramètre β (probabilité ≈ vitesse de contamination) par des mesures telles que confinement, distanciation, masques et antisepsie. L'animation suivante compare les courbes épidémiques "sans stratégie non médicale" (β=0,6 ; λ=15) et "avec stratégie non médicale" (β=0,2 ; λ=15).
β = 0,6 --> 0,2 [tableur].
Analyse du graphique : on constate que l'effet théorique de la SNM est d'abaisser et reculer la courbe des infections (rouge).
La stratégie non médicale peut être appliquée à au moins deux niveaux d'intensité, selon que son application est générale (c-à-d sur l'ensemble de la population : confinement général) ou ciblée (c-à-d sur les seuls groupes à risque). Mais son application devrait surtout être limitées aux situations (lieux, groupes sociaux, ...) où ses effets positifs supposés l'emportent sur ses effets négatifs.
Il s'agit (i) d'abaisser le paramètre λ (durée de la maladie=contagion) et d'augmenter la variable Et (comprenant les guéris) au moyen de médicaments (traitement curatif), et (ii) d'augmenter la valeur initiale E0 au moyen de vaccins (traitement préventif). L'animation suivante compare les courbes épidémiques "sans stratégie médicale" (β=0,6 ; λ=15) et "avec stratégie médicale" (β=0,6 ; λ=5).
λ = 15 --> 5 [tableur].
Les vaccins pourraient être classés parmi les mesures de la stratégie non médicale dans la mesure où il s'agit d'une technique préventive.
Les deux stratégies abaissent le sommet de la courbe épidémique (de 68% à 32%), ainsi que le seuil d'immunité collective (de 89% à 67%). La stratégie SNM a en outre pour effet de retarder le pic épidémique (du 30° au 100° jour).
N.B. Ces chiffres sont fonction des valeurs attribuées aux paramètres. Ils n'ont donc pas ici de signification absolue.
Mais corrélativement le confinement général freine l'immunisation collective : dans la simulation du graphique suivant, alors que vers le cinquantième jour 50% de la population a été immunisée naturellement, moins de 1% de la population est immunisée si l'on a appliqué plutôt la SNM, et il faut alors attendre plus de trois mois pour atteindre les 50%.
Étant donné que la SNM freine l'immunisation collective, il résulte de E*t = 1 - It - St / Rt n_E*(t)=1-I-S/R que, corrélativement, le taux de reproduction baisse nettement moins vite que dans le cas de la stratégie médicale.
Taux de reproduction
Référentiel : β=0,60 ; λ=15
SNM : β=0,20 ; λ=15
SM : β=0,60 ; λ=5
[tableur SIR.ods]
On constante à la vue des équations n_dS/dt à n_dE/dt que le modèle SIR ne traite pas le taux d'hospitalisation. Nous proposons donc ici une définition pour une évaluation théorique de cette statistique importante pour la gestion épidémique.
Selon notre définition le taux d'hospitalisation (noté Ht) est la valeur normalisée (en pourcentage de la population) du nombre journalier de lits occupés suite à une infection à l'agent pathogène (les autres pouvant rester à leur domicile). Une façon de le calculer consiste à ajouter à la charge hospitalière du jour précédent les entrants du jour, moins les sortants du jour (vivants ou décédés) :
Ht = Ht-1 + Δ+Ht - Δ-Ht
où H1 = H0 = Δ+H0 de sorte que l'on peut calculer une valeur théorique de Ht par :
NB : dans les statistiques épidémiques publiées par les agences de santé les sorties d'hospitalisation concernent généralement les seules sortes en vie ⇒ il faut leur ajouter la part des décès en milieu hospitalier du jour pour obtenir le Δ-Ht de n_Δ-Ht.
de sorte que :
Ht = Ht-1 + σ * Δ+It - σ * Δ+It-λ ⇔
Ht ≈ Ht-1 + σ * ( Δ+It - Δ+It-λ )
Enfin la charge hospitalière (notée CHt) est :
CHt = Ht / k
oùRésultat. Le graphique suivant montre un résultat notable du modèle SIR : la stratégie SNM (confinement général) a théoriquement pour effet de retarder le sommet de la courbe de charge hospitalière, et par conséquent celui de la charge hospitalière, nettement plus que la stratégie SM.
Charge hospitalière théorique selon la stratégie
Référentiel : β=0,60 ; λ=15
SNM : β=0,20 ; λ=15
SM : β=0,60 ; λ=5
∀ : μ=0,002 (décès journaliers / nouvelles infections )
∀ : σ=0,001 (taux d'hospitalisation)
∀ : k=0,003 (capacité hospitalière)
Tableur : SIR.ods
N.B. Il est peu probable que les deux stratégies soient également efficaces (SIR.ods > feuille "Synthèse" > lignes 2 et 3 : xβ = xλ). Nous verrons dans la section #applicabilite-strategie-non-medicale de nombreux faits suggérant que le taux d'efficacité de la SNM pourrait être inférieur à celui de la SNM (xβ < xλ), voire carrément négatif en raison de ses effets pervers.
Si l'efficacité de la SNM sur son paramètre β est relativement moins efficace que la SM sur son paramètre λ – par exemple xβ=2 pour xλ=3 – alors le graphique devient comme suit (cf. ci-dessous) : SNM retarde toujours le sommet mais celui-ci est plus haut que si l'on applique plutôt la SM !
Hypothèse de faible efficacité relative de la SNM
Référentiel : β=0,60 ; λ=15
SNM : β=0,30 ; λ=15 ; xβ=2
SM : β=0,60 ; λ=5 ; xλ=3
∀ : μ=0,002 (décès journaliers / nouvelles infections )
∀ : σ=0,001 (taux d'hospitalisation)
∀ : k=0,003 (capacité hospitalière)
Tableur : SIR.ods
Cela constitue un fondement théorique à la thèse selon laquelle la forte mortalité de covid-19 dans les pays ayant appliqué la SNM (cf. infra : #mortalite-differences-entre-pays) fut causée non pas par le virus mais par le confinement général. Nous verrons que l'effet de faible efficacité de la SNM (cf. infra : #applicabilite-strategie-non-medicale) illustré ici est renforcé par ses effets pervers (cf. infra : #effets-pervers-strategie-non-medicale).
On pourra à priori objecter que les deux stratégies SNM et SM pourraient être appliquées complémentairement, mais nous exposerons dans la section #effets-pervers-strategie-non-medicale leur très difficile compatibilité.
On constante à la vue des équations n_dS/dt à n_dE/dt que le modèle SIR ne traite pas le taux de mortalité.
Le taux de mortalité n'étant pas central dans la logique des modèles épidémiologiques, leur adeptes ont tendance à focaliser l'attention des gouvernements qu'ils "conseillent" sur le nombre d'infections plutôt que sur la mortalité comme indicateur principal de suivi épidémique. Nous verrons que les conséquences de cette situation en 2020 furent catastrophiques.
Nous proposons donc ici une définition et un mode d'évaluation de cette statistique essentielle pour toute politique de gestion épidémique.
Le taux de mortalité Mt = Σ ΔMt / Popul. = Σ ΔMt
Une valeur théorique de ΔMt et donc de Mt peut être calculée en évaluant le paramètre μ représentant le ratio du nombre de décès journaliers par rapport au nombre de nouvelles infections :
ΔMt = μ Δ+It
Pour ce faire on calcule à la date n la moyenne μ = 1/n * ∑t=0n μt = 1/n * ∑t=0n ΔMt / Δ+It
De sorte que, par n_ΔMt :
Mt ≈ ∑t=0n ΔMt = μ * ∑t=0n Δ+It
N.B. La moyenne μ comme paramètre de prévision, et donc la formule n_Mt≈, n'ont d'utilité que si μ est stable dans le temps (entre épidémies d'un "même" virus), et dans l'espace (entre différentes régions durant une épidémie). Or nous verrons que cette condition n'est généralement pas vérifiée en raison de la nature écosystémique, et donc complexe, des phénomènes infectiologiques !
On pourra également calculer un taux de létalité (Lt), défini comme le nombre de morts par rapport au nombre total de personnes étant ou ayant été infectées :
Lt = Mt / ( It + Et - Mt )
Le taux de létalité est donc plus élevé que le taux de mortalité puisque le taux d'infection qui le divise est inférieur à un. Ou, pour dire les choses plus simplement : comparer le nombre de morts à la seule population des infectés donne évidemment un taux plus élevé que si l'on compare le nombre de morts à l'ensemble de la population.
N.B. Nous faisons ici abstraction de la pertinence du taux de létalité en tant qu'indicateur épidémiologique. Dans la section #mesure-deces nous verrons en effet que celui-ci est sujet à de gigantesques biais de mesure statistique, dont la correction peut prendre des années, voire être pratiquement impossible !
Résultat. Étant donné la formulation du taux de mortalité en fonction de It la courbe de mortalité suit l'évolution de la courbe épidémique (sauf qu'ici il y a accumulation ⇒ pas de courbe en cloche).
Taux de mortalités théoriques selon la stratégie
Référentiel : β=0,60 ; λ=9
SNM : β=0,20 ; λ=9
SM : β=0,60 ; λ=3
∀ : μ=0,002 (décès journaliers / nouvelles infections )
Tableur : SIR.ods
Le lecteur pourra vérifier dans le tableur que :
Cependant il est peu probable que les deux stratégies soient également efficaces (SIR.ods > feuille "Synthèse" > lignes 2 et 3 : xβ = xλ). Nous verrons dans la section #applicabilite-strategie-non-medicale de nombreux faits suggérant que le taux d'efficacité de la SNM pourrait être inférieur à celui de la SM (x β < xλ). Ainsi si xβ=2 pour xλ=3 alors l'effet retard de la SNM passe de trois à un mois et, surtout, le taux de mortalité final est plus élevé que celui de la SM.
Hypothèse de faible efficacité relative de la SNM
Référentiel : β=0,60 ; λ=9
SNM : β=0,30 ; λ=9 ; xβ=2
SM : β=0,60 ; λ=3 ; xλ=3
∀ : μ=0,002 (décès journaliers / nouvelles infections )
Tableur : SIR.ods
Voilà probablement une des raisons expliquant la forte mortalité de covid-19 dans les pays ayant appliqué la SNM (cf. infra : #mortalite-differences-entre-pays). Nous verrons que l'effet de faible efficacité du confinement général (cf. infra : #applicabilite-strategie-non-medicale) illustré ici est renforcé par ses effets pervers (cf. infra : #effets-pervers-strategie-non-medicale).
La grippe est une des maladies les plus répandues et connues. Par conséquent on peut tester la cohérence du modèle SIR en y injectant les paramètres de la grippe (aiguë en l'occurrence) et observer si ses résultats sont cohérents avec la réalité. Nous allons faire cet exercice pour le cas de la Belgique car ce pays étant parmi ceux ayant connu les plus hauts taux de surmortalité toutes causes durant l'épidémie covid-19, il sera la référence de la section suivante consacrée à covid-19.
Paramètres de/pour la grippe aiguë :
NB : (i) une partie de la population est immunisée de naissance et (ii) l'ensemble de la population bénéficie de l'immunité croisée.
Une donnée complémentaire, également fondamentale, est la capacité hospitalière (toutes pathologies), mesurée en nombre de "lits aigus" : k = 0,003 de la population [source].
N.B. Nous faisons ici abstraction de l'importante question de la validité de ces statistiques, qui sont des moyennes concernant des maladies associées à tort ou à raison à la grippe : rhinovirus, virus de la grippe A et B, coronavirus, ...
On peut catégoriser ces paramètres en deux types :
Dans le modèle SIR la relation de causalité entre ces deux groupes est : E0 et β ⇒ t (Max It) et ∑Δ+It. Afin de pouvoir calculer des taux d'hospitalisation (Ht) et de mortalité (Mt) théoriques j'ai complété le modèle par ΔMt = μ * Ht n_ΔMt et Ht = Ht-1 + σ * ( Δ+It - Δ+It-λ ) n_Ht≈ de sorte qu'au total :
E0 et β ⇒ t (Max It et ∑Δ+It ⇒ σ ⇒ Ht ⇒ μ ⇒ Mt
Nous sommes maintenant parés pour procéder au paramétrage de SIR afin de vérifier sa capacité à reproduire l'épidémiologie grippale telle qu'elle est observée chaque année.
Le tableau ci-dessous montre les résultats du modèle SIR. On constate que ∑Δ+It (cellule D12) est près de quatre fois supérieur à la valeur réelle (B12). Le lecteur pourra vérifier dans le tableur SIR.ods que pour abaisser ce montant à environ 10% on peut modifier le paramétrage de diverses combinaisons de paramètres ouverts, notamment :
Si l'on adapte plutôt I0 : 0% (D4) ⇒ 38% (G4) il y a extinction dès le début : R0<1 (G8). Cette situation ne correspond pas au profil de la grippe ⇒ ce paramétrage est rejeté.
Vert : paramètres ouverts ; rouge : paramètres fermés.
Tableur : SIR.ods
Mais le paramétrage n'est pas achevé car les sommets épidémiques t (Max It (E10 et F10) représentent trois à quatre fois la valeur observée (B10). Nous allons alors procéder à un second tour de paramétrage (tableau ci-dessous) en combinant maintenant deux variables ouvertes :
Tableur SIR.ods
Observons alors les différents résultats au niveau des variables qui déterminent la stratégie anti-épidémique (c'est pourquoi je parle de résultats "politiques") : les taux d'hospitalisation et de mortalité :
Ce taux de charge hospitalière ne semble pas correspondre aux statistiques hospitalières affichant des taux de charge hospitalière toutes causes pouvant atteindre 95% durant les épidémies annuelles de grippe [FRA, BEL].
Que faut-il en conclure ? :
Conclusion : rien ici ne permet de conclure à une quelconque pertinence du modèle SIR.
Passons maintenant à covid-19. La situation diffère ici de celle analysée dans la section précédente :
Nous allons ici montrer une façon d'évaluer les paramètres d'un virus en temps réel c-à-d dans l'urgence.
N.B. Nous allons donc faire temporairement abstraction du fait que ce paramétrage en temps réel est irrationnel en raison de biais de mesure des variables, qui ne pourront être corrigés que plus d'un an après le début de l'épidémie. Notons que ce seul fait de biais de mesure en temps réel des variables (cf. infra #mesure) suffit à lui seul pour conclure à l'irrationalité de la stratégie préventive "non médicale" (SNM : confinement, distanciation, masque, antisepsie, vaccination expérimentale).
La présente section est néanmoins très importante car elle permet de comprendre comment les modèles sont utilisés pour tromper l'opinion publique, et en particulier comment leur interprétation peut être fabriquée de toute pièce. On fera ainsi l'exercice, sur base des valeurs déterminées par le paramétrage, d'évaluer la charge hospitalière théorique ajoutée par covid-19, telle qu'elle était prévue au début du confinement (en J18). On la comparera alors au maximum réellement atteint sur la période finissant à J90, pour constater que la charge hospitalière a atteint un maximum de ... 16% en J35.
La démarche empirique que nous allons développer ici va nous permettre de mieux comprendre (i) la logique du modèle SIR et (ii) la nature des données directement mesurables.
Nous utilisons les données épidémiques de covid-19 et cela pour la Belgique. Ce pays est particulièrement intéressant car le taux de mortalité de covid-19 y fut parmi les plus élevés au monde. Il en résulte que certaines conclusions que nous tirerons de son analyse éclairerons l'impact de covid-19 dans les autres pays.
Première constatation : les données (collectées par l'agence belge de la santé : epistat.wiv-isp.be/Covid/) qui concernent le modèle SIR sont « les nouveaux cas journaliers de contamination ». Ce ne sont donc pas les It du modèle SIR, mais les flux entrants (que nous notons Δ+It) dans It. En effet It est un stock, dont la variation est déterminée par les flux entrants en provenance de St, ainsi que par les flux sortants vers Et (que nous notons Δ-It).
Le système d'équations différentielles présenté plus haut – qui constitue le noyau du modèle SIR – montre que la valeur théorique des Δ+It est β * It * St, et que la valeur théorique des Δ-It est It / λ
dS/dt = - β * It * St
n_dS/dt
dI/dt = β * It * St - It / λ
n_dI/dt
dE/dt = It / λ
n_dE/dt
De sorte que dans notre tableur (covid19-be.ods) les valeurs théoriques de St, It et Et sont calculées comme suit :
St+1 = St - β * It * St
It+1 = It + β * It * St - It / λ
Et-1 = Et + It / λ
Par conséquent on obtient les valeurs pseudo-réelles de St, It et Et en substituant les valeurs observées Δ+It à leur formulation théorique ( β * It ) * St :
St+1 = St - Δ+It
It+1 = It + Δ+It - It / λ
Et+1 = Et + It / λ
Je parle de valeurs "pseudo-réelles" car elles dépendent de la valeur attribuée :
Nous allons faire pendant quelques instants abstraction du fait que (i) il n'est pas possible d'estimer correctement les conditions initiales sauf peut-être à imposer un système totalitaire de surveillance permanente de la population, et fondé sur l'abolition de toute forme de vie privée ; (ii) les paramètres β et λ – qui sont des moyennes mesurées sur des périodes spécifiques – ne sont pas stables dans le temps voire non plus dans l'espace.
Puisque nous disposons maintenant des séries pseudo-réelles de St, It et Et nous pouvons alors calculer les valeurs théoriques des Δ+It (valeur observées ou qui seront observées), données par β * It * St. Nous pourrons alors évaluer une valeur théorique du paramètre β par une méthode itérative "essai-erreur" consistant à adapter les valeurs des paramètres β et λ et conditions initiales S0, I0 et E0 jusqu'à ce que les deux courbes correspondent : lorsque ce sera le cas la valeur correspondante de β sera sa valeur de paramètre.
La situation initiale (t=0) est la suivante :
On pourra alors réaliser les deux paramétrages différents.
Tableur covid19-be.ods
Il suffit alors de commencer à β=0 et d'augmenter sa valeur ⇒ la courbe théorique (hachurée dans le graphique ci-dessous) s'approche de la courbe réelle (en bleu) ⇒ on arrête lorsque l'on obtient le meilleur ajustement entre les deux courbes ⇒ on obtient alors la valeur moyenne de β ... telle qu'elle était au début du confinement (18 mars 2020).
Paramétrage itératif de la courbe épidémique de covid-19 : début du confinement
Tableur covid19-be.ods
On va maintenant pouvoir comparer les prévisions correspondant à chacun de ces deux paramétrages. Ce qui nous intéresse du point de vue pratique, c-à-d de la gestion d'une épidémie, ce sont les "prévisions" du taux de charge hospitalière (Rappel : le présent article montre l'impossibilité de prévisions correctes dans le domaine épidémiologique et surtout infectiologique, mais faisons "comme si" afin de bien comprendre la nature de cette impossibilité). Ces prévisions calculées au moment où le confinement fut décidé sont mentionnées dans les cellules D18=3479% et E18=1740% !
Prévisions par paramétrage : début du confinement
Vert : paramètres, rouge : prévisions. Tableur covid19-be.ods
k (capacité hospitalière, ligne 14). Si l'on mesure la capacité hospitalière par les seuls lits équipés de respirateurs la valeur de k passe de 0,003 à 0,0001, ce qui a pour effet de faire grimper les taux de charge hospitalière anticipé à respectivement 104374% et 52189% : soit 500 à 1000 fois la capacité hospitalière ! [source : cette source est sujette à caution car le médecin citant k=0,0001, non seulement commet de grossières erreurs de raisonnement par rapport au modèle SIR, mais en outre a dans le même article cité d'autres statistiques erronées].
On va lire maintenant le tableau précédent sur base du paramétrage de la colonne D qui, étant le plus catastrophiste, correspond à l'anticipation qui a pu être faite par le gouvernement et ses conseillers scientifiques au début du confinement (18 mars 2020) :
Comment des chiffres aussi fantasques, n'ayant jamais été observés par le passé, n'ont-il pas attiré l'attention d'une large partie de la communauté scientifique ?
Comme dans tout modèle, l'output est fonction de l'input (paramètres et valeur initiales). Au moment où le confinement général fut décidé (18 mars 2020) les valeurs observées des paramètres justifiaient-elles une telle mesure (jamais appliquée dans l'histoire de la Belgique, malgré les régulières pandémies de virus "nouveaux" comme "immuables") ?
Le tableau suivant compare les paramètres d'incidence (β), de létalité μ = 1/n * ∑t=0n ΔMt / ΔI+t n_ΔMt et d'hospitalisation σ = 1/n * ∑t=0n ΔHt / ΔI+t n_Δ+Ht, de covid-19 avec ceux de la grippe (aiguë) :
Il est étonnant de constater que le message propagé par les entreprises "d'information" et les scientifiques de plateau TV disait l'exact contraire de ce tableau, à savoir que la létalité du virus était faible mais que sa virulence était élevée. Quoi qu'il en soit de la nature quantitative (β) ou qualitative (μ) du risque de la catastrophe prédite par le modèle SIR, dans les deux cas les statistiques de mortalité et d'hospitalisation qui nourrissent celui-ci en temps réel (et sur base desquelles de supposées prévisions sont calculées) ne sont de toute façon pas crédibles. En effet nous verrons dans la section #mesure que les statistiques de mortalité et d'hospitalisation collectées en cours d'épidémie c-à-d quasiment en temps réel sont sujettes à de très importantes révisions (généralement à la baisse) lorsqu'on est en mesure de mesurer ces statistiques correctement, ce qui n'est possible qu'au moins douze mois après le début de l'épidémie (ce que rappellent les lignes 2 et 3, concernant la représentativité temporelle et spatiale de l'échantillon de mesure).
D'autre part il est frappant de constater que le ratio COV/GRI(σ) ne se situe pas entre ceux de COV/GRI(β) et COV/GRI(μ) mais (largement) au-dessus, alors que σ est pourtant très probablement déterminé par β et μ. Un autre facteur a donc joué. Ne s'agit-il pas du catastrophisme ultra-anxiogène entretenu par l'appareil d'État (gouvernement, entreprises "d'information", scientifiques, ...) qui aurait dopé les hospitalisations, aussi bien dans le chef des patients (demande) que des médecins (offre) ?
Comparons maintenant les prévisions faites en J18 avec la réalité observée en J90.
Comme le montre le tableau suivant, il apparaît en J90 que la charge hospitalière de covid-19 a finalement atteint un maximum de 16% (E18) en J35 (E17). L'épidémie n'aura duré qu'environ trois mois (E10 : 42*2=84) au lieu de six. Quant au taux de mortalité il est finalement de 0,08% (E14) de la population.
Ce taux de mortalité covid-19 de 0,08% est encore trois fois plus élevé que la grippe, mais sera certainement revu à la baisse en raison des biais de mesure statistique en cours d'épidémie évoqués infra (#indicateurs-suivi-epidemique). En outre c'est la mortalité toutes causes qui compte, or nous verrons infra que le surplus de mortalité attribué à covid-19 pourrait ne pas être causé directement par le virus mais par les effets pervers de la panique induits par le catastrophisme médiatique.
Mais n'oublions pas les remarques faites dans la section précédente concernant la valeur informative des statistiques collectées en temps réel : ces montants de 16% et 0.08% seront presque certainement revus à la baisse, et de façon substantielle !
La validité des mesures n'est que la première partie de la problématique. L'analyse des causalités est la seconde. Ainsi le graphique suivant compare la prévision du modèle en J18 (hachuré rouge) et la réalité constatée en J90 (ligne bleue), concernant les flux entrants journaliers dans le groupe It.
SIR vs réalité (graphique)
Rouge : prévision en J18. ; bleu : réalité observée en J90. Tableur covid19-be.ods
On pourrait alors être tenté d'en conclure que si la courbe réelle (en bleu) est inférieure à la courbe théorique (hachurée en rouge), c'est grâce au confinement général, ce que ne manquent évidemment pas de faire les gouvernements et leurs conseillers scientifiques.
Cependant ce raisonnement revient à affirmer que les modèles épidémiologiques seraient en mesure de prédire l'avenir. Or l'expérience montre que ce n'est pas le cas. Il ne pourrait d'ailleurs en être autrement car les moyennes sur base desquelles les "prévisions" sont calculées ne sont pas constantes dans le temps, voire pas même dans l'espace. Cette instabilité des paramètres épidémiologiques, les médecins praticiens la constatent régulièrement : les infections virales saisonnières (en particulier la grippe) peuvent changer fortement de nature certaines années, au niveau de leur virulence (β), ténacité (λ) ou/et létalité (μ). Et même à supposer que les moyennes épidémiologiques seraient constantes, on ne les connaît pas pour covid-19 puisque c'est supposément un virus "nouveau".
Enfin, last but not least, force est de constater que le graphique ne montre pas d'effet de retardement, et c'est même le contraire qu'on y voit ! Or nous avons vu supra que le confinement général a théoriquement pour effet non seulement d'abaisser le sommet épidémique mais aussi de le retarder (cf. supra #SIR-strategies). Par conséquent on peut en déduire que, dans la réalité, la SNM n'a très probablement pas non plus pour effet d'abaisser le sommet épidémique.
Il est à cet égard intéressant de constater les paramétrages réalisés (par ajustement des courbes théoriques à la courbe réelle) en J90, donc à la fin de la première vague ou épidémie. Le tableau suivant en montre deux parmi les quatre présentés dans la feuille "Paramétrages". Le premier s'inscrit dans la logique du scénario catastrophiste choisi par le gouvernement. Le second paramétrage par contre suggère que la durée moyenne de la maladie serait nettement inférieure à ce que les catastrophistes prétendaient.
Or l'animation suivant montre que le second scénario correspond à un bien meilleur ajustement des courbes ...
Rebonds théoriques. Si en J90 on choisit le paramétrage s'inscrivant dans la logique de celui choisi par le gouvernement en J18, on est alors dans la configuration décrite dans le graphique suivant :
Pourquoi en J90 le modèle prévoit-il un rebond ? Pour répondre à cette question il faut aller voir dans la feuille "J90+prévision" du tableur le passage de la ligne 92 à 93, c-à-d lorsque l'on passe des valeurs observées aux valeurs théoriques. Or cette transition remplace la valeur semi-réelle de β (0,024 dans K91) par sa valeur théorique (0,1 dans D6 et dans la colonne K à partir de K92), ce qui correspond à une remontée de Rt de 0,3 < 1 à 1,3 > 1, instantanément ! Ainsi le passage de la ligne 92 à 93 dans la colonne J montre que it, le taux de croissance de It, en passant de sa valeur observée, qui est négative, à sa valeur théorique devient brusquement ... positive. Et rappelons-nous que la valeur théorique de β fut calculée sur base d'un ajustement ... exponentiel (cf. supra R-zero-calcul), de sorte qu'apparaît inévitablement une "seconde vague".
En outre il est est extrêmement facile de faire en sorte que ce mécanisme se reproduise indéfiniment (par exemple si le virus est saisonnier) : il suffit de susciter une augmentation du nombre de test (par exemple en propageant des messages anxiogènes) et d'ainsi booster le nombre de cas positifs (et d'autant plus que la méthode de test produira de nombreux faux positifs) pour que la nouvelle estimation de β (à nouveau par ajustement exponentiel) redonne à nouveau un "R zéro" supérieur à 1.
Or une seconde vague s'est effectivement produite. Mais nous venons de voir que le modèle SIR est caduque. On doit donc en tirer la conclusion que la seconde vague est une création artificielle. Elle est fondée sur une climat de terreur médiatique savamment entretenu, afin d'inciter les gens à passer des tests, ce qui provoque évidemment une hausse des personnes recensées comme infectées. D'autre part ce climat de terreur, propre à la stratégie non médicale, a eu pour effet d'induire de puissants effets pervers (cf. infra #effets-pervers-strategie-non-medicale), et partant une surmortalité toutes causes, prenant graphiquement la forme d'une accentuation de la courbe de mortalité toutes causes au-delà de la moyenne des trois années précédentes.
Le cas des rebonds théoriques étant réglé, abordons maintenant la question des illusions statistiques.
« Les virus ne font pas de vagues. Ce n’est qu’un mythe fondé sur une mauvaise compréhension de la grippe à la fin de la Première Guerre mondiale, il y a un siècle » [Mike Yeadon]. En faite la cause de la forte surmortalité de 1918 à 1920 est l'état physique et psychique déplorable de la population après quatre années de la première guerre mondiale dans l'histoire de l'humanité. La plupart des décès était "avec la grippe" espagnole plutôt que "par la grippe". Ce sont en réalité de multiples infections bactériennes qui furent la principale cause de mortalité.
Variants. L'énorme focalisation des ressources scientifiques sur l'épidémie de covid-19 – qui est sans précédent historique – a nécessairement pour effet de faire apparaître des phénomènes séculaires (dont les variants), mais qui étaient jusqu'en 2020 demeurés invisibles. En réalité la plupart des virus disparaissent seulement des "radars statistiques" mais continuent à circuler de manière endémique, via des porteurs asymptotiques. Il suffit donc d'augmenter l'efficacité des radars pour faire apparaître des épidémies.
Pseudo-rebonds. Un rebonds épidémique se produit sur une même zone géographique. Il importe donc, au sein d'un même pays, de ne pas confondre cela avec la propagation d'une épidémie à d'autres régions. Cette confusion est fréquente dans des pays de grande taille avec des différences prononcées de température entre régions nord et sud.
"Rebonds" saisonniers. Enfin rappelons que l'évolution de la mortalité toutes causes est relativement régulière, sous la forme d'une sinusoïdale. Cette dynamique est due principalement aux variations des propriétés physico-chimiques de température et d'humidité de l'air, qui influencent le métabolisme des organismes vivants ainsi que la propagation des virus et bactéries. Il est quasiment certain que les adeptes des modèles épidémiologiques vont continuer d'abuser l'opinion publique en associant ces vagues annuelles à des "rebonds".
Il fait peu de doute que les entreprises "d'information" et leur scientifiques de plateau TV vont de plus en plus exploiter tous ces filons pour en tordre la réalité. Où cela va-t-il s'arrêter, alors qu'il existe une vingtaine de virus associés aux seules infections respiratoires qui circulent dans le monde en même temps [source]. On pourrait quasiment chaque année, du début à la fin, focaliser l'opinion publique sur des micro-résurgences de tel ou tel virus. En entretenant ainsi un climat de terreur, et partant les effets pervers de la stratégie non médicale, l'idéologie covidiste provoque ainsi un délétère effet de prophétie auto-réalisatrice.
L'analyse du modèle SIR que nous venons de réaliser dans le cadre de l'épidémie de covid-19 est l'occasion de résumer ici les facteurs d'inefficacité des modèle épidémiologiques comme instruments de prévision et de pilotage de la SNM.
Force est de constater une forte propension de ces modèles, et de leurs paramétreurs, à produire des prévisions conduisant à de gigantesques surestimations de la létalité d'un virus (cf. Neil Ferguson). Ce fait est lié à la nature écosystémique et complexe des phénomènes épidémiques et infectiologiques (large marge d'erreur), ainsi qu'à la forte propension des paramétrages du modèle à privilégier les "scénarios" catastrophistes (marge d'erreur positive), qui ont plus de chance d'attirer l'attention de l'opinion publique sur ces modèles et leurs modélisateurs.
Ces erreurs de prévisions récurrentes peuvent avoir deux types de causes :
Les erreurs d'estimations ont deux grandes causes, cumulables :
L'absence de données épidémiques fiables rend d'autant plus absurde l'application de la SNM dans la mesure où celle-ci consiste à "piloter" l'épidémie en fonction des prévisions de modèles nourris par ces données ... fausses. Cette absurdité est d'autant plus délétère que les effets pervers du climat de terreur entretenu par la stratégie non médicale ont pour effet d'induire un phénomène de prophétie autoréalisatrice.
(*) Ainsi les médecins praticiens (à ne pas confondre avec ceux des organisations internationales ou des facultés de médecine) constatent régulièrement de substantielles modifications des paramètres, ce qu'ils expriment en langage courant en disant que la grippe fut « plus virulante » (β) telle année ou « moins tenace » (λ) ou encore moins létale (μ) telle autre année ou dans telle autre région du pays.
Dans la section consacrée au modèle SIR nous avions défini deux types théoriques de stratégie anti-épidémique :
La présente section étant consacrée à l'épidémiologie non plus théorique mais pratique, nous allons ici compléter cette typologie en prenant en compte les possibilités et contraintes d'application.
Le tableau suivant synthétise les modalités de stratégies épidémiques :
Le tableau montre une différence importante entre SM et SNM : dans la SM les mesures de la SNM (confinement, distanciation, masque, antisepsie, vaccins expérimentaux) sont volontaires et limitées aux seuls groupes à risque (les personnes les plus susceptible de symptômes sévères s'ils sont infectés), tandis que la SNM impose ces mesures, et cela à la totalité de la population (lignes 3 et 4) !
Nous verrons que cette différence est déterminante dans l'induction des effets pervers de la SNM : pour inciter l'ensemble de la population à appliquer strictement la SNM, il faut entretenir un climat de peur.
Nous avons vu que le modèle SIR est une théorie (parmi d'autres) permettant d'expliquer – via le phénomène d'immunité collective (déterminée par la part d'individus immunisés dans la population) – pourquoi les épidémies s'éteignent naturellement, et cela avant d'avoir contaminé 100% de la population (cf. #SIR-immunite-collective).
N.B. Le fait que des modèles mathématiques peuvent expliquer les extinctions naturelles d'épidémies par l'immunité collective n'implique pas en soi que l'immunité collective est la cause effective des extinctions naturelles, ni même qu'elle existe dans la réalité ! Ces extinctions sont très probablement aussi le fait de multiples facteurs écosystémiques liés aux virus plutôt qu'aux populations infectées. Nous allons ici faire abstraction de ces considérations.
Nous allons montrer ici que le modèle SIR peut sous-estimer considérablement l'ampleur de l'immunité collective, et surestimer le niveau du seuil d'immunité collective. Pour cela il faut commencer par traiter de l'immunité individuelle.
Qu'est ce qui fait qu'un individu est immunisé ? Il y a quatre possibles voies d'immunisation (synonyme "d'exclusion" c-à-d le fait d'appartenir au groupes des exclus du risque de contamination ) :
Ainsi les individus du groupe sanguin O – environ 43% de la population [source] – seraient nettement moins infecté par covid-19 [source].
Mais s'il n'existe ni vaccin ni traitement curatif, les individus ne peuvent donc être immunisés que :
NB : nous verrons cependant que l'absence de traitement curatif est une notion théorique qui ne correspond généralement pas à la réalité car en pratique il existe souvent des médicaments non spécifiques qui s'avèrent efficaces (cf. infra #traitements).
Notre système immunitaire se compose de deux parties fonctionnelles, fortement imbriquées [source1, source2] :
Les lymphocytes B gèrent la production d'anticorps, tandis que les lymphocytes T sont des cellules tueuses ou régulatrices. L'action des lymphocytes T aurait pour effet de stimuler celle des lymphocytes B, et inversement. Notons enfin que des anticorps peuvent intervenir dans l'immunité innée, pour augmenter l'efficacité de la phagocytose par les macrophages (en se fixant sur les pathogènes).
Tempête de cytokines
L'action des cellules T peut conduire à une réponse immunitaire exagérée, consistant en une destruction exagérée de cellules par les cellules T : c'est ce qu’on appelle une "tempête de cytokines" (les cytokines sont des protéines assurant une fonction signalétique permettant aux cellules d'agir à distance sur d'autres cellules pour en réguler l'activité et la fonction). Très rarement, cela peut également se produire chez les jeunes enfants (syndrome de Kawasaki). Heureusement ce syndrome est facile à soigner : les patients affectés reçoivent des anticorps de donneurs de sang sains, c’est-à-dire de personnes qui ont eu un rhume à coronavirus. L'immunité collective est ainsi utilisée à des fins curatives.
Mémoire immunitaire. Les immunités innée comme adaptative sont donc fondées sur une capacité de mémorisation d'infection par des pathogènes (résistance à la réinfection). Cette mémorisation est typique dans le premier cas (reconnaissance de classes de pathogènes), spécifique dans le second.
Les anticorps sont des molécules produites par les lymphocytes B (cellules B), qui sont régulés par les lymphocytes T (cellules T), qui sont un type de leucocytes c-à-d de globules blancs. Dans une étude portant sur 23 personnes qui ont survécu au SRAS en 2003, chacune d'entre elles avait des lymphocytes T à mémoire qui ont reconnu le virus du SRAS ... 17 ans plus tard [source]. À la fin des années 2010 on a même retrouvé des anticorps chez des patients qui avaient été contaminés par la grippe H1N1 en ... 1918, soit nonante ans plus tôt ! [source p. 48].
La mémoire innée ne repose pas sur des mutations ou réarrangement de lymphocytes, mais sur leur augmentation fonctionnelle.
Homéostasie tissulaire. L'étape finale de la réponse immunitaire concerne la réparation et régénération de tissus endommagés. Ce processus opère via la production de cytokines (telles que IL-4 et IL-13), qui activent également d'autres cellules : cellules épithéliales, fibroblastes qui sécrètent le collagène, macrophages anti-inflammatoires qui produisent des facteurs de croissance, etc [source p. 45].Antagonisme régulateur. La nature opère généralement un arbitrage entre résistance et virulence d'un agent pathogène (virus, bactérie, ...) : plus cet agent est résistant, moins il est virulent. Il en résulte que, généralement, un agent infectieux qui se propage rapidement est aussi peu nocif, et inversement. Dans le cas des virus, une cause possible de ce mécanisme régulateur est que les virus ne peuvent se reproduire par eux-mêmes ⇒ ils doivent s'introduire dans des cellules "hôtes", dont ils utilisent les mécanismes reproducteurs.
Dans la section consacrée au modèle SIR nous avons vu l'équation E*t = 1 - It - 1 / ( β * λ ) n_E*(t) qui exprime le seuil d'immunité collective c-à-d la valeur de Et au-delà de laquelle, la croissance du nombre d'infectés (It) serait impossible.
L'équation n_E*(t) n'exprime pas de causalité mais seulement une corrélation entre E*t et It, c-à-d que lorsque It arrête de croître sa valeur correspond à une valeur de Et égale à E*t. Et inversement lorsque Et atteint la valeur de E*t c'est que nécessairement It arrête de croître. Mathématiquement cela s'exprime par :
E*t = 1 - It - 1 / ( β * λ ) ⇔ It = 1 - E*t - 1 / ( β * λ )
On peut interpréter cette expression mathématique de façon intuitive en disant que si la répartition spatiale de la population It est uniforme (ce qui est une des hypothèses du modèle SIR ... généralement non vérifiée dans la réalité) il existe une valeur minimale de It en-dessous de laquelle – c-à-d une valeur maximale de Et au-delà de laquelle – le virus n'arrive plus à se propager faute de suffisamment de vecteurs. Cette interprétation surlignée en jaune permet d'expliquer pourquoi une épidémie s'éteint naturellement avant que le virus ait contaminé l'intégralité de la population au sein de laquelle il se propage.
Comprenons bien que l'immunité collective (à supposer que ce concept théorique corresponde à une quelconque réalité ...) n'est pas vraiment une stratégie mais un phénomène qui opérerait en toile de fonds de la #strategie-medicale, comme de de la #strategie-non-medicale. Celles-ci ont pour effet d'accentuer le (supposé) phénomène d'immunité collective.
Depuis la création de l'OMS en 1920 (sous un autre nom), et jusqu'en 2020, on avait jamais appliqué la stratégie non médicale (en raison de ses évidents effets pervers : cf. supra #effets-pervers-SNM), y compris dans les cas de pandémies de virus "nouveaux" (entre guillemets, car nous verrons que ces notions relèvent de la taxinomie et que celle-ci est très réductionniste dans un environnement en perpétuelle mutation, mais où d'autre part ces mutations sont toujours partielles : cf. #virus-nouveau).
Ainsi chaque année des épidémies létales et dont la propagation connaît souvent une propagation initiale exponentielle, sont finalement maîtrisées sans SNM. Par conséquent, chaque année nous sommes confrontés au risque que le système hospitalier soit surchargé. Heureusement il ne l'est quasiment jamais au niveau national. Par contre, dans certains hôpitaux, il arrive quasiment chaque année que, pendant quelques jours voire semaines, les capacités sont surchargées, ce qui requiert le transfert de patients dans d'autres hôpitaux (cette problématique sera analysée en détail dans #repartition-patients).
Cette situation, qui peut avoir pour conséquence quelques décès, est implicitement considérée comme "acceptable" au regard des coûts sociaux, économiques et politiques :
Dans la section #SIR-immunite-collective nous avons vu que d'un point de vue relatif, la sous-estimation de l'immunité collective Et (mesurée par des tests sérologiques) est équivalente à une sur-estimation du seuil d'immunité collective E*t (calculé par des modèles théoriques) : dans les deux cas cela conduit à surestimer le niveau qu'atteindra le sommet de la courbe épidémique. On comprend alors que la sous-estimation de l'immunité hors anticorps pourrait être une des causes de la surestimation du risque épidémique par les modèles mathématiques (ou leur paramétrage). Nous allons ici développer ces notions, aussi importantes que ... souvent mal comprises.
Immunité croisée. Chez la plupart des individus infectés présentant peu ou pas de symptômes le système immunitaire neutraliserait le coronavirus par une immunité muqueuse (IgA) et cellulaire (lymphocytes T). Les scientifiques ont pu constater une réactivité des cellules T CD4 du SRAS-Cov-2 allant jusqu’à 60% dans une population non infectée, ce qui suggère des réactions croisées avec d’autres virus du rhume (corona) [source]. Autrement dit, la plupart des gens ont déjà une immunité congénitale ou croisée parce qu’ils ont déjà été en contact avec des variantes du même virus [source].
Immunité innée > immunité adaptative ? D'autre part il semble que l'importance de l'immunité adaptative a été exagérée par l'industrie pharmaceutique, qui contrôle une part considérable de la production d'articles "scientifiques" en la matière (cf. infra #pharma-data-business). Les tests sérologiques (qui mesurent la quantité d'anticorps IgM/G/A dans le sang) ne livrent qu'une information partielle voire trompeuse : ils ne mesurent pas l'immunité innée. Or de nombreux faits suggèrent que celle-ci, à laquelle s'ajoute l'immunité croisée, serait déterminante dans la défense immunitaire, bien plus que les anticorps spécifiques.
Par conséquent, et à supposer que les concepts mathématiques d'immunité collective (mesurée par des tests sérologiques) et de seuil d'immunité collective (calculé par des modèles théoriques) correspondent à une quelconque réalité dans le monde réel (dont aucun modèle ou culture in vitro ne peut reproduire la complexité ...), ce seuil pourrait donc être atteinte avec "seulement" 15% de la population présentant des anticorps protecteurs [source1, source2, source]. Autrement dit le seuil d'immunité collective effectif serait nettement plus bas que celui calculé par les modèles épidémiologiques (PS : alternativement on pourrait dire que l'immunité collective effective serait, à 100-15=85%, très supérieure à celle mesurées par les tests sérologiques).
Force est de constater que l'intérêt financier de l'industrie pharmaceutique est de favoriser la publication d'articles prétendument "scientifiques" situant le seuil d'immunité collective à un niveau nettement plus élevé que ce qu'il est en réalité. Inciter les décideurs politiques à vacciner au moins deux tiers de la population constitue, pour les actionnaires de "big pharma", une stratégie bien plus profitable que le traitement curatif des seuls malades (NB : il en résulte que l'impact productif sur l'environnement est également bien plus nuisible que celui associé à la stratégie médicale consistant à privilégier le traitement curatif des seuls malades).
Les mesures caractérisant cette stratégie préventive sont le confinement, la distanciation, le port du masque voire de gants, et le lavage fréquent des mains.
Lorsque le taux de mortalité est tellement faible que l'épidémie est quasiment invisible pour la population, celle-ci ne respecte les mesures que si elle est maintenue en permanence dans un climat de peur.
L'application de ces mesures à l'ensemble de la population, ce qui n'avait jamais été le cas avant 2020, est "justifiée" par les appareils d'État (presse, gouvernement, autorités scientifiques, ...) sur base d'un corpus théorique, qui est celui des modèles mathématiques épidémiologiques (nous verrons plus loin qu'il s'agit en fait d'instrumentalisations tendancieuses voir frauduleuses de ces modèles : #science-devoyee).
Pratiquement les mesures de la SNM (confinement, distanciation, masque, antisepsie, vaccination expérimentale) visent à :
On constatera que l'animation suivante, illustrant le principe de la SNM pour neutraliser la propagation du virus, peut être appliquée "en miroir" au phénomène de propagation de l'immunité collective (NB : cette propagation étant d'autant moins coûteuse en terme de capacités médicales que le pourcentage d'infections symptomatiques non sévères et d'infections asymptomatiques est élevé).
SNM : l'un télétravaille, l'autre ne se rend pas à ce barbecue, une troisième ne voyage pas en avion, et celui-là reste à la maison. SM : l'un est immunisé, l'autre est immunisé, une troisième est immunisé, et celui-là est immunisé.
Nous avons montré dans la section #SIR-strategies que l'effet théorique de la SNM est double :
On notera que, près de après le début de l'épidémie, aucun gouvernement n'a toujours mis en place un programme d'augmentation de la capacité hospitalière nationale ...
Selon le positionnement ex post des courbes par rapport à la capacité hospitalière (cf. graphique ci-dessus), ont pourra tirer l'une de trois types possibles de conclusion :
Ainsi dans le cas de la covid-19, s'il s'avère que cette maladie est saisonnière, on s'inscrirait alors dans un cycle de confinements et dé-confinements qui durera tant que l'on aura pas développé de médicament spécifique ou de vaccin (ce qui est impossible de façon sécurisée en moins de dix ans), ou tant que la réglementation médicale pénalisera l'usage de médicaments non spécifiques pour traiter les malades.
Les adeptes de l'épidémiologie mathématique, prisonniers de leur "logique", sont ainsi conduits dans un enfermement cognitif : c'est le confinement qui neutraliserait l'épidémie. Ainsi selon eux les épidémies ne réapparaissent que parce qu'on a levé temporairement le confinement, et non en raison des cycles saisonniers. Ces croyants ne "raisonnent" plus que dans le cadre étriqué de leur modèle, malgré que (i) ceux-ci sont connus pour produire des prévisions qui in fine se sont généralement avérées extrêmement exagérées, et que (ii) les épidémies saisonnières se sont toujours éteintes chaque année sans surcharge de la capacité hospitalière nationale, et sans imposition d'une SNM aux populations.
Ce cycle de confinements et dé-confinements est un moindre mal, affirment les promoteurs de la SNM, car on aura ainsi pu retarder le sommet de la courbe épidémique, ce qui permet selon eux de gagner du temps pour augmenter la capacité hospitalière, ainsi que pour développer un vaccin (nous verrons dans #vaccination pourquoi les covidistes préfèrent les vaccins aux traitements curatifs).
Le problème est ici qu'il n'est actuellement pas possible, en moins de trois ans, ni d'augmenter substantiellement et effectivement la capacité hospitalière (cf. le graphique de Ferguson pour une idée de l'augmentation requise ...), ni de développer un nouveau traitement curatif ou préventif (vaccin) réellement efficace et sécurisé (il faut pour cela une quinzaine d'années).
Construire les bâtiments est une chose, mais les équiper d'unités de soins intensifs requiert du matériel complexe et surtout du personnel compétent. Or ces ressources ne peuvent être créées en quelques mois, qui plus est si le système productif est entravé par un confinement général. Les affirmations des gouvernements qui en 2020 ont prétendu avoir augmenté substantiellement la capacité hospitalière en quelques semaines (et alors qu'ils n'étaient pas même en mesure de gérer efficacement les seuls stocks de masques de protection) sont donc mensongères et concernent au mieux des lits de soins non-intensifs (qui ne requièrent ni personnel spécialisé, ni matériels lourds).
Pour développer un nouveau médicament ou vaccin dont les effets thérapeutiques sont substantiels, et les effets secondaires connus et modérés, il faut en moyenne une quinzaine d'années. En 2020 cette durée fut instantanément réduite à une année ! La photo ci-contre (effets du thalidomide) illustre un exemple du risque encouru quand on autorise de nouveaux médicaments ou vaccins sans précautions suffisantes.
Les principes de la SNM étant clairement définis comparons maintenant son efficacité théorique à la réalité des faits.
Interrogé fin mars 2020 par le journal français Le Parisien sur l'efficacité du confinement général, le professeur Didier Raoult, premier expert mondial en maladies transmissibles selon l'indice expertscape, répond en ces termes : « Jamais on n’a pratiqué ainsi à l’époque moderne. On faisait ça au XIXe siècle pour le choléra à Marseille. L’idée du cantonnement des gens pour bloquer les maladies infectieuses n’a jamais fait ses preuves. On ne sait même pas si ça fonctionne. C’est de l’improvisation sociale et on n’en mesure pas du tout les effets collatéraux » [source].
L'analyse de l'applicabilité de la SNM (confinement, distanciation, masques, antisepsie, vaccins expérimentaux) doit distinguer deux cas selon que l'on considère :
Or l'on constate que même en milieu hospitalier on n'arrive pas à neutraliser totalement les infections nosocomiales. En fait la seule certitude concernant les mesures sanitaires en milieu hospitalier c'est leur fonction juridique [source] et d'image de marque (NB : la concurrence joue aussi dans le secteur hospitalier). Ainsi lors d'une expérience en milieu hospitalier réalisée et 1981 et rapportée par le Royal College of Surgeons of England aucun masque n'a été porté dans un bloc opératoire pendant 6 mois, et aucune augmentation d'infection des plaies n'a été constatée par la suite [source].
Et concernant l'usage du masque par le grand public, rappelons que le masque est à usage unique, et pour une durée de trois heures. Il doit être posé et retiré sans le toucher (!), ou bien avec lavage des mains avant et après le port (chaque fois !). Il ne doit jamais être porté sur le front, sur le cou ou dans la poche (ce que quasiment tout le monde fait ...), au risque de contaminer son porteur en cas de repositionnement. [source].
Même s'il existait des études démontrant l'efficacité du masque pour bloquer l'émission de particules, et du lavage des mains pour tuer les virus qui se sont fixés dessus, il reste encore à vérifier s'il est réaliste de croire que ces mesures peuvent être appliquée par tous, à tout instant, en tous lieux et en toutes circonstances. Ainsi quel est le pourcentage de la population qui ne porte jamais le masque sur le cou ou en poche ? Quel est le pourcentage de la population qui se nettoie les mains après chaque contact de celles-ci avec un objet ? Et là on n'a même pas évoqué le fait que le principal mode de transmission du virus pourrait être constitué par les particules fines en suspension dans l'air [source]. Toute cette analyse logique est d'ailleurs confirmée par une étude statistique concernant la grippe : les antisepsie des mains et le port du masque n’ont pas d’effet substantiel sur la transmission de la grippe [source].
Même dans un état totalitaire il ne serait pas réaliste de croire en l'efficacité de l'imposition du masque à l'ensemble de la population. Il est donc particulièrement inquiétant de constater qu'une revue d'articles scientifiques réfutant l'efficacité des masques, réalisée par le physicien Denis Rancourt et publiée en avril 2020 sur researchgate.net fut censurée le mois suivant : archive.org - PDF
Interview de Denis Rancourt avant la censure (42m28s - mai 2020)
L'argumentation de researchgate.net pour "justifier" la censure de cette revue d'articles scientifiques est hallucinante et extrêmement inquiétante : elle ne repose sur aucun critère scientifique mais uniquement sur l'opinion personnelle des administrateurs de researchgate.net, selon qui le contenu de l'article pourrait constituer une menace pour la santé publique ! [email-rancourt-researchgate.pdf]. Voici la réaction de Denis Rancourt.
Réaction de Denis Rancourt après la censure (4m35s - mai 2020)
On notera enfin cette méta-enquête publiée en septembre 2019, réalisée par le Center for Health Security de l'université Johns Hopkins, et publiée sur le site de l'OMS, montrant que très peu d'études ont été réalisées sur l'efficacité des masques en dehors des établissements de santé ... [source p. 54]. Nous avons cependant trouvé deux études sur les effets nuisibles du masque. L'une, réalisée en 2015 sur les masques en tissus, montre que la rétention d'humidité, la réutilisation du masque et une mauvaise filtration peuvent entraîner un risque accru d'infection [source]. L'autre étude, réalisée en 2020, montre que le port du masque augmente la concentration en CO2 de 20% durant des activités très physiques [source], de sorte qu'il n'est donc pas recommandé pour des activités physiques dans les lieux où la concentration en CO2 est supérieure à 900/1,2=750 ppm [source].
Quant au confinement, on ne peut l'appliquer à une large population sur des périodes de plusieurs semaines car les gens doivent sortir au moins pour aller (i) chercher de la nourriture (sauf à constituer massivement des stocks, ce qui n'est pas gérable globalement) ; (ii) sur leur lieu de travail (les services qui peuvent être réalisés par télétravail ne représentent qu'une partie du PIB). On notera également que durant l'épidémie de covid-19 la fermeture des maisons de retraite pour les visites n'a pu y stopper la contamination, qui continuait de s'y propager via le personnel ... [source p. 99].
Il semble qu'avant 2020 le terme "confinement" n'était pas utilisé en matière de gestion épidémique. Les seuls terme utilisés étaient "isolement" (individus contagieux, milieu hospitalier) et "quarantaine" (individus symptomatiques, milieu extra-hospitalier) [source p. 56].
Après avoir énoncé ces faits concrets concernant la supercherie théorique, la différence entre milieu hospitalier et milieu non hospitalier, et enfin la difficulté pratique de l'imposition généralisée du masque et du confinement, apparaissent des questions fondamentales :
La réponse à ces questions est tout sauf affirmative. Que ce soit sur le lieu de travail, au domicile, ou lors d'activités sportives, culturelles ou associatives, il n'est pas possible d'appliquer en permanence la distanciation (un mètre cinquante), le port du masque (sans le toucher) et le lavage des mains (après chaque contact sans gants). Et à supposer que ces mesures soient appliquées parfaitement sur le lieux de travail (par exemple par le licenciement des réfractaires pour faute grave) il en résulterait un très forte baisse de productivité, de sorte que la production de biens et services vitaux pourraient ne plus être garantie.
La probabilité que la SNM soit une stratégie pertinente est donc très probablement quasiment nulle. Une étude publiée en septembre 2019, réalisée par le Center for Health Security de l'université Johns Hopkins, et publiée sur le site de l'OMS, souligne ainsi l'absence d'évidence concernant l'efficacité de nombreuses mesures de SNM [source p. 58]. Ce résultat est confirmé par une étude publiée en janvier 2021 et cosignée par John Ioannidis, professeur à l'université de Standford, et sommité mondiale en épidémiologie : la SNM n'a pas d'effet positif significatif sur le nombre d'infections [source].
Totalitarisme. À supposer que l'ensemble des mesures de la SNM (confinement, distanciation, masques, antisepsie, vaccins expérimentaux) aient un effet substantiel sur la courbe épidémique lorsqu'elles sont appliquées intégralement, il faut pour cela maintenir un niveau minimum de discipline de la population en entretenant en permanence un climat de terreur via les médias "d'information", et en instaurant un régime policier fondé notamment sur la dénonciation des contrevenants. Voulons-nous d'une telle société ?
On notera d'autre part la paradoxale tolérance des gouvernements français [source] et belges [source1] par rapport aux manifestations anti-trump de début juin 2020 (donc avant l'extinction de l'épidémie) contre le racisme de la police US (et contre Trump) : ainsi donc l'interdiction des rassemblements est une question de vie ou de mort ... sauf pour certaines manifestations ! Voilà qui met sérieusement en question la véritable motivation de l'imposition de la SNM à l'ensemble de la population. Ces manifestations, dont de nombreux participants ne portaient pas de masque, n'ont d'ailleurs pas été suivies d'une remontée de la courbe épidémique (NB : d'après les "experts" covidistes les effets auraient du être visibles après une dizaine de jours), ce qui confirme que confinement et masque n'ont pas d'effet substantiel. Et pourtant un mois plus tard (11 juillet 2020) le gouvernement belge a rendu le port du masque obligatoire, sans doute pour "rentabiliser" les stocks achetés (après le sommet épidémique !) par ce même gouvernement qui avait fait déclarer l'inutilité des masques lorsque ceux-ci étaient indisponibles !
Didier Raoult sur le confinement et le masque (0m5s - juin 2020)
Selon le premier expert mondial en maladies transmissibles le confinement et le port du masque en public ne sont pas des décisions scientifiques mais politiques.
Et nous n'avons pas encore évoqué le gros point faible de l'imposition de la SNM à l'ensemble de la population : ses effets pervers sur la mortalité toutes causes ...
Les pouvoirs médiatique, académique et politique ne s'en sont jamais cachés : pour qu'un maximum de gens appliquent les mesures de la stratégie non médicale (SNM : confinement, distanciation, masques, antisepsie, vaccins expérimentaux), il faut apeurer la population [exemple1, exemple2].
Or une peur artificiellement entretenue, et la panique qu'elle entraîne généralement, peuvent inhiber gravement les capacités cognitives des individus, et conduire ceux-ci à adopter des comportements auto-destructeurs. D'autre part l'histoire montre que les phénomènes d'hystérie collective sont souvent exploités par des forces idéologiques, politiques et/ou économiques. L'enfer est pavé de bonnes comme de mauvaises intentions ...
Et tout cela, c'est précisément ce qui se produit dans la crise de la covid-19. Voici un liste documentée, illustrant une dizaine de graves effets pervers de la SNM, qui participent tous au phénomène de prophétie autoréalisatrice :
Syndrome de glissement : privés d'affection familiale, terrorisés par les messages médiatiques et gouvernementaux ultra-anxiogènes, beaucoup de vieillards se sont "laissés partir".
Entraves politiques aux médicaments repositionnés (moins rentables que les vaccins pour l'industrie pharmaceutique ) : or le seul traitement symptomatique peut réduire le taux de mortalité ⇒ les entraves politiques au traitement des personnes symptomatiques a provoqué l'aggravation de l'état d'une partie de ces patients, qui ont du finalement être envoyés en urgence dans le système hospitalier, ce qui eut pour effet de surcharger certains hôpitaux, et de provoquer de nouveaux décès [sources : FRA-1, FRA-2, CHE, USA].
Effets indésirables des injections expérimentales de masse, de sorte que le ratio "effets positifs / effets négatifs" pourrait être inférieur à 1. Rappelons à cet égard :
Refus de suivi médical. Voici la réponse type donnée par les médecins généralistes covidistes, aux demandes de consultation pour état grippal : « Vous ne pouvez accéder à mon cabinet médical qu'avec une attestation de test PCR négatif. Si votre test est positif, restez chez vous et prenez du Dafalgan, jusqu'à ce que les symptômes disparaissent. Si vous avez des problèmes respiratoires allez à l'hôpital, où vous serez traitée par des personnes habillées en combinaisons de protection » (sic). Dans ces conditions, des pathologies respiratoires, liées ou non à la covid-19, ne seront pas traitées ... jusqu'à ce qu'elles se soient aggravées en hypoxémie ! D'autre part, il apparaît que certains hôpitaux font tout pour rejeter les patients âgés et souffrant de pathologies multiples [source]. La raison invoquée est qu'il faut préserver des capacités pour les vagues à venir, que des modèles mathématiques "prévoient" de façon récurrente. On a donc refusé de soigner les plus fragiles en raison de croyances fétichistes dans des modèles pourtant connus pour leur propension à fournir des prévisions extrêmement exagérées [cf. supra #modeles-mathematiques].
Désorganisation hospitalière : la réorganisation d'urgence des hôpitaux pour faire face aux immenses afflux théoriques "prédis" par les modèles mathématiques, a aussi provoqué une désorganisation des services hospitaliers, attisant le stress du personnel soignant, et dégradant ainsi la qualité et la quantité de son travail.
Voir cette collection de témoignages illustrant l'incroyable pression psychologique provoquée par la stratégie de la peur, et qui a considérablement dégradé les relations dans les hôpitaux entre patient et soignants, entre patients ainsi qu'entre soignants : "II.2 Les violences en raison de la crise sanitaire" p.144.
hospitalisations abusives : des personnes jeunes et sans symptômes sévères ont été admises en soins intensifs, ce qui a eu pour effet :
Le taux de mortalité chez les personnes intubées est toujours élevé, puisque cette mesure est généralement celle de la dernière chance pour des cas graves. Une conclusion implicite de cette étude, est que ce taux aurait été augmenté par l'effet de panique entretenu autour de la covid-19.
L'agence de santé publique française notait dans son bulletin du 16 avril 2020 que « depuis le début de la période de confinement, l’activité toutes causes aux urgences a fortement diminué pour toutes les classes d’âges » [source].
Effets psychosomatiques causés par le climat anxiogène persistant et la réduction des activités physiques & collectives [source].
Le "covid long", dont la plupart des symptômes sont semblables à ceux de l'hypersensibilité électromagnétique (maux de tête, difficultés de concentration, perte de mémoire, insomnie, dépression, fatigue, symptômes grippaux,...) pourrait être un effet psychosomatique de la SNM [source1, source2]. On notera à cet égard que (i) cette affection est caractérisée par des tests virologiques négatifs, voire même des tests sérologiques négatifs ; (ii) les troubles observés sont souvent intermittents et ne sont pas systématiquement associés à des altérations visibles en imagerie ; (iii) la prévalence de ces affections (malades/population) n'est pas clairement établie [source]. On notera enfin que la reconnaissance du "covid long" comme maladie professionnelle pour le personnel médical [source], ou encore comme maladie à longue durée [source], a pour effet de pérenniser la prophétie autoréalisatrice qu'est le covidisme dès lorsque que la covid-19 pourrait ainsi "vivre sa propre vie", sans lien nécessaire avec une infection virale, tout en nourrissant les statistiques des "cas de covid-19" ! On notera à cet égard une tendance dangereuse d'attribuer les troubles de la concentration et le plongeon scolaire de nombreux enfants, non pas aux effets pervers de la SNM mais au prétendu "covid long" [exemple p. 110] !
Inhibition du système immunitaire par le stress psychique permanent [source], la réduction des activités physiques et de l'exposition au soleil, la sur-hygiénisation [source1, source2, source3], autant de facteurs inhérents à la SNM.
au niveau macro-économique : il y a une corrélation forte entre PIB et mortalité : la baisse du développement économique est systématiquement associée une hausse de la mortalité (notamment en raison d'un renoncement aux soins médicaux pour raisons financières) [source1, source2].
Non-ciblage. La stratégie de la peur ne peut fonctionner que si elle neutralise ses effets pervers. Cela aurait pu être le cas si elle avait été ciblée sur les personnes en surpoids car :
Or force est de constater qu'aucune campagne médiatique anti-surpoids n'a été menée ! Voilà qui illustre à nouveau que la stratégie de la peur a eu un effet d'auto-intoxication sur les décideurs politiques, dont les capacités cognitives ont été manifestement inhibées par l'atmosphère ultra-anxiogène.
Des effets positifs collatéraux dérivés d'une SNM coercitive existent certes, tels que la baisse de la pollution atmosphérique et des accidents de la route. Mais compensent-ils les effets collatéraux négatifs ? Ainsi il faut 400 ans à une masque jetable pour se décomposer [source]. Quant à la vaccination de masse, elle est bien plus polluante que le traitement des seuls symptomatiques, puisqu'elle vise au moins une majorité de la population, tandis que le traitement symptomatique ne concerne qu'une minorité [source]. Enfin il apparaît que des pays ont invoqué les effets économiques la crise de la COVID-19 pour alléger les mesures de protections environnementales et leur application [source]. Le covidisme est ainsi en passe de créer une des plus grandes catastrophes écologiques dans l'histoire de l'humanité [source].
Alors qu'en est-il finalement ? Pour répondre à cette question il suffit d'analyser la surmortalité toutes causes. Le graphique suivant (juxtaposition de deux graphiques par calage des dates de début et de fin) montre que la courbe décrivant la modulation de la SNM en Belgique (pays où le taux de mortalité toutes causes durant la crise de la covid-19 est parmi les plus élevés au monde) durant la crise de la covid-19 est étroitement corrélée avec la courbe de mortalité toutes causes. Or la bosse du milieu ne correspond à aucune reprise de la mortalité covid mais à une période de canicule ! Et cette surmortalité n'a pas été observée avec une telle ampleur dans les pays voisins. D'autre part, les droites verticales hachurées montrent que l'intensification de la SNM est systématiquement suive d'une hausse de la mortalité toutes causes.
SNM et mortalité toutes causes en Belgique (22 jan. - 9 nov. 2020)
Sources : ox.ac.uk ; euromomo.eu. Graphique : konfedera.org.
Si on ajoute enfin à tout cela le fait que la SNM n'a pas eu l'effet théorique attendu de recul du sommet épidémique (cf. supra #SIR-parametrage-fin-confinement, ne devrait-on pas en conclure que les effets pervers d'une SNM coercitive l'emportent largement sur ses supposés effets de retardement et d'abaissement du sommet épidémique ?
Or des études scientifiques montrent qu'effectivement la quasi totalité de la surmortalité attribuée à covid-19 serait en réalité causée par la SNM :
Précisons enfin que l'épidémie de covid-19 est bien réelle. Ce que les faits énoncés dans la présente section suggèrent c'est que la plupart des décès attribués au virus sont réalité causés par les effets pervers de la SNM, et non par le virus. Il est donc fondamental de ne pas confondre surmortalité toutes causes et mortalité spécifique : il y a bien une mortalité causée directement par le virus, et ses variants provoquent bien des vagues épidémiques. Mais la thèse développée ici suggère que les pics de mortalité ne sont significativement supérieurs à ceux causés chaque année par les infections respiratoires qu'en raison des effets pervers de la SNM, et non du virus SARS-CoV-2 !
Didier Raoult constate que la stratégie de la peur a tué plus qu'elle n'a sauvé de vies. (1m28s - mai 2022)
Analyses logique et statistique convergent vers la même conclusion:
Au total l'effet net de la SNM est largement négatif, raison pour laquelle elle n'avait jamais été imposée à l'ensemble des populations, même dans les cas de pandémies de virus "nouveaux".
La question demeure donc : pourquoi en 2020 la SNM fut-elle imposée aux populations ?
Une des très probables causes de cette situation est la volonté manifeste des classes dirigeantes d'imposer de façon définitive la vaccination et le passe sanitaire aux populations. Pour ce faire il s'agit d'harceler les populations par de quotidiens messages anxiogènes et des mesures de confinement, pour qu'en échange de la fin de ce harcèlement les populations acceptent la vaccination obligatoire et le traçage systématique de leurs activités sociales (PS : nous verrons plus loin que le phénomène est plus complexe et comprend également une large part d'irrationnel : #covidisme).
Pour justifier ce harcèlement il fallait convaincre les populations de la prétendue inexistence de toutes formes de traitements pour la covid-19. Voilà qui nous conduit tout droit à la section suivante ...
En moyenne un virus est cent fois plus petit qu'une bactérie (μ=10-6).
Nous allons ici traiter des aspects pratiques de la stratégie pharmaceutique (SM) pour neutraliser les effets d'une épidémie sur la santé publique. Les principes théoriques de la SM (dans le cadre du modèle SIR) ont été exposés dans la section #SIR-strategies.
Ses principes pratiques sont : traitement curatif, dépistage & confinement ciblés. Quant au vaccin, c'est un cas particulier : on pourrait être tenté de le considérer comme élément de la SM en tant que produit pharmaceutique accélérant et amplifiant l'immunité collective, mais on peut aussi le considérer comme élément de la SNM en tant que mesure préventive.
Nous parlons ici des traitements médicaux pharmaceutiques (c-à-d chimiques) et mécaniques (respirateurs, etc.).
On a souvent pour habitude de distinguer traitements symptomatiques vs curatifs d'une maladie. Cependant cette approche dichotomique du traitement médical est simpliste :
En situation d'urgence et en l'absence de vaccin ni traitement curatif spécifique, il faut concentrer les ressources scientifiques disponibles sur le "repositionnement" c-à-d la recherche de médicaments existants permettant de traiter le nouveau pathogène (virus, bactérie, ...). L'avantage du repositionnement c'est que ces médicaments sont déjà agréés, donc immédiatement disponibles. En outre leurs effets secondaires, posologie et interactions sont connues. Dans le cas de covid-19 le repositionnement fut réalisé avec succès et une rapidité stupéfiante (qui a suscité beaucoup de jalousies ...) par l'équipe du Pr. Raoult (sur base de recherches chinoises sur des médicament antipaludiques). Il a ainsi été confirmé que les pays qui utilisent principalement des médicaments antipaludiques comme traitement curatif de covid-19 voient une dynamique plus lente des décès quotidiens, le nombre de décès parmi les cas critiques étant divisé par deux [source].
L'efficacité de certains médicaments non spécifiques peut s'expliquer par au moins trois causes :
La R&D en matière de repositionnement peut être faite sur deux axes :
Comme le rappelle justement Didier Raoult, contrairement aux technologies, les propriétés thérapeutiques d'une molécule ne sont pas sujettes à l'obsolescence. Il importe également de mettre sur pieds un modèle économique spécifique au repositionnement. On notera à cet égard que l’augmentation du nombre de brevets déposés ces dernières années s’explique en partie par le repositionnement de médicaments et cache en réalité une baisse du nombre de nouvelles molécules commercialisées [source p. 36].
Essai randomisé contrôlé (ERC) VS étude observationnelle
Le but de de l'essai randomisé contrôlé comme de l'étude observationnelle est d'évaluer les effets bénéfiques et néfastes d'approches thérapeutiques (médicaments, soins, pansements, dispositifs médicaux, chirurgie, etc.). Mais la méthode diffère :
Une étude publiée par la Cochrane library, spécialiste des méta-analyses, confirme les affirmations de Didier Raoult : "En moyenne, il existe très peu de preuves indiquant des différences significatives au niveau de l'estimation de l'effet entre les études observationnelles et les essais randomisé contrôlé (ERC)" [source].
Dans ces conditions, comment expliquer que les ERC soient devenus la norme idéale ? Une possible explication est que, les ERC étant beaucoup plus coûteuses, il est dans l'intérêt des grandes sociétés pharmaceutiques d'en faire un standard incontournable, qui constitue ainsi une barrière à l'entrée sur le marché, par d'éventuels concurrents disposant de ressources financières plus limitées.
Virus "nouveau" vs "immuable"
Commençons par rappeler les premier et second principes de la thermodynamique : rien ne se créé mais tout se transforme. Ce principe reste valable pour le monde vivant, où les mutations sont un phénomène omniprésent et quasiment permanent. Certaines transformations sont majeures mais la plupart sont mineures (qualitativement et quantitativement).
Nouveau ? D'une part les mutations sont toujours partielles (et la plupart du temps mineures), de sorte qu'un agent pathogène (virus, bactérie, ...) "nouveau" n'est jamais totalement "inconnu" ⇔ la notion de familles de virus, pour lesquelles des médicaments non spécifiques à tous les membres sont efficaces;
Ainsi le premier test d’anticorps disponible dans le commerce pour le Sars-CoV-2 avait été élaboré à partir d’un ancien test d’anticorps destiné à détecter le Sars-1 [source].
Immuable ? D'autre part les causes de mutations sont multiples : erreurs lors de la réplication de l'ADN opérée par des enzymes avant la division cellulaire (délétions, insertions ou substitutions), effets de particules du rayonnement cosmique, des UV ou encore de la désintégration d’atomes radioactifs présents naturellement dans notre environnement. Ainsi par exemple, 30 % du génome d'Escherichia coli, se renouvelle en permanence : on pourrait ainsi dire qu'il se crée des Escherichia coli tous les jours [source]. Enfin la fréquence des mutations naturelles peut être artificiellement augmentée par des mutagènes physiques (rayonnements de type ultraviolet, X ou gamma) ou chimiques.
Ressources :
Les méthodes de testing sont variées. Elle se distinguent notamment par l'arbitrage fait entre sensibilité et spécificité, ou encore par leur coût (fabrication, utilisation, ...) :
le test RT-PCR (pour "reverse transcriptase -polymerase chain reaction") mesure la présence de l'ARN viral, attestant ainsi la contamination, mais sans pouvoir mesurer son intensité c-à-d sa charge virale. Ces test est dit virologique car il consiste à rechercher la trace du virus par l’intermédiaire de son matériel génétique. Il est réalisé sur un échantillon biologique pour d’abord transformer tout ARN contenu dans l’échantillon en une séquence d’ADN, et ensuite amplifier une séquence spécifique d’ADN, caractéristique du virus que l’on cherche à identifier. La valeur clinique du test PCR est cependant limitée par le fait que plus l'amplification est poussée plus on a de chance de trouver le virus recherché, alors que d'autre part plus l'amplification doit être élevée plus la charge virale est supposée faible ; enfin le test PCR peut être mis en défaut si le matériel génétique viral change au niveau des séquences amorces, qui servent à l’amplification du matériel génétique ; on ne s'étonnera donc pas que le fabricant du test PCR a expressément averti que ce test n'avait de valeur clinique que complémentairement à d'autres méthodes de diagnostic : « The detection result of this product is only for clinical reference, and it should not be used as the only evidence for clinical diagnosis and treatment » [source] !
On notera que cette recommandation du fabricant n'est pas du tout respectée par la politique de testing appliquée par la plupart des gouvernements dans le cadre de la "pandémie de covid-19".
Il est éclairant d'analyser le principe du testing selon qu'il s'agit de tests de traitement ou de dépistage :
Cette distinction montre que l'on peut réaliser des test pour diverses raisons : dans le cas du test de traitement, cette raison est exclusivement médicale, tandis que le test de dépistage peut être réalisé aussi à des fins politiques. Ainsi des gouvernements mal intentionnés ou mal conseillés peuvent voir dans le dépistage massif un moyen pour augmenter les statistiques épidémiques de cas positifs et ainsi apeurer la population en annonçant chaque jour l'évolution du nombre de cas positifs sans le rapporter au nombre de tests réalisés. Il est alors beaucoup plus aisé pour ces gouvernements de faire accepter des mesures impopulaires telles que le traçage des individus (source de revenus pour les entreprises du "big data") ou le vaccin obligatoire (plus rentable pour les entreprises pharmaceutiques que les médicaments).
À supposer que le dépistage sur une population soit pertinent (c-à-d faisable, efficace et souhaitable) il est cependant très coûteux :
Autant pour des raisons d'efficacité que de coût (financier et économique) le dépistage sur population devrait être ciblé sur deux types de "groupes à risque" :
Il s'agit alors de :
Les groupes à risque représentent souvent un faible pourcentage de la population.
Les groupes blancs sont immédiatement observables puisque c'est précisément leur apparition (les décès causés par l'infection virale) qui attire l'attention. Les groupes noirs peuvent alors être identifiés puis caractérisés par l'analyse du processus de contamination des membres du groupe blanc.
Si nécessaire les tests peuvent être proposés dans les aéroports, ports et postes frontières. Et des cliniques ambulantes peuvent réaliser des tests partout sur le territoire, avec résultats envoyés par SMS le lendemain. Si possible le test peut être réalisé par les personnes elles-mêmes au moyen d'un kit disponible en pharmacie et dans les grandes surfaces.
La problématique du testing est d'autant plus prégnante que l'utilité des test de dépistage et même la crédibilité des tests de traitement sont sujettes à caution :
En Corée du Sud et en Chine, les personnes ayant eu des contacts avec des individus contaminés furent recherchées de manière systématique afin d’être testées à leur tour et confinées de force. Nous pensons cependant que c'est aller trop loin, et fut probablement motivé par des considérations plus politiques que scientifiques. Selon nous le traçage doit être volontaire et ne peut donc être imposé : c-à-d que si Alice accepte d'être tracée et qu'elle rencontre Bob qui n'a pas accepté d'être tracé, un contact entre Bob et Alice ne peut être enregistré.
En 1974, l'utilisation de vaccins étant largement confinée aux pays industrialisés, l'OMS lança un programme mondial de vaccination ayant pour objectif de vacciner tous les enfants contre diphtérie, coqueluche, tétanos, rougeole, poliomyélite, tuberculose. Ce programme fut accompagné d'une diminution spectaculaire du nombre d'infections.
Cependant, contrairement à ce que veut faire croire une intense propagande par les appareils d'État (gouvernement, presse, autorités scientifiques) – dont le manque d'indépendance par rapport aux lobbies pharma et "big data" est de plus en plus documenté – la pertinence de la vaccination de masse ne fait pas l'objet d'un consensus global (scientifiques, médecins et patients)
Le débat concerne notamment l'efficacité, le risque, l'immunité collective et l'âge.
Bon nombre d'études supposées démontrer un ratio "effets positifs / effets négatifs" favorable pour la vaccination ne sont-elles pas fondées sur une confusion entre corrélation et causalité ? Ainsi la tendance baissière de la létalité d'un certain nombre de maladies infectieuses depuis la moitié du 19° siècle peut s'expliquer tout simplement par la forte amélioration des conditions hygiéniques dans le mode de vie des populations [source]. Rappelons à cet égard que le virus de la variole est le seul qu'on a pu éradiquer, supposément grâce à la vaccination. Cela ne prouve évidemment pas que les vaccins sont sans effets nets positifs : des analyses statistiques attestent de l'efficacité des vaccins pour une série de pathogènes, dont la rougeole et la variole. Un point fondamental est le pourcentage de médecins traitants favorables à la vaccination au cas par cas plutôt que de masse.
Concernant les "vaccins anti-covid" l'intense lobbying du secteur pharmaceutique – via la création d'un climat de terreur, consistant notamment à nier l'efficacité de médicaments repositionnés pour prévenir et soigner la covid-19 (cf. infra #pharma-data-business) – a réussi à quasiment supprimer la régulation prudentielle en la matière, la période pour obtenir l'autorisation de mise sur le marché (AMM) ayant été divisée par 18 (15*12/10), instantanément ! Une "justification" avancée par les entreprises d'informations et des scientifiques de plateaux TV est que le nombre élevé des personnes vaccinées contre la covid-19 compenserait le manque de recul pour l'évaluation des risques. Or cet argument est une escroquerie intellectuelle : qu'ils soient mille ou un milliard, dans les deux cas on a pas pour toutes ces personnes le recul temporel qui fait que jusqu'en 2020 le temps de développement moyen d'un vaccin était d'un quinzaine d'années. Pourquoi des effets indésirables qui pourraient apparaître à long terme apparaîtraient-ils miraculeusement à court terme parce qu'un plus grand nombre de personnes ont été observées ?
Un autre argument avancé, tout aussi fallacieux, est que la technologie des vaccins à ARNm serait développée depuis déjà une quinzaine d'années. Or cela est le cas de tous les vaccins qui ont reçu l'AMM ! En effet, la procédure de demande d'AMM est nécessairement l'aboutissement de longues années de recherche expérimentale. D'autre part on est ici dans le cas d'un virus supposé nouveau ! On notera à cet égard que, dans le même temps de la division instantanée par un facteur 18 de la durée de cette procédure en 2020, les entreprises pharmaceutiques ont réussi à obtenir que les États membres de l'Union européenne les indemnisent en cas de sanctions judiciaires concernant les effets indésirables de ces vaccins autorisés à la va-vite ... [source].
Vaccins à ARNm. Au lieu de déclencher notre système immunitaire comme les vaccins traditionnels – c-à-d par injection d'un agent pathogène affaibli, mort ou partiel – les vaccins à ARNm sont constitués de chaînes synthétique de code génétique modélisées par ordinateur, et qui conduisent nos cellules à produire la protéine Spike du virus SRARS-CoV-2.
Le nombre plus élevé d'hospitalisés covid en juillet 2021 qu'en juillet 2020, constaté dans certains pays dont la Belgique, malgré la vaccination de 2021 est-il causé par une plus grande contagiosité des vaccinés, phénomène qui avait déjà été observé dans le cas de certains vaccins contre la grippe [source] ?
Il est évidemment tout à fait logique que la division par 18 (15*12/10) de la durée d'obtention de l'AMM (d'une quinzaine d'années à une dizaine de mois) se traduise par un risque plus élevé d'effets indésirables :
Nous avons montré supra que ces risques accrus pour la santé publique – au bénéfice de l'industrie pharmaceutique (et donc aussi du "big data" dès lors que la vaccination forcée s'accompagne du tracing des citoyens) – a été fallacieusement "justifié" par l'inversion de la définition du principe de précaution (cf. supra #principe-precaution).
Effets indésirables : le premier Ministre belge est-il corrompu ou incompétent ? (3m23s)
Étapes du développement d'un médicament ou vaccin
Pharmacovigilence et pharmaco-épidémiologie : suivre l'usage du médicament en conditions réelles et sur des temps plus longs (NB : c'est la phase IV suivant la phase III des tests cliniques).
Remarques :
La propagande de l'appareil d'État (gouvernements, presse, autorités scientifiques) en faveur de la vaccination de masse repose sur le concept d'immunité collective (cf. le « pour atteindre l'immunité collective, il faut un vaccin ») présenté fallacieusement comme une réalité épidémiologique scientifiquement avérée, faisant ainsi fi de questionnements majeurs :
La thèse selon laquelle la vaccination n'aurait d'effet qu'au delà d'un certain pourcentage de la population, repose donc sur une interprétation abusive voire totalement erronée du principe de "seuil d'immunité collective", qui tente de conférer à la vaccination une logique collective.
L'efficacité des vaccins est nettement plus faible voire insignifiante pour les personnes de plus de 75 ans [source], ce qui remet en question la valeur du ratio bénéfice/risque dans le cas de maladies dont la mortalité concerne essentiellement les plus âgés (cas de la covid-19) ; ainsi une étude montre que les personnes âgées ayant été vaccinées préalablement contre la grippe sont davantage décédées de la Covid-19 que celles ne l’ayant pas été [source]. Des études contradictoires existent cependant, comme celle réalisée par l'Agence Européenne des Médicaments concernant le vaccin d'AstraZeneca/Oxford [source], cependant cette étude ne contient pas les déclarations de conflits d'intérêts des experts ayant réalisé l'étude, et cela alors que des précédents avaient déjà été identifiés au sein de l'AEM [source].
La science permet-elle de trancher ? Le (gros) problème est que les conflits d'intérêts concernant des scientifiques ayant investi une partie de leur épargne dans des actions pharmaceutiques, ou encore l'influence des sociétés pharmaceutiques sur l'OMS, les autorités sanitaires nationales et la production d'articles "scientifiques", sont des faits largement documentés, qui jettent le discrédit sur les études pro-vaccinales. Le parti pris de ces parties contre le repositionnement de médicaments renforce logiquement les soupçons concernant leur intégrité scientifique.
En raison de la mutation naturelle incessante des virus (constatée quasiment chaque année avec le virus de la grippe) l'efficacité des vaccins diminue avec le temps, ce qui en fait des solutions temporaires (parfois seulement à durée de vie annuelle); dans ces conditions le ratio "effets positifs / effets négatifs" pour la collectivité doit être réévalué, notamment en comparaison de l'option du traitement curatif, qui (i) ne concerne que les seuls asymptotiques, soit une infime proportion de la population, et (ii) est moins complexe à développer, produire et distribuer [source p. 33]. L'évaluation du coût relatif de la vaccination, relativement au repositionnement de traitements curatifs, doit donc prendre en compte les effets polluant de la recherche, production et distribution des produits (vaccins vs médicaments). D'autant plus que l'industrie pharmaceutique est particulièrement polluante, plus même que l'industrie automobile [source] !
Pour comprendre les mécanismes politico-économiques en jeu, il faut bien percevoir la relation entre les trois faits suivants :
lobbying : force est de constater que l'OMS fonctionne en réalité comme un lobby du secteur pharmaceutique (cf. infra #forces-covidistes-OMS), et que celui-ci a manifestement les capacités d'influencer les publications scientifiques dans le but de maximiser ses profits (cf. infra #pharma-data-business) ;
rente : pour l'industrie pharmaceutique les vaccins sont beaucoup plus rentables que les médicaments, puisqu'en principe même les personnes en bonne santé peuvent être incitées à se les faire injecter (notamment en créant une atmosphère anxiogène, et en interprétant de façon abusive la notion statistique de "seuil d'immunité collective" : cf. supra #strategie-immunite-collective) ; d'autre part les virus mutant régulièrement, il faut renouveler le vaccin au même rythme ⇒ il devient alors une rente pour ses producteurs ;
Variabilité. L'efficacité des vaccins contre la grippe saisonnière est très variable, entre 20% et 60%, et dépend chaque année de l'adéquation antigénique entre les virus circulants et les souches de vaccins [source p. 82].
coût d'opportunité : toute ressource qu'une entreprise pharmaceutique consacre aux médicaments c'est autant de ressources qui ne sont plus disponibles pour produire les vaccins, qui comme nous venons de le montrer, sont beaucoup plus rentables ⇒ par conséquent le lobby pharmaceutique – tout comme le professeur d'université qui a investi son épargne dans des actions pharmaceutiques – ont intérêt à favoriser les nouveaux vaccins en discréditant les nouveaux médicaments, et surtout les médicaments repositionnés !
Cette logique de maximisation des profits a comme conséquences que :
Il en a résulté depuis mars 2020 une panique généralisée et permanente, aussi bien au niveau de la demande que de l'offre de services médicaux. Cette panique génère alors les multiples et graves effets pervers de la stratégie non médicale, ce qui a pour conséquence d'amplifier la courbe de mortalité toutes causes, de sorte que l'on peut obtenir une surmortalité. Ce phénomène est connu des économistes sous le nom de "prophétie autoréalisatrice".
La vaccination doit être une acte médical ciblé, choisi par le patient en concertation avec son médecin traitant.
L'extrémisme de la vaccination de masse est d'autant plus problématique que l'industrie pharmaceutique est connue pour être particulièrement polluante. Or le principe de maximisation des profits, qui caractérise le secteur privé, tend à privilégier la vaccination de masse sur le repositionnement de traitements curatifs (qui ne concernent que les seuls symptomatiques sévères...).
Rappelons à cet égard que le secteur pharmaceutique est le deuxième où l'on observe le plus de condamnations judiciaires (notamment pour corruption et falsifications), après la finance et avant l'énergie [source].
Enfin, "last but not least", il ne faudrait pas que le débat scientifique sur la vaccination soit l'arbre qui cache la forêt du scandale covidiste : de nombreux faits documentés suggèrent que l'essentiel de la surmortalité toutes causes observée (épisodiquement) depuis 2020 n'est pas causée par le virus mais par les effets pervers de la stratégie de la peur. Les effets indésirables des injections expérimentales ne sont qu'un de ces effets pervers (cf. supra #effets-pervers-SNM).
Chaque année, pendant de courtes périodes de quelques jours, il arrive que certains hôpitaux approchent voire dépassent la saturation. La solution consiste alors à transférer des patients vers des hôpitaux disposants de lits libres. La présente section montre que la gestion de ces transferts est peu efficace, en raison d'un manque de centralisation et de gestion en temps réel.
Avant de développer cette problématique, il faut d'abord traiter celle de la planification de la capacité hospitalière souhaitée.
La capacité hospitalière est calculée et planifiée pour minimiser une surcapacité de sécurité (mesurée par exemple par le nombre de lits inoccupés). Pour ce faire, le niveau souhaité de la capacité hospitalière peut être calculé notamment par rapport à la courbe de mortalité toutes causes (dont la forme relativement régulière est de type sinusoïdal en raison du fort effet saisonnier dans la répartition annuelle des décès). La ligne que dessinent les sommets annuels de cette sinusoïdale constitue un possible référentiel.
Mortalité toutes causes en France (jan. 1994 à mars 2021)
On notera la hausse tendancielle de la mortalité depuis la crise économique de 2008 [source].
Marge de sécurité. Le graphique ci-dessus illustre une question fondamentale : quelle "épaisseur" devrait avoir la marge de sécurité, c-à-d la surcapacité qui sera maintenue de façon quasiment permanente ? La réponse qui a été donnée à cette question depuis la chute de l'union soviétique en 1990, c'est d'abandonner toute planification, de généraliser la privatisation du secteur hospitalier et de laisser le mécanisme des marchés déterminer l'épaisseur de la marge de sécurité via la maximisation des profits (maximisation des recettes et minimisation des coûts). Ce mécanisme semble fonctionner en termes purement financiers (la marge de sécurité est minimale), mais cela au prix d'un stress très élevé du personnel soignant, durant les périodes où la capacité est dépassée.
Libéralisme. La politique "libérale" de l'UE a pour effet d'asphyxier les entreprises publiques du service public en réduisant progressivement leur financement public. Il en résulte des conditions de travail de plus en plus difficiles pour le personnel médical ⇒ dégradation de la qualité des services ⇒ les citoyens sont ainsi poussés vers des entreprises privées plus chères [ France : L'hôpital public au bord de la crise de nerfs (avril 2018) ; Belgique : Hôpitaux publics bruxellois: le ras-le-bol des blouses blanches (juin 2019) ].
La hausse de la mortalité toutes causes observée depuis 2008 en France pourrait donc s'expliquer notamment par cette baisse de la capacité hospitalière, qui en 2008 serait passée en-dessous d'un niveau "suffisant".
Cependant d'autres facteurs peuvent jouer. Ainsi l'arrivée des "babyboomers" (personnes nées entre les années 1950 et 1970) dans les tranches d'âges élevées va automatiquement avoir pour effet d'augmenter la mortalité pendant une vingtaine d'années.
Un autre facteur de mortalité (et/ou de stress au sein du personnel hospitalier) est la gestion inefficiente de la répartition des patients des hôpitaux saturés vers ceux disposant de lits libres.
En l'absence d'un système de gestion centralisée et en temps réel, le transferts de patients vers des hôpitaux disposant de lits libres est une opération chronophage et surtout risquée. Or la privatisation que connaît le secteur hospitalier dans la plupart des pays depuis les années 1990, rend extrêmement difficile voire impossible la création d'un système de gestion centralisée des transferts de patients, ce qui implique l'absence de gestion en temps réel et, partant, le risque qu'un transfert soit organisé puis annulé (ou s'avère inutilement coûteux si l'hôpital d'accueil a perdu sa capacité libre durant le transfert).
Ainsi en Belgique un rapport du Centre Fédéral d'Expertise des Soins de Santé, publié en décembre 2020, sur la gestion hospitalière durant la première vague de la pandémie de covid-19, révèle que la Belgique ne dispose pas de système centralisé permettant la gestion en temps réel des transferts de patients [source], et qu'en outre les hôpitaux se sont « beaucoup repliés sur eux-mêmes » [source].
Conclusion : il ne faut pas nécessairement accroître la capacité hospitalière, mais nationaliser le secteur hospitalier afin d'instaurer un système informatique centralisé, automatique et en temps réel, pour gérer la répartition des patients entre hôpitaux.
Pourquoi le principe de consensus n'est pas crédible en science ? Si le consensus était un critère scientifique cela signifierait que la méthode scientifique fonctionne selon le principe démocratique (décision par majorité, et 1 article = 1 voix). Or une condition nécessaire pour que le système démocratique soit crédible est le secret du vote, sans quoi un marché du vote apparaîtrait immédiatement. Par conséquent le consensus scientifique ne pourrait être pertinent que si le contenu des articles scientifiques était ... confidentiel (sans quoi un marché de l'article scientifique apparaîtrait immédiatement). Or comme un article scientifique a pour vocation d'être publié, il résulte logiquement et pratiquement de cette démonstration par l'absurde que le principe de consensus n'a aucune valeur dans le domaine scientifique.
Un fait illustre cette démonstration, c'est le lien entre l'existence effective d'un marché climato-covidiste (articles, subsides,...) et la référence systématique aux "consensus" climatique et sanitaire par les autorités scientifiques. Et cela alors que, comme démontré ici, ce principe de consensus n'a aucun sens en matière scientifique...
Lorsqu'une répression est exercée sur les scientifiques [source] qui contredisent le "consensus" (cf. climatisme et covidisme), celui-ci n'est alors qu'une pure fabrication. L'invocation du consensus comme argument d'autorité est généralement le signe que la théorie officielle est bancale et que les faits contredisent le "consensus".
Dans la méthode scientifique, le critère d'identification de la vérité (du moment) n'est pas le consensus (NB : Galilée fut précisément victime du "consensus") mais le recoupement entre théorie (le raisonnement logique) et expérimentation (les faits pratiques).
L'invocation du principe de précaution par les conseillers scientifiques de nombreux gouvernements, pour "justifier" l'imposition de la stratégie non médicale (SNM : confinement, distanciation, masques, antisepsie, injections expérimentales) est fallacieuse. En effet le principe de précaution ne consiste pas à appliquer une mesure incertaine sous prétexte qu'elle pourrait peut-être fonctionner, mais au contraire à ne pas appliquer une mesure sans être certain que ses effets pervers ne l'emportent pas sur ses supposés effets positifs.
Autrement dit les covidistes ont remplacé le traditionnel "dans le doute on s'abstient" par "dans le doute on ne s'abstient pas", ce qui revient à supprimer la charge de la preuve dans le chef des personnes invoquant cette dernière version, et à transférer cette charge à leurs contradicteurs, qui doivent alors démontrer l'inexistence du risque en raison duquel les mesures sont imposées. L'absurdité scientiste de cette version du principe de précaution apparaît clairement dans (i) le fait qu'elle permet par exemple de justifier le brûlage de cierges pour lutter contre un mal, et surtout (ii) son caractère "anti-économique" puisqu'alors toute croyance justifie toute action, alors que la logique économique est de n'engager une action que si elle comporte des chances raisonnables d'utilité. L'inquiétude suscitée par le risque éventuel prend ainsi le pas sur le risque lui-même.
Au Moyen Âge le commerce des indulgences a d'ailleurs exploité ce type de croyance.
Coercition. Il est absurde de "justifier" l'imposition de la SNM en invoquant la version covidiste du principe de précaution. Le principe de précaution consiste soit à seulement recommander aux gens d'appliquer telle ou telle mesure préventive, soit à les contraindre mais dans ce cas il faut qu'il y ait certitude que des effets pervers ne l'emportent pas sur les effets positifs supposés.
On notera que la version covidiste du principe de précaution est utilisée pour, de facto, imposer des "vaccins" dont la durée de mise sur le marché a été divisée par 18 (15*12/10), alors que la version scientifique du principe conduit logiquement, en cas de virus nouveau, à privilégier le repositionnement de médicaments (PS : option beaucoup moins profitable à l'industrie pharmaceutique, et beaucoup moins polluante).
La vidéo suivante compare l'analyse rationnelle du physicien canadien Denis Rancourt aux propos hallucinants de l'épidémiologiste belge Yves Coppieters.
Covid-19 et principe de précaution : Rancourt vs Coppieters (2020- 2m5s)
Les recommandations ci-dessous ont été collectées auprès de diverses sources médicales indépendantes, et prennent en compte des considérations sociales, démocratiques et économiques.
7.8.1. Principes générauxUne stratégie anti-épidémique rationnelle doit être composée deux volets : préventif et réactif.
La catastrophe sanitaire, sociale, démocratique et économique que représente la crise de la covid-19 est causée par une incompréhension de ce que devraient être des mesures préventives. Extrêmement mal conseillés, les gouvernements ont voulu freiner l'épidémie, ce qui n'est théoriquement possible qu'en imposant aux systèmes sanitaire, social, politique et économique des contraintes tellement fortes que les supposés effets de retardement et abaissement du sommet épidémique sont plus que compensés par les effets pervers de la SNM, qui eux sont bien réels. On pourrait ainsi qualifier cette stratégie de "réaction préventive" ou de "pseudo-préventive".
Le volet préventif d'une stratégie anti-épidémique doit plutôt prévenir les conséquences des inéluctables maladies transmissibles. La première leçon que nous devons tirer de la mésaventure covidiste est qu'il faut absolument privilégier et faciliter la vie des retraités dans leur domicile plutôt que dans des homes [source].
Plus généralement des mesures telles que test, isolement ou vaccin ne devraient être appliquées qu'avec le libre consentement de l'individu. Il faut absolument préférer l'information à la coercition (sous toutes ses formes c-à-d y compris le chantage ou l'intimidation). De nombreux faits suggèrent en effet qu'une intelligence collective diversifiée est supérieure à celle d'un groupe "d'experts" [approfondir].
Prendre en compte l'intelligence collective (juin 2020- 0m52s)
Nous nous situons ici dans le cas d'une pandémie d'un virus "nouveau", pour lequel il n'existe donc ni traitement curatif spécifique, ni vaccin :
Cette situation n'est pas nouvelle, et fut chaque fois gérée avec succès dans le monde moderne sans recourir au confinement, distanciation et port du masque généralisés.
Le recours à des modèles épidémiologiques à des fins de suivi épidémique et de pilotage de gestion anti-épidémique doit être absolument rejeté car :
On constate d'ailleurs une très forte propension de ces modèles (ou de leur paramétreurs ?) à produire des "prévisions" qui s'avèrent in fine de gigantesques surestimations du taux de mortalité des épidémies.
Il résulte du point précédent qu'il est irrationnel d'appliquer une politique de gestion épidémique d'urgence de type préventive c-à-d la stratégie non médicale (SNM : confinement, distanciation, masques, antisepsie, vaccins expérimentaux), qui plus est à l'ensemble de la population. Est rationnelle la stratégie médicale (SM), qui est réactive.
Le dépistage est utile mais très coûteux :
Le "cordon sanitaire", qui s’apparente à une frontière hermétique entre une zone touchée et une zone préservée, n'implique pas en soi une limitation de la liberté de circulation de part et d’autre de cette frontière, ni l’assignation à résidence de la population. Ceci dit, il s'agit là malgré tout d'une mesure de type SNM, et qui repose donc sur l'idée qu'il serait réaliste de vouloir contrôler la propagation d'un organisme microscopique sur des zones géographiques. PS : cette problématique ne doit pas être confondue avec celle des concentrations d'animaux d'élevage.
Même sous l'influence d'un matraquage médiatique quotidien sans précédent, et distillant la peur du virus, 60% des participants à ce sondage étaient opposés à l'imposition du vaccin [source].
Les mesure préventives sont celles évoquées dans la section précédente. Concernant les mesures réactives nous présentons ici une synthèse en matière de traitements curatifs et de réanimation.
À notre connaissance les traitements les plus efficaces sont, outre la vitamine D [source] et le zinc [source], des médicaments repositionnés tels que l'hydroxychloroquine, l'ivermectine, le dexaméthasone et probablement le carvatir :
Ce traitement permettrait de réduire le temps de portage moyen du virus (durée entre le début et la fin de l’infection, et donc de la contagiosité possible) de 20 jours à 6 jours. L'efficacité du protocole hydroxychloroquine+azithromycin a été confirmée par plusieurs études .
Entraves. De nombreux médecins et scientifiques ont fait l'objet de diffamations par la presse, de menaces par des autorités scientifiques, voire de licenciement par leur employeur, pour avoir dénoncé les entraves réglementaires et médiatiques contre l'utilisation de médicaments repositionnés, et la focalisation sur la seule voie vaccinale (cf. infra #covidisme-repression).
Parmi les R&D en cours il y celles des anticorps monoclonaux et de l'ARN interférant.
Fabriqués à partir d’anticorps issus de cellules de convalescents de la Covid-19, et sélectionnés pour avoir une importante activité antivirale, les anticorps monoclonaux antiviraux peuvent être utilisés comme traitement précoce contre les formes graves de la Covid.
L'ARN interférant permet d’empêcher l’expression d’un gène en clivant l’ARN messager correspondant, et prévient ainsi la réplication du virus dans les cellules.
Plus de 50% de la mortalité covid-19 serait causée par les intubations abusives ! "L'intubation serait trop facilement pratiquée chez patients Covid-19 selon une reco publiée dans The American journal of Tropical Medicine and Hygiene et citée par Stat, un journal américain en ligne. La sémiologie des pneumonies sévères en cas Sras-Co-2 serait différente de celle observée classiquement. L'hypoxie serait en fait mieux tolérée, notamment chez les patients de moins de 60 ans. Elle ne doit pas conduire à la mise en place systématique d'un respirateur artificiel. Certains médecins ont même recours à des dispositifs utilisés dans l'apnée du sommeil. Au total, les auteurs estiment à une réduction de la mortalité de plus de 50 % chez les patients Covid-19 grâce à la prescription moins fréquente de l'intubation" [source]. "Mortality rates for those who received mechanical ventilation in the 18-to-65 and older-than-65 age groups were 76.4% and 97.2%, respectively. Mortality rates for those in the 18-to-65 and older-than-65 age groups who did not receive mechanical ventilation were 1.98% and 26.6%, respectively" [source].
N.B. La présente section présente d'un point de vue essentiellement théorique la problématique du suivi d'une pandémie au moyen d'indicateurs. Pour l'analyse statistique appliquée au cas de la pandémie de covid-19 voir infra #covid19-analyse-factuelle.
8.1. RessourcesCe site aux données clairement présentées fut très suivi durant l'épidémie de covid-19. Cependant il n'y a quasiment aucune transparence concernant l'organisation derrière ce site ainsi que ses méthodes. Elle affirme traiter les données au moyen d'un "algorithme propriétaires". Voir aussi wikipedia.org/wiki/Worldometer.
On ne mesure correctement que ce que l'on a défini précisément. Il importe également de comprendre la nature des relations entre les variables mesurées. Ces deux points sont l'objet de la présente section, qui nous rappelle que l'exposition à un virus n'entraîne pas nécessairement une infection, laquelle n'entraîne pas nécessairement une maladie, laquelle ne produit pas nécessairement d'anticorps détectables.
graves < hospitalisés < positifs < symptomatiques < positifs < contaminés
Nous utilisons indifféremment les termes :
"grave" ≡ "soin intensif" ;
"positif" ≡ "cas" ;
positifs <?> symptomatiques :
contaminés > symptomatiques. En général la plupart des personnes infectées ne développent que des symptômes bénins, parfois tellement insignifiants qu'elles ne s'en rendent pas compte (*). Parmi les symptomatiques une partie ne se présentent pas à un service médical et guérissent naturellement (c-à-d sans traitement). Donc seuls les autres symptomatiques seront traités et enregistrés (par cette voie) dans les statistiques !
(*) Cela est est problématique dès lors qu'elles sont contaminantes, ... mais d'autant moins problématique que le taux de mortalité est faible. D'autre part il est probable que les infectés asymptomatiques sont peu contaminants en raison d'une faible charge virale.
contaminés > positifs : ce n'est que si 100% de la population a été testée que le nombre de diagnostiquées positifs est égal au nombre de contaminés (PS : en pratique on testera plutôt un échantillon représentatif de la population).
positif ≡? contaminé Un diagnostic d'infection est déclaré positif si le patient est porteur du virus (charge virale "positive") ou symptomatique (mesure de température, scanner, ...), et négatif dans le cas contraire. On observe systématiquement qu'une partie des diagnostics s'avèrent erronés (faux positifs et faux négatifs), de sorte que si les faux positifs sont substantiellement plus nombreux que les faux négatifs une campagne de détection peut surestimer l'ampleur (dimension quantitative) et la sévérité (dimension qualitative) d'une épidémie. C'est le cas lorsque (i) les tests sont trop sensibles (⇒ nombreux faux positifs), ou lorsque (ii) les tests sont incapables de distinguer les sujets malades des personnes guéries.
contaminés > contagieux. Seule une partie des personnes contaminées sont contagieuses, notamment parce que la période de contagiosité, qui est liée à la charge virale, est généralement inférieure à la durée de l'infection.
Incubation. La période d'incubation est la durée entre la contamination et l'apparition de symptômes. Une question est de savoir si l'individu asymptomatique contaminé est contagieux pendant la période d'incubation, parce que dans l'affirmative, s'il est ignorant de sont état, il n'applique pas de mesures pour ne pas contaminer autrui (à supposer que cela soit faisable et souhaitable, puisque ce faisant on freine l'immunité collective).
Charge virale. En général le risque de contagion et la gravité de l’infection sont fonction de la quantité de virus présents dans l’organisme et de leur excrétion dans le milieu extérieur. Quelques copies de virus tapis dans les sinus n’ont pas la dangerosité d’un million projetés par la toux [source]. Par conséquent "traiter" un individu malade c'est notamment abaisser sa charge virale en-dessous d'un niveau correspondant à la disparition (i) des symptômes de la maladie et (ii) de la contagiosité de l'individu (NB : ceci concerne le premier stade de la maladie, or celle-ci peut évoluer vers des pathologies différentes, souvent plus sévères, et alors que la charge virale a disparu).
Guéri ⇒ immunisé. En général les personnes guéries (notion de charge virale négative), que ce soit par traitement ou naturellement, ne peuvent plus ni contaminer ni être contaminées (notion de "maladie immunisante"). Ce n'est certes pas systématiquement le cas, mais il semble que les maladies non immunisantes, sont généralement moins sévères, donc moins létales.
Lorsque la presse publie un titre accrocheur tel que "X nouveaux cas en un seul jour ! ", le lecteur critique tentera de connaître :
Ces notions étant maintenant bien comprises, nous pouvons analyser les limites de la mesure en temps réel des statistiques d'infections, d'hospitalisations et de mortalité.
Nous allons ici exposer la problématique du choix et de la mesure des variables de pilotage de la gestion épidémique : décès < hospitalisations < infections.
Contrairement à ce que font la plupart des entreprises "d'information" et des scientifiques de plateau TV, il ne faut pas suivre les valeurs absolues mais des taux. D'autre part le nombre d'infections est la variable dont la valeur informative est la plus sujette à caution en raison d'importants biais de mesures ne pouvant être corrigés qu'au moins un an après le début de l'épidémie. Nous allons voir que le meilleur indicateur est, et de très loin, la surmortalité toutes causes (c-à-d le différentiel de mortalité toutes causes par rapport à la moyenne des 3 à 5 années précédentes), celle-ci devant être rapportée à la population pour les comparaisons internationales. Cet indicateur est à la fois celui avec les plus faibles biais de mesure et la plus haute valeur informationnelle, car car il mesure le niveau de gravité le plus élevé du phénomène infectieux (la mort), et permet de prendre en compte les éventuels effets pervers de la stratégie anti-épidémique appliquée (mortalité toutes causes).
De trop nombreux scientifiques utilisent encore les données d'infection comme indicateur d'évolution d'une épidémie. Or nous allons voir que les statistiques d'infection sont très loin de constituer un indicateur pertinent.
Il suffit que le nombre de tests augmente (par exemple suite à la surmédiatisation de "prévisions" catastrophistes) pour qu'augmente le nombre d'infectés recensés, et qu'apparaisse ainsi une "seconde vague" ... qui n'en est pas une puisqu'on ne fait ici qu'éclairer une réalité déjà existante mais qui était non mesurée ("dans l'ombre"). Le nombre de tests positifs ne reflète que les seules infections recensées (nouvelles ou cumulées), or celles-ci peuvent augmenter alors que diminue le nombre des personnes infectées !
Cet effet est illustré par la comparaison des deux graphiques suivants montrant l'absence de corrélation entre nouvelles infections détectées (test positifs) et nouveaux décès .
Dans le cas où la hausse du nombre de tests est provoquée par l'annonce de "prévisions" catastrophistes l'effet de recensement induit donc un effet de prophétie auto-réalisatrice.
L'effet de recensement joue également entre vacciné et non vaccinés, si les seconds sont plus souvent testés que les premiers (ce qui, dans la crise de la covid-19, semble être massivement le cas) !
Pour neutraliser l'effet de recensement il importe d'utiliser le taux de positivité Positifs / Tests (valeur relative) à la place de son seul numérateur (valeur absolue) !
NB : le graphique du taux de positivité devrait être systématiquement accompagné par celui du taux de test Tests / Population afin de rappeler le "potentiel" de tests, c-à-d la marge restante que la presse et ses "experts" peuvent exploiter pour entretenir le mythe d'une "seconde vague" en utilisant le seul numérateur du ratio Positifs / Tests.
La suite de graphiques ce-dessous explique pourquoi les médias "d'information" et leurs "experts" – toujours avides de sensationnalisme – préfèrent les valeurs absolues plutôt que les valeurs relatives, c-à-d les "infos" biaisées plutôt que les données scientifiques ...
Et même en veillant à regarder le taux #positifs / #test plutôt que son numérateur, il reste que la valeur de ce dernier est biaisée :
Une autre type de biais consiste à interpréter comme une "seconde vague" ce qui n'est en réalité que la propagation de l'épidémie à d'autre zones géographiques. En l'absence de système de suivi épidémique en temps réel corrigeant automatiquement ce type de biais, l'expérience montre qu'il faut plus d'une année avant que les corrections soient opérées, et que celles-ci conduisent à des révisions substantielles de la valeur des statistiques, généralement vers le bas.
Un bon indicateur épidémique doit être à la fois quantitatif et qualitatif. Or le nombre d'infections (total ou différentiel) non seulement est un mauvais indicateur quantitatif en raison des biais de mesure que nous venons d'analyser, mais en outre il ne dit quasiment rien de la dimension qualitative, et ce qui dit est biaisé. En effet, en raison de la situation "d'urgence" les biais de sélection sont inévitables. Ils jouent aussi bien du côté de la demande que de l'offre de tests : ce sont les individus symptomatiques (de la maladie liée au virus de l'épidémie observée, ou à d'autre maladies) et plus généralement les personnes les plus fragiles physiquement et psychiquement qui vont les premières demander des tests, et c'est d'abord à ces mêmes personnes que les médecins vont prescrire un test. À l'opposé la population des infectés non symptomatiques ne sera pas testée prioritairement, et la majorité ne le sera jamais. Il en résulte une substantielle surestimation de la sévérité de la pandémie du virus SARS-CoV-2 et de sa maladie covid-19. L'expérience montre que ce n'est qu'au moins un an après le début d'une épidémie que les statistiques infectiologiques peuvent être corrigées de ces substantiels biais des mesures en temps réel. Par conséquent, l'utilisation de ces indicateurs comme instruments de gestion épidémique en temps réel est irrationnel.
Pour évaluer l'immunité collective il est économiquement et démocratiquement coûteux de tester toute la population. Une alternative consiste à identifier la présence dans le sang d'anticorps contre l'agent pathogène (signe d'un infection passée), chez tous les membres d'un groupe d'individus supposés constituer un "échantillon représentatif de la population". Cependant il est très difficile voire impossible dans un État démocratique de réaliser des tests sur échantillons réellement représentatifs, notamment parce que tout le monde n'accepte pas de passer un test.
Et même en faisant abstraction de cette difficulté pratique, demeurent encore deux (gros) points faibles de l'évaluation de l'immunité collective par la séroprévalence. D'une part elle ne prend pas en compte l'immunité croisée. Or celle-ci pourrait suffire à elle seule pour atteindre l'immunité collective ... [source]. D'autre part le phénomène immunitaire ne se résume pas à la seule production d’anticorps ⇒ les tests sérologiques ne livrent qu'une information partielle voire trompeuse : ils ne mesurent ni l’immunité innée ni l’immunité cellulaire non humorale, or celles-ci jouent avec l’immunité croisée les rôles principaux dans la défense antivirale, bien plus que les anticorps (cf. supra #immunite).
Diverses études montrent qu'une "écrasante majorité de médecins" interprètent erronément l'information statistique livrée par les tests virologiques. Voici deux questions auxquelles les médecins donnent généralement une réponse fausse (et pouvant conduire à une décision thérapeutique non pertinente). Nous commençons ci-dessous par énoncer les données des questions posées ensuite.
Données. On suppose que :
À vérifier : ce 3% = P(+ | S) n'est-il pas la "significativité" du test, c-à-d sa "valeur p" (S étant l'hypothèse nulle), le test étant déclaré "significatif" lorsque la valeur p est inférieure à 5% ?
Question 1
Quelle est la probabilité qu'une personne testée positive soit malade (c-à-d la probabilité qu'une personne soit malade sachant qu'elle a été testée positive) ? Sans doute répondez-vous "90%". Et pourtant la réponse est environ 3%, c-à-d que sur 100 positifs il y a donc seulement 3 malades !
Question 2
Quelle est la probabilité qu'une personne testée positive soit saine (c-à-d la probabilité qu'une personne soit saine sachant qu'elle a été testée positive, ce que l'on appelle un "faux positif") ? Sans doute répondez-vous "3%". Et pourtant la réponse est environ 97%, c-à-d que sur 100 positifs il y a donc 97 personnes saines !
Démonstration 1
il s'agit d'une probabilité conditionnelle :
p(M | +) = N(M ⋂ +) / N(+) ⇒
Soit une population de 10.000 :
p(M | +) = 0,9 * 0,001 * 10.000 / ( 0,9 * 0,001 * 10.000 + 0,03 * 10.000 ) ⇔
p(M | +) = 0,9 * 0,001 / ( 0,9 *0,001 + 0,03 ) ≈ 0,029
N.B. Ce :
ce 2,9 % = p(M | +) = N(M ⋂ +) / N(+)
n'est donc pas le :
3 % = p(+ | S) = N(+ ⋂ S) / N(S) = 10.000 * 0,001 * 0,03 / 10.000 * 0,001 = 0,03
de la fiabilité du test.
La proximité entre ces deux valeurs est causée ici par la faible valeur de la prévalence, relativement au nombre probable de cas positifs : si a est petit relativement à b alors a / ( a + b ) ≈ a / b.
Démonstration 2
NB : la probabilité de faux positif n'est pas P(+|S) mais P(S|+).
p(S | +) = N(S ⋂ +) / N(+) ⇒
Soit une population de 10.000 :
p(S | +) = 0,03 * 10.000 * (1 - 0,001) / ( 0,9 * 10.000 * 0,001 + 0,03 * 10.000 * (1 - 0,001) ) ⇔
p(S | +) = 0,03 * (1 - 0,001) / ( 0,9 * 0,001 + 0,03 * (1 - 0,001) ) ≈ 0,971.
N.B. Ce :
97,1 % = p(S | +) = N(S ⋂ +) / N(+)
n'est donc pas le :
97 % = p(- | S) = N(- ⋂ S) / N(S) = 0,97 * (1-0,001) * 10.000 / (1-0,001) * 10.000 = 0,97
de la fiabilité du test.
La proximité entre ces deux valeurs découle de la proximité précédente puisque :
0,029 + 0,971 =
p(M | +) + p(S | +) =
N(M ⋂ +) / N(+) + N(S ⋂ +) / N(+) =
( N(M ⋂ +) + N(S ⋂ +) ) / N(+)
= 1
Commentaires
La formule de Bayes fait le lien entre une P(A | B) et P(B | A) :
P(A | B) = N(A ⋂ B ) / N(B) ⇔
P(B | A) = N(B ⋂ A ) / N(A) ⇒
P(A | B) = P(B | A) * N(A) / N(B) ⇔
P(A | B) = P(B | A) * P(A) / P(B)
que l'on écrit souvent sous la forme :
P(H | O) = [ P(O | H) / P(O) ] * P(H)
où :
• P(H) est appelée probabilité "a priori" (par exemple d'avoir telle maladie) ;
• P(H|O) est appelée probabilité "a posteriori", c-à-d après avoir pris connaissance du ratio P(O|H)/P(O) lié à l'observation O (par exemple un test médical). P(O|H) est appelée probabilité "de vraisemblance".
Le théorème de Bayes permet ainsi de mesurer la probabilité liée à un raisonnement inductif. Ainsi avant de passer le test la probabilité d'un individu d'être malade est de 0,1%, mais s'il a passé un test positif alors cette probabilité devient 2,9%.
Fait inquiétant, une écrasante majorité de médecins donnent la fausse réponse aux deux questions posées ... [source1, source2]. Ne faut-il pas en conclure que si la crise de la covid-19 avait été gérée par l'IA plutôt que par des humains, la stratégie non médicale n'aurait pas été imposée aux populations ?
Malgré ces faits les covidistes persistent à utiliser les statistiques d'infection comme indicateur épidémique. Cela peut s'expliquer de deux manières (non exclusives) :
De moins mauvais indicateurs épidémiologiques en temps réel sont les statistiques d'hospitalisation et (surtout) de mortalité toutes causes.
On pourrait considérer que l'indicateur "hospitalisations" ajoute la dimension qualitative par rapport à l'indicateur "infections" puisqu'il s'agit par définition des infectés nécessitant une hospitalisation c-à-d les cas sévères. La valeur informationnelle du taux Hospitalisations / Infections est pour cette raison supérieure à celle du taux Positifs / Tests mais inférieure à celle du taux de mortalité toutes causes.
D'autre part, au niveau des hospitalisations on peut faire la distinction entre :Belgique : "transparence" minimaliste
En Belgique au moins deux organismes publics gèrent les données médicales, et les agrègent afin d'obtenir des statistiques nationales. Or nous avons vérifié (mai 2021) auprès de ces deux organismes un fait étonnant à l'époque d'Internet : aucune de ces deux institutions ne calcule le taux national d'occupation toutes causes des lits de soins intensifs, alors que cette donnée est fondamentale pour une gestion optimale de la santé publique.
Voici ce qu'il en est aujourd'hui concernant la disponibilité de cette statique :
Pourtant, dans une étude publiée (en anglais...) en décembre 2020 par le KCE (Centre Fédéral d'Expertise en Soins de Santé), un graphique (p.28) indique qu'environ 80% des lits de soins intensifs (covid et autres) étaient occupés au pire de la crise, contre 70% au début (20 mars 2020) [source].
Le KCE a obtenu ce graphique du HTSC (Comité Hospital & Transport Surge Capacity), « un organe consultatif qui se réunit depuis le début de la crise COVID-19 afin de garantir des mesures de contrôle adéquates et efficaces au niveau des hôpitaux et de la capacité de transport des patients ». Nous avons réussi à en obtenir (par courriel...) une version plus récente : cf. infra #charge-hospitaliere-covid19.
On peut identifier deux raisons pour lesquelles cette statistique n'est pas publiée en temps réel sur une page web officielle :
L'extrait ci-dessous d'un échange courriel que j'ai eu avec l'icmsystem.be confirme le poids de la privatisation dans la gestion de la santé publique :
L'argument invoqué dans la réponse de l'icmsystem.be est non recevable, puisque notre demande concerne évidemment le taux national d'occupation (toutes causes) des lits de soins intensifs. Il s'agit donc d'une statistique agrégée, dont il est impossible de déduire les taux relatifs à chaque hôpital.
Je me suis alors adressé à un autre service afin d'obtenir une version plus récente du graphique. Je l'ai reçu ... par courriel ⇒ j'ai alors demandé l'URL (adresse web) du document. Réponse ci-dessous ...
Dans cette section nous allons montrer qu'il faut systématiquement préférer le taux de mortalité (décès/population) plutôt que le taux de létalité (décès/infectés), car dans ce second cas le dénominateur est sujet à de gigantesques biais de mesure, qui affectent non seulement la valeur du ratio mais également son évolution. En outre il faut préférer le taux de surmortalité toutes causes, car il est plus difficilement manipulable, et parce qu'il permet de prendre en compte les effets pervers de la stratégie non médicale (qui sont probablement la principale cause de la surmortalité toutes causes observée dans certains pays en 2020 : cf. supra #effets-pervers-strategie-non-medicale).
Attention : dans les comparaisons ci-dessus on suppose :
Théoriquement le taux de létalité c'est décès / malades ... ou décès / infectés, mais en pratique c'est décès / posit., ce qui est (très) problématique en raison des gigantesques biais statistiques (faux positifs, campagnes de vaccinations, ...).
Quoi qu'il en soit, le taux décès / population n'est pas seulement le plus pertinent statistiquement, mais il est en outre celui qui suscitera le moins la panique, ayant la valeur la plus basse. Voilà qui explique pourquoi cet indicateur est le moins cité par les entreprises "d'information" et de ses experts de plateau TV, toujours plus avides de sensationnalisme.
Divers taux de décès (France)
Grippe | Covid-19 | |
---|---|---|
décès / popul. | 0,02 % [source] | 0,05 % [source] |
décès / infectés | ||
décès / positifs | 0,1 | 0,2 % [source] |
décès / malades | ||
décès / hospital. |
Concernant la létalité attribuée (à tort ou à raison) au virus, le graphique suivant montre qu'elle ne peut être évaluée qu'une fois l'épidémie terminée, et cela quelque soit l'indicateur.
Le même principe vaut donc pour le taux de létalité (encore appelé "risque de mortalité") – Lt = Mt / (I t + E t - Mt ) n_S+I+E=1 – c-à-d le nombre de morts (attribués à l'agent pathogène) par rapport au nombre total de personnes étant ou ayant été infectées.En cours d'épidémie le taux de létalité est un indicateur très biaisé (relativement au taux de mortalité) car il est beaucoup plus difficile et long de mesurer le nombre total de personnes infectées sur l'ensemble de la population nationale, que le nombre de décès. Il en résulte que la valeur réelle du taux de létalité est d'autant plus surestimée qu'elle a lieu en début d'épidémie. En outre, en raison du temps requis pour effectuer les corrections, même le taux de létalité atteint à la fin de l'épidémie fait généralement l'objet de substantielles révisions vers le bas. Mais cela se fait généralement plusieurs années après l'épidémie, de sorte que la couverture médiatique est quasiment nulle.
La mesure en temps réel (c-à-d à des fins de suivi épidémique) de la mortalité attribuée au virus doit être interprétée avec prudence en raison de biais de mesure opérant au niveau du numérateur ou dénominateur :
L'indicateur au plus haut contenu informationnel, et par conséquent celui qui devrait être préféré à tous les autres, c'est la surmortalité toutes causes, mesurée par rapport à la population :
La catastrophe de la crise "sanitaire" de 2020 est directement liée au fait que le meilleur indicateur, voire le seul indicateur pertinent de gestion épidémique a été quasiment ignoré, aussi bien par les décideurs politiques que par leurs "conseillers scientifiques".
La relation entre taux de mortalité et espérance de vie est souvent oubliée dans les analyses de mortalité, ce qui biaise fortement leurs conclusions. Cette relation implique que certains décès sont plus graves que d'autres : dans un pays dont l'espérance de vie est de 80 ans, le décès d'une personne de 18 ans est plus grave que celui d'une personne de 78 ans, car la première perd 78 ans de vie probable, tandis que la seconde en perd deux, soit 39 fois moins. Ce fait est d'autant plus important que dans certaines épidémies, telles que celle de la covid-19, la plupart des décès concerne des personnes ayant dépassé l'espérance de vie !
Mortalité en France : d’où viennent les chiffres ? [source]
L’Institut national de la statistique et des études économiques (Insee) gère le Répertoire national d’identification des personnes physiques (RNIPP) à partir duquel il met à jour mensuellement le nombre de décès en France. Les données d’état-civil relatives aux décès lui sont transmises par les mairies, de manière dématérialisée ou sous forme papier avec un certain délai, de façon encadrée par la loi. Cette source ne comporte pas d’information sur les causes médicales de décès. Les données de mortalité « toutes causes » issues des mairies avec une transmission dématérialisée sont envoyées par l’Insee à Santé publique France pour analyse, à des fins de surveillance et d’alerte. Ce dispositif continu toute l’année permet de détecter et suivre des hausses de mortalité observées dans la population (en tenant compte de l’âge et de la zone géographique).
L’Agence s’appuie sur un échantillon de 3 000 communes, qui enregistre 77 % de la mortalité nationale (de 63 % à 96 % selon les régions) et permet l’utilisation d’un historique d’au moins six années de données. Si ces données ne permettent pas de fournir une quantification exhaustive du nombre des décès sur le territoire, elles permettent en revanche de suivre l’évolution temporelle de la mortalité et d’estimer un nombre attendu de décès afin de quantifier les éventuelles surmortalités engendrées par un menace sanitaire d’origine infectieuse (grippe), environnementale (canicule), accident industriel majeur, etc. Ces estimations s’appuient sur un modèle statistique établi et utilisé par 24 états/régions européens participant au consortium européen EuroMOMO.
L’identification d’une éventuelle tendance à la hausse ou à la baisse de la mortalité nécessite une consolidation minimale des données. Aussi, les données de mortalité issues de cet échantillon nécessitent un délai d’analyse d’une dizaine de jours, permettant de tenir compte des aléas de transmission des données (délais légaux de déclaration d’un décès à l’état-civil, délai de saisie des informations par le bureau d’état-civil, jours fériés, week-end allongés, ponts, vacances scolaires). Pour fournir une estimation de l’excès de décès survenu une semaine donnée, il faut habituellement un minimum de 3 à 4 semaines, délai nécessaire pour disposer de données stabilisées.
L'expérience montre (i) que les statistiques épidémiques obtenues en cours d'épidémie sont généralement très éloignées de la réalité (généralement dans le sens d'une surestimation de la gravité et des risques), et (ii) que les erreurs de mesure sont corrigées avec un retard généralement supérieur à une année, en raison du nombre des causes et de la difficulté de les identifier puis d'effectuer les corrections (biais de mesure, données partielles, donnés non conservées ou perdues, ...)
Ainsi en Belgique les données des certificats de décès ne sont accessibles qu'après deux ans [source p. 6].
À noter que les révisions des statistiques de mortalité ne concernent pas que la cause du décès, mais également des comptages multiples.
L'absence de données épidémiques fiables rend d'autant plus absurde l'application de la SNM dans la mesure où celle-ci consiste à "piloter" l'épidémie en fonction des prévisions de modèles, déjà très critiquables (cf. supra #modeles-mathematiques) dans leur conception, mais qui en outre sont alors nourris par des données ... fausses.
C'est pourquoi la gestion épidémique ne doit surtout pas être pilotée en fonction de l'évolution du nombre d'infections, mais en fonction de la surmortalité toutes causes (différentiel de mortalité toutes causes par rapport à la moyenne des 3 à 5 années précédentes), car la mortalité toute cause :
Statistique, erreurs et révisions ...
Le jeudi 8 juillet 2021, la série historique de l'Italie sur euromomo.eu a été remplacée par une série très différente à partir de fin 2019. Alors que ce pays aurait d'abord connu une surmortalité toutes causes exceptionnelle en 2020, c'est désormais le contraire : l'Italie aurait connu une sous-mortalité exceptionnelle en 2020 ! (NB : et cela déjà avant l'application du confinement dans le pays en février 2020...).
Rappelons-nous que c'est le cas de l'Italie qui a déclenché la panique covidiste en Europe ...
Mortalité toutes causes en Italie
Le 12 juillet la série italienne fut tout simplement supprimée, et le 14 juillet l'ancienne série fut rétablie. Aucune explication ne fut donnée concernant cet incident, ni sur le site euromomo.eu, ni aux deux courriels envoyés par nous à partir de la page "Contacts" du site ...
Pour le suivi épidémique d'un pays particulier il faut veiller à ne pas utiliser des statistiques qui ont été retraitées pour rendre possible des comparaisons internationales. Pour une analyse nationale il faut donc préférer les sources nationales originelles plutôt que celles de sites tels que euromomo.eu (un consortium d'agences nationales européennes basé au Danemark), qui pour comparer les statistiques de mortalité toutes causes recalcule un z-score à partir de chaque source nationale [liste des partenaires – méthodologie France]. Le problème est que ce que l'on gagne en comparabilité on le perd en précision.
Mortalité toutes causes en France (janvier 2016 à février 2021) selon la source
Sources : euromomo.eu – insee.fr
Les deux graphiques sont relativement semblables, sauf sur :
N.B. C'est moins le pic annuel qui est déterminant, que la surface en-dessous de la courbe (notion de mortalité intégrale).
Outre les effets pervers de la stratégie non médicale, facteur nouveau et spécifique à la crise de la covid-19 (cf. supra #effets-pervers-strategie-non-medicale), il importe également de prendre en compte les facteurs démographiques dans l'analyse d'une épidémie : migration, espérance de vie, effet moisson, boomers :
Migration. Le nombre des épidémies est supposé augmenter notamment en raison du développement des moyens de transport, ou encore des mouvements migratoires provoqués par des phénomènes climatiques. Il apparaît effectivement que de 1980 à 2010 le nombre absolu d'épidémies a substantiellement augmenté. Cependant si l'on prend en compte l'augmentation de la population mondiale, il apparaît que le nombre relatif des épidémies diminue considérablement [source]. Or le phénomène épidémique étant par nature lié à la taille de la population l'indicateur relatif a plus de valeur informationnelle que l'indicateur absolu.
Espérance de vie. Il importe de tenir compte de l'espérance de vie des pays lorsque l'on veut comparer entre ceux-ci la létalité d'une épidémie. En effet les personnes âgées étant les plus sensibles, les pays avec une espérance de vie plus élevée auront tendance à subir plus durement les effets délétères d'une épidémie. Rappelons à cet égard que l'espérance de vie en bonne santé augmente 4 fois moins vite que l'espérance de vie. Il en résulte qu'au delà d'un certains seuils de développement généralisé à l'ensemble de la population, la proportion de personnes en mauvaise santé tend à augmenter avec le développement économique. D'autre part, concomitamment à une espérance de vie élevée, un niveau de développement élevé est généralement caractérisé par un mode de vie sédentaire et de l'obésité, augmentant ainsi le risque d'hypertension, de diabète et de maladies cardiovasculaires [source].
L'espérance de vie plus élevée des pays les plus développés peut donc expliquer pourquoi c'est généralement dans ces mêmes pays que l'on observe la plus forte mortalité attribuée à la covid-19.
Effet "moisson". Durant les années clémentes en terme de mortalité, un "sur-stock" de décès potentiels se construit, puis se vide brutalement (nombreux décès) en une ou deux années ;
Boomers. Un autre biais démographique déterminant est celui de l'évolution de la pyramide des âges, en l'occurrence l'accélération du vieillissement de la population. Ainsi les personnes nées la première année du baby boom de 1947-1970, arrivent en 2020 à l'âge de 2020-1947=73 ans. Nous allons donc assister, durant les vingt prochaines années, à une augmentation de la mortalité toutes causes, puisque les baby boomers arriveront massivement à un âge où la mortalité est la plus élevée.
Trois points à retenir, concernant les indicateurs épidémiques, les comparaisons internationales et les sources nationales :
1. Surmortalité toutes causes. La statistique qui contient la plus grande quantité d'informations pour évaluer en temps réel les effets d'une politique de gestion épidémique (y compris ses effets pervers) est la surmortalité toutes causes (la surmortalité étant la différence positive par rapport à la moyenne des trois ou cinq dernière années). Les statistiques de mortalité spécifique (c-à-d attribuée à l'agent pathogène), d'hospitalisation et de cas positifs n'ont quasiment aucune valeur scientifique à court terme en raison de biais statistiques dont la correction peut prendre jusqu'à plusieurs années (parce que ces corrections se font notamment par recoupement avec d'autre données elles-mêmes sujettes aux mêmes délais de correction).
Le fait que c'est exactement l'inverse que font les gouvernements, la presse et les milieux académiques, en focalisant sur des statistiques sans grande valeur, au détriment de la plus pertinente, est une parfaite illustration (i) des effets d'un grave "déficit démocratique", et (ii) que contrairement à une croyance répandue, ces trois groupes non seulement ne constituent aucunement un rempart contre ces dérives, mais au contraire peuvent en être les principaux agents.
2. Comparaisons internationales. Pour une comparaison internationale, il faut utiliser des données qui ont été retraitées (normalisées) afin de rendre plus comparables (ou moins incomparables ...) les statistiques nationales, dont les modes de collecte et traitement peuvent considérablement varier selon le pays. En Europe la référence en matière de statistiques normalisées de mortalité toutes causes est euromomo.eu.
3. Sources nationales. Le problème avec les données normalisées pour la comparaison internationale est que ce que l'on gagne en comparabilité on le perd en précision (par rapport aux critères nationaux de pertinence statistique, qui peuvent être liés à la culture du pays). Par conséquent, lorsque l'analyse statistique est limitée à un seul pays, c-à-d qu'on ne procède pas à une comparaison internationale, il faut préférer les sources nationales plutôt que les données normalisées. Coordonnées des sources nationales européennes (dont adresse email des personnes de contact) : euromomo.eu/about-us/partners.
Nous allons ici comparer la réalité statistique avec la relation qui en a été faite par la presse, en nous concentrant sur les indicateurs infectiologiques les plus importants : la charge hospitalière et (surtout) la mortalité. Nous procéderons ensuite à une comparaison internationale de ces statistiques, au regard des choix stratégiques faits par les différents gouvernements.
9.1. Charge hospitalièreDans la section #repartition-patients nous avions procédé à une analyse théorique de la problématique concernant la capacité hospitalière et les transferts de patients entre hôpitaux. Nous avons montré que la privatisation progressive du secteur hospitalier depuis les années 1990 a eu pour effet de réduire la capacité hospitalière, tout en rendant impossible la gestion centralisée (⇒ en temps réel) des transferts de patients, des hôpitaux saturés vers ceux disposant de capacités libres. Nous allons ici exposer les manipulations médiatiques qui ont opéré durant la crise de la covid-19, et qui se cumulant aux effets de la privatisation, ont provoqué une grave crise sanitaire, et une forte surmortalité toutes causes en 2020.
Dès mars 2020 des experts prédisaient de gigantesques surcharges des hôpitaux durant l'épidémie de covid-19, si les gouvernements n'imposent pas aux populations la stratégie non médicale (SNM : confinement, distanciation, masque, antisepsie, vaccination expérimentale).
Les covidistes ne qualifient pas leur "stratégie" de "non médicale" mais de ... "non pharmaceutique" (sic). Dans la section #strategie-medicale supra, nous avons précisé ce que nous entendons par "stratégie médicale" (SM).
Ces prédictions catastrophistes reposaient originellement sur trois hypothèses :
Analysons ces arguments...
Le troisième argument est inlassablement martelé par la très puissante force de "communication" du lobby pharmaceutique : « il n'existe pas de médicament contre la covid-19 » , ce qui est une façon scandaleusement biaisée de décrire la situation puisqu'une telle affirmation revient à nier l'existence des traitements symptomatiques habituels en matière d'infections respiratoires virales. Le vrai problème est que le lobby pharmaceutique a réussi à "convaincre" les autorités médicales (Ordre des Médecins) à imposer des entraves à l'utilisation des traitements habituels en matière d'infections respiratoire. Il en résulte logiquement une augmentation de cas devenus sévères par manque de suivi médical, et qui vont alors accentuer la pression sur les unités de soins intensifs de certains hôpitaux, ce qui a inévitablement un impact négatif sur le taux de mortalité.
Comment entretenir la peur et provoquer la saturation des unités de soins intensifs
Voici la réponse type donnée par les médecins généralistes covidistes, aux demandes de consultation pour état grippal : « Vous ne pouvez accéder à mon cabinet médical qu'avec une attestation de test PCR négatif. Si votre test est positif, restez chez vous et prenez du Dafalgan, jusqu'à ce que les symptômes disparaissent. Si vous avez des problèmes respiratoires allez à l'hôpital, où vous serez traitée par des personnes habillées en combinaisons de protection » (sic).
Et ce n'est pas tout : non seulement ces médecins nient l'existence des traitements symptomatiques habituels en matière d'infections respiratoires, mais d'autre part ils s'empressent de nous rappeler l'existence de vaccins "anti-covid", et cela en sous-estimant gravement le risque lié au fait que la durée moyenne avant autorisation de mise sur le marché a été instantanément divisée par 18 (15*12/10) pour ces vaccins expérimentaux (d'une quinzaine d'années à seulement quelques mois) !
Quant au second argument (abaissement et retardement du sommet épidémique par la SNM) il se réfute facilement : à l'instar du brûlage de cierge, l'efficacité de la SNM imposée à l'ensemble d'une population n'a jamais pu être démontrée ; d'autre part nous avons montré (i) qu'en Belgique la SNM n'a pas eu pour effet de retarder le sommet épidémique (cf. supra #SIR-parametrage-fin-confinement), ce qui confirme la thèse d'une extinction naturelle ; (ii) que l'impossibilité d'efficacité de la SNM peut s'expliquer par de nombreux arguments logiques (cf. supra #applicabilite-strategie-non-medicale).
Enfin, concernant le premier argument (taux d'hospitalisation cent fois plus élevé que pour la grippe) :
Dans la section #SIR-parametrage-fin-confinement nous avons vu que la charge hospitalière ajoutée par covid-19, mesurée par notre indicateur, a atteint un maximum de 16% en Belgique (pays où le taux de mortalité toutes causes durant la crise de la covid-19 est parmi les plus élevés au monde). Ce taux de 16% correspond aux taux estimés en France : de 4% à 30%, soit une moyenne de 17% [source]. Arrondissons ce taux à 20% pour faire simple, il reste alors 100-20=80% pour les patients hors covid-19.
D'autre part, selon un rapport du sénat français, le taux d'occupation des lits de réanimation n'a pas dépassé 67% au plus haut de l'épidémie (9 avril 2020) [source, p. 172]. Et en Belgique les données du Centre Fédéral d'Expertise des Soins de Santé (cf. graphique ci-dessous) montrent que le taux d'occupation des lits de soins intensifs par les patients toutes causes était d'environ 70% au tout début de l'épidémie (20 mars 2021), et n'a jamais dépassé 80%, y compris au pire de la crise.
Source : health.fgov.be .
Enfin le rapport 2020 de l'activité hospitalière publié par atih.sante.fr en novembre 2021 montre que les cas covid ont représenté seulement 5 % des prises en charge en soins critiques [source].
Parmi les causes de ces taux d'occupation "modérés" (au regard du discours médiatique catastrophiste) il y a :
Ainsi le directeur d'un hôpital belge témoigne que dans son établissement, entre la période s'étendant du 16 mars au 10 mai 2019 et celle du 16 mars au 10 mai 2020, les admissions classiques ont diminué de 54%, les passages aux urgences de 63% et les consultations de 82% (baisse finalement limitée à 70% grâce aux 5.940 téléconsultations réalisées) [source]. En France un rapport du sénat révèle que l’activité des médecins généralistes a diminué de 30 % pendant la période du confinement, dans une moindre mesure que celles des autres spécialités médicales (baisse de 60 % de l’activité en moyenne) [source, p. 189].
Les "informations" assénées quotidiennement depuis avril 2020, selon lesquelles la capacité hospitalière "serait au bord de la rupture" durant l'épidémie de covid-19 étaient donc biaisées voire mensongères, en ce sens que la situation des hôpitaux n'a pas été rendue plus difficile par covid-19, mais par la panique qui a été entretenue par la presse et les décideurs politiques, ce qui a entraîné une désorganisation des services hospitaliers et, partant, un stress accru pour le personnel soignant.
L'incompétence de la gestion épidémique est notamment illustrée par le fait qu'en 2020 des ressources financières et humaines considérables ont été allouées à la création en urgence d'unités de soins intensifs, alors qu'il faut plusieurs années pour former le personnel soignant requis pour les utiliser !
Toute la perversité de la manipulation médiatique repose ici sur un biais de compte rendu journalistique consistant à reprendre le (justifié) discours médical concernant les annuelles surcharges hospitalières, et à le corréler à la crise du covid-19 non pas en tant que cause participante mais comme conséquence de cette crise. En inversant ainsi la relation de causalité la presse a pu faire passer une crise politique pour une crise sanitaire. On comprend alors pourquoi les gouvernements ont allègrement surfé sur cette vague médiatique, participant ainsi à l'amplifier.
De nombreux soignants du milieu hospitalier, médecins et infirmières, se sont très naïvement laissés embarquer dans cette opération d'enfumage. Or ils en seront victimes si la contre-productive systématisation du confinement est appliquée comme substitut à une hausse de capacité hospitalière ou (mieux) à la nationalisation du secteur hospitalier (ce qui permettrait un gestion centralisée et en temps réel de la répartition des patients) [source].
Des faits troublants :
Hospitalisations abusives. Durant l'épidémie de covid-19, des personnes testées positives ont été admises en soins intensifs malgré que leur situation n'était pas inquiétante [exemple] . D'autres exemples de ce type m'ont été confirmés par un médecin travaillant en milieu hospitalier : « Suite à une suspicion de contact avec une personne positive un individu est prié de passer un test covid-19. Le résultat s'avère positif mais il n'a aucun symptôme. Cependant comme il a mentionné être asthmatique (ou souffrant de diabète, de maladies cardiovasculaire ou encore d'hypertension) il est hospitalisé en soins intensifs pendant une semaine, par précaution. Dans les statistiques il a été hospitalisé pour Covid-19 ». À noter que l'augmentation du nombre de tests augmente automatiquement le nombre de ces situations !
Entraves politiques. Les directives sanitaires ainsi que le discours médiatique, ont, de façon incompréhensible, considérablement entravé la capacité des médecins de ville à soigner les patients présentant des symptômes mêmes bénins de la covid-19. Il en a résulté l'aggravation de l'état de certains de ces patients non traités, qui ont du finalement être traités en urgence dans le système hospitalier, ce qui a eu pour effet d'accroître la charge de travail du secteur hospitalier.
Manipulation statistique ? Cette comparaison suggère que les statistiques d'hospitalisation seraient artificiellement gonflée de 40% (!) :
Source : Christophe de Brouwer.
covid-19 : hôpitaux débordés ... vraiment ? (1m7s - avril 2020)
La couverture médiatique de la crise covid-19 concernant les décès et hospitalisations correspond-elle à votre vécu dans la vie réelle (familles, amis, collègues) ? Les décès et hospitalisations toutes causes ont-elle augmenté autour de vous ? Concernant les cas "réels" dans votre entourage : (i) êtes-vous en mesure de distinguer ceux par covid-19 de ceux avec covid-19 ? ; (ii) l'hystérie médiatique entretenue autour de covid-19 ne vous conduit-elle pas à surpondérer le poids émotionnel de ces maladies et décès relativement aux années précédentes ? Un appareil d'État (gouvernement, presse, experts, ...) qui est capable de tordre ainsi la réalité ne serait-il pas capable de gonfler artificiellement les statistiques de mortalité ?
L'évolution de la mortalité toutes causes montre une régularité cyclique, sous la forme d'une sinusoïdale calquée sur les saisons annuelles. Cette dynamique est due principalement aux variations des propriétés physico-chimiques de température et d'humidité de l'air, qui influencent le métabolisme des organismes vivants ainsi que la propagation des virus et bactéries.
Ainsi dans le graphique suivant la courbe hachurée inférieure montre que la mortalité globale est relativement constante d'une année à l'autre, avec le sommet en début d'année et le creux en milieu d'année. NB : ce ne sont pas les hauteurs maximales de la courbe qui sont déterminantes mais la surface en-dessous, sur des périodes identiques (mortalité "intégrale").
L'analyse de cette courbe doit prendre en compte un fait déterminant : il est souvent difficile de déterminer la cause exact d'un décès.
La plupart des patients décédés supposément de covid-19 sont âgés de plus de 75 ans et souffraient de pathologies chroniques (hypertension, diabète, maladies cardiovasculaire, cancers, etc). Dans ces conditions il est extrêmement difficile de faire la distinction entre "décès par covid-19" et "décès avec covid-19".
L’espérance de vie à l’entrée en maison de retraite est de 3 ans et 4 mois [source].
Le tableau suivant montre les dix premières causes de mortalité dans le monde. On constate que la plupart sont très impliquées dans la mortalité attribuée, à tort ou à raison, à covid-19.
Source : OMS.
Notons que la létalité de covid-19 est très faible pour des personnes saines : le cas du navire de croisière US Diamond Princess suggère ainsi un taux de létalité (morts/infectés) de seulement 1% pour les personnes âgées en bonne santé [source]. D'autre part sur l'ensemble de la population mondiale, la grande majorité des personnes infectées (>95%) ne sont pas ou à peine tombées malades ou ont guéri naturellement.
Espérance de vie à la naissance (France)
Entre 2019 et 2020 l'espérance de vie masculine à la naissance est passée de 79,7 à 79,2 ans [source].
Didier Raoult – premier expert mondial en maladies transmissibles selon le classement expertscape – rappelle qu'il y a une surmortalité saisonnière, que l'on a attribuée à la grippe pendant très longtemps, et qui en réalité représente probablement toutes sortes de mortalités associées à des infections virales, y compris leur conséquences [source]. Ainsi près de 30% des cas suspects de covid-19 seraient en réalité des grippes ... [source].
Selon l'OMS « est considéré comme un "décès du à la COVID-19" un décès résultant d’une maladie cliniquement compatible, chez un cas probable ou confirmé dela COVID-19, en l’absence de toute autre cause évidente de décès sans lien avec la maladie à coronavirus (par exemple, un traumatisme). Aucune période de rémission complète de la COVID-19ne devrait avoir eu lieu entre la maladie et le décès. Un décès dû à la COVID-19 ne peut pas être imputé à une autre maladie (par exemple, à un cancer) et doit être comptabilisé indépendamment des affections préexistantes qui sont soupçonnées d’avoir déclenché une évolution grave de la COVID-19. » [source].
Étrangement, dans presque tous les pays, les gouvernements, leurs "experts" et la presse ont quasiment passé sous silence cet indicateur, lui préférant des indicateurs pourtant connus pour être fortement biaisés : cas positifs et hospitalisations (cf. supra #indicateurs-suivi-epidemique).
Pic(s) crise covid-19
Le graphique ci-contre pose diverses questions :
Les maladies transmissibles constituent un phénomène d'écosystème, c-à-d extrêmement complexe (grands nombre de facteurs, relations non linéaires, effets de rétroaction, etc) qui peuvent expliquer que dans deux pays voisins une même pandémie pourra avoir des effets très différents. Parmi ces facteurs de différenciation il y a probablement :
Par conséquent lorsque l'on étudie les causes de différences d'incidence "d'une même" pandémie entre pays, il faut pouvoir déterminer la part de chacun de ces facteurs. On notera que le dernier a une particularité importante qui le distingue des autres : alors que les quatre premiers sont intrinsèques au pays, et ont donc un caractère permament (*), le dernier relève d'une politique sanitaire, qui peut être appliquée, ou pas, selon les circonstances du moment.
(*) Ainsi en Belgique la forte densité de population n'est pas apparue en 2020. Or la Belgique n'a pas montré par le passé une plus grande sensibilité aux épidémies. Par conséquent l'argument de la densité de population pour expliquer le taux de mortalité élevé en Belgique n'est pas pertinent.
Sur base des statistiques de mortalité covid-19 de mai 2020, notre (sommaire) analyse statistique ne révèle pas de corrélation significative de la mortalité avec la capacité hospitalière [source]. Il conviendrait cependant de réaliser une étude plus complète, prenant notamment en compte le réseau de médecins de villes (ainsi il y a en Suède 25% de médecins de ville en plus qu’aux Pays Bas et en Belgique ...) et la réglementation médicales pouvant entraver leur capacité à soigner (ce qui fut le cas notamment en Belgique et en France).
Sur base des statistiques de mortalité covid-19 de mai 2020 notre sommaire analyse statistique ne révèle pas de corrélation significative de la mortalité avec la densité de la population [source]. Le cas devenu célèbre du navire de croisière Diamond Princess qui a été mis sous quarantaine dès la découverte d'un premier cas, et qui permet ainsi d'avoir un aperçu des caractéristiques épidémiologiques et infectiologiques du virus sur base d'une population confinée, confirme le résultat contre-intuitif de notre analyse statistique : sur 3.700 passagers (pour la plupart retraités) et équipage – ce qui correspond à une densite de population d'environ 24.400 personne/km2 soit 4 fois plus qu'à Hong-Kong – il y a eu 650 infectés (soit 17% des passagers) dont la moitié d'asymptomatiques et 7 décès (soit 1% des infectés et 0,2% de la population du bateau, ce qui représente un taux de mortalité dix fois plus élevé que la grippe) [source]. Cependant il est extrêmement difficile de tirer des conclusions de cette expérience en l'absence d'informations complémentaires : ainsi le nombre élevé de décès pourrait être plus déterminé par les effets pervers de la panique (les passagers ont été consignés dans leurs cabines pendant au moins 2 semaines !) que par le virus lui-même (cf. #effets-pervers-strategie-non-medicale).
Une différence dans la consommation d'un aliment particulier peut avoir pour effet que telle substance se retrouvant dans les organismes en quantités moyennes très différentes entre deux pays pourra avoir pour effet des sensibilités différentes par rapport à un virus ou une bactérie. D'autres habitudes culturelles comme les modes de salut (Occident : serrer la main ou embrasser ; Orient : abaisser la tête), ou encore le fait de cracher par terre. Et l'on peut probablement trouver d'autres exemples presque à l'infini. Cependant il n'est pas facile de tirer des conclusions : ainsi en Orient le mode de salut est plus distant, mais par contre cracher par terre est une pratique courante. En outre le mode de propagation du virus est déterminant : si la propagation est notamment par aérosol (particules en suspension dans l'air) le mode de salut n'est probablement pas déterminant.
Notre analyse statistique suggère une faible corrélation entre taux de mortalité et intensité de la SNM. En outre cette corrélation est ... positive : les pays ayant appliqué une SNM de forte intensité (degré 3/3) auraient un taux de mortalité plutôt supérieur à celui observé dans les pays ayant appliqué une SNM de faible intensité (degré 1/3).
On ne distingue quasiment aucune corrélation entre taux de mortalité et stratégie SM (dont l'intensité est mesurée en nombre de tests par 1000 hab.). Quant au signe négatif de cette corrélation il est cohérent avec le signe positif pour la SNM.
Enfin le graphique suivant illustre le caractère saisonnier de covid-19 (différence entre pays selon l'hémisphère).
Nous venons de passer en revue cinq facteurs pouvant expliquer les différences entre pays concernant la mortalité attribuée à la covid-19 : offre de services médicaux, densité de population, pratiques culturelles; particularités historiques, et enfin le type de stratégie anti-épidémique appliquée et son intensité.
Les quatre premiers sont avancés par les scientifiques de plateau TV (ceux qui en propagent le message dominant) pour expliquer la forte mortalité attribuée à la covid-19 en Belgique et aux Pays-Bas. Mais pourquoi alors ces pays n'ont-ils pas chaque année une mortalité toutes causes supérieure à celle des autres pays ... ?
Une question resurgit alors : les différences de mortalité toutes causes entre pays ne s'expliquent-elles pas essentiellement l'intensité de la SNM ? (cf. supra #effets-pervers-strategie-non-medicale).
Le fait que des pays ayant appliqué la SNM n'ont pas connu de surmortalité toutes causes apparente, n'implique pas que la SNM n'aurait pas d'effets pervers ! En effet, si la tendance de la courbe de mortalité toutes causes des trois dernières années en Europe s'était prolongée en 2020, on aurait alors observé une sous-mortalité en 2020 par rapport aux trois années précédentes !
L'analyse logique valide fortement cette thèse de l'intensité de la SNM, mais la comparaison internationale à laquelle nous venons de procéder ne la confirme que modérément. D'autre part deux études (probablement plus poussées que la nôtre) suggèrent l'absence de corrélation entre la dynamique de mortalité attribuée à covid-19 et l'intensité de la SNM [source1, source2]. Ce dernier résultat n'est cependant pas incompatible avec celui de notre analyse logique car ces deux études concernent la mortalité spécifique à covid-19, et non la mortalité toutes causes. Or les effets pervers de la SNM concernent précisément des personnes dont la cause du décès n'est pas directement liée à la covid-19. Ainsi l'intensité de la stratégie de la peur, plus forte en France qu'en Belgique, pourrait expliquer la plus forte surmortalité toutes causes de la France en 2021, en comparaison avec la Belgique.
Note méthodologique. La présente analyse statistique (epidemie-mortalite-correlations.ods) pourrait être améliorée (i) en mesurant le degré de SM par la liberté de prescription de traitements non spécifiques (oui/non); (ii) en augmentant le nombre de pays analysés.
Nous sommes arrivés ici à la fin de l'analyse statistique du phénomène covid-19. Celle-ci permet de mesurer rationnellement un phénomène et d'ainsi corriger nos perceptions. C'est du moins le cas lorsque les statistiques ne sont pas biaisées... Nous avons déjà analysé les biais involontaires (#indicateurs-suivi-epidemique). Dans la section suivante nous allons analyser les biais volontaires, qui dans la crise de la covid-19 furent nombreux et de grande ampleur ...
La crise de la covid-19 repose sur des manipulations flagrantes :
Dans les deux sections suivantes nous allons analyser d'importants (et graves) phénomènes sous-jacents à ces manipulations : le dévoiement de la science et les fabrications médiatiques.
Cette section illustre le dévoiement de la science dans la crise de la covid-19, sous l'action de forces financières et politiques (une analyse détaillée de ces forces est proposée dans le chapitre suivant : #covidisme). Nous allons voir comment de nombreux scientifiques sous influence ont "démontré" de façon fallacieuse une supposée efficacité anti-épidémique de la stratégie non médicale (confinement, distanciation, masque, antisepsie, vaccination expérimentale) lorsque celle-ci est infligée à l'ensemble de la population.
9.5.1. PrincipeLa fable du virus atypique et de la pertinence d'une application généralisée de la stratégie non médicale (confinement, distanciation, masque, antisepsie, vaccination expérimentale), a été vendue aux populations par la presse, les gouvernements et des scientifiques opportunistes. Ceux-ci ont ainsi fabriqué probablement la plus grande supercherie dans l'histoire de la science.
Nous avons déjà analysé les deux grands types de fraudes scientifiques de la crise covid, que nous qualifions de "passives" :
Nous allons ici nous concentrer sur la fraude scientifique "active" c-à-d utilisant les modèles et concepts mathématiques commé écran de fumée. Pour en exposer le mécanisme commençons par observer le graphique suivant montrant les quatre phases d'une courbe épidémique classique (caractérisées par des combinaisons spécifiques des signes des dérivées première et secondaire) :
Phases épidémiques
Traits hachurés : le sommet de la courbe correspond au changement de signe du taux de croissance [tableur : courbe-gauss.ods].
La forme de cette courbe en cloche est typique de la plupart des épidémies : la durée est ici d'une centaine de jours (*), et le point d'inflexion entre les phases I et II est situé vers J30 (ce point marque le passage d'une courbe convexe à concave, ce qui signifie le ralentissement de la propagation épidémique).
(*) La problématique est ici d'identifier une règle objective pour déterminer la "fin" et le "début" d'une épidémie, à supposer que ces notions aient un sens. Dans le cas des virus saisonniers, l'ordre de grandeur de la durée épidémique serait d'une dizaine de semaines ... [source].
Le cadre étant posé nous allons exposer la supercherie du covidisme en appliquant une méthode scientifique appelée "expérience de pensée". En l'occurrence elle consiste ici à poser certaines hypothèses, puis à en observer les résultats logiques, pour enfin comparer ceux-ci à la réalité observée. S'il y a correspondance on peut alors en conclure que les hypothèses sont hautement probables.
Hypothèses. Durant les quelques minutes de cette expérience de pensée, nous allons supposer comme avérés les trois points suivants :
Résultat. Ces hypothèses étant posées il en résulte alors que des scientifiques à la solde du gouvernement ou/et du business de "l'info" pourront montrer, sur base de ce même graphique, que l'inflexion de la courbe observée à J30 est apparue une dizaine de jours après l'imposition de la stratégie non médicale, et en déduire que celle-ci a provoqué l'inflexion. Or, dans le cadre de notre expérience de pensée, cela est impossible puisque la première hypothèse postule précisément que la stratégie non médicale est sans effet !
Une explication nettement plus crédible, car confirmée par les faits historiques, est que l'épidémie en question s'est éteinte naturellement, comme toutes les épidémies précédentes. Évidemment des scientifiques opportunistes ne manqueront pas de rétorquer que les modèles mathématiques avaient prévus que la pandémie pourrait atteindre une telle ampleur que les capacités hospitalières nationales seraient surchargées, et que puisque cela n'a finalement pas été le cas, c'est donc que la stratégie non médicale fonctionne. Mais encore une fois, dans le cadre de notre expérience de pensée, cela est impossible puisque les hypothèses 1 et 2 postulent que ni les modèles prédictifs ni la stratégie non médicale ne fonctionnent !
Une explication plus crédible est tout simplement qu'il suffit de paramétrer un modèle de telle sorte qu'il produise des résultats souhaités, ce qui relève de la fraude scientifique. Dans les sections suivantes nous allons montrer des cas documentés de fraudes scientifiques commises dans le cadre de la crise covid-19. Elles ont en commun d'être grossières, très fréquentes au sein de la communauté scientifique, et non sanctionnées par les autorités scientifiques.
Dans quasiment chaque pays ayant appliqué en 2020 la stratégie non médicale (SNM : confinement, distanciation, masque, antisepsie, vaccination expérimentale) pour neutraliser le virus SARS-COV-2, des études scientifiques ont prétendu "démontrer" (i) qu'une catastrophe sanitaire se produirait si les gouvernements n'imposent pas la SNM à l'ensemble de la population, puis (ii) que si la catastrophe ne s'est finalement pas produite c'est grâce à cette stratégie. Ces études reposent sur l'hypothèse (non démontrée à ce jour) que ces modèles sont capables de prédire l'avenir plusieurs semaines à l'avance, et que la SNM aurait effectivement pour effet d'abaisser et reculer le sommet d'une épidémie. Les auteurs ne font alors rien d'autre que de mesurer, souvent de manière inutilement complexe, la différence observée entre les prédictions catastrophistes du modèle et la réalité finalement observée, pour en conclure que cette différence est le résultat de la SNM. Or toutes les épidémies "s'éteignent" naturellement. Ainsi depuis qu'elles sont mesurées scientifiquement (c-à-d depuis 1920) elles se sont toutes éteintes sans que la SNM ait été imposée à l'ensemble des populations, sans surcharge hospitalière à la mesure des prévisions apocalyptiques des modèles épidémiologiques, et cela y compris dans le cas de pandémies de virus nouveaux ! Dans ces conditions, affirmer que l'absence finale de surcharge hospitalière grave en 2020 est due à la SNM relève du charlatanisme.
Voici un hallucinant extrait d'une étude réalisée conjointement par trois universités flamandes, dont l'université de Leuven, qui est classée première en Belgique et parmi les cent les plus réputées au monde : « Par définition, le nombre d'infections dans une population augmente de façon exponentielle si aucune mesure restrictive n'est prise » (traduit par nous) [source]. Oui, vous avez bien lu : "par définition" ! Il suffit alors pour prétendument "démontrer" cette affirmation, du moins auprès des personnes crédules, d'afficher un graphique tel que celui ci-dessous, publié par les auteur de l'étude, et le tour est joué. C'est là un cas typique de raisonnement circulaire, qui relève de la fraude scientifique.
Comment se fait-il que des professeurs et chercheurs qui écrivent de telles imbécilités, ne sont pas démis de leurs fonctions ? La réponse est que les autorités universitaires cautionnent ces élucubrations ! Ce faisant elles ouvrent une boîte de Pandore, qui est en train de dévaster la communauté scientifique. Les sections suivantes vont le confirmer.
Dans la section #SIR-taux-reproduction nous avons vu que la valeur théorique du taux de reproduction (Rt) baisse toujours, quelle que soit la stratégie anti-épidémique appliquée, et même sans stratégie du tout ! La raison, mathématique, est sa relation positive avec St dans Rt = β * St * λ n_Rt : dès lors que St diminue tout au long de l'épidémie ⇒ Rt aussi.
Taux de reproduction (valeurs fictives)
Évolution du taux de reproduction selon la stratégie : non médicale (SNM c-à-d confinements, distanciation, masque & antisepsie) ou médicale (SM c-à-d traitement curatif avec médicaments spécifiques ou non).
Or durant l'épidémie de covid-19 des conseillers scientifiques de nombreux gouvernements ont scandaleusement abusé l'opinion publique en affirmant que la baisse de Rt serait le résultat du confinement !
En Belgique, pays où le taux de mortalité toutes causes durant la crise de la covid-19 est parmi les plus élevés au monde, ce fut notamment le cas d'un professeur de l'École de santé publique de l'université libre de Bruxelles, devenu véritablement accro des plateaux TV. Dans cette cette "analyse prédictive" (sic) publiée le 10 avril 2020, cet "expert", constatant une baisse du paramètre β, affirme avec ses coauteurs que « le confinement résulte en une chute spectaculaire de la force d’infection du paramètre β, de 0,594 avant le confinement à 0,156 après confinement (...) » !
Or le graphique suivant montre que déjà avant le confinement βt était dans une tendance baissière, et de plus grande ampleur ! Par conséquent la moyenne avant n'importe quelle date sera généralement supérieure à la moyenne calculée sur la période après cette date arbitraire !
Beta avant et après le confinement (covid-19 Belgique)
Tableur covid19-be, feuille "J90" > colonnes J et K
Plus généralement le graphique suivant montre que le taux de croissance d'une courbe de Gauss, archétype des courbes en cloche, est constamment décroissant (NB : la "droite" rouge est en fait une courbe très légèrement convexe). Ce fait dévoile la supercherie consistant à affirmer que si le taux de croissance d'une épidémie est décroissant c'est nécessairement grâce à la stratégie "non médicale" (SNM : confinement, distanciation, masque, antisepsie, vaccination expérimentale).
Ce résultat peut paraître contre-intuitif dans la première partie de la courbe, où la pente est manifestement croissante. Mais il ne fait pas confondre pente de la fonction (dy/dx) et taux de croissance de la valeur y (dy/y).
Dans le graphique ci-dessous un chercheur en modélisation (université de Namur, Belgique) montre des courbes épidémiques semblant démontrer (i) la capacité prédictive des modèles épidémiologiques et (ii) l'effet inhibiteur du confinement général sur la propagation épidémique.
Extrait d'un reportage TV [source]. Axe vertical : hospitalisations. L'axe horizontal va de août 2020 à avril 2021. Le 20 octobre 2020, date à laquelle les zones bleue et rouge ont été calculées, est indiqué par le trait vertical hachuré.
Deux scénarios (rouges = sans confinement, bleus : avec confinement) sont calculés en octobre 2020 (trait vertical hachuré), puis comparée ex-post (avril 2021) à la courbé épidémique réelle. L'auteur affirme alors que le confinement est la cause de l'abaissement du sommet épidémique. Or affirmer cela, c'est confondre corrélation et causalité : une corrélation "apparente" n'implique pas en soi la causalité.
Il s'agit là d'une nouvelle illustration du principe frauduleux consistant à postuler que le ratio bénéfice/risque de la stratégie non médicale (confinement, distanciation, masques, communication gouvernementale anxiogène) est supérieur à 1, puis à interpréter les résultats des modèles mathématiques de telle façon que le postulat soit validé (cf. supra #dogmatisme-scientiste).
Par exemple lorsque l'auteur affirme que l'on a évité de peu la saturation de la capacité hospitalière nationale grâce au confinement, il perd de vue qu'une autre interprétation est tout simplement que cette pandémie n'a rien d'atypique (NB : quasiment chaque année des hôpitaux approchent la saturation pendant quelques semaines), que la surmortalité toutes causes de 2020 fut causée par les effets pervers de la stratégie de la peur (cf. supra #effets-pervers-strategie-non-medicale), et que la sous-mortalité de 2021 résulte du relâchement de la stratégie de la peur, ainsi que d'un effet moisson (les plus fragiles ont été décimés en 2020).
Notons au passage que cette méthode de focalisation sur une seule interprétation (favorable au gouvernement), requiert de passer sous silence le fait que les précédentes pandémies de virus "nouveaux" se sont éteintes naturellement c-à-d sans que la stratégie non médicale soit imposée à l'ensemble des populations (cela précisément en raison de ses effets pervers).
Quelques extraits choisis de l'article publié par l'auteur en octobre 2020 [source] :
On comparera utilement ces hypothèses de paramétrage à celles d'une étude très similaire publiée en avril 2020 par des chercheurs du CHU de Rouen, lesquels déclarent ne pas avoir inclus de paramètre saisonnier dans leur modèle parce que l'impact des variations saisonnières dans la transmission du SRAS-Cov-2 ne serait « toujours pas clair » (par contre l'impact du confinement ne fait quant à lui pas de doute ... pour les auteurs) ! S'enfonçant encore un peu plus dans l'absurdité les auteurs de l'article déclarent que « bien que les données à ce sujet soient très rares, plusieurs experts suggèrent que l'impact de la saisonnalité sur la transmission du COVID-19 pourrait être modeste. Il paraît donc raisonnable de supposer que la grande majorité de la réduction doit être portée au crédit du blocage, même s'il est impossible, pour le moment, de démêler l'effet du blocage et l'effet sous-jacent potentiel de la saisonnalité » ! On notera enfin que le taux d'hospitalisation des symptomatiques est tout simplement repris de la simulation de ... Neil Ferguson, et que les décès hors hôpitaux (et donc une partie des effets pervers de la SNM) ne sont pas pris en compte [source] !
Conclusion. Ne soyons pas naïfs. Les chercheurs en modélisation tentent de valoriser leurs modèles, de sorte qu'ils sont en situation de conflit d'intérêts. Leur objectif peut être moins de découvrir la vérité scientifique que de faire la promotion de leur gagne-pain. Nous devons être d'autant plus attentifs à cette propension qu'elle est souvent inconsciente. Ainsi, pour avoir une grande chance d'obtenir ex-post le graphique supra avec la courbe noire inscrite dans la zone bleue (prévision avec confinement), il suffit d'attribuer ex-ante au scénario "avec confinement" les valeurs de paramètres proches des valeurs utilisées pour prédire l'évolution d'une épidémie de grippe sévère, et au scénario "sans confinement" (rouge) des valeurs conduisant à un dépassement de la capacité hospitalière. Le gouvernement sera bien plus content de vous, que si vous l'accuser d'avoir causé l'essentiel de la surmortalité toutes causes en harcelant la population par une stratégie de la peur. On notera à cet égard que toutes les études que nous venons d'évoquer ignorent les effets pervers de la stratégie non médicale sur la surmortalité toutes causes. Or nous avons documenté de nombreux faits suggérant que la majorité de la surmortalité toutes causes en 2020 fut causée non par le virus mais par ces effets pervers (cf. supra #effets-pervers-SNM).
On notera que c'est précisémment en raison de ces effets pervers qu'avant 2020 la stratégie non médicale ne fit jamais imposée à l'ensemble de la population, même dans les cas de pandémies de virus "nouveaux". Autrement dit, le ratio bénéfice/risque de l'application de la stratégie non médicale à l'ensemble de la population est inférieur à 1.
La vidéo suivante est une parfaite illustration de la collusion entre milieux journalistique et scientifique pour susciter une tension permanente par :
Ainsi la Belgique, qui fait pourtant partie des pays les plus touchés par la crise de la covid-19, a connu en 2020 un taux de mortalité toutes causes qui n'est que le 147e (parmi les 180 années depuis 1841), et se situe à peu près au même niveau que les taux de mortalité bruts enregistrés dans les années 1980... [source]. Attention cependant à ce que ces statistiques ne soient interprétées pour nier la réalité des effets pervers de la stratégie de la peur. Une thèse implicite de celle développée dans la présente publication c'est que sans le covidisme la mortalité toutes causes aurait été très faible en 2020.
(*) Par "systématiquement on entend "autrement que par l'effet du hasard".
Comment médias et experts fabriquent la crise de la covid-19 (2m45s - oct. 2020)
Analyse commentée d'un reportage de la télévision privée belge RTL, du 22 octobre 2020. NB : la Belgique est parmi les trois pays avec le plus haut taux de surmortalité toutes causes en 2020 ...
Dans la plupart des pays les populations ont été littéralement matraqués "d'informations" biaisées voir mensongères, mais surtout ultra-anxiogènes. Dans la vidéo suivante nous avons commenté un reportage présenté au JT de la RTBF, la télévision publique belge. Jugez par vous-mêmes comment les médias "d'information" exploitent les personnes qu'elles ont elles-mêmes participé à terroriser...
Déconstruction du matraquage émotionnel covidiste (7m25s - oct. 2020)
Analyse commentée d'un reportage présenté au JT de la télévision publique belge, du 22 octobre 2020.
Comment dans un tel contexte de terreur entretenue la situation aurait-elle pu ne pas dégénérer ... ? (cf. #effets-pervers-strategie-non-medicale).
Dans la vidéo suivante une journaliste de la RTBF participe à une mise en scène ultra-larmoyante, avec fonds sonores de violons et de piano. Elle y raconte sa visite pour raison de santé au service d'urgence d'un hôpital, alors que visiblement cette personne est moins symptomatique que très émotionnelle (à l'instar du patient de la vidéo précédente).
covid-19 : hyper-hystérisation (8m03s - 2020)
Nous avons ici exposé le rouage du phénomène covidiste, mais il reste à éclairer la zone d'ombre qui masque la nature des forces – de toutes évidences extrêmement puissantes – qui animent ce mécanisme. Comment expliquer la fusion quasi totale entre milieux journalistiques et scientifiques, autour de "raisonnements" et de mesures dont l'absurdité et la nature délétère sont pourtant flagrantes ? Ni l'incompétence ni de possibles complots ne constituent d'explications satisfaisantes.
Fraudes scientifiques (cf. #LancetGate), catastrophisme médiatique, ... autant d'ingrédients réunis pour qu'opère un phénomène bien connu des économistes sous le nom de "prophétie autoréalisatrice", par lequel des anticipations non fondées ex-ante deviennent une réalité ex-post, sous l'action des seuls effets induits par les anticipations. Ainsi ce ne serait pas le virus mais les prévisions de modélisateurs – pourtant connus pour leur forte propension au catastrophisme – qui auraient généré une désorganisation quasi totale du système hospitalier. L'offre des services médicaux a ainsi été fortement dégradée, en termes quantitatifs (allocation non optimale des ressources) et qualitatif (stress du personnel soignant). Il en a résulté des millions de morts (cf. supra #effets-pervers-strategie-non-medicale), un des plus grands massacres systémiques dans l'histoire de l'humanité. La panique peut ainsi faire perdre une guerre contre une ennemi qui, sans elle, ne l'aurait pas emportée.
L'effet de prophétie auto-réalisatrice peut être facilité par des phénomènes catalyseurs :
L'énoncé de ces deux catalyseurs de prophétie auto-réalisatrice nous conduit naturellement au chapitre suivant, consacré à l'analyse politique et économique de ce phénomène complexe et multifactoriel que nous appelons "covidisme".
La thèse développée ici est que le covidisme ne serait pas l'expression d'un complot ourdi par une élite mondialiste (le fameux "ils" des complotistes), mais un phénomène multifactoriel mêlant principalement irrationalités et auto-organisation. D'éventuels complots sont certes probables, mais leur importance serait très surestimée, autant par les "comploteurs" eux-mêmes (dont il ne faudrait pas sous-estimer les tendances mythomaniaques) que par les "complotistes" les dénonçant.
La propension totalitariste du covidisme – illustrée par l'expression à consonance très orwellienne de "nouvelle normalité" (sic) – n'est donc pas nécessairement le fruit d'un complot : il peut aussi s'agir d'un phénomène auto-organisé. Ce type de phénomène est généralement fondé sur des effets de boucle rétroactive [approfondir : democratiedirecte.net/intelligence-collective#auto-organisation].
NB : l'auto-organisation n'est pas nécessairement rationnelle, pas plus qu'elle ne conduit en soi au bien et au juste !
En l'occurrence il pourrait s'agir d'un enchaînement de deux effets de boucles : "moulin de fourmis" ⇒ "prophétie auto-réalisatrice".
Il peut se produire initialement un phénomène connu des myrmécologues sous le nom de "moulin de fourmis", ou encore "ant death spiral" en anglais ("spirale de la mort"), par lequel des fourmis suivent dans un cercle sans fin les traces olfactives de leurs congénères. Dans certains cas, les fourmis tournent jusqu'à épuisement mortel.
Le covidisme est-il un moulin de fourmis ? (40sec)
Un possible catalyseur de ce moulin de fourmi est la préparation à des évènements catastrophiques tels que l'Event 201 (qui fut sponsorisé par trois organisations néolibérales : Bill & Melinda Gates Foundation, World Economic Forum, Bloomberg School of Public Health de la John Opkins University : source).
Via un effet de résonance, induit par la télévision de masse, se produit alors une phénomène d'auto-intoxication cognitive, qui dans le cas du covidisme a atteint un paroxysme sous la forme d'une psychose collective [« état de panique collective provoqué par un événement ou un fléau vécu comme une menace permanente" » Petit Larousse illustré 2007]. Cette bouffée délirante se serait alors figée en une forme d'hypnose collective.
Le "moulin de fourmi" peut alors conduire à un phénomène (dont la dynamique est également en boucle) bien connu des économistes sous le nom de "prophétie auto-réalisatrice" (cf. supra #covid19-prophetie-autorealisatrice).
En toile de fond de cette dynamique "moulin de fourmis" ⇒ "prophétie auto-réalisatrice", il y a une évolution sociétale marquée par la montée en puissance de la sphère médiatique (puissance à laquelle est lié le phénomène d'info-dépendance) et financière (spéculation, notamment dans les secteurs pharmaceutique et du "big data").
NB : la boucle du covidisme est également celle du climatisme, qui sont tous les deux des catastrophismes.
La flèche verte peut illustrer également le cas des scientifiques qui adaptent leur discours, non pas par obéissance au gouvernement ou par crainte de la diffamation médiatique, mais pour augmenter les chances de plus-values sur leur portefeuille d'actions.
À la source du marché mondial de "l'information" il y a un oligopole composé de trois agences de presse (AP, Reuters et AFP). On notera que deux de ces trois agences sont de pays anglophones, et qu'elles sont toutes trois de pays atlantistes.
Le covidisme n'est donc pas nécessairement ou seulement le fruit d'un programme politico-économique, mais peut s'expliquer plus simplement comme un phénomène auto-organisé, à causalité multifactorielle, où des intérêts pas nécessairement coordonnés, mais convergents, opèrent en résonance avec un phénomène d'info-dépendance de masse. D'autre part l'irrationalité joue probablement un rôle très important dans ce phénomène complexe.
Il est important d'avoir une compréhension la plus exacte et précise de la situation, car on apporte pas les mêmes réponses stratégiques face au complot, à l'auto-organisation ou à l'irrationalité. Comme d'autre part il est extrêmement difficile d'avoir une connaissance totale de la situation (identification et dynamique des forces en interaction), il est prudent d'envisager un panel de thèse différentes, d'autant plus qu'elles peuvent être complémentaires.
En résumé rappelons ici les éléments théoriques constituant de possibles facteurs "non complotistes" du covidisme. Ces facteurs (pour lesquels il existe une littérature scientifique), relèvent à la fois de l'irrationalité et de l'auto-organisation :
Dans les sections suivantes nous allons analyser la nature sectaire du covidisme, puis approfondir la dynamique des forces qui l'animent.
Nous allons montrer ici que le covidisme est un construit social, en l'occurrence une fabrication médiatique, qui réunit tous les archétypes d'une secte totalitaire, avec ses temples médiatique, prêtres experts, consensus dogmatique, endoctrinement et répression.
Nombreuses sont les sectes fondées sur le harcèlement psychique (avec péchés, culpabilisation voire punitions) des incroyants comme des pratiquants. Aujourd'hui force est de constater que les mêmes principes sont appliqués par des prêtres-experts dans les temples médiatiques que sont les plateaux TV, et de façon très perverse comme le montre l'extrait vidéo ci-dessous.
Covid-19 : comment créer une atmosphère anxiogène. (1m36s - mars 2020)
Chaque jour à 11 heures le gouvernement belge organise une conférence de presse, présentée par des scientifiques, et consistant essentiellement à mentionner des statistiques biaisées (cf. supra #mesure), et à terroriser la population au moyen de messages focalisant sur des cas particuliers ultra-anxiogènes.
Des pratiques telles que celle illustrée par la vidéo ci-dessus mettent gravement en question la crédibilité des gouvernements et de la communauté scientifique (le monsieur qui parle dans la vidéo ci-dessus est un scientifique qui fut ultra-médiatisé par la presse belge, et d'une façon qui n'est pas sans rappeler la création de "héros nationaux" par les régimes totalitaires : exemple). Leur volonté manifeste de manipuler l'opinion publique au moyen "d'informations" biaisées voire mensongères suscite un questionnement légitime : quelles autres pratiques manipulatoires les gouvernements sont-ils prêt à appliquer pour convaincre la population d'accepter, par exemple, le traçage de leurs relations privées ? Ainsi parmi ces autres mesures y a-t-il la modification de statistiques épidémiques "pour le bien de la population" ?
La nature dogmatique du covidisme est parfaitement illustrée par cet extrait d'une étude réalisée conjointement par trois universités flamandes, dont l'université de Leuven, qui est classée première en Belgique et parmi les cent les plus réputées au monde : « Par définition, le nombre d'infections dans une population augmente de façon exponentielle si aucune mesure restrictive n'est prise » (traduit par nous) [source]. Oui, vous avez bien lu : "par définition" ! Cela n'est plus de la science mais du scientisme c-à-d une supercherie. Or ce phénomène est observable partout dans le monde. La communauté scientifique s'est ainsi littéralement suicidée, soit par l'action de scientifiques commettant des supercheries manifestes (cf. supra #science-devoyee et infra #LancetGate), soit par la passivité d'une partie considérable du reste de la communauté, qui n'a pas eu le courage de dénoncer ces fraudes flagrantes.
Revoir aussi la section supra consacrée au #consensus.
Extrait de la page web d'un groupe d'experts belges "Psychologie et Corona" (sic), proposant leurs conseils pour amener la population, par la manipulation psychique, à accepter la "nouvelle normalité" covidiste : « Le suivi des mesures nécessite un effort particulier de la population. Les mesures constituent une rupture dans notre mode de vie actuel et nous devons les observer pendant longtemps. Bien que le suivi des mesures ait d'abord semblé être un problème temporaire, il devient maintenant clair que nous entrons dans une phase de changement de comportement permanent. Le nouveau comportement va devenir un comportement habituel. Le changement de comportement doit donc conduire à un comportement habituel. Le comportement d'habituation découle principalement de la planification et des répétitions fréquentes, il est donc envoyé dans le cerveau différemment du comportement dirigé consciemment : il n'est plus rendu conscient pour atteindre un objectif et il est en grande partie automatique ou sans réflexion. Différents piliers sont importants pour faciliter cette formation d'habitudes » [source – date : au plus tard, 29 août 2020].
Des articles scientifiques sérieux qui réfutent le dogme covidiste ont été censurés (cf. cas du physicien Denis Rancourt), la plateforme vidéo Vimeo a clôturé le compte d'une conférence de médecins US dénonçant la dérive covidiste [source], Youtube a supprimé une vidéo C-SPAN du témoignage du Dr Pierre Kory devant Sénat américain, favorable à l'ivermectine, un médicament repositionné [source]. Le Pr. Peter McCullough (CV - indice H) a subi la même censure de la part de YouTube, puis a fait l'objet de menaces par des autorités médicales, pour avoir dénoncé (devant le Sénat du Texas, en mars 2021 : vidéo en anglais) les entraves réglementaires et médiatiques contre l'utilisation de médicaments repositionnés, et la focalisation sur la seule voie vaccinale [source].
Robert Malone, un des concepteurs du vaccin ARNm, et également opposant à la stratégie de focalisation sur les seuls vaccins au détriment des traitements repositionnés, dénonce : « Le vrai problème ici, c'est la presse et les géants de l'internet. La presse et ces acteurs technologiques agissent pour fabriquer et renforcer le "consensus" autour de récits sélectionnés et approuvés. Et puis cela est utilisé comme arme pour attaquer les dissidents, y compris des médecins hautement qualifiés [source]. J'ai été qualifié de "terroriste" dans la presse italienne lorsque j'étais à Rome pour le Sommet international COVID. Mon crime ? Plaider pour un traitement précoce de la maladie COVID-19 [source]. Les médecins qui s'expriment sont harcelés par les commissions médicales et la presse. Ils essaient de délégitimer et de nous éliminer un par un. Ce n'est pas une théorie du complot - c'est un fait [source] ».En France et Belgique les scientifiques indépendants qui contestent le dogme covidiste ("le vaccin est tout, le traitement curatif n'est rien") font l'objet d'une répression jamais vue, sous forme de censure (cf. Pr. Christophe de Brouwer sur Facebook), de diffamation (Pr. Raoult), ou de licenciement professionnel (cf. Dr. Sacré et Pr. Péronne).
En Belgique, dans un document intitulé "Aspects déontologiques relatifs au programme de vaccination contre la Covid-19", l'Ordre des médecins menace en avertissant qu'il « veillera à ce que les médecins respectent leur devoir déontologique en endossant un rôle de pionnier par la recommandation et la promotion de la vaccination » et qu'il « sévira fermement contre la diffusion d’informations qui ne cadrent pas avec l’état actuel de la science » [source, janvier 2021]. On notera que l'Ordre passe ainsi sous silence le caractère expérimental des vaccins anti-covid. D'autre part, l'Ordre ne précise pas qui détermine ce qu'est "l’état de la science". N'est-ce pas l'OMS, et l'OMS n'est-elle pas connue pour être sous très forte influence du lobby pharmaceutique ?
Dans ces conditions le débat contradictoire ne relève plus que du simulacre, et le "consensus scientifique" n'est alors que l'expression de la répression politique [source].
La concurrence que représentent les médias sociaux pour les entreprises "d'information" incite ces entreprises à toujours plus de catastrophisme ("infos" biaisées voire mensongères) afin de doper l'audimat. Ainsi dans le cas de l'épidémie covid-19 ces médias "professionnels" ont annihilé chez les infos-dépendants toute capacité d'analyse des faits statistiques, en les matraquant de messages catastrophistes focalisant sur des cas particuliers tels que des décès de jeunes (exemple), en passant sous silence le fait que chaque année on observe de tels cas dits "atypiques" rien qu'avec la grippe saisonnière.
La vidéo suivante montre que la presse belge a commencé le matraquage médiatique avant même l'apparition du premier décès attribué (à tord ou à raison) à covid-19.
Matraquage médiatique dès le début du mois de mars 2020 (3m28s - 2020)
Lecture de la page d'accueil de deux sites belges "d'information" : lesoir.be et rtbf.be le 9 mars 2020. N.B : le premier décès attribué (à tort ou à raison) à covid-19 date du 11 mars ... [source].
Le graphique ci-dessous montre qu'au moment où les médias commençaient à matraquer la population avec ces messages ultra-anxiogènes, les statistiques de mortalité toutes causes non seulement ne montraient aucune mortalité anormale, mais même inférieure aux statistiques de 2018 et 2017 ! Ce n'est que sur la base de modèles mathématiques pourtant connus pour leur très forte propension aux "prévisions" catastrophiques (cf. #modeles-et-charlatanisme) que pour la première fois dans l'histoire moderne, une stratégie non médicale a été imposée aux populations (SNM : confinement, distanciation, masque, antisepsie, vaccination expérimentale) et cela au détriment de la stratégie médicale habituelle (SM : traitements curatifs précoces, si nécessaire au moyen de médicaments repositionnés, sur des populations ciblées). Par la suite, il en a logiquement résulté les effets pervers de cette situation sur la mortalité toutes causes (cf. supra #effets-pervers-strategie-non-medicale). C'est là un phénomène connu des économistes sous le nom de "prophétie autoréalisatrice".
Dans la section supra #covid19-fabrication-mediatique nous avons documenté d'autres exemples illustrant l'ampleur hallucinante du véritable matraquage médiatique infligé par la presse aux populations.
Les médias "d'information" ont en outre dénigré des informations contrecarrant le catastrophisme. Ainsi en mars 2020 le journal Le Monde a accusé Didier Raoult – premier expert mondial en matière de maladies transmissibles – d'avoir propagé des « fake news » dans sa vidéo annonçant la disponibilité d'un traitement curatif de l'infection à covid-19 [source] ! Cet acte médical posé par des journalistes est-il lié au fait que sur la seule année 2019 le journal Le Monde a reçu deux millions de dollars de Bill Gates, dont on sait qu'il est particulièrement favorable à la vaccination ? [source].
Réseau sociaux. Le même mois de mars 2020, YouTube (que l'on peut considérer comme média d'information "mainstream") a retiré une interview de John Ioannidis, professeur à l'université de Standford, et sommité mondiale en épidémiologie [h-index], accusant le professeur de désinformation (!) car celui-ci avait relativisé la gravité de l'épidémie ! [source].
Dans le contexte catastrophiste de covid-19, des médecins et infirmières du secteur hospitalier ont amplifié l'effet boule de neige en cédant à la panique (crainte de surcharge au pic de l'épidémie). Afin de revendiquer plus de moyens financiers pour les hôpitaux, de nombreux soignants ont participé à faire passer la surcharge de leur hôpital pour un phénomène national (alors qu'en réalité d'autres hôpitaux étaient quasiment inoccupés : cf. supra #gestion-capacite-hospitaliere). D'autres ont exagéré la gravité de leur situation. La presse a abondamment surmédiatisé ces "témoignages".
Il est frappant de constater que ce n'est pas la communauté scientifique qui a éveillé l'attention des médias "d'information", mais au contraire ceux-ci qui par leur puissance de feu ont suscité au sein de la communauté scientifique un état de sidération donnant l'illusion d'une unanimité scientifique concernant le danger supposé de covid-19.
En l'occurrence il est hallucinant et extrêmement inquiétant de constater que dans une apparente quasi unanimité, la communauté scientifique :
Les entreprises "d'information" n'ont aucune peine à attirer sur leur plateau ou dans leurs colonnes des scientifiques égotiques, espérant que la fréquentation des plateaux de télévision et les contributions dans les colonnes de la presse écrite leur permettra de briller sous les spotlights, tout en en alimentant le catastrophisme qui booste l'audimat. Il y a donc une coopération "gagnant-gagnant" entre ces scientifiques et le business de "l'info", dont le jargon comporte d'ailleurs une expression très révélatrice pour les qualifier : "bons clients" [quelques exemples pour la Belgique].
Les scientifiques de plateaux TV ont un profil psychologique addictif. La renommée médiatique est pour eux comme une drogue, dont-il ne peuvent plus se passer. Cette addiction est renforcée par le fait que les personnages médiatiques sont constamment l'objet d'avances sexuelles, y compris ceux au physique ingrat.
Pour décrypter (et même prévoir) le discours des scientifiques de plateaux TV, il suffit de comprendre que ceux-ci opèrent constamment une double sélection de leurs discours :
Il y a aussi des scientifiques qui servent de caution aux messages médiatiques dominants, en leur opposant sur les plateaux TV une "contradiction" de qualité généralement médiocre, et dont ils savent qu'elle n'est de toute façon pas médiatisée en proportion dominante.
Enfin le temps d'antenne et l'espace rédactionnel étant limités par de fortes contraintes liées à l'audimat et aux proportionnels revenus publicitaires, il en résulte que tout discours scientifique est simplifié à outrance, ce qui facilite son détournement en infos biaisées voire totalement fausses. Les motivations des experts de plateaux TV ne sont donc pas scientifiques mais égotiques ou/et sexuelles.
L'université d'Oxford est une illustration emblématique des conflits d'intérêts liés à la collusion entre milieu académique et grandes entreprises privées :
Quant à AstraZeneca, son influence est décidément considérable dans les universités. Ainsi l'Institute for Interdisciplinary Innovation in healthcare, un département de l'Université libre de Bruxelles (I3H), fut créé et est dirigé par le président de la AstraZeneca Foundation ...
Depuis 2000 la société AstraZeneca a été condamnée a plus d'un milliards de dollars d'amendes [source], notamment pour des faits de corruption [source].
L'expertise sans transdisciplinarité conduit généralement à un enfer pavé de bonnes intentions, tandis que la transdisciplinarité, même sans expertise, sera généralement plus pondérée par sa nature de "savoir intégrant". Le danger d'un savoir spécialisé déconnecté de la complexité du monde réel est parfaitement illustré par les cas de la France et de la Belgique, où des "experts" ont très rapidement capté le pouvoir politique effectif grâce à leur surmédiatisation ultra-anxiogène. Il en a résulté une surmortalité toutes causes parmi les plus élevées au monde en 2020.
Verdict de l'h-index : l'apologie du covidisme est-elle une stratégie de scientifiques de second plan pour sortir de l'anonymat ?
L'indice h correspond au nombre h le plus élevé tel que h publications ont au moins h citations. Ce h-index est fourni sur l’ensemble des citations et sur les cinq dernières années. Par exemple, un h-index de 19 signifie que l’auteur a 19 publications qui sont citées au moins 19 fois. Le h-index reflète donc à la fois le nombre de publications et le nombre de citations par publication. Pour comparer des scientifiques d'ages différents, on calcule l'indice sur les années récentes (ci-dessous, depuis 2017).
Anti-covidistes :
Covidistes :
N.B. Il faudrait évidemment une analyse statistique approfondie pour répondre à la question posée dans le titre de cet encadré. Malheureusement les résultats seraient fortement biaisés par les intimidations (censure, diffamation, ...) exercées sur les scientifiques contredisant le message médiatique dominant du covidisme.
Mais la compétence n'est pas tout : il y a aussi l'intégrité ...
De nombreux experts médicaux sont sous influence manifeste d'une industrie pharmaceutique (dont le poids dans l'économie de la plupart des pays est considérable et croissante). Cette influence est flagrante dans le deux poids deux mesures de l'application du principe de précaution entre vaccins (très rentables) et repositionnement de médicaments (nettement moins rentable). Ainsi d’un côté ces experts incitent à la prudence extrême avec l’hydroxychloroquine alors que celle-ci est connue depuis des décennies, et était en vente libre .... jusque début 2020 ! De l’autre côté, ces mêmes experts sont prêts à prendre des risques considérables avec notre santé en nous recommandant des produits au principe contesté (vaccins), tout en brûlant les étapes nécessaires à l’élaboration d’un nouveau produit sûr et efficace. Il faut alors poser la question suivante : la détention d'un portefeuille d'actions dans des entreprises d'IA, data mining, ou encore pharmaceutiques n'incite-t-il pas de nombreux scientifiques à infléchir leurs discours dans un sens qui maximise le rendement de leur portefeuille ?
Il est particulièrement frappant de constater que les pays européens avec la plus forte surmortalité toutes causes en 2020 sont généralement ceux dont le secteur pharmaceutique fait partie des plus importants en termes d'exportation [source]. Or force est de constater que dans ces pays la quasi totalité du milieu académique a fait preuve d'une révoltante servilité pour servir de caution scientifique à des gouvernements incompétents ou corrompus. Cela fut illustré de façon flagrante en Belgique, pays où le taux de mortalité toutes causes durant la crise de la covid-19 est parmi les plus élevés au monde. Ainsi l'École de Santé Publique de l'université libre de Bruxelles a remis le 15 juillet 2020 à la Première Ministre belge [source] un rapport évoquant un « contexte de pandémie extrêmement sévère, ayant entraîné des bouleversements majeurs au niveau économique et social, ainsi que sur la santé physique, mentale et sociale de leurs citoyens ». Ainsi donc ce n'est pas le confinement qui a mis à mal la santé mentale des citoyens et l'économie, mais une « pandémie extrêmement sévère » ! On ne s'étonnera donc pas de voir ces scientifiques "indépendants" conclurent par une affirmation dont nous avons montré qu'elle relève de la fraude scientifique (cf. #science-devoyee) : « tous les indicateurs démontrent la sévérité de l’épidémie dans notre pays, mais les données ne laissent aucun doute sur le fait que les conséquences auraient été encore bien plus dramatiques en l’absence des mesures drastiques qui ont été prises » .
Autres déclarations fantasques de ce rapport de l'ESP-ULB :
• « Cette épidémie est loin d’être complètement derrière nous ». Or nous avons montré l'incapacité des modèles épidémiologiques à prédire l'avenir (cf. #SIR-causes-inefficacite).
• « L'évolution très atypique d'un virus, qui affecte à peine une grande partie des personnes infectées tandis que d'autres meurent, et parfois après un épisode très douloureux, a fait de Covid-19 un intrus silencieux très difficile à combattre ». Or de nombreux virus "affectent à peine une grande partie des personnes infectées tandis que d'autres meurent, et parfois après un épisode très douloureux" ⇒ cette phrase est de la pure dramatisation de faits certes malheureux mais aucunement atypiques !
Avec le développement de la théorie des jeux ainsi que des techniques de marketing (cf. nudge marketing), s'est propagée au sein du milieu scientifique une dangereuse idéologie élitiste, selon laquelle il serait rationnel d'imposer la supposée "vérité scientifique" par la contrainte psychique plutôt que par le partage du savoir.
Ainsi le concept de nudge a été popularisé en 2008 suite à la publication du best-seller éponyme, puis par le prix Nobel d'économie récompensant en 2017 un de ses auteurs, Richard Thaler.
« De tous les facteurs influençant la rationalité des choix comportementaux, ceux ciblés par le nudge sont l’ignorance, l’inertie, l’acrasie (l’absence de volonté), le mimétisme (l’effet des pairs), la surévaluation du coût de la perte de ce que l’on possède par rapport au gain retiré du changement (endowment effect), l’émulation collective. Pour ce faire, l’environnement est organisé de manière à ce que le choix jugé le plus favorable à la santé ne soit pas contradictoire avec ces biais. Ainsi crée-t-on une "architecture des choix", rendant coûteux (nécessitant de la volonté ou une perte par exemple), compliqué (nécessitant des connaissances par exemple) ou désagréable (nécessitant de se distinguer du comportement dominant par exemple), le choix le moins favorable. »
Parmi les critiques formulée à l'encontre de cette technique d'ingénierie sociale il y a que « le sujet "nudgé" est orienté possiblement en contradiction avec son système général de valeurs ou de préférences (s’il est déterminé), et partant, avec ce qui le construit. Rien ne dit alors qu’il maintiendra ensuite ce comportement. Il est plus probable qu’il réintègre son système de préférences, conduisant à un risque de désorientation, de compensation et de fragmentation de la personnalité (sujet divisé, contradictoire, illogique) » [source].
En septembre 2019 l'OMS publie une étude intitulée "Préparation à une pandémie d'agents pathogènes respiratoires à fort impact", dans laquelle il est souligné avec insistance que cette pandémie pourrait être un acte de guerre non déclarée ou de terrorisme par un "individu scientifiquement avancé" [source]. Cette étude fut réalisée par le Center for Health Security de l'université privée Johns Hopkins (USA), laquelle école (fondée en 1998) fut la première organisation non gouvernementale à étudier la vulnérabilité de la population civile américaine aux armes biologiques et comment prévenir, préparer et réagir à leurs conséquences. [source].
L'université Johns Hopkins est tristement célèbre pour sa participation dans les années 1940 à un programme expérimental mené par les États-Unis au Guatemala dans lequel des centaines de cobayes humains composés de soldats, handicapés mentaux, prostitués, détenus de droit commun, ainsi que des orphelins, avaient été contaminés sans leur consentement pour vérifier l’efficacité de la pénicilline sur les maladies sexuellement transmissibles [source].
Pour l'OMS, le débat sur les vaccins doit être combattu, notamment par la diffamation en qualifiant les thèses critiques comme relevant de la "désinformation", et il faut recourir à la propagande afin de faire de la vaccination un dogme incontestable. Bien sûr l'OMS n'utilise par les termes "diffamation", "propagande" et "dogme", cependant c'est bien ce à quoi reviennent ses injonctions : « actions to build broad-based public support for immunizations, while tackling misinformation and hesitancy around vaccines where these exist » [source].
Des point notables de l'étude "Préparation à une pandémie d'agents pathogènes respiratoires à fort impact" :
Enfin l'OMS s'est associée à la Banque mondiale pour contraindre les gouvernements à instaurer (i) un pouvoir fort aux niveaux nationaux et mondial, ainsi (ii) qu'un système de propagande intense afin de "convaincre" les populations. En septembre 2019, le Global Preparedness Monitoring Board (GPMB) publiait un rapport annuel à fortes intonations catastrophistes, intitulé "Un monde en péril", et incitant les gouvernements à investir massivement dans la vaccination et le contrôle des populations [source].
On notera à cet égard que déjà en 2010 le British Medical Journal (BMJ) et le Bureau of Investigative Journalism de Londres ont révélé que plusieurs experts ayant participé à la rédaction des directives de l’OMS face à une pandémie grippale ont reçu des rémunérations de Roche et GlaxoSmithKline, deux firmes impliquées dans la fabrication de médicaments ou de vaccins contre la grippe [source1, source2].
Si l'on prend en compte la part de financement de Bill Gates dans l'Alliance GAVI, le fondateur de Microsoft est le second donateur de l'OMS [source]. Il est hautement probable que les motivations de Bill Gates sont moins financières (il n'est plus président du CA de Microsoft depuis 2014, et il détiendrait moins de 2% du capital de l'entreprise de logiciels informatiques, selon Wikipedia – source) que philanthropiques et idéologiques (élitisme oligarchique). Un fait plus important, au moins du point de vue géopolitique, est que les trois premières sources de financement de l'OMS (USA, Gates, UK) sont les archétypes de l'impérialisme économique néolibéral et atlantiste. Les motivations démocratiques et bienveillantes de Bill Gates ne doivent pas être surestimées, comme en témoigne l'intense "lobbying" exercé par Gates au début des années 2000 pour convaincre les décideurs politiques de nombreux pays de ne pas remplacer les produits Microsoft par des logiciels libres dans les administrations publiques, ce qui aurait provoqué l'effondrement de Microsoft, dès lors que dans un monde de plus en plus connecté le secteur privé a intérêt à adopter la solution technologique publique. Le surprenant succès de ce lobbying – alors que le rapport qualité/coût des logiciels libres est incomparablement supérieur à celui des produits Microsoft – pose de graves questions sur la nature de ce "lobbying" ...
Un des relais de l'OMS dans chaque pays est l'Ordre des médecins, qui menace de sanctions professionnelles les médecins portant préjudice aux vaccins "anti-covid", notamment en soulignant publiquement ou à leurs patients la nature expérimentale de ces vaccins (NB : depuis 2020 la durée moyenne avant mise sur le marché a été instantanément divisée par 18 (15*12/10) pour les vaccins "anti-covid" !).
Liste des membres du Conseil national de l'Ordre des médecins dans les pays de la francophonie : #donnees-nationales.
Déjà à la fin de l'épidémie de H1N1 (avril 2009 à août 2010), l'OMS avait été accusée (en l'occurrence par le Conseil de l'Europe) d'avoir aggravé la menace épidémique durant la pandémie de H1N1, de conflits d’intérêts et de gaspillage de fonds publics : (...) « il ne fait aucun doute que les procédures d’évaluation et d’autorisation accélérées utilisées dans la gestion des vaccins ont renforcé l’exposition des gouvernements nationaux à une éventuelle pression des groupes pharmaceutiques et au soupçon d’abus d’influence sur les décisions en matière de santé publique. (...) Ces soupçons ont également été alimentés par le fait que l’industrie pharmaceutique avait tout intérêt à ce qu’une pandémie soit déclarée et que des campagnes de vaccination soient lancées » [source].
Une fois mis au pied du mur par l'hystérie médiatique, la plupart des gouvernements s'y sont soumis. Le phénomène covidiste suggère ainsi un transfert massif de pouvoir, des gouvernements vers la presse.
En France, entre le 1er septembre et le 20 octobre 2020, 7.600.000 tests ont été pratiqués. Sur cette même période, 38.000 individus ont été hospitalisés (0,5 %) et 6.600 ont été admis en réanimation (0,09 %) avec un test positif au Covid [source]. En d’autres termes, la probabilité moyenne pour chaque individu lambda (sans distinction d’âge ou de comorbidité) de ne pas être hospitalisé est de 99,5 % et celle de ne pas être admis en réanimation est de 99,91 % ! C'est sur cette base que le président Macron a décidé fin octobre de 67 millions de français sans distinction d’âge ou de comorbidité en confinement et couvre-feu !
Mais peut-être les décideurs politiques (ou leurs "sponsors") ont-ils aussi vu dans l'hystérie collective une opportunité pour faire avancer des mesures controversées (vaccination obligatoire, traçage de nos relations, ...). Ce qui nous conduit à la section suivante ...
En suscitant une paranoïa collective, la décision d'imposer le confinement général a fortement stimulé le marché des vaccins ainsi que celui du big data (le traçage des individus est une source de revenus gigantesques pour les entreprises qui collecteront et revendront ces données). Le "LancetGate" illustre parfaitement les dérives auxquelles peut conduire l'appât du gain.
LancetGate. Surgisphère est une société de Big Data dont les données mensongères ont été utilisées pour produire (en mai 2020) deux articles scientifiques discréditant l'hydroxychloroquine comme traitement de covid-19 [article-1, article-2]. Parmi les auteurs de ces deux articles figurent Sapan S. Desai, fondateur de Surgisphère, et Mandeep Mehra, qui avait collaboré avec la société pharmaceutique Gilead Science. Mehra a menti en déclarant n'avoir pas de conflits d'intérêts : en avril 2020 il avait participé à une conférence sponsorisée par Gilead et concernant covid-19 [source]. Des conflits d'intérêt entre Mehra et des entreprises pharmaceutiques, dont Gilead et Bayer, avaient été mentionnés en 2013 [source]. Malgré le caractère évident des fraudes (cf. vidéo ci-dessous) les deux articles de mai 2020 furent publiés dans des revues scientifiques réputées : The Lancet pour le premier article et New England Journal of Medicine pour le second. Ces revues furent contraintes de se rétracter [rétractation-1, rétractation-2]. Mais le plus incroyable, c'est que malgré cette rétractation de nombreux gouvernements qui avaient interdit l'hydroxychloroquine suite à l'article du Lancet ont ... maintenu l'interdiction !
Commentaires de Didier Raoult sur le "LancetGate" (15m26s - 2 juin 2020)
Fin juin 2020 l'Agence européenne des médicaments (EMA) publia un avis recommandant l'autorisation du Remdesivir, un médicament concurrent de la Chloroquine (et beaucoup, beaucoup plus cher) produit par ... Gilead [source] ! En avril 2020, la même EMA avait publié un avis défavorable à la Chloroquine [source], alors que sur la seule année 2019 trente six millions de comprimés de ce médicaments avaient été consommés dans le monde, sans ordonnance [source] !
De nombreux chercheurs du secteur médical sont intoxiqués par des sources d'informations "scientifiques" formatées et conditionnées par l'industrie pharmaceutique, et ont en outre des conflits d'intérêt avec elle.
On constate à la lecture de cet article de la RTBF (radio-télévision belge publique) (i) que la réglementation sur les conflits d'intérêt est en réalité la légalisation des conflits d'intérêt ; (ii) l'absence totale de sens critique de la RTBF, qui en outre présente des charlatans notoires comme des références morales.
Compte tenu de la dépendance élevée du secteur pharmaceutique à l’égard des décisions des pouvoirs publics dans de nombreux domaines (réglementation sanitaire, mise sur le marché de nouveaux médicaments, protection des innovations, fixation des prix, remboursement des médicaments, etc.), les entreprises du secteur déploient d’importants moyens pour tenter d'infléchir en leur faveur les décisions publiques qui les concernent. La concentration à l’œuvre dans l’industrie pharmaceutique a peu à peu permis aux grands groupes, qui disposent de moyens de plus en plus considérables face aux États, de développer et de professionnaliser leurs activités de lobbying. En 2014, l'industrie pharmaceutique a déclaré environ 40 millions d’euros de dépenses en lobbying auprès des institutions européennes, soit quinze fois plus que les associations de consommateurs dans le domaine de la santé, ce qui donne un aperçu du rapport de force à l'oeuvre dans le secteur [source].
Selon une étude publiée en 2019 par l'ONG Corporate Europe Observatory (CEO) les groupes pharmaceutiques disposent de dizaines de laissez-passer pour le Parlement européen, et organisent régulièrement des réunions avec des membres haut placés de la Commission européenne. L'ONG souligne que ces groupes industriels du médicament « savent lancer des messages très alarmistes dès qu'un changement de réglementation ne se fait pas à son avantage, et jouer sur l'émotion pour accentuer la pression » [source].
Or force est de constater à quel point la gestion de covid-19 par de nombreux appareils d'État (gouvernement, scientifiques de plateaux TV, presse, ...) est cohérente dans la combinaison de ses effets favorables au business pharmaceutique :
(*) Cf. l'accusation portée par le journal Le Monde à l'encontre du Pr. Raoult, premier expert mondial en matière de maladies transmissibles selon l'indice expertscape, que le journal a accusé de propager une "fake news" (sic) en annonçant les résultats d'une étude scientifique suggérant l'efficacité d'un traitement curatif non spécifique pour covid-19 : source).
CEPI. Il importe alors d'évaluer le rôle joué par des organisations telles que la "Coalition pour les innovations en matière de préparation aux épidémies" (CEPI). Cette fondation, créée à l'occasion du forum économique mondial 2017 [source], est dotée par des dons provenant d'États, d'organisations philanthropiques et d'organisations de la société civile, et constituée en vue du financement de projets de recherche pour raccourcir le temps de développement de vaccins contre des agents infectieux émergents [source p.70].
Les vaccins à base d'acide nucléique, par exemple, sont facilement adaptés pour de nouvelles cibles en changeant simplement la séquence nucléotidique. En outre les tests de sécurité sont simplifiés si ces vaccins sont classés comme "produits chimiques à petites molécules" ... [source p. 53].
On notera que le CEPI n'est donc pas intéressé par le développement de médicaments : la préférence est clairement donnée à la prévention plutôt qu'au traitement curatif, c-à-d à l'action massive (puisqu'on ne peut prédire qui sera infecté) plutôt qu'à l'action réactive ciblée sur les seuls individus infectés et symptomatiques. Autrement dit la priorité est donc donnée à la maximisation des profits de l'industrie pharmaceutique plutôt qu'à la santé publique.
GAVI. Quant à l'Alliance du Vaccin (gavi.org) dont les financiers sont l'OMS, l'UNICEF, Bill Gates et la Banque Mondiale [source], son objectif est d'organiser la vaccination de masse.
Sur la corruption de la science médicale par la l'industrie pharmaceutique
Une méta analyse de la Cochrane Library a montré que lorsqu'une société pharmaceutique parraine une recherche, les résultats et conclusions en faveur de cette société sont augmentés en moyenne par un facteur de 1,3. [source]. De même les conflits financiers au sein des comités produisant des guides de pratique clinique ont tendance à produire des recommandations qui favorisent les entreprises et les industries concernées [source1, source2]. Les cadeaux faits sous diverses formes aux médecins influencent la prescription [source]. Les essais industriels avec des résultats positifs sont surreprésentés dans les revues médicales, et ceux avec des résultats négatifs sont sous-représentés, ce qui entraîne des biais de publication importants (cf. tabac, antidépresseurs, ...) [source]. On peut conclure que les conflits financiers impliquant l'industrie affectent le jugement des chercheurs et des médecins [source].
Condamnations. Quasiment toutes les plus grandes entreprises pharmaceutiques ont déjà été condamnées pour des faits de corruption : Gilead, Pfizer, AstraZeneca, GSK, ... [source]. Cependant si les amendes infligées ne représentent qu'une partie des bénéfices générés via la corruption, alors elles ne sont en réalité que des "taxes" sur la corruption. La prison ferme pour les PDG, ou (de préférence) la nationalisation serait une mesure bien plus efficace.
Il n'y a pas que le simple "conflit d'intérêt". L'influence de l'industrie pharmaceutique sur la science médicale est bien plus profonde : elle est structurelle. Ainsi la plupart des essais cliniques parrainés par les sociétés pharmaceutiques sont conçus, organisés, audités, analysés et rédigés par les entreprises et leurs sous-traitants engagés. Tout cela est un travail qui se déroule dans les coulisses, et est drapé des habits scientifiques et éthiques de publications académiques. Il s'agit donc de structures d'influence et de contrôle, qui ont pour effet que le prétendu «parrainage» de la recherche "indépendante" par l'industrie est en réalité un contrôle direct de la seconde sur la première [source1, source2].
Même lorsque les recherches "parrainées" par une entreprise pharmaceutique ou un consortium sont dirigées par des acteurs universitaires et réalisées par des cliniques indépendantes, des hôpitaux et des centres médicaux universitaires, il apparaît en réalité qu'entre les deux opère généralement une "société de recherche contractuelle", commanditée par "big pharma", et qui chapeaute le travail des scientifiques et médecins "indépendants". Ces derniers ne sont pas toujours conscients des subtilités de ces business modèles. Ainsi le chapeautage consiste souvent dans la finalisation des analyses statistiques, et leur présentation finale dans des publications sur lesquelles les chercheurs indépendants n'ont quasiment pas de contrôle.
Les entreprises pharmaceutiques emploient également des milliers de leaders d'opinion clés qui via, des conférences (souvent accompagnées de cadeaux sous des formes subtiles) présentent aux médecins invités les résultats de recherches cliniques récentes [source].
Ce business modèle est parfois appelé «gestion fantôme de la recherche médicale" [source1, source2, source3, source4].
Dans la gestion fantôme de la recherche, les conflits d'intérêts ne représentent qu'une partie de la corruption du système médical par l'industrie pharmaceutique. Celle-ci contrôle l'ensemble de la chaîne de production de produits et services médicaux : (recherche de base --> analyse statistique --> publication), tout en fagocitant le milieu académique afin de bénéficier de son image de compétence et d'intégrité, et d'ainsi légitimer ce que l'on pourrait appeler un business modèle du charlatanisme. Le contrôle du système médical par l'industrie médicale semble aujourd'hui total, notamment par la création de normes de recherche coûteuses (dont les essais randomisés), qui constituent une barrière à l'entrée de concurrents sur le marché (... et alourdissent considérablement la dette publique des États). Il est donc hautement probable que la corruption concerne également les décideurs politiques, "encouragés" à rejeter la création d'entreprises pharmaceutiques 100% publiques, dont l'objectif ne serait pas la maximisation des profits.
Cet encadré est largement inspiré de l'article de Sergio Sismondo : "Epistemic Corruption, the Pharmaceutical Industry, and the Body of Medical Science".
Voir aussi : eurosfordocs.fr, base de données sur les conflits d'intérêt dans le secteur médical.Le potentiel financier et politique du "Big data" est tel (il concerne la quasi totalité des secteurs économiques) que de très fortes pressions ont pu être exercées sur les décideurs politiques afin que ceux-ci profitent de la vague médiatique catastrophiste de covid-19 pour amener les populations à accepter le traçage de leur vie privée.
On notera à cet égard que les géants du web ambitionnent de remplacer les médecins par la combinaison du "big data" et de "l'intelligence artificielle" (IA). Le progrès technologique peut certes améliorer les techniques médicales, mais à condition que cette évolution ne soit pas détournée et captée par des intérêts privés. Il importe que soient préservés (i) le contact humain entre patient et personnel soignant, ainsi que (ii) l'art de la médecine, consistant, sur base de ce contact humain personnalisé, à adapter une thérapie à chaque cas particulier (NB : ce qui est antagoniste avec l'approche globalisante du "big data", sur laquelle repose l'IA). C'est donc bien la technologie qui doit être au service du couple patient-médecin, et non l'inverse !
Cette hiérarchie ne pourra être garantie sans le contrôle démocratique des moyens de production de masse de l'IA, du big data et de médicaments. Ce contrôle démocratique requiert :
N.B. Il s'agit de l'AU de notre modèle synthétique, dont environ 12 % correspond à la symétrisation de la création et allocation monétaire, c-à-d création à rythme constant, et distribution gratuite et en parts égales entre les seules personnes physiques.
En effet, force est de constater les rapports privilégiés qu'entretiennent les propriétaires des GAFAM avec les décideurs politiques de nombreux pays (cf. encadré en fin de section), ce qui n'est certainement pas étranger au fait que la levée du harcèlement des populations au moyen de la stratégie non médicale (SNM : confinement, distanciation, masque, antisepsie, vaccination expérimentale) est conditionnalisée à "l'acceptation" du principe de vaccination généralisée, qui implique inéluctablement le "passeport vaccinal", lequel est par nature lié à une application de traçage, c-à-d la surveillance systématique de nos activités sociales.
Le fait que la vaccination n'est pas obligatoire légalement ne change évidemment rien au fait qu'en pratique la quasi totalité de la population est forcée et contrainte de l'accepter.
Covidisme ⇒ tracing. Voilà où conduit le covidisme. Voilà ce que les propriétaires de méga entreprises du "big data" (c-à-d la classe dirigeante) entendent par "nouvelle normalité" du "monde d'après".
Big business et corruption d'État ?
En 2005, à l'occasion de sa visite à la Commission de l'UE, Bill Gates [source], PDG de Microsoft, a été reçu en chef d'État par Herman De Croo, président du Parlement belge !
Le PDG de Microsoft a réussi à "convaincre" les décideurs politiques belges de ne pas remplacer les logiciels Microsoft (en particulier le système d'exploitation) par des logiciels libres dans l'administration publique, et cela alors que le ratio qualité/prix des logiciels libres est incomparablement plus élevé que celui des logiciels propriétaires de la société US. L'appareil d'État belge (gouvernement, presse, université, ...) a présenté les faits de façon à noyer le poisson [exemple1, exemple2].
Le fils d'Herman De Croo, Alexander De Croo, est l'actuel Premier ministre belge... Lorsqu'il fut ministre des télécommunications, Alexander avait déjà perpétué la tradition familiale d'intermédiaire, cette fois pour livrer aux banques et opérateurs télécom les données du registre national de la population, via le consortium itsme [source].
Ces faits contrastent avec l'optimisme "respectable et bien pensant" de ce texte de présentation d'une conférence organisée par l'Académie royale de Belgique en 2021 sur le thème "L’avenir du médecin à l’ère de l’intelligence artificielle" : « Les développements majeurs que nous allons connaitre grâce à l’intelligence artificielle (IA) vont-ils rendre les médecins (quasi) inutiles? La question doit être sérieusement posée. Grâce au « machine learning », les systemes informatiques sont déjà meilleurs que les spécialistes dans certains examens de routine (interprétation de radiographies, examens de l’œil…), certains diagnostics (combinant les différents symptômes et tests disponibles) et même les traitements les plus adaptés, aux doses les plus adequates. Plus encore, les algorithmes permettent déjà d’identifier les risques d’affection ou de complications et d’appliquer les traitements préventifs ou préemptifs appropriés. Seuls les actes techniques sophistiqués seront encore posés par le médecin spécialiste, mais l’efficience sera augmentée par des procédures à distance. A l’avenir, beaucoup de consultations se feront directement par les programmes proposés par les géants de l’informatique (« GAFA »), qui se préparent à leur rôle majeur dans le domaine de la santé. Au total, le rôle du médecin sera de moins en moins dans l’objectif et de plus en plus dans le subjectif, en tenant compte des préférences individuelles de la personne. Le médecin sera plus disponible pour informer, conseiller et accompagner le patient et ses proches. Nous aurons toujours besoin de médecins et ils seront davantage disponibles. » [source].
Pourquoi les banques sont-elles favorables au covidisme ? Parce que la faillite des débiteurs entraîne la saisie de leurs biens (généralement immobiliers) qui ont été mis en gage pour obtenir des prêts. Étant donné qu'un crédit bancaire n'est qu'une écriture comptable [approfondir], la faillite du débiteur permet ainsi de transformer du papier en richesse réelle dès lors que celle-ci est transférée du débiteur au créditeur.
La hausse du portefeuille immobilier de la banque lui permet alors des investissements risqués (donc potentiellement plus rentables), ce qui booste la bourse. Lorsque de grosses bulles spéculatives éclatent, elles provoquent généralement une crise économique. Les Banques centrales créent alors de l'argent ex-nihilo qu'elles "prêtent" (en réalité donnent) aux banques, ce qui les incite évidemment à recommencer.
C'est comme cela que les classes dirigeantes du monde entier s'enrichissent le plus. Solution : nationaliser le secteur bancaire [approfondir], gérer les banques sous statut de coopératives bancaires [approfondir], organiser la création monétaire sur base de l'allocation universelle [approfondir].On notera enfin la similitude flagrante entre d'une part les liaisons incestueuses entre le FMI et le secteur bancaire, et d'autre part le même type de liaisons incestueuses entre l’OMS et le business pharmaceutique :
Le Forum économique mondial est un club privé se réunissant régulièrement pour débattre des affaires du monde. Il se décrit comme « l’organisation internationale qui œuvre à la coopération entre le secteur public et le privé » [source]. Les participant sont des grandes entreprises, des cadres d'institutions internationales, des décideurs politiques ou encore des ONG. Les intentions affichées sont certes bienveillantes (limiter les écarts de richesse, protection de l'environnement, ...), cependant elles reposent sur une conviction tacite : le monde doit être façonné par une élite. Or cette conviction conduit inéluctablement à une société privilégiant une minorité "d'élite" au détriment du reste de la population (c-à-d la quasi totalité). Cela est d'autant plus problématique que cet entre-soit a pour effet de réduire la pertinence des décisions (y compris pour les décideurs), par inhibition de l'effet d'émergence.
Le FEM présente ainsi son initiative de "Great Reset" (sic) : « Contexte. La crise de Covid-19 et les bouleversements politiques, économiques et sociaux qu'elle a causés changent fondamentalement le contexte traditionnel de la prise de décision. Les incohérences, les insuffisances et les contradictions de multiples systèmes – de la santé et des finances à l'énergie et à l'éducation – sont plus exposées que jamais dans un contexte mondial de préoccupation pour les vies, les moyens de subsistance et la planète. Les dirigeants se trouvent à un carrefour historique, gérant les pressions à court terme contre les incertitudes à moyen et long terme. Opportunité. Alors que nous entrons dans une fenêtre d'opportunité unique pour façonner la reprise, cette initiative offrira des informations pour aider à informer tous ceux qui déterminent l'état futur des relations mondiales, la direction des économies nationales, les priorités des sociétés, la nature des modèles commerciaux et la gestion d'une communauté mondiale. Tirant parti de la vision et de la vaste expertise des dirigeants engagés dans les communautés du Forum, l’initiative Great Reset dispose d'atouts divers pour construire un nouveau contrat social qui honore la dignité de chaque être humain. » [source].
Le biais élitiste et anti-démocratique est flagrant dans ce texte, qui n'est pas sans rappeler le concept de "nouvelle normalité" que les médias d'information nous ont asséné dès le début de la pandémie (et alors que nous avons montré l'impossibilité de prédire l'ampleur que prendra une épidémie ⇒ quel est le sens de ces notions de "nouvelle normalité" et de "Grand Reset" ?).
D'autre déclarations collectées sur le site du FEM [source] :
Ce "Grand Reset" n'est donc manifestement pas voué à développer la démocratie, mais au contraire à plus de contraintes policières, et toujours moins d'entreprises publiques. On notera enfin que l'interprétation de la crise de la covid-19 par le business de "l'info" est exactement celle du FEM, et très éloignée de la présente étude. Voilà qui illustre à nouveau l'effet d'émergence : une élite n'est véritablement utile à la société que dans le cadre d'une véritable démocratie, telle que définie dans democratiedirecte.net/definition
Depuis 2015 la Chine est la première puissance économique mondiale en terme de PIB mesuré en PPA [source]. Il suffit d'observer les messages anti-chinois propagés par les entreprises "d'information" occidentales pour constater que cette concurrence déplaît fortement aux classes dirigeantes des pays atlantistes. Alors que jusqu'au début des années 2000 le libre-échange international était la pierre angulaire de l'idéologie atlantiste, on assiste à un rétro-pédalage intégral de la part des pays atlantistes depuis que cette logique se retourne contre eux. Pour "justifier" ce retournement de veste, la prégnance du réchauffement climatique et le risque épidémique ont manifestement été amplifiés par les entreprises "d'information" occidentales ainsi que par les dites "organisations non gouvernementales".
Sur l'exploitation médiatique du réchauffement climatique : konfedera.org/developpement-durable#rechauffement-climatique.
Klaus Schwab accueillant le président chinois au FEM 2017.
Mais comment alors interpréter la participation, en 2017 et 2021, du président chinois Xi Jinping à la réunion annuelle du club privé atlantiste dénommé "Forum économique mondial" ? Selon moi la grille de lecture "libéralisme/communisme" est moins pertinente que celle de l'option d'une globalisation pacifique des classes dirigeantes. On comprend alors toute la pertinence de la Konfédération, consistant à ne pas abandonner aux classes dirigeantes le champs de ce processus naturel qu'est la globalisation.
On peut certainement se poser le questionnement suivant :
Nous allons ici approfondir la première partie de ce double questionnement, au travers du principe (mais ne faudrait-il pas plutôt parler d'idéologie) de "zéro surmortalité" (NB : qui n'est pas très éloigné de la notion d'immortalité). Pour ce faire considérons deux cas de figures correspondant chacun à l'une des deux stratégies théoriques SNM et SM (cf. supra #SIR-strategies) :
Les forces extrêmement puissantes qui en 2020 ont réussi à imposer la SNM s'appuyaient sur un argument implicite qu'on pourrait qualifier de "zéro mortalité épidémique" et qui s'oppose au principe (lui aussi implicite) qui était la norme avant 2020, à savoir un "nombre tolérable de victimes". Celui-ci peut à priori paraître scandaleux ou auto-destructeur, et pourtant nous l'appliquons en n'interdisant pas le transport routier (PS : les accidents de la route constituent une des dix premières causes de mortalité).
Dans ces conditions idéologiques, la SNM risque fort d'être appliquée en permanence. Il y a en effet une vingtaine de virus associés aux seules infections respiratoires qui circulent dans le monde [source], causant tous des victimes. En outre le nombre des virus connus augmente avec le progrès scientifique [source]. D'autre part des infections peuvent se transmettre pendant plusieurs dizaines d'années, avant de s’atténuer et de disparaître [source].
En août 2020 le webzine futura-sciences.com écrivait « Est-ce que l'émergence des maladies infectieuses peut être liée au changement anthropique de l'environnement ? La réponse semble être positive » [source]. Ainsi en une vingtaine de mots l'association est faite entre changement "de l'environnement" (sic), épidémies et activité humaine ...
Décroissants. L'extrémisme vert commence-t-il à prendre des proportions inquiétantes, notamment dans le milieu des universités ? Se pourrait-il que des scientifiques enfermés dans leurs convictions se soient convaincus de la nécessité de manipuler l'opinion publique au nom de ce qu'ils perçoivent comme la "protection de l'environnement" ? J'invite le lecteur qui croirait que j'exagère à lire ce cas que j'ai personnellement constaté et documenté.
Vers une fusion écologisme-libéralisme ? Ainsi les écologistes pourraient voir dans le totalitarisme SNM un moyen d'imposer la décroissance aux populations. On pourrait alors assister en occident à une fusion idéologique entre écologisme et libéralisme atlantistes dès lors que pour celui-ci la décroissance serait le prix à payer pour neutraliser la Chine (cf. supra #covidisme-forces-atlantisme). Cette fusion pourrait même se globaliser à l'ensemble des classes dirigeantes de la planète : ainsi dans un communiqué de janvier 2021, le Secrétaire général de l’ONU (António Guterres) n'évoque que de nouveaux vaccins comme solution médicale contre la covid-19. À aucun moment il n'évoque l'option des médicaments, et encore moins l'utilisation de médicaments repositionnés ! [source].
PIB jusqu'au second trimestre 2020
Entre les deux confinements l'économie française c'est contractée de 4%. La contraction provoquée par le second confinement devrait être du même ordre de grandeur que lors du premier : -20%. C'est de très loin la plus grave crise économique depuis la seconde guerre mondiale. [source].
Enfin l'IPBES, association intergouvernementale soutenue par l'ONU, estime dans un rapport publié en octobre 2020 que prévenir les pandémies plutôt que les guérir serait "cent fois moins coûteux". Le rapport ne mentionne pas expressément la stratégie préventive souvent qualifiée de "non pharmaceutique" (confinement, distanciation, masque, antisepsie, vaccination expérimentale), citant essentiellement des mesures liées à l'exploitation de l'environnement et au commerce d'animaux. Cependant la photo ci-contre, extraite du rapport [source], évoque sans ambiguïté la SNM. On notera que ce rapport, fruit d’un atelier en ligne organisé en juillet 2020, fut réalisé en urgence par 22 experts sans passer par le processus usuel d’approbation intergouvernementale ... [source]. Selon ce rapport il existerait encore 1,7 million de virus "non découverts" chez les mammifères et les oiseaux - dont près de 850.000 pourraient avoir la capacité d’infecter les humains. Ces experts estiment que des pandémies telles que celle de la covid-19 pourraient devenir récurrentes. On notera le recours systématique au conditionnel, et surtout l'évaluation du nombre de virus ... non découverts ! Ainsi donc on ne connaît pas leur existence mais l'on serait capable de les compter et d'évaluer leur contagiosité pour l'humain !
Notons que l'IPBES est défavorable à l'utilisation de vaccins ainsi qu'aux médicaments comme moyen de lutte anti-épidémique, en raison des effets de leur production sur l'environnement. Ce dernier fait renforce notre thèse que le covidisme ne se résume pas à un complot organisé par big pharma, et qu'il s'agit plutôt d'un phénomène multifactoriel où se mêlent divers intérêts convergents (auto-organisation).
Dictature verte. On pourrait ainsi régresser vers une "dictature verte", comme le souhaitent publiquement des scientifiques : « Le changement climatique, la pollution et la chute de la biodiversité, vont avoir un impact socioéconomique croissant sur nos sociétés. Réduire cet impact en agissant sur les causes et s'y adapter nécessitera de prendre des mesures qui, à n'en pas douter, n'auront rien d'agréable. Certains comportements ou activités, banals aujourd'hui, devront être interdits ou lourdement pénalisés. Notre futur dépendra donc de la capacité des décideurs politiques à faire appliquer des décisions impopulaires dans l'intérêt du plus grand nombre. Le retour de l'état régulateur dans un contexte de crise sanitaire et de changement climatique va s'accompagner d'une profonde rupture du mode de gouvernance. Sur ces problématiques, la légitimité des décisions ne pourra reposer sur une simple compétition d'opinions. Car le processus démocratique mène généralement à privilégier les mesures les plus acceptables par le plus grand nombre » [source].
Ces exemples illustrent la préexistence, avant 2020, de mécanismes de propagande idéologique et de collusion entre pouvoirs politiques et business de "l'info". Ces mécanismes ont joué une rôle de catalyseurs d'irrationalité et d'auto-organisation, dans ce phénomène complexe qu'est le covidisme.
L'encadré ci-dessous illustre le même phénomène au niveau d'un pays.
Manifestation d'État pour le climat
Dès le 1° octobre 2021, l'appareil d'État belge (gouvernement, presse, "ONGs", ...) a fait massivement la promotion d'une « marche pour le climat » ayant lieu le 10 octobre à Bruxelles [1].
Les chemins de fer (SNCB) ont ainsi mis en place des trains supplémentaires à destination et au départ de Bruxelles pour « compenser l'affluence à la marche pour le climat » (sic) prévue à Bruxelles le dimanche 10 octobre. La Stib, la société de transport public bruxelloise, a annoncé que son réseau sera gratuit le 10 octobre entre 12 et 19 heures (sans doute aussi pour "compenser l'affluence à la marche pour le climat" ...). Les portes d'entrée du métro seront temporairement ouvertes et les valideurs seront mis en mode inactif [source1, source2].
Posons-nous cette question : lorsque l'État organise une manifestation, c'est pour envoyer un message à lui-même, ou pour conditionner la population ... ?
P.S. : pendant ce temps, le gouvernement – avec la complicité des pouvoirs législatif et judiciaire – est en train de poser les bases "légales" du traçage systématique des citoyens...
C'est un fait largement documenté, le pourcentage des pervers narcissiques au sein de la population a considérablement augmenté depuis le début de ce siècle. Or, force est de constater que le covidisme constitue pour les pervers narcissiques un environnement où ils sont comme des pois(s)ons dans l'eau. En particulier la jouissance manifeste des experts de plateau TV illustre ce phénomène : la perversion narcissique joue un rôle très important dans le phénomène covidiste.
Le covidisme est-il le fait de pervers narcissiques ?(4m04s - avr. 2021)
La vidéo suivante illustre parfaitement la perversité de la stratégie de la peur.
Covid-19 : comment créer une atmosphère anxiogène. (1m36s - mars 2020)
Chaque jour à 11 heures le gouvernement belge organise une conférence de presse, présentée par des scientifiques, et consistant essentiellement à mentionner des statistiques biaisées (cf. supra #mesure), et à terroriser la population au moyen de messages focalisant sur des cas particuliers ultra-anxiogènes.
Fuite en avant. La "logique" du sanitarisme covidiste est par nature vouée à s'exacerber toujours plus : avec le progrès technologique on découvrira toujours plus de "nouveaux" virus, et pour chacun d'eux on découvrira toujours plus de "variants" et de "particularités exceptionnelles".
La base de données uniprot.org recense les séquences de deux cent millions de protéines différentes ... et le compte augmente d'environ trente millions chaque année ! (PS : à cet égard on peut se demander si le développement du logiciel AlphaFold n'aurait pas joué un rôle dans l'émergence du covidisme : la société britannique qui a développé AlphaFold – DeepMind – a ainsi été rachetée par ... Google).
On ne sera jamais assez confinés, distants, masqués, aseptisés ... ou vaccinés (et donc tracés par le "passe sanitaire"). Par conséquent les gouvernements devront accroître toujours plus la peur et la répression, afin que la population fasse "suffisamment d'efforts". Le covidisme est ainsi voué à s'auto-détruire, mais après avoir causé un grand nombre de victimes, provoquées par les effets pervers de la stratégie de la peur (gestion-epidemies#effets-pervers-SNM > section 7.3.3).
Nous allons ici synthétiser les causes et effets du covidisme, puis proposer des mesures de neutralisation.
Causes. Un fait difficilement contestable est la puissance des forces qui ont conduit au covidisme. Ces forces sont notamment caractérisées par la fusion des milieux journalistiques et scientifiques autour de "raisonnements" et de mesures dont l'absurdité et la nature délétère sont pourtant flagrantes. Ni l'incompétence ni de possibles complots ne constituent d'explications satisfaisantes ou du moins suffisantes. Nous pensons plutôt à une forme d'hypnose collective, probablement liée à la télévision (cf. la notion d'info-dépendance), et mêlée à des forces pas nécessairement coordonnées, mais convergentes.
D'autre part, la volonté manifeste des appareils d'État d'influencer l'opinion publique (notamment en entretenant la peur) et d'entraver la voie des traitements (notamment repositionnés) au profit de la seule voie vaccinale (nettement plus profitable aux entreprises pharmaceutiques) pose une grave et légitime question : jusqu'où n'importe lequel des groupes constitutifs de l'appareil d'État (gouvernement, presse, autorités scientifiques et médicales,...) est-il prêt à aller dans la manipulation pour arriver à ses fins (quelles qu'elles soient) ? En particulier ces groupes d'intérêts – qui depuis la crise de la covid-19 ne sont plus sous contrôle démocratique (à supposer qu'ils l'aient jamais été) – sont-ils prêts pour ce faire à produire des analyses sciemment biaisées, voire de fausses statistiques ?
Effet : risque très réel d'instauration progressive d'un totalitarisme sanitaire durable et global.
Neutralisation :
0 commentaires.
Laisser un commentaire
Une publication de François Jortay