Les modèles du Premier ministre se révèlent… faux !

Le confinement tel que pratiqué en France ne permettrait pas de réduire significativement la mortalité par rapport à d’autres approches plus ciblées.

Partager sur:
Sauvegarder cet article
Aimer cet article 0
Edouard Philippe 3 by Jacques Paquier On Flickr (CC BY 2.0)

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Les modèles du Premier ministre se révèlent… faux !

Publié le 12 mai 2020
- A +

Par Jean-Pierre Nordmann.

 

Dès les premiers mots de son discours à l’Assemblée nationale le 28 avril 2020, le Premier ministre s’appuie sur un rapport de l’EHESP daté du 22 avril 2020, et évoque un rapport de l’Institut Pasteur du 20 avril 2020.

Or, dès la semaine suivante, les chiffres semblent prouver que ces modèles étaient erronés. Comment est-ce possible ?

Des modèles au cœur de la stratégie de déconfinement du gouvernement

Dès les premiers mots de son discours à l’Assemblée nationale le 28 avril 2020, le Premier ministre cite un rapport de l’EHESP1 prouvant que le confinement aurait évité 62 000 décès et que 105 000 lits de réanimation auraient manqué. Quelques mots plus loin, il indique que « nous sommes loin d’avoir atteint la fameuse immunité de groupe », s’appuyant sur le rapport de l’Institut Pasteur du 20 avril 2020, fortement relayé dans la presse nationale, concluant que seulement 5,7 % de la population aurait été contaminée ; et 12,3 % des Franciliens.

Or, moins de deux semaines après, les chiffres semblent controversés : le confinement tel que pratiqué en France ne permettrait pas de réduire significativement la mortalité par rapport à d’autres approches plus ciblées. Une pré-étude sur les cas constatés de Covid, réalisée par les prestigieuses Universités de Zürich et Bâle, nous indique par exemple que la décision de lockdown, en complément d’autres actions, ne réduit que de 5 % le nombre de nouveaux cas parmi les 20 pays étudiés (dont la France), un impact bien moindre que celui d’autres mesures moins contraignantes (interdiction des rassemblements, fermeture des frontières, etc).

Certains médecins prétendent même que l’épidémie semble prendre fin dans certaines régions touchées par la première vague, laissant perplexe2 quant à l’hypothèse d’une seconde vague à ces mêmes endroits.

La modélisation de l’EHESP du 22 avril 2020 peut questionner

Ce rapport, qui avait été abondamment repris par la presse, est cité par le Premier ministre le 28 avril 2020 pour introduire la présentation de la politique de déconfinement devant les députés. La politique de confinement telle que menée en France aurait sauvé au moins 62 000 vies.

Problème n°1

Ce modèle ne présente qu’une modélisation binaire : soit il n’y a aucun confinement (l’épidémie poursuivrait donc son chemin sans limitation), soit on confine selon une approche univoque, le lockdown à la française.

Si cette étude avait été publiée fin mars, nous aurions pu comprendre ce parti pris. Publiée le 22 avril 2020, cette approche manque clairement de nuances. Elle pose de fait comme postulats :

  • que le dépistage n’est pas une solution, alors que c’est l’approche d’une majorité des pays développés s’étant urgemment engagés dans une politique de tests ;
  • qu’il n’existe qu’une seule intensité de confinement, alors que d’autres pays ont adopté un confinement plus léger.

Problème n°2

L’étude s’appuie sur une vision prédictive des interactions sociales qui :

  • considère que les personnes en EHPAD sont protégées… minorant ainsi les risques pour les personnes de plus de 70 ans ;
  • ignore les interactions entre les membres de chaque famille confinée.

Problème n°3

L’étude est fondée sur des approches et hypothèses qui génèrent de l’incertitude :

  • l’hypothèse d’une absence de contaminations en milieu sanitaire alors que la réalité est inverse, les professionnels de santé sont malheureusement fortement contaminés3 ;
  • une période de référence du 20 au 28 mars seulement ;
  • une segmentation étroite en 17 classes d’âge pour chacune des 13 régions ;
  • un cumul de plusieurs hypothèses sur l’hospitalisation (durée de séjour, risques, morts, utilisations des lits critiques, etc) et sur les durées de contagiosité et de proportion d’asymptomatiques (qui reprennent les mêmes hypothèses que celles qui ont servi au confinement décidé à la mi-mars…).

Problème n°4

L’approche est centrée sur une réponse hospitalière à la crise du Covid-19. Par exemple, le dénombrement des morts est calculé exclusivement à partir des cas non sauvés en réanimation à l’hôpital.

Conclusion

L’étude ne fait apparaitre qu’un seul chemin possible en dehors de celui de ne rien faire. Elle en minore les aspects négatifs tout en en majorant les aspects positifs. Sans surprise, elle conduit donc à une conclusion très favorable sur les effets du chemin pris.

Même le rapport de l’Institut Pasteur connaît certaines limites

Le rapport de l’Institut Pasteur du 20 avril 2020 a été repris dans maintes publications, avec des titres d’article citant des chiffres précis sur l’impact du confinement ou sur les taux de contamination au 11 mai 2020, à partir des données au 14 avril : 5,7 % au niveau national ou encore 12,3 % en Ile-de-France.

Problème n°1

Le rapport ne calcule pas seulement un taux, mais une fourchette de taux… La simplification a été faite ensuite par des journalistes et politiques. Ainsi, en Ile-de-France, le taux de contamination estimé dans ce rapport se situe entre 7,9 % et 21,3 %.

Si l’immunité collective peut être atteinte à 40 ou 50 % de la population et en isolant les plus fragiles, le débat politique n’est évidemment plus le même si on est plus proche de 21 %, que de 8%.

Problème n°2

La modélisation se fonde sur les données du Diamond Princess, ce bateau consigné à quai entre le 3 février et le 20 février au Japon. Cela conduit à retenir un taux de personnes asymptomatiques de seulement 20 %. Or, le taux constaté sur les marins français du Charles de Gaulle (accueillant des passagers en moyenne plus jeunes que ceux du Diamond Princess) est d’environ 50 %. Il est peut-être encore plus élevé quand l’âge décroît (hypothèse d’ailleurs évoquée par le rapport). Il n’aurait ainsi pas été illogique de retenir un taux d’au moins 40 % pour l’ensemble de la population française.

Retenir le taux du Diamond Princess plutôt qu’une approche médiane à 40 % conduirait à diviser par deux le taux estimé des contaminations en France.

Problème n°3

Le chiffre de 13 morts retenu par la modélisation est une projection du nombre de morts et non un chiffre constaté.

Le nombre de morts retenu par l’Institut Pasteur est de 13 dans l’étude (there have been 13 deaths, seven were individuals in their 70s, four in their 80s, one in their 60s, no age was reported for one death), ce qui peut surprendre puisque le chiffre publié était de 7 morts.

En réalité, il semble bien qu’il y ait eu 7 morts avérés avant le 5 mars, puis 6 morts ajoutés pour corriger ce chiffre, à partir d’une estimation des personnes qui seraient théoriquement décédées plus tard. L’Institut Pasteur se fonde en effet sur un autre rapport rédigé le 6 mars 2020 et non sur les données de base.

Ajouter 6 morts conduit in fine à diviser par deux le taux estimé des contaminations en France.

Problème n°4

Les personnes en maison de retraite sont exclues du calcul de l’Institut Pasteur, ce qui minore l’estimation du nombre de personnes contaminées (a number of additionnal non-hospitalized deaths may also be occurring, in which case we would underestimate the proportion infected).

Problème n°5

La modélisation de l’impact du confinement sur les contaminations peut sembler imprécise :

  • la probabilité d’une contamination est calculée à partir du nombre de contacts d’une personne avec une autre. Cela conduit à sous-estimer les contaminations en milieu confiné par aérosols alors même que le virus peut se disperser par les systèmes de ventilation en milieu clos et non simplement par contacts entre deux personnes.
  • la modélisation sur les interactions sociales en période de confinement néglige les effets négatifs, notamment la probabilité plus forte d’être contaminé en intra-familial.

Cette approche minore ainsi la possibilité d’être contaminé pendant le lockdown français et donc le taux de contamination estimé au 11 mai 2020.

Problème n°6

Le nombre de cas au début de l’épidémie est une variable de l’étude qui influe énormément sur l’estimation du nombre de personnes contaminées au 11 mai. Or ce chiffre est inconnu : on a ainsi découvert récemment que le virus circulait déjà en décembre sur le territoire national. Cela semble indiquer que le niveau de contamination parmi la population en janvier/février est bien supérieur à celui qu’on envisageait il y a encore quelques jours.

La modélisation réalisée par l’Institut Pasteur n’a pas pu prendre en compte cette information publiée postérieurement au rapport.

Conclusion

On pourrait s’interroger sur l’impact de plusieurs hypothèses sur les conclusions de l’étude de l’Institut Pasteur. Or, celles-ci ont été présentées avec peu de réserves par de nombreux journalistes et décideurs publics.

Pourquoi ne pas avoir modélisé des approches ciblées (différenciation suivant l’âge et dépistage massif des cas)

On comprend que les modèles ne soient pas parfaits, ou que les politiques aient besoin de certitudes pour convaincre et prendre des décisions.

La stratégie de déconfinement par zone géographique ne peut cependant être considérée a priori comme entièrement efficace, puisqu’elle s’appuie sur des indicateurs évaluant a posteriori les niveaux de contamination au niveau départemental. Comme on l’a vu lors du lockdown de mi-mars à mi-avril, les contaminations se poursuivent même en organisant la distanciation sociale ou en généralisant masques et gestes barrières. Les zones peu touchées aujourd’hui seront certainement touchées demain.

Il est ainsi dommage que manquent au débat public français deux modélisations qui auraient probablement capté l’attention des députés et des concitoyens :

  • la question du dépistage et de son impact sur la propagation de l’épidémie n’est pas du tout abordée alors même que les résultats d’autres pays semblent très convaincants dès la mi-avril dans différentes régions du monde (Allemagne, Israël, Corée du Sud, etc.) ;
  • la question d’une approche différenciée suivant l’âge n’est plus du tout évaluée, alors même que celle-ci avait été abordée le 13 avril 2020 par Emmanuel Macron, sur recommandation du Conseil Scientifique dans son rapport du 2 avril 2020.

Les derniers chiffres publiés fin avril par Santé Publique France4 incitent toujours à se questionner sur l’intérêt d’une stratégie ciblée vis-à-vis des plus fragiles comme le montre le graphique ci-dessous.

Ainsi, cette stratégie ciblée combinée à une politique massive de dépistage, permettrait peut-être de mieux prévenir jusqu’à 90 % des cas de décès par Covid.

  1. École formant des hauts fonctionnaires spécialisés en santé et gestion hospitalière.
  2. Nice Matin du 2 mai 2020 « Moins de 5 % de la vague reste à subir selon ce professeur de médecine »
  3. Hospimedia du 4 mai 2020 « Une enquête estime à près de 12 000 le nombre de soignants contaminés en établissement »
  4. Notons que les données de Santé Publique France (23 686 décès Covid-19 entre le 1er mars et le 28 avril 2020) sont cohérentes avec les données de la surmortalité constatée en France (21 805 décès supplémentaires toutes causes confondues entre le 1er mars et le 19 avril 2019 par rapport à 2018 selon l’INSEE).
Voir les commentaires (76)

Laisser un commentaire

Créer un compte Tous les commentaires (76)
  • Ce ne serait pas la première fois que le gvt raconte n’importe quoi pour justifier sa politique.
    Exemple récent : le 80 km/h censé sauver 400 à 500 vies !
    Le bilan de l’expérimentation de 2 ans (2015-2017) dans 4 départements n’avait pourtant rien montré (à tel point qu’il n’a pas été rendu public).
    Le calcul du bilan du 80 km/h au bout de 6 mois de généralisation (2eme semestre 2018) a du en outre être trafiqué pour donner raison au 1er ministre : la comparaison a été faite non pas par rapport à l’année précédente, mais par rapport à la moyenne des 5 années précédentes, ce qui a eu pour effet de majorer la valeur de référence et donc de gonfler artificiellement l’impact de la mesure…
    Quand on sait ça, on imagine sans peine que le chiffre de 60000 morts évités par le confinement total ne peut être que totalement bidonné, tant au niveau de la méthode de calcul que du résultat lui même.

    • La comparaison est judicieuse. La communication sur des calculs, de vie qui auraient été sauvées, estimation arbitraire de choses non définies rationnellement, techniquement, mathématiquement, et scientifiquement, permet de « Trouver » n’importe quels chiffres fixés a l’avance comme résultats d’une pseudo études.
      La malhonnêteté intellectuelle est devenu la règle, un outil de manipulation majeur et systémique. Les « Fucks-News » ne sont pas le fait d’internet, elles sont le fondement de la propagande officielle gouvernementale.

      • Dans la même logique mensongère des escrologistes, on a les 48000 morts par an à cause de la pollution, alors qu’il n’y a même pas 30000 cas de décès par infection respiratoire.

        • Merci de ce rappelle,
          Il Faut ajouter que : L’écolo ne ment pas. Il croit sincèrement les conneries qu’il raconte.

        • Pour les écolos, la pollution tuent les gens plus tôt que prévu, par rapport a un Paris sans diesel, par exemple. Si les gens meurent a une date qui n’est pas celle ou ils auraient du mourir, on a le droit de les compter dans les morts a une autre date, d’une autre année. Tout le monde suit ?
          D’où, possiblement en « éconologie » un nombre de mort supérieur au nombre de Malades.

          • Certes mais les mêmes ne comptabilisent pas, curieusement, le nombre de morts confinés par la fréquentation de l’endroit le plus pollué à Paris, le métro. Particules frein et roue sur rail, renouvellement air insuffisant et rejet massif de CO2, méthane, bactéries, champignons, virus, etc…

        • Je pense que personne n’est capable d’établir sérieusement la contribution de la « pollution » à la mortalité ni même à l’espérance de vie. Ceci dit, la « pollution » ne tue pas que par infection respiratoire donc la comparaison de ces deux chiffres n’a pas de sens.

    • bah allons quoi…souvenez vous de ça
      https://www.lemonde.fr/les-decodeurs/article/2019/02/27/avec-48-000-morts-par-an-en-france-la-pollution-de-l-air-tue-plus-que-l-alcool_5429074_4355770.html
      Selon l’OMS c’est 38000 morts dans le monde, donc il y en a plus en France que dans le monde (H16 avait fait un article sur ce sujet)
      trafiquer les chiffres en France ? non mais c’est pas possible enfin !

  • Très intéressant mais je pense qu’il manque un graphique des décès liés à certaines maladies : diabète, obésité, pbs cardiaques…. Ici le seul critère étudié est l’âge.

    • Bonjour majobo
      Il apparaît que le seul facteur important soit l’age et non les comorbidités. Lire le site du Dr Dupagne (COVID-19 : c’est l’âge qui compte, et quasiment rien d’autre).
      PS Il faut rester prudent, cette épidemie est mal connue. On est encore au début.

      • D’autres disent le contraire. L’obésité serait un facteur majeur, en plus de l’âge.
        A noter que cette analyse des causes est durectement liée à la façon de décompter les décès, laquelle est un facteur qui peut expliquer les différences dans les bilans des différents pays.

        • L’Italie a fait le choix d’intégrer dans le nombre total de décès aussi bien les patients morts du Covid-19 que ceux, positifs au coronavirus, mais morts d’une autre pathologie, politique qui n’est pas forcément celle d’autres pays.
          Selon le professeur Ricciardi
          « Après réévaluation par l’Institut national de la santé, seuls 12 % des certificats de décès ont montré une causalité directe du coronavirus, tandis que 88 % des patients décédés ont au moins une prémorbidité – beaucoup en ont eu deux ou trois ».
          Cela ne signifie pas que le Covid-19 n’a pas contribué à la mort d’un patient, mais plutôt que le nombre de décès en Italie a augmenté car une grande partie des patients ont des problèmes de santé sous-jacents. Les experts ont également mis en garde contre les comparaisons directes entre les pays en raison des divergences entre les tests.
          Bref, « il faut rester prudent »…

          • En l’état actuel, les comparaisons sur la morbidité n’ont aucun sens. Ce n’est pas un Hasard, Le nombre de décès du Covid a domicile en France est estimé a 9000 par un groupe de généralistes, les données officielles n’existent pas encore ou sont inaccessibles. Cela représenterait 33 % de l’estimation actuelle Hôpitaux Ehpad. Rien ne laisse penser qu’on pourra avoir des données sérieuses et rationnelles un jour !!!!

            • En ville, en l’absence d’autopsie, on ne saura jamais. A moins d’aggravation foudroyante touchant les plus âgés et pour lesquels on ne pouvait rien faire, les malades décédés ont été transférés à l’hôpital avant.

            • Lais si, on aura des données rationnelles un jour, tout comme on en a eu sur la canicule de 2003 (mortalité 15.000) : en regardant la surmortalité de la période par rapport aux années précédentes. D’ores et déjà, selon l’INSEE lui-même, la surmortalité du 1er janvier au 20 avril est de 13.400 par rapport à la moyenne 2018-19 sur la même période ; sachant que les deux années précédentes ont connu une mortalité liée à la grippe saisonnière de près de 10.000 personnes en moyenne.
              Il y a d’autres paramètres à prendre en compte, comme la démographie (le nombre de morts augmente chaque année en France depuis une quinzaine d’années au rythme moyen de 6.300/an, c’est l’effet baby-boom, ou plutôt papy-boom), mais les spécialistes seront très rapidement en mesure de faire une estimation précise du nombre de victimes de la crise (victimes directes et indirectes d’ailleurs, comprenant les gens morts parce que n’ayant pas pu être soignés/opérés à cause de la crise et des mesures prises par le gvt).

              • Attention, les calculs de « sur-mortalité » ont le même problème que ceux soulevés dans l’article. On compare les morts avec « ceux qu’on pense qu’on aurait eu sans ça »… mais comme on n’a pas deux bouts de pays, identiques en tout sauf dans le fait d’avoir la maladie ou pas, la comparaison est v. un modèle. Qui fait des hypothèses plus ou moins valides. La seule comparaison possible, pour ne pas avoir trop de soucis, c’est sur plusieurs années, au minimum 2 ans. Et là on ne voit plus la « sur mortalité de la canicule » (et on ne verra sans doute presque rien pour le COVID19) : les gens morts en juillet-aout seraient sans doute morts en sepembre-octobre-novembre puisque selon les mêmes modèles il y a eu sous mortalité de grosso-modo 13 000 personnes sur les deux premiers mois mentionnés.
                Donc comparaison sur au moins un an (les décalage temporels entre épidémies de grippe, beau temps, mauvais temps, accidents suite à chute de neige, etc. se lissent à peu près) ajustées des autres facteurs pertinents (âge, accidentologie routière, impactée par le prix du pétrole, etc.) mais là encore c’est des estimations basées sur des modèles.

                Bref, on ne peut pas savoir « précisément » et comme le dénombrement actuel est fait n’importe comment, on le saura certainement jamais à plus de 4 ou 5000 près, sauf à admettre un tas d’hypothèses.

            • Je le suis posé des questions en voyant ce chiffre des généralistes. J’avoue que j’ai du mal à croire à des décès à domicile par le Covid (et uniquement pour cette raison), comme ça, sans passer par la case réanimation.

              • Habituellement 24% des gens meurent à domicile (INSEE 2018).
                Il y a des gens en phase terminal d’une maladie, qui préfèrent retourner chez eux.

              • C’est vrai que l’on est jamais appelé pour remplir les certificats de décès…. ;-))

          • « Les experts ont également mis en garde contre les comparaisons directes entre les pays » : ne s’agirait-il pas plutôt d’un artifice pour éviter les comparaisons entre pays non confinés et confinés ? En effet, la comparaison permet de comprendre que le confinement n’a servi à rien, brutalisant la population et ravageant l’économie sans aucun intérêt sanitaire.

            • Au-delà du confinement qui en lui-même ne change pas grand-chose à la mortalité, c’est surtout la stratégie adoptée ailleurs, à base de tests massifs, de filtrage aux frontières, de masques, et bien sûr de responsabilité personnelle, que nos politiciens ne veulent pas voir évoquée, et à laquelle ils ne veulent pas que soit comparée leur stratégie meurtrière.

              • Les tests ne changent rien s’ils ne sont accompagné d’un véritable confinement sélectif et de mesures de distanciation/préservation envers les populations à risque. Comme la « passion de l’égalité » en France est ce qu’elle est, il est probable que ça se serait mal passé « les vieux », mécontents qu’on les traite autrement que les jeunes, aurait été en masse manifester, les diabétiques et autres hypertendus auraient dit « ah mais non, pas moi » etc… Et surtout, surtout les bobos gauchistes en bonne santé de moins de 60 ans auraient été très choqués de la part des premiers mentionnés et auraient insisté pour que cet « agisme » et cet « ablisme » soit supprimé… Et fermes les frontières, vous n’y pensez pas, c’est raciste : la preuve Trump l’a fait !

  • Une évaluation du code du modèle informatique du professeur Ferguson par un programmeur professionnel.

    https://lockdownsceptics.org/code-review-of-fergusons-model/

    Les prévisions de l’Imperial Collége sont celles qui ont servi de caution scientifique pour les politiques de lockdown Américaine, Britannique et probablement Française.

    Ferguson a déclaré que le meilleur scénario possible pour les USA était et de 1.1 Millions de morts. On est actuellement à 80000 morts.

    En 2001 il prédisait 136 000 morts pour la maladie de la vache folle en Grande Bretagne. Le vrai chiffre en 2014 était de 177.

    En 2005 il prédisait 200 millions de morts pour le H5N1 au niveau mondial. Le vrai chiffre est de 455.

    Il ne devait pas croire lui même a ses prévisions de fin du monde car ça ne l’a pas empêché de faire venir sa maîtresse pendant le lockdown.

    Curieusement c’est cela qui a précipité sa chute et pas ses prévisions délirantes et répétées.

    • « Curieusement »… Pas du tout.
      Cet homme avait le succès que lui offrait son pouvoir de nuisance, au cas où il aurait eu raison. Il a perdu ce pouvoir de nuisance, donc il est fini. Le niveau de qualité technique de ses travaux n’est jamais entré en ligne de compte, à quelque moment que ce soit.

      • Curieux de parler du pouvoir de nuisance de quelqu’un qui n’a jamais réussi à faire une seule prévision qui se soit révélée, au moins, proche de la réalité . La modélisation ne fonctionne pas lorsque l’on ne peut pas déterminer les critères de base, c’est aussi vrai pour le cocid19 que pour les travaux du GIEC . Dans les 2 cas, elle n’est que la moyen de sucer des subventions en obtenant les résultats qu’attendent les commanditaires . La qualité technique de ses travaux est du même acabit que celle des travaux de Piketti, du bulllshit en barre .

    • on pourrait dire la même chose de beaucoup de prédicteurs d’apocalypse climatique qui s’achètent des maisons au bord de la mer, partent en vacances en avion à l’autre bout de la planète, accros aux dernières téléphones et aux réseaux sociaux tout en dénonçant l’énergie que cela consomme…

  • Il serait surtout intelligent que l’on arrête de se fier à sainte mathématique mâtinée d’informatique pour faire des prévisions qui ne tiennent pas debout et sont purement pseudo scientifiques…..et que l’on revienne au bon sens , à la raison, à l’intelligence , à l’expérience comme l’on fait certains pays et qui s’en sortent beaucoup mieux que nous…..que les énarques , les polytechniciens rentrent chez eux et aillent calculer le mouvement pendulaire du tgv….

    • C’est pas les mathématiques ou l’informatique qui sont en cause, mais les mathématiciens ou les informaticiens.

      Ils savent que leurs outils ont des limites, qu’ils nécessitent des validations, qu’ils ne peuvent donner que des fourchettes pas forcément exploitables et que les résultats sont faux si les données entrées sont fausses ou qu’on part de postulats erronés.

      Comment ose-t’ils formuler des recommandations qu’ils savent fausses à des politiciens dont ils savent pertinemment qu’ils ne comprennent pas la portée de ce qu’ils disent et que le seul but de ces politiques est de faire reposer sur eux la responsabilité ?

      Réponse évidente : carriérisme, arrogance, aveuglement. Causes tout ce qu’il y a de plus humaine mais le fait de céder un tant soit peu à ces penchants fait d’eux tout sauf des scientifiques.

      Le modèle le plus faux n’est pas celui qu’on croit. Le modèle le plus faux est celui du politique conseillé par des « chercheurs » (et non par la science connue et validée expérimentalement).

      • Tout à fait…vous avez formulé ma pensée différemment …

      • Les matheux, comme Piketty par exemple, savent très bien que les modèles numériques résolvant des équations différentielles sont suffisamment sensibles aux conditions initiales et aux paramètres empiriques injectés pour que leurs prévisions soient fantaisistes à long ou moyen terme (le fameux effet papillon en météo). Il est donc assez facile de bidouiller les dits paramètres ou données d’observation pour faire prévoir ce qui nous arrange, c’est une spécialité du GiEC.

      • Ils oublient la partie caractéristiques des vrais sciences, la réfutabilité, si une prédiction ne fonctionne pas c’est que le modèle est faux et nécessite une révision.
        Quand on se plante d’un facteur 1000, faut tout bazarder si on est sérieux (y a même plus de plage de fiabilité) ou vendre à des journaux à buzz si on est un escroc.

    • Il serait temps d’arrêter de raconter des âneries aussi. Les maths et l’informatique ne sont coupables de rien. En début d’épidémie, c’est la croissance rapide qui domine et masque toute perspective à long terme (sauf l’immunité collective qui est la saturation ultime, avec forcément bcp de décès, car cela représente une proportion 1-1/R0 importe de la population, où R0 est le facteur de reproduction de l’ordre de 3. Avec un doublement des cas tous les 2.6 jours, cela va très vite). Donc, si on ne fait rien et on laisse filer l’épidémie, c’est bien la catastrophe en bout de ligne si et seulement si rien ne change dans les conditions de propagation du virus. Au Brésil par exemple, ils filent actuellement à grande vitesse vers un gros problème, car aucun signe de ralentissement de l’épidémie. Le confinement bloque ce processus (ou les gestes de distanciation) et là on part sur un temps long, et le R0 chute. Après c’est avec plus où moins de succès… Donc vos propos sont stériles, et sans fondement. « A l’expérience » que vous mentionnez vient du fait que les pays concernés ont agi vite pour casser le R0 (masques, gels ,tests) ce qui n’a pas été fait à temps en Europe ni aux Etat-Unis. Ce ne sont pas les scientifiques qui sont en jeu, mais bien les politiques. Donc votre ressenti est très douteux. Un processus épidémique, c’est une avalanche, et cela relève bien des maths dans sa description ! Désolé pour vous…

      • Vous vous trompez. Les chiffres du Diamond Princess, du Theodore Roosevelt et du Charles de Gaulle le prouvent. On a su très tôt quelle était la dangerosité du virus avec chiffre à l’appui. Chiffres qui ont été confirmées par de très nombreuses études sérologiques partout dans le monde et qui ont montré un taux de pénétration du virus compris entre 10 et 20% pour une population donnée. Le confinement généralisé n’était en rien justifié . Il y a plein d’exemples qui le montrent.

      • World28 a raison: tout ce qui casse le taux de contamination R0 enraye l’épidémie qui s’effondre quand R0 passe sous la valeur 1. Cela implique des contraintes par essence déplaisantes.
        On a la chance que la pathologie associée soit statistiquement bénigne mais c’est un bon avertissement pour la prochaine dont rien ne garantit qu’elle épargnera les libéraux.

        • avoir plus de malades diminue le R0 également… et plus efficacement. Ou un vrai confinement. TOTAL, personne dehors sauf les ambulance. Même chez soi, pas de contacts avec ses proches. Les « soignants » enfermés à l’hôpital. Pendant la durée d’incubation moyenne plus un écart type. On rouvre après, une fois récupérés/isolés tous les malades (dépistage massif s’il y a des cas paucisymptomatiques ou asymptomatiques). C’est le seul confinement qui pourrait marcher. C’est plus ou moins celui « modélisé »

      • « c’est une courbe en cloche, non? »

        L’épidémie c’est de plus en plus de gens atteints mais jamais plus de 100%.

        Toute fonction croissante bornée a une dérivée (ici nombre de nouveaux cas/jour) qui passe par un maximum, c’est ce que vous appelez « courbe en cloche ».
        Quoiqu’on fasse, y compris rien du tout , cette cloche on l’aura même si tout le monde doit mourir.
        Le but de l’opération n’est pas d’attendre benoîtement l’avènement de la cloche mais de minimiser le bilan final le plus loin possible des 100%.

      • le 1-1/R0 est une bêtise, sans réalité empirique. De fait il semble bien que selon la vitesse de circulation, le type de résistance de la population (pas besoin d’anticorps spécifiques pour arriver à résister à une infection, d’autres mécanismes sont en jeu), le mode de transmission, les typologies d’interactions, etc. on puisse être extrêmement loin de cette valeur. En plus on parle ici d’une maladie causée par un virus d’une famille assez courante. Avoir été récemment touché par un coronavirus donne une certaine immunité, etc. Malgré le « bouillon de culture » et le confinement collé-serré, plus des 2/3 des passagers du Diamond Princess n’a pas eu la maladie (pas asymptomatiques, juste pas malades du tout). Malgré l’ultra confinement des exercices NBC, un bon tiers de l’équipage du CdG non plus. Et s’ils ne l’ont pas eu, dans ces conditions, il est très probable qu’ils ne l’aient pas en général, et donc eux aussi sont des « stops » dans la chaine de contagion. On peut donc avoir une « immunité collective » avec 5 à 10% de malades dans la population… Même avec un R0 à 18. (Vous ne choppez pas la gastro tous les ans, et elle finit par s’éteindre alors que son R0 est dans ces eaux et qu’il y a donc « immunité collective » à 95%.)

  • La décision politique précède bien souvent les justifications. Et on trouve toujours telle ou telle modélisation pour faire l’affaire.
    C’est exactement le même processus poyr justifier les politiques écolos appauvrissantes.

  • Je vais défendre un peu le rapport. Il ne considère que deux options (confinement total ou rien) car c’était la seule chose (politiquement) possible:
    -Les tests étaient impossibles car pas assez de tests (AFNOR approuvés)
    -Le confinement pour les vieux uniquement est suicidaire, ce sont eux qui votent le plus.
    Je rappelle que l’utilité de la vie d’un non votant se limite aux taxes, dont on n’a que peu besoin à l’horizon indépassable de 2 ans (grâce au recours à l’emprunt).
    Alors que l’on compte le cout du confinement en euros, nos dirigeants le compte en voix, donc c’est normal que les chiffres soient différents…

    • Vous oubliez l’auto confinement, ce que je fait depuis 3 mois et le port du masque (que j’ai cousu) depuis 2 mois.
      Un confinement volontaire est bcp plus supportable ET bcp + efficace.
      Vous me direz que le confinement est facile pour un retraité.. cela tombe bien c’est le coeur de la cible.
      Cette étude part du principe que la population ne change pas ses habitudes, ce qui n’est pas le cas. Le R0 change et l’explosion épidémique du début ralenti.

    • « Je vais défendre un peu le rapport »

      Rappelez moi de ne pas faire appel à vous comme avocat :))

  • Plusieurs informaticiens appellent également au retrait de toutes les études se basant sur le modèle proposé par l’Imperial College of London. C’est ce modèle qui a été repris dans les médias de gauche (de la gauche communiste à la gauche progressite) un peu partout dans le monde pour mettre la pression aux politiques afin d’imposer des lockdown partout dans le monde et son code – rendu public vers la mi-avril – appèle a de très nombreuses critiques.

    Petit retour en arrière pour expliquer l’origine de ce modèle. Les premières versions de ce dernier ont été mis au point il y a une quinzaine d’année pour modéliser les épidémies de grippes. Ce modèle a ensuite été utilisé pour modéliser d’autres épidémies, avec quasiment systématiquement des erreurs qu’il ne convient plus de qualifier d’erreurs à la marge mais de trous noirs, tellement leur champ de gravité fausse toute éventuelle conclusion.

    Outre le fait que ce modèle se soit montré totalement faux par le passé, un certain nombre d’informaticiens pointent du doigt le fait que ce code comporte de très (très) nombreux « code smells », indicatifs d’un code de mauvaise qualité, intestable et potentiellement dangereux car comportant un très grand nombre de bugs potentiels. Bref, que ceux qui critiquent les étude de Raoult balaient devant leur porte et regardent la faible qualité des travaux ayant mené à l’arrêt de pans entiers de l’économie…ce modèle est probablement le bug informatique le plus cher de l’Histoire !

    Pour ceux qui seraient intéressés, le code de ce modèle est disponible ici:
    https://github.com/ImperialCollegeLondon/covid19model
    https://github.com/mrc-ide/covid-sim

  • On s’aperçoit que les autorités veulent réécrire l’histoire en occultant des situations emblématiques des contaminations massives, dans les navires ou suite à la réunion de Mulhouse. Dans ces situations, c’est bien par les circulations aériennes prolongées que le virus a circulé, on feint de croire qu’un marin du porte-avions en aurait contaminé un millier d’autres par contact rapproché, idée absurde mais j’aimerais bien connaître les études des contaminations sur ces grands navires et l’impact des positions des personnes sur ces navires (A cet égard, y a-t-il eu une publication sur les contaminations à bord du Diamond Princess et le lien avec la nature de la cabine occupée – intérieure ou avec balcon ?). Pourquoi ce biais dans la visions officielle ? Sans doute parce que cela met en relief la faute lourde des autorités quant à l’utilité du masque.

  • J’ai entendu tout et son contraire sur les paramètres majeurs de cette épidémie. Par exemple que les cas asymptomatiques ou non détectés seraient de 5% ou 1000%.

    Je ne comprends même pas si on ne sait pas ou si on nous ment. Au final, ce qu’on fait par rapport à ce qu’on dit me semble le plus souvent loufoque. Mais le résultat est la, c’est pas brillant et pas encourageant pour l’avenir non du fait des prédictions mais de leur totale incertitude et de l’incertitude sur la santé mentale des décideurs.

    Et le principe du Rasoir d’Okham (retenir l’hypothèse la plus simple) appliquée à cette situation est qu’ils font n’importe quoi et qu’y chercher une logique est une perte de temps.

    • Allez voir sur mon site https://yvespeysson.fr . Je suis physicien, et j’ai modélisé l’épidémie à partir de fin février face l’absence d’infos fiables. Un modèle épidémique hyper simple, qui prend en compte les incertitudes des données, et de bonnes prévisions quand c’est mathématiquement possible. L’horizon est bouché dans les prédictions tant que le pic épidémique n’est pas passé. Après c’est bien plus fiable. Le 13 avril mon code donnait 40 décès par jour pour le 11 mai, et on me le reprochait. Hier, il y en avait 170 à l’hôpital et en prenant la moyenne glissante on était sur 130. Certes un facteur x3 de différence (plus défavorable) mais on est dans l’ordre de grandeur. Le nombre estimé de personnes contaminées est très dépendant du taux de létalité (pas mortalité ! ) Avec 0.7% sur la base du cas du Diamond-Princess (le plus solide, car on connait bien la cohorte) et bien entre le nombre de cas de contaminations mesurés et estimés, il y a un facteur x10 ! Et 6% dans ces conditions de la population est immunisée (où tout au moins a rencontré le virus). Donc on peut avoir une vue très cohérente de l’épidémie, à partir d’outils très simples. Mais étonnamment, les infos distillées sont très disparates… et tant qu’on n’a pas fait soit même les calculs, tout parait mystérieux… En fait non !

      • On connait bien le Diamond Princess certes.
        Vous avez sans aucun doute une très bonne idée de la répartition des âges et des comorbidités de cette « population test » malgré elle. Est-ce que cette répartition est représentative de la population générale?
        Un voyage de plusieurs jours en paquebot même si cela n’est pas dur physiquement, sélectionne automatiquement un type de sujets. Ou du moins, en éliminent d’autres.
        D’autre part, la promiscuité dans un paquebot est plus importante que dans la vie réelle même si des mesures d’hygiène strictes sont imposées. Vous avez bcp plus de chance de toucher une zone contaminée sans parler de l’aération dans les coursives ou via les VMC. Vous avez bcp plus de chance de vous recontaminer plusieurs fois.

        Est-ce vraiment représentatif ? Franchement, j’en doute. C’est une série intéressante mais d’une population particulière dans un cadre géographique particulier.

        • Oui, j’ai un gros doute sur la représentativité d’un monde clos où de plus la restauration est entièrement collective.

          Les cas des paquebots ou du Charles de Gaulle doivent nous alerter et servir de base à des études de propagation. Mais en faire à priori des modèles sans déterminer le mode de contamination me semble dangereux.

        • Oui cela l’est. La pyramide des âges est sur wikipedia, 69 ans pour la moyenne des passagers, 30 ans pour le personnel de bord. J’ai fait un calcul complet intégrant la létatité en fonction de l’âge avec la pyramide des âges pour chaque pays (et le Diamond-Princess) et un seul paramètre est pertinent densité x âge si je résume le calcul. On peut bien comparer le paquebot Diamond-Princess même avec une ville et même faire un comparatif avec le Charles-de-Gaulle (que des jeunes de moins de trente ans). Diamond-Princess = 14 décès, Charles-de-Gaulle = 0 décès, pour un même niveau de contamination (très forts car densité de population très élevée de l’ordre de 35,000 h/km2) . Avec le calcul densité x âge, on voit qu’il ne se passera rien en Afrique, pas grand chose en Inde, et un peu plus en Amérique du Sud (sauf mégalopôle très denses). C’est exactement ce qu’on observe. J’avais fait ce calcul mi-avril qui est en ligne https://yvespeysson.fr . Donc on peut comparer, et les récentes études en Islande par exemple, et d’autre publications que je donner aussi vont dans ce sens. Létalité 0.5-0.7%. Après difficile en l’état de savoir mieux…

          • Effectivement, le taux de létalité que vous trouvez est celui déterminé par l’Inserm (qui s’est sans doute appuyé sur le cas DP). Et il est compatible avec ce qu’on trouve dans les pays qui ont procédé à de nombreux tests dès suspicion : de l’ordre de 1 %, [compte non tenu en outre des cas asymptomatiques qui, une fois pris en compte, diminuent cette valeur].

          • Le gvt a tablé sur 60000 morts de plus sans confinement. Soit en tout 85000 morts !
            Avec une mortalité réelle de 0,5 % , cela signifie un nombre de gens infectés de 17 millions !
            Ça paraît impensable avec un R0 à peu près identique à celui de la grippe dont on sait qu’en environ 4 mois d’épidémie elle infecte moins de 5 millions de personnes…

            Ps : combien de vies sauvées si le gvt n’avait pas menti sur l’utilité du masque ?

      • Merci je jetterai un coup d’œil.

        Mais comprenez bien mon doute sur l’utilité même de savoir alors que ceux qui dirigent (et fournissent des infos) sont incohérents.

        La politique mise en place et mediatisée au départ « d’étalement » ne tenait pas la route un seul instant sans abaissement du RO, alors qu’ils savaient que faute de masques on ne pouvait le faire. Et « l’immunité collective » correspondait (et correspond toujours il me semble) à un étalement sur plusieurs années avec les capacités d’accueil en soins intensifs !

        Donc soit les données publiées sont fausses, soit ils marchent sur la tête.

        • Etalement et baisse du R0 c’est la même chose. Mais ils ont été trop qualitatifs et les infos trop parcellaires. C’est pour cela que j’ai fait moi-même les calculs pour y voir clair. je ne suis ni médecin, ni épidémiologiste, mais physicien, et ce type de processus est courant… Les données publiées ne sont pas fausses, elles ont des erreurs, mais c’est normal. Après il fautun prxy fiable. J’ai pris les décès en hôpitaux. C’est un choix qui marche bien.

      • Je vais aller faire un tour sur votre site mais si votre estimation du taux de létalité est juste (0,7%), cela veut dire que dans l’État de New York où 0,139% des habitants sont officiellement morts du virus (taux le plus élevé du monde), à peu près 20% de la population a contracté le virus.

  • On sent l’expert qui n’a jamais fait aucun calcul lui-même… La cas du problème n°6 est flagrant. Propos sans intérêt.

  • « Si l’immunité collective peut être atteinte à 40 ou 50 % » : le seuil d’immunité collective serait plutôt situé vers 1/5e de la population. Si à ce jour 21% de la population d’Ile-de-France est contaminée, l’immunité collective est probablement déjà acquise dans cette région. Voir :
    https://www.nicholaslewis.org/why-herd-immunity-to-covid-19-is-reached-much-earlier-than-thought/

    « Le virus peut se disperser par les systèmes de ventilation en milieu clos » : rien de concret ne soutient cette affirmation. Une seule étude l’envisage comme mode de contamination pour une seule famille. Au contraire, le taux de reproduction initial et la vitesse de propagation de la contamination ne sont pas compatibles avec une contamination par respiration, suggérant que le virus ne résiste pas à l’air libre sous forme d’aérosol. Il faut plutôt retenir la contamination par contact rapproché avec des individus contagieux ou par contact avec des surfaces contaminées. Par conséquent, les masques ne protègent pas leurs porteurs de la contamination mais évitent que ces derniers, s’ils sont eux-mêmes contagieux asymptomatiques, contaminent les personnes qu’ils croisent ou les lieux qu’ils fréquentent avec leurs postillons.

    • Je vois pas mal de causes possibles pouvant modifier le RO ainsi que le seuil d’immunité collective. Et il me semble que le R0 modifie ce seuil d’immunité collective.

      Par exemple les mutations ne pourraient-elles produire des virus peu ou pas actifs produisant des anticorps non détectés par les tests d’immunité ?

      Mais dans tous les cas, les modèles sont biaisés et les conclusions qu’on tireraient des modèles sont elles-mêmes biaisées. Il faut donc se méfier des certitudes sur les méthodes prophylactiques basées sur les statistiques et des modèles et privilégier le bon-sens sans perdre de vue le coût de chaque mesure.

      Le coût du port d’un masque pour se protéger est nul si on porte déjà un masque pour protéger les autres. La question est donc simplement celle du coût d’un masque FFP2 pour M Toulemonde (fusse-t’il fonctionnaire ou conducteur de RER …)

      • Oui, la majorité des coronavirus connus donnent des rhumes. Il n’est pas impossible qu’un rhume préalable favorise l’immunité.

    • le professeur Raoult dit dans une interview que l’on ne sait rien de l’immunité collective (à combien de pourcents de la population totale) ; d’ailleurs ceux qui l’ont attrapé ne sont pas forcément immunisés

  • Bonjour Philomo
    Le système (publique) hospitalier n’est pas détruit. Il est dysfonctionnel. C’est un système de soin n’est pas soumis au marché, et qui ne peut pas fonctionner correctement comme tout système collectiviste. On a des pénuries, une explosion de coût, une mauvaise qualité des services et en plus une souffrance du personnel.
    La santé est un marché comme les autres, laissons les professionnels agir sans ARS, Ameli et autres carcans administratifs.

    • .. un système de soin qui n’est pas soumis

    • Quand on regarde les budgets, ce n’est pas l’impression général.
      +70% de dépenses de santé vs +23% de PIB.
      Apres que les grans CHU phagocytent petites structures, c’est une évidence.

  • Il faudrait surtout mieux dépenser que dépenser plus.
    En particulier, le budget hospitalier est gaspillé dans une administration pléthorique. Ce gaspillage ne s’arrêtera pas puisque c’est cette administration qui gère les budgets et qui n’a aucune idée que le problème principal vient d’elle-même.
    Dans un CHU de l’APHP, que je connais un peu, l’administration a créé des postes d’administratifs pour mieux contrôler le travail des soignants et évaluer leur activité! Evidemment, sans effet palpable 2-3 ans plus tard.
    Par contre une réorganisation de fonctionnement, un allègement de l’administratif comme ce qui se fait dans le privé et une réforme des statuts, c’est impensable.
    Le système ne pourra jamais se réformer de lui-même.

    « On ne peut pas résoudre un problème avec le mode de pensée qui en est à l’origine » A.Einstein

    • faire confiance aux soignants coûterait-il moins cher que d’embaucher des administratifs pour les contrôler ???

    • L’administration hospitalière pléthorique est aussi une conséquence du système de santé français qui est ridiculement complexe.

      Une réforme envisageable (dans la France telle qu’elle est et avec les français tels qu’ils sont) serait de passer à un vrai régime Beveridgien financé par l’impôt. Il y aurait une véritable avancée et simplification.

  • Pour reconstruire le système hospitalier, il faut d’abord le privatiser et le faire profiter des bienfaits d’une saine concurrence, tout en assurant sa rentabilité. Ce qui n’est pas rentable n’est pas durable.

    • Il sera au rapport qualité/prix du marché, c’est-à-dire le prix idéal puisque c’est le seul vrai prix. En dehors du marché, pas moyen de connaître le vrai prix, juste des tarifs arbitraires décidés par des fonctionnaires derrières leurs bureaux qui n’ont pas vu la lumière du monde réel depuis des décennies.

      Des moyens ? La bonne blague ! Aucun pays au monde ne met autant de moyens à disposition du système, avec le résultat qu’on sait. Une question de gestion ? En l’absence de concurrence, n’importe quelle gestion vaut n’importe quelle autre. On voit le résultat du couple gestion/moyen aujourd’hui confronté à cette épidémie. Catastrophique. Ce n’est pas une question de moyens.

  • Le système hospitalier est moins en faute que notre gouvernement :
    – qui a tardé à confiner (en l’absence de masques et tests)
    – qui a nié l’intérêt du masque
    – qui a été infoutu de s’en procurer rapidement
    – qui s’est débarrassé de ses stocks constitués en 2009 qqes années plus tard
    – qui a refusé l’aide des cliniques
    – qui n’a pas voulu validé les tests vétérinaires
    – etc

  • Quelle naïveté dans cet article ! Le gouvernement avait pris sa décision de confinement et a eu recours a quelques modèles, fabriqués pour la circonstance, pour la valider a posteriori. Que ces modèles soient bons ou mauvais n’a strictement aucune importance, du moment qu’on peut prétendre donner un fondement scientifique à la décision.

    • Oui. Le gouvernement à pris la décision de confinement car la position inverse était politiquement intenable comme dans tous les pays qui n’ont pas anticipé la menace et se sont ainsi retrouvé en situation d’urgence – avec ou sans modèle.

      Il suffisait d’un modèle simple pour voir la menace. Maintenant il faut des modèles complexes pour corriger l’erreur, parce que les politiciens sont incapables (de se contenter) de gouverner dans le présent et engagent des astrologues plus ou moins scientifiques pour leur prédire l’avenir.

      Mitterand avait son astrologue. Macron a ses comités d’experts. Ca fait plus moderne.

      • J’ai « position inverse politiquement intenable ». La nécessité est quelque-chose d’extrêmement subjectif et effectivement influencé par les media.

        Mais je suis en train de regarder CNews et les oreilles de Macron doivent siffler.

  • Bon, le même type des modèles qui ont servi pour le prélèvement à la source, la réforme des retraites ou juste avant, la réforme des allocations chômage. On fabrique de bons résultats ou de bons exemples, on pond une équation qui va bien avec le tri sur les données pour permettre de passer au 20h de toutes les chaines d’info. Et comme les journaleux sont des compères, ces belles courbes passent en boucle et à la postérité (la méthode Goebbels). La même chose pour permettre au gouvernement de dire qu’ils ont été géniaux sur ce coup voire que comme on a une saine gestion on peut claquer du fric pour aider les « covideux ». What else?

    • Les journaleux ne sont même pas des compères. C’est pire : ils ont juste un niveau abyssalement pitoyable en sciences ; ils ne pipent absolument rien à ce qui a trait à la science !

      Ils ne comprennent pas les modélisations, ils ne comprennent pas les données utilisées pour les nourrir, ils sont incapables de faire une bibliographie scientifique (je me rappelle d’une journaliste qui sortait des articles du journal « Prescrire » en croyant avoir à faire à Science/Nature : *facepalm*), ils n’ont aucun esprit critique, etc.

      Cette situation est ABSOLUMENT dramatique.

  • En sciences médicales et biologiques, les modélisations sont à peine au dessus du doigt mouillé en ce qui concerne le niveau de preuves.

    Si je ne suis pas qualifié pour critiquer les modélisations en tant que telles (je ne suis pas biostatisticien), je suis toujours abasourdie par les raccourcis et autres estimations (au doigt mouillées, pour le coup) qui touchent les données primaires qui permettent d’abreuver ces dits modèles !

  • Les commentaires sont fermés.

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Nommé ministre du logement jeudi 8 février, Guillaume Kasbarian avait accordé un entretien à Contrepoints en novembre dernier en tant que député Renaissance de la première circonscription d'Eure-et-Loir et président de la Commission des affaires économiques.

 

Contrepoints : Bonjour Monsieur le Député, merci d’avoir accepté de nous accorder cet entretien. Pour nos lecteurs qui ne vous connaissent peut-être pas, pourriez-vous nous parler de votre parcours et nous raconter ce qui vous a amené à vous engager en politique et à ... Poursuivre la lecture

Aujourd'hui 20 novembre, le septennat fête ses 150 ans. Bien qu'il ait été remplacé depuis plus de vingt ans par le quinquennat, il suscite toujours des nostalgies. Or, l'idée singulière de confier le pouvoir à quelqu'un pendant sept ans, ce qui est long dans une démocratie, est le résultat d'une loi conçue comme provisoire. Un provisoire qui devait durer 127 ans !

L'adoption du quinquennat en 2000 a pourtant laissé des inconsolables du septennat si on en juge par des propositions récurrentes de le rétablir sous la forme d'un mandat pr... Poursuivre la lecture

« Que d'eau, que d'eau ! »

C'est l'exclamation attribuée au président Patrice de Mac-Mahon à la vue de la crue historique de la Garonne, à Toulouse, le 26 juin 1875.

« Que d'air, que d'air ! » brassé à l'Assemblée nationale au sujet de l'eau et des « mégabassines », pourrait-on dire aujourd'hui.

Les dépressions – au sens météorologique – se suivent sur la France avec la régularité d'un métro parisien quand il fonctionne normalement. Elles apportent d'importantes quantités d'eau dont une partie réhumidifie les sols et rech... Poursuivre la lecture

Voir plus d'articles