Aller au contenu
  • L’appli T’inquiète, j’t’explique !
  • Me contacter
  • S’inscrire à la Newsletter
T'inquiète, j't'explique !

T'inquiète, j't'explique !

  • T’inquiète j’enquête !
  • Faut qu’j’te raconte !
  • J’texplique vite fait !
  • Hey ! Regarde ça !
T'inquiète, j't'explique !
T'inquiète, j't'explique !
Faut qu'j'te raconte !

Le succès invisible

Tu te souviens de la nuit du 31 décembre 1999 ? Les médias nous avaient promis l’apocalypse. Les avions allaient tomber du ciel, les banques se vider, les centrales nucléaires s’emballer. On avait même stocké des bouteilles d’eau et des conserves, au cas où. Et puis minuit a sonné… et rien. Absolument rien. Les grille-pains ont continué à griller, les ascenseurs à monter, les lumières à éclairer. Le lendemain, les journaux titraient déjà sur « l’arnaque du bug de l’an 2000 ». Comme si des milliers d’ingénieurs et de développeurs à travers le monde avaient passé des années à corriger des lignes de code obsolètes pour le plaisir.

Vingt ans plus tard, en mars 2020, le scénario s’est répété. Les modélisations annonçaient des centaines de milliers de morts si on ne faisait rien contre ce nouveau virus. On a confiné, porté des masques, espacé les chaises dans les cafés. Et quand les courbes ont commencé à s’aplatir, quand les hôpitaux n’ont pas été submergés, les mêmes voix se sont élevées : « Vous voyez, ce n’était qu’une grosse grippe ». Comme si les mesures préventives avaient été inutiles parce qu’elles avaient fonctionné. Bienvenue dans le paradoxe de la prévention. Ce moment étrange où le succès se retourne contre lui-même, où l’absence de catastrophe devient la preuve qu’on nous a menti. Où le silence devient le pire ennemi de ceux qui l’ont rendu possible.

Le bug de l’an 2000 n’était pas une invention. Dans les années 60 et 70, quand la mémoire des ordinateurs coûtait une fortune, les programmeurs avaient pris l’habitude d’économiser de l’espace en notant les années sur deux chiffres seulement. 1975 s’écrivait « 75 », 1983 devenait « 83 ». Personne ne pensait que ces systèmes survivraient jusqu’à l’an 2000. Et pourtant, en 1999, des milliers de programmes, de bases de données, de systèmes embarqués fonctionnaient encore avec cette logique. Quand les horloges passeraient de « 99 » à « 00 », les machines comprendraient-elles qu’il s’agissait de 2000… ou de 1900 ? Les conséquences pouvaient être dramatiques : des transactions financières erronées, des systèmes de contrôle aérien défaillants, des centrales électriques hors de contrôle.

Ce qui s’est passé ensuite relève de l’exploit d’ingénierie le plus sous-estimé de l’histoire moderne. Entre 1995 et 2000, des centaines de milliers de développeurs à travers le monde ont passé au peigne fin des milliards de lignes de code. Ils ont traqué chaque « 99 » qui aurait dû être « 1999 », chaque calcul de date qui risquait de dérailler. Le coût total ? Entre 300 et 500 milliards de dollars. Une somme colossale, mais dérisoire comparée au chaos qu’aurait pu provoquer un bug généralisé. Et quand minuit est arrivé sans incident, ce silence était leur trophée. Leur victoire absolue. Pourtant, c’est précisément ce silence qui a nourri les théories du complot. « Si rien ne s’est passé, c’est que le danger n’a jamais existé ». Comme si le travail acharné de ces ingénieurs n’avait servi à rien. Comme si une forêt épargnée par les flammes prouvait que le risque d’incendie était une invention.

En 2020, le même mécanisme s’est enclenché. Quand les premières modélisations ont montré ce qui pourrait arriver si on laissait le virus circuler librement, les gouvernements ont pris des mesures drastiques. Confinements, masques, distanciation sociale. L’objectif n’était pas d’éradiquer le virus du jour au lendemain, mais d' »aplatir la courbe ». De ralentir sa propagation pour éviter que les hôpitaux ne soient submergés. Et ça a marché. Dans de nombreux pays, les systèmes de santé ont tenu. Les courbes épidémiques ont ralenti. Mais parce que les images de réanimation bondées n’ont pas envahi nos écrans, parce que les camions frigorifiques n’ont pas stationné devant les hôpitaux, une partie de la population a conclu que la menace avait été exagérée. « Vous voyez, ce n’était qu’une grippe ». Comme si le fait que les hôpitaux n’aient pas été débordés prouvait que le virus n’était pas dangereux. Comme si le succès des mesures préventives annulait la réalité de la menace.

C’est le cœur du paradoxe : plus une mesure préventive est efficace, plus le danger initial semble avoir été exagéré.


🧠 Le biais du survivant : quand on ne voit que ceux qui reviennent

Pendant la Seconde Guerre mondiale, les ingénieurs britanniques étudiaient les avions qui revenaient des missions de combat. Ils observaient les impacts de balles sur les fuselages et voulaient renforcer les parties les plus endommagées. Mais le statisticien Abraham Wald leur a fait remarquer une erreur fondamentale : les avions qu’ils étudiaient étaient ceux qui avaient réussi à revenir. Les impacts qu’ils voyaient indiquaient donc les parties qui pouvaient être touchées sans empêcher l’avion de rentrer. Les parties intactes, en revanche, étaient probablement celles qui, si elles étaient touchées, faisaient s’écraser l’avion. C’est là l’essence du biais du survivant : notre cerveau a du mal à prendre en compte ce qu’on ne voit pas.

On se souvient des catastrophes, pas des désastres évités. On célèbre les pompiers qui éteignent les incendies, pas ceux qui empêchent les départs de feu. On honore les médecins qui sauvent des vies en réanimation, pas ceux qui vaccinent pour éviter les hospitalisations. Ce biais cognitif fondamental fera l’objet d’un article complet dans notre saga « Penser contre son cerveau ».


Pourtant, l’histoire regorge d’exemples où l’absence de catastrophe était en réalité une victoire. En 1962, pendant la crise des missiles de Cuba, les négociations entre Kennedy et Khrouchtchev ont évité une guerre nucléaire. Personne ne célèbre cette non-guerre chaque année. En 2008, les plans de sauvetage des banques ont empêché un effondrement économique mondial. On se souvient de la crise, pas de l’apocalypse évitée. Le paradoxe de la prévention nous rend aveugles à nos propres succès. Il nous pousse à sous-estimer les menaces futures parce que les précédentes ont été gérées avec succès. Et c’est là que réside le vrai danger : si on discrédite les experts parce qu’ils ont « réussi l’invisible », on se prépare à ignorer les prochaines alertes.

Prenons le bug de 2038, par exemple. Ce successeur du bug de l’an 2000 menace tous les systèmes qui utilisent encore des horloges 32 bits. Le 19 janvier 2038 à 3h14:07 UTC, ces horloges passeront de la seconde 2 147 483 647 à… -2 147 483 648. Pour un ordinateur, cela signifiera un retour en 1901. Les conséquences ? Potentiellement aussi graves qu’en 2000 : systèmes de navigation défaillants, transactions financières erronées, infrastructures critiques hors de contrôle. Les ingénieurs travaillent déjà à corriger ce problème, mais comme pour le bug de l’an 2000, leur succès passera inaperçu. Si rien ne se passe ce jour-là, beaucoup diront que le danger était exagéré. Pourtant, des milliers d’heures de travail auront été nécessaires pour éviter le chaos. Des systèmes critiques comme les réseaux électriques, les systèmes de contrôle aérien ou les infrastructures bancaires auront été mis à jour. Mais personne ne verra ce travail invisible.

La prochaine fois qu’on t’annonce une catastrophe qui n’arrive finalement pas, ne cherche pas forcément le complot. Cherche plutôt ceux qui ont bossé dans l’ombre pour te l’éviter. Les développeurs qui ont corrigé des lignes de code en 1999, les soignants qui ont tenu les hôpitaux en 2020, les négociateurs qui ont évité des guerres… Tous ces gens qui ont rendu le monde banal alors qu’il aurait pu être chaotique. Parce que la vraie compétence, ce n’est pas de réparer le désastre. C’est de l’empêcher d’arriver.


  • Bug de l’an 2000 – Rapport du Sénat français (2000)
  • The Year 2000 Problem – IEEE Computer Society (1997) (source en anglais)
  • Modélisations de l’épidémie de COVID-19 – Imperial College London (2020) (source en anglais)
  • L’impact des mesures de distanciation sociale – Nature (2020) (source en anglais)
  • Biais cognitifs et perception des risques – CNRS Le Journal (2018)
  • Crise des missiles de Cuba – Archives du ministère des Affaires étrangères (1962)

Partager sur

Share on Facebook

Navigation de l’article

Précédent Précédent
Les tâches de léopard sur Mars

© 2026 T'inquiète, j't'explique ! - Thème WordPress par Kadence WP

  • T’inquiète, j’enquête !
  • Faut qu’j’te raconte !
  • J’t’explique vite fait !
  • Hey ! Regarde ça !
  • L’appli T’inquiète, j’t’explique !
  • S’inscrire à la Newsletter
  • Me Contacter