Hier, mardi 18 novembre, une panne mondiale de Cloudflare a paralysé une large partie du Web pendant plusieurs heures. Des milliers de sites et d’applications – parmi lesquels X (ex-Twitter), ChatGPT, Canva ou Spotify – ainsi que certains services bancaires sont restés inaccessibles ou fortement ralentis. Survenu quelques semaines seulement après l’incident majeur d’Amazon Web Services, cet épisode relance la question de la continuité de service et des pertes financières qu’entraînent de telles défaillances…
C’est un fait, les nations dépensent trop d’argent.
Aux Etats-Unis, le budget alloué à la Défense est très souvent critiqué pour les sommes astronomiques que l’Etat y consacre.
Mais ces sommes, c’est le prix à payer pour la dissuasion.
Prenons l’exemple des missiles Patriot.
Ces armes de guerre conçues pour intercepter les menaces aériennes coûtent cher à l’Etat américain.
Mais s’il s’en procure, ce n’est pas parce qu’il espère un joli retour sur investissement.
Il le fait parce que ces missiles, quoique chers, seront toujours moins chers que le prix à payer en vies humaines et en dégâts matériels en cas d’attaque.
Autrement dit… Les nations n’investissent pas dans la Défense pour obtenir un rendement sur leurs capitaux mais pour préserver leur existence.
Dans une entreprise, la même logique devrait s’appliquer en ce qui concerne l’uptime (la continuité de service). Et, comme on a pu le voir dernièrement avec les différentes pannes mondiales, c’est une question de plus en plus cruciale !
Les clusters d’IA, l’épine dorsale des télécommunications, les réseaux électriques… tous dépendent de la continuité de service.
Alors, comment faire pour assurer leur bon fonctionnement ? Eh bien à l’ère d’Internet, c’est la décentralisation qui offre la meilleure solution de long terme.
MAIS, il est vrai qu’elle coûte (traditionnellement) plus cher.
Cela se vérifie en matière d’énergie : un réseau électrique centralisé peut distribuer de l’électricité au prix de 0,10 $ à 0,15 $ le kWh, environ. En revanche, les micro-réseaux électriques distants (énergie solaire + batterie de stockage + les générateurs de secours au diesel) coûtent souvent deux à quatre fois plus cher au kWh.
Alors pourquoi les institutions investissent-elles à ce point dans les micro-réseaux électriques ? Parce qu’elles acceptent de plus en plus de payer un prix élevé en contrepartie de la souveraineté énergétique et de la continuité de service.
Prenons l’exemple de Starlink.
Le déploiement de la constellation Starlink a coûté plus de 10 Mds$. Chaque terminal utilisateur coûte plus de 500 $ (contre 50 $ pour l’installation de la fibre).
Et pourtant, Starlink joue un rôle majeur aujourd’hui. Pourquoi ?
Parce que ce système fournit Internet aux navires, aux régions ayant subi une catastrophe naturelle, et aux zones de guerre, autant d’endroits inaccessibles à la fibre.
En Ukraine, lorsque les réseaux terrestres ont été coupés, les terminaux Starlink ont pu remettre en route en quelques heures les centres de commandement militaire et les hôpitaux.
Mais revenons à nos missiles Patriot.
Chaque batterie antimissile Patriot (1 Md$, environ) défend une seule grande agglomération et ses alentours. Les réseaux de commandement redondants multiplient les coûts.
Et pourtant, les Etats-Unis acceptent de dépenser près de 100 Mds$ dans ces systèmes. Pourquoi ? Parce que les armées payent le prix fort pour avoir cette redondance : deux satellites au lieu d’un seul, et des centres de commandement dispersés plutôt que des quartiers généraux centralisés.
Les trois composantes nucléaires américaines (air, terre, mer) représentent une triple redondance volontaire. Le coût de la redondance, c’est le coût de la dissuasion.
La raison pour laquelle la plupart des systèmes ne fonctionnent pas ainsi est toute simple : pendant très longtemps, ce n’était pas économique.
Mais aujourd’hui, ça l’est. Alors cela change tout.
Quand les pannes coûtaient moins cher que la décentralisation
Pendant très longtemps, les pannes ont coûté moins cher que la décentralisation.
Les usines pouvaient s’arrêter de fonctionner une journée, les banques pouvaient fermer le week-end, et personne ne s’en inquiétait outre mesure.
Sur le papier, la centralisation est efficiente. Elle réduit les gaspillages, maximise les volumes, et admet des coupures occasionnelles comme prix à payer pour le progrès.
Et ce calcul a fonctionné : pourquoi bâtir deux exemplaires de tout quand un seul suffisait la plupart du temps ? Après tout, dans la plupart des cas, les pannes étaient négligeables.
Mais à présent, avec Internet, cette logique commence à s’inverser.
Aujourd’hui, tout système – financier, numérique, industriel – est connecté à quelque chose d’autre.
Un petit incident dans une région entraîne une crise sur tout le réseau. Quand AWS ou Visa, ou le réseau électrique du Texas, tombent en panne, les pertes sont de plus en plus catastrophiques.
Et pas seulement dans l’ensemble. Les coûts individuels sont de plus en plus désastreux, eux aussi.
Quand Delta Airlines a été paralysée après la mise à jour défaillante de CrowdStrike, la compagnie a annulé 7 000 vols et perdu 500 M$ : tout cela à cause de quelques lignes de code erroné.
En 2021, la violation d’un seul mot de passe VPN a entraîné la fermeture de Colonial Pipeline, paralysant 45 % de l’approvisionnement en carburant de la Côte Est.
En 2019, le site pétrolier d’Abqaiq, en Arabie saoudite, a été paralysé par une armée de drones bon marché qui ont brièvement réduit de 5 % la production mondiale de pétrole.
Voici où je veux en venir : les pannes commencent à coûter plus cher que la décentralisation.
Selon un sondage réalisé par IT IC, 44 % des entreprises [interrogées] déclarent un coût horaire lié aux pannes dépassant 1 M$, et 23 % un coût horaire dépassant 5 M$.
Une autre source (BigPanda) indique que les interruptions non planifiées coûtent désormais en moyenne ≈ 14 056 $ par minute, et jusqu’à 23 750 $ par minute pour les grandes entreprises — ce qui correspond à environ 1,4 M$ par heure.
Selon les estimations, le marché mondial de la cyber assurance (qui couvre de nombreux facteurs de risque liés à la continuité de service) représentait 16,6 Mds$ de primes, en 2024.
Mais on estime qu’il devrait atteindre 75 Mds$ d’ici 2033, soit 5 fois plus en moins de dix ans.
Et plus Internet s’étoffe, plus l’impératif d’une continuité de service s’accroît de façon exponentielle.
Et c’est une opportunité assez énorme, pour ceux qui voient où elle mène.
L’impératif de la continuité de service
Peu de gens se rendent compte à quel point les infrastructures centralisées et monolithiques sont fragiles. Un grand nombre de pannes commencent par de petites failles (bug logiciel, câble défectueux, mot de passe unique) mais se transforment en pannes majeures.
Par conséquent, la construction de systèmes permettant de défendre les infrastructures, via la décentralisation, est un impératif mondial.
C’est déjà en train d’arriver, mais l’une des tendances les plus importantes et méconnues est un minuscule secteur appelé « Decentralized Physical Infrastructure » ou DePIN : les infrastructures physiques décentralisées.
La DePIN transforme l’infrastructure physique en places de marché open source : tout le monde peut y intégrer un routeur, un GPU ou un panneau solaire et se faire rémunérer pour qu’il fonctionne en permanence. Les jetons sont les incitations qui coordonnent des millions de petits opérateurs sur un seul réseau mondial.
Vus de l’extérieur, les réseaux DePIN – qu’il s’agisse de puissance de calcul, de bande passante ou d’énergie – ressemblent à une expérimentation de plus dans le domaine des cryptomonnaies.
C’est intéressant et utile dans certains cas marginaux…quand tout va bien. Dans un contexte où tout va bien, ces nouvelles infrastructures tokénisées semblent stupides.
Dans un contexte de tempête en revanche, c’est la seule lumière qui brille encore au loin.
Le calcul économique est simple : plus la centralisation devient coûteuse, plus la résilience offerte par les systèmes distribués prend de la valeur. Mais comme Internet et l’IA s’alimentent mutuellement, la complexité se développe plus vite que les systèmes ne parviennent à s’adapter, et ce changement s’accélère donc énormément.
(D’ailleurs, certains projets de DePIN sont déjà bien moins chers que leurs contreparties centralisées. Il y a donc ce facteur, également).
Bon… nous ne sommes pas non plus en train de foncer vers un monde où les cryptomonnaies feront fonctionner votre grille-pain et votre routeur WiFi.
L’adoption de la DePIN interviendra progressivement… lentement dans un premier temps, puis plus rapidement, et principalement de deux façons :
- comme backup et contrepoids : comme quand les mineurs de Bitcoin modulent dynamiquement la demande en électricité pour stabiliser les réseaux électriques ;
- mais d’abord comme « chasseur d’inefficience », en répondant à toutes les attentes que les grands acteurs ne peuvent pas ou ne veulent pas combler.
Il existe un précédent : les stablecoins.
Les nouvelles règles de la monnaie
Tether, le stablecoin le plus important du monde, est parti de zéro avant de devenir en dix ans un acteur majeur de l’infrastructure financière.
Ce n’est pas parce que c’était le stablecoin le plus élégant ou le plus contrôlé.
En fait, Tether a exploité les inefficiences auxquelles les acteurs centralisés ne peuvent pas ou ne veulent pas résoudre.
Cette idée est au centre de mon prochain livre intitulé « Tether : The Rogue Token and the New Rules of Money.
Et la même dynamique s’appliquera à l’adoption de la DePIN.
| Failles exploitées par Tether | Failles exploitées par la DePIN |
| Horaires des banques [contraignants] versus des marchés ouverts 24h sur 24, 7 jours sur 7 | Demande en électricité versus cycles d’approvisionnement du réseau |
| Ecarts de change et délais de transfert de l’argent | Zones blanches et ressources informatiques non utilisées |
| Frictions liées aux règles KYC et contrôle des capitaux | Inertie réglementaire et équipements en panne |
| Accès difficile au dollar américain sur les marchés émergents | Manque de ressources informatiques, de bande passante ou d’énergie en périphérie [des zones couvertes]. |
Les utilisateurs de Tether se fichaient de l’idéologie mais se préoccupaient de la continuité de service, et de la possibilité de déplacer de la valeur immédiatement, sans permission ni délai.
Les utilisateurs de la DePIN feront la même chose. Et, de plus en plus, d’autres s’y mettront car la continuité de service coûte moins cher que l’interruption.
Mais cela commencera là où les failles sont les plus importantes – déserts énergétiques ruraux, périphérie des zones desservies par Internet, GPU non monétisés, capteurs non connectés – puis cela s’infiltrera progressivement.
Je vais conclure avec cette citation de John Seely Brown, qui a dirigé le célèbre centre de recherche de Xerox, à Palo Alto :
« C’est en périphérie que se situe l’action, et c’est là que l’avenir se révèle en premier ».
Et où est la périphérie, aujourd’hui ? Dans le secteur de la DePIN (« Decentralized Physical Infrastructure » : infrastructure physique décentralisée).


CHRYS est une mine de diamants. Merci pour tous les éclaircissements qu’il nous apporte. De plus il essaie d’être le moins technique possible pour rester accessible. Gabriel ESTABLET