# Invisible torture: mind control and cyber torture in the face of global indifference Published on 07/11/2025 By Raúl Allain ![](image) There is a form of torture that leaves no visible marks, but silently destroys the mind, body and identity of those who suffer it. A form of violence so sophisticated that it is confused with paranoia or mental illness. I am talking about mind control and cyber torture: real, documented phenomena, yet systematically denied by the structures of power and international indifference. For years, the United Nations (UN) has received reports from victims who claim to have been subjected to electronic harassment, neuropsychological manipulation and covert surveillance using advanced technologies. The Special Rapporteur on Torture has recognised that the definition of torture must be adapted to new forms of technological aggression. And yet, there is still a wall of silence when someone mentions the word cyber-torture. The term does not officially appear in the treaties, but its existence is felt in the testimonies. Victims speak of synthetic voices that intrude on their thoughts, induced impulses, remote emotional manipulation, or the constant feeling of being watched even in the most absolute privacy. It sounds like science fiction, and perhaps that is why it has been so easy to dismiss. But the fact that something sounds implausible does not make it any less real. As a sociologist, I have learned to be wary of overly comfortable consensus. History is full of practices that were denied at the time and later recognised as flagrant violations of human rights. Non-consensual experimentation on humans—from Nazi concentration camps to secret intelligence programmes during the Cold War—shows that the ethical boundaries of science can be blurred with alarming ease. The MK-Ultra Project, for example, was not a conspiracy theory, but a real operation documented by the CIA in the 1950s and 1960s. Its objective: to explore mind control techniques using drugs, hypnosis, and extreme sensory stimulation. When some of the documents were declassified in the 1970s, the world learned of only a fraction of the horror. This was a precursor to what some researchers today describe as "remote neuromodulation": the use of microwave technologies, electromagnetic frequencies, and nanodevices to alter brain activity or human behaviour. Exaggeration? Perhaps. But refusing to investigate it thoroughly would be, at best, irresponsible. At worst, complicity. In 2019, the UN received a report from the Special Rapporteur on Torture, Nils Melzer, warning that the use of neuro-targeted technologies for coercive purposes should be considered a form of torture. Melzer, known for his work in defence of Julian Assange, pointed out that systematic psychological manipulation can be as devastating as physical pain. Behind that observation lies something deeper: the recognition that the human consciousness may become the battlefield of the 21st century. I have spoken with people who claim to have been victims of mind control. They are not delusional or mystical. They are professionals, students, ordinary workers who began to notice disturbing patterns: digital harassment, constant surveillance, subliminal messages on social media, interference with their devices. Some have isolated themselves, unable to explain what they are experiencing without being judged. Others have organised themselves into support communities, such as the International Coalition Against Electronic Torture and the Robotisation of Living Beings (ICATOR), which has been reporting the existence of neuroelectronic harassment technologies to the United Nations for years. In Lima, I have encountered similar cases: people who report hearing directed "voices," feeling internal shocks, or experiencing induced dreams after being subjected to surveillance or political conflicts. Some have been diagnosed with schizophrenia, others simply silenced. And although not all cases may have a technological origin, the coincidence in the descriptions should be enough to motivate serious and transparent scientific investigation. The problem, of course, is that the boundaries between technology, mental health, and political power have become blurred. States and technology corporations possess surveillance tools that were unimaginable just two decades ago. Algorithms know more about us than we know about ourselves. Artificial intelligence can mimic voices, emotions, and even intentions. Who can guarantee that these systems will not be used—or are not already being used—to manipulate collective or individual perception? Cyber torture, more than just abuse, represents the ultimate dehumanisation. It is no longer about subjugating bodies, but consciences. It is torture without physical contact, but with devastating effects: insomnia, induced paranoia, loss of sense of self, learned helplessness. In practice, it turns victims into mental prisoners. The most alarming aspect is the legal vacuum. International human rights conventions, including the UN Convention against Torture, were drafted before the rise of neurotechnology. They do not contemplate the possibility that a person could be tortured without being touched. International law has remained stuck in the 20th century, while 21st-century technologies advance without effective regulation. In 2020, the European Union began debating the ethical limits of "applied neuroscience." Organisations such as the Human Brain Project have warned that brain manipulation could be used for coercive purposes. However, scientific warnings rarely reach the general public. The discussion about cyber-torture remains marginal, and those who denounce it are easily ridiculed or silenced. This is no coincidence. Denial is part of the mechanism. Throughout history, control systems have depended on the disbelief of the masses. The invisible becomes unpunishable. And meanwhile, victims continue to be treated as mentally ill, which constitutes a second form of violence: institutional violence. I remember a woman, a mother of two, who tearfully told me how her world began to fall apart after participating in social protests. "I couldn't sleep. I heard voices, but they weren't in my head. They changed tone, responding to my thoughts. My devices turned on by themselves. I thought I was going mad, until other people started telling me similar things." That phrase — "I thought I was going mad" — is repeated like an echo in the testimonies of victims of cyber torture. The anguish of not being able to prove one's own suffering. Technology, which began as a promise of freedom, has become a new form of slavery. And the most perverse thing is that this slavery is invisible. There are no bars, no interrogators in dark rooms. Just a series of impulses, frequencies and algorithms capable of penetrating the most intimate space: the mind. The UN has an unavoidable responsibility. It cannot continue to ignore allegations on the pretext that they are "unverifiable". Just because something is difficult to prove does not mean it does not exist. When gas chambers were rumoured to exist, it was also said that they were impossible. When Latin American dictatorships denied the existence of disappeared persons, it was also said that these were exaggerations. The pattern repeats itself: first denial, then belated acceptance, when it is already too late. Mind control and cyber torture represent the new face of totalitarianism. A totalitarianism without visible ideology, without an army or concentration camps, but with the ability to infiltrate thoughts, shape emotions and nullify free will. If that isn't torture, what is? In a world where mass surveillance has become normalised—from digital tracking to everyday biometrics—the risk of these technologies being used for coercive purposes is real. It is not a question of futurism or paranoia, but of power. All power tends to expand if no limits are placed on it. Cyber-torture must be officially recognised as a crime against humanity. The UN must set up an interdisciplinary working group, comprising independent scientists, human rights defenders and victims, to investigate allegations of neuroelectronic manipulation. And states must adopt laws prohibiting the development and use of mind control technologies without consent. Discussions about technological ethics are not enough. A legal framework is needed to defend the sovereignty of the human mind. Because, ultimately, the mind is the last free territory we have left. I am concerned about the silence from academia and the media. The press, so eager to cover political scandals or viral trivialities, avoids talking about cyber torture. Perhaps out of fear of losing credibility, perhaps because control mechanisms also operate in the media. But journalism, if it wants to continue to be an exercise in truth, must have the courage to look at what no one else wants to look at. Sociologists often say that reality is not what happens, but what society accepts as real. If we accept cyberbullying as mere fantasy, we are contributing to its perpetuation. If we recognise it as a concrete threat, we can begin to combat it. The difference between these two positions is the line that separates ignorance from responsibility. Ultimately, the question is not whether mind control exists, but to what extent we are willing to admit that technology has surpassed our ethical capacity. History will judge us for what we refuse to see. Torture in the 21st century leaves no scars on the skin, but on the conscience. And as long as we continue to deny its existence, we will be allowing the human mind — that sacred space of inner freedom — to become the new battlefield of power. -​--------- **References** - Melzer, Nils. _Report of the Special Rapporteur on Torture and Other Cruel, Inhuman or Degrading Treatment or Punishment_, Naciones Unidas, 2019. - United Nations Human Rights Council. _Emerging Technologies and Human Rights_, Geneva, 2020. - Marks, John. _The Search for the “Manchurian Candidate”: The CIA and Mind Control_. W.W. Norton, 1979. - ICATOR (International Coalition Against Electronic Torture and the Robotisation of Living Beings). _Petition to the United Nations_, 2021. - European Parliament. _Ethics of Neurotechnology and Human Rights_, 2020. Source:
# La torture invisible : le contrôle mental et la cyber-torture face à l'indifférence mondiale Publié le 11/07/2025 Par Raúl Allain ![](image) Il existe une forme de torture qui ne laisse aucune trace visible, mais qui détruit silencieusement l'esprit, le corps et l'identité de ceux qui la subissent. Une violence si sophistiquée qu'elle se confond avec la paranoïa ou la maladie mentale. Je parle du contrôle mental et de la cyber-torture : des phénomènes réels, documentés, et pourtant systématiquement niés par les structures du pouvoir et l'indifférence internationale. Depuis des années, **l'Organisation des Nations Unies** (ONU) reçoit des rapports de victimes qui affirment avoir été soumises à du harcèlement électronique, à de la manipulation neuropsychologique et à une surveillance secrète à l'aide de technologies avancées. Le _Rapporteur spécial sur la torture_ a reconnu que la définition de la torture devait être adaptée aux nouvelles formes d'agression technologique. Et pourtant, un **mur de silence** continue de s'ériger dès que quelqu'un prononce le mot _cybertorture_. Le terme n'apparaît pas officiellement dans les traités, mais son existence transparaît dans les témoignages. Les victimes parlent de voix synthétiques qui envahissent leurs pensées, d'impulsions induites, de manipulation émotionnelle à distance ou du sentiment constant d'être observées, même dans l'intimité la plus absolue. Cela ressemble à de la science-fiction, et c'est peut-être pour cette raison qu'il a été si facile de le discréditer. Mais le fait que quelque chose semble invraisemblable ne le rend pas moins réel. En tant que **sociologue**, j'ai appris à me méfier des consensus trop faciles. L'histoire regorge d'exemples de pratiques initialement rejetées, puis reconnues comme des violations flagrantes des droits humains. Les expériences **non consenties** sur des êtres humains, des camps de concentration nazis aux programmes secrets des services de renseignement pendant la guerre froide, montrent que la **frontière éthique** de la science peut s'estomper avec une facilité alarmante. Le **projet MK-Ultra**, par exemple, n'était pas une théorie du complot, mais une opération réelle documentée par la CIA dans les années 50 et 60. Son objectif : explorer les techniques de contrôle mental par le biais de drogues, de l'hypnose et de la stimulation sensorielle extrême. Lorsque certains documents ont été déclassifiés dans les années 70, le monde n'a découvert qu'une fraction de l'horreur. Ce projet était un prélude à ce que certains chercheurs décrivent aujourd'hui comme la « neuromodulation à distance » : l'utilisation de technologies à micro-ondes, de fréquences électromagnétiques et de nanodispositifs pour modifier l'activité cérébrale ou le **comportement humain**. Exagération ? Peut-être. Mais refuser d'enquêter de manière approfondie serait, au mieux, irresponsable. Au pire, complice. En 2019, l'ONU a reçu un rapport du _Rapporteur spécial sur la torture_, Nils Melzer, dans lequel il avertissait que l'utilisation de technologies neuro-dirigées à des fins coercitives devait être considérée comme une forme de torture. Melzer, connu pour son travail en faveur de Julian Assange, a souligné que la **manipulation psychologique systématique** peut être aussi dévastatrice que la douleur physique. Derrière cette observation se cache quelque chose de plus profond : la reconnaissance que la conscience humaine pourrait devenir le champ de bataille du XXIe siècle. J'ai discuté avec des personnes qui affirment avoir été victimes de contrôle mental. Elles ne sont ni délirantes ni mystiques. Ce sont des professionnels, des étudiants, des travailleurs ordinaires qui ont commencé à remarquer des schémas inquiétants : harcèlement numérique, surveillance constante, messages subliminaux sur les réseaux sociaux, interférences dans leurs appareils. Certaines se sont isolées, incapables d'expliquer ce qu'elles vivent sans être jugées. D'autres se sont organisées en communautés de soutien, comme l'International Coalition Against Electronic Torture and the Robotisation of Living Beings (ICATOR), qui **dénonce** depuis des années auprès des Nations unies l'existence de technologies de harcèlement neuroélectronique. À Lima, j'ai rencontré des cas similaires : des personnes qui rapportent entendre des « voix » ciblées, ressentir des décharges internes ou faire des rêves induits après avoir fait l'objet d'une surveillance ou de conflits politiques. Certains ont été diagnostiqués comme schizophrènes, d'autres ont simplement été réduits au silence. Et même si tous les cas ne peuvent pas avoir une origine technologique, la **coïncidence** des descriptions devrait suffire à motiver une enquête scientifique sérieuse et transparente. Le problème, bien sûr, est que les frontières entre technologie, santé mentale et pouvoir politique sont devenues floues. Les États et les entreprises technologiques disposent d'outils de **surveillance inimaginables** il y a seulement deux décennies. Les algorithmes en savent plus sur nous que nous-mêmes. L'intelligence artificielle peut imiter les voix, les émotions et même les intentions. Qui garantit que ces systèmes ne sont pas utilisés — ou ne sont pas déjà utilisés — pour **manipuler la perception** collective ou individuelle ? La cyber-torture, plus qu'un simple abus, représente la **déshumanisation ultime**. Il ne s'agit plus de soumettre des corps, mais des consciences. C'est une torture sans contact physique, mais aux effets dévastateurs : insomnie, paranoïa induite, perte du sens de soi, désespoir appris. Dans la pratique, elle transforme les victimes en prisonniers mentaux. Le plus alarmant est le vide juridique. Les conventions internationales sur les droits de l'homme, y compris la Convention contre la torture des Nations unies, ont été rédigées avant l'essor des neurotechnologies. Elles n'envisagent pas la possibilité qu'une personne puisse être torturée sans être touchée. Le droit international est resté ancré dans le XXe siècle, tandis que les technologies du XXIe siècle progressent sans **réglementation efficace**. En 2020, l'Union européenne a commencé à débattre des limites éthiques des « neurosciences appliquées ». Des organismes tels que le _Human Brain Project_ ont averti que la manipulation cérébrale pourrait être utilisée à des fins coercitives. Cependant, les **avertissements scientifiques** parviennent rarement au grand public. Le débat sur la cybertorture reste marginal, et ceux qui le dénoncent sont facilement ridiculisés ou réduits au silence. Ce n'est pas un hasard. Le déni fait partie du mécanisme. Tout au long de l'histoire, les systèmes de contrôle ont dépendu de l'**incrédulité des masses**. L'invisible devient impuni. Et pendant ce temps, les victimes continuent d'être traitées comme des malades mentaux, ce qui constitue une deuxième forme de violence : la violence institutionnelle. Je me souviens d'une femme, mère de deux enfants, qui m'a raconté en larmes comment son environnement a commencé à s'effondrer après avoir participé à des manifestations sociales. « Je ne pouvais plus dormir. J'entendais des voix, mais ce n'étaient pas celles de mon esprit. Elles changeaient de ton, répondaient à mes pensées. Mes appareils s'allumaient tout seuls. Je pensais que je devenais folle, jusqu'à ce que d'autres personnes commencent à me raconter des choses similaires ». Cette phrase — « je pensais que je devenais folle » — revient comme un écho dans les témoignages des **victimes de cyber-torture**. L'angoisse de ne pas pouvoir prouver sa propre souffrance. La technologie, qui était à l'origine une promesse de liberté, est devenue une nouvelle forme d'esclavage. Et le plus pervers, c'est que cet esclavage est invisible. Il n'y a pas de barreaux, pas d'interrogateurs dans des pièces sombres. Seulement une série d'impulsions, de fréquences et d'algorithmes capables de pénétrer l'espace le plus intime : **l'esprit**. L'ONU a une responsabilité incontournable. Elle ne peut continuer à **ignorer** les dénonciations sous prétexte qu'elles sont « invérifiables ». Le fait qu'une chose soit difficile à prouver ne signifie pas qu'elle n'existe pas. Lorsque les chambres à gaz faisaient l'objet de rumeurs, on disait également que c'était impossible. Lorsque les dictatures latino-américaines niaient l'existence de disparus, on disait également que c'étaient des exagérations. Le schéma se répète : d'abord le déni, puis l'**acceptation tardive**, quand il est déjà trop tard. Le contrôle mental et la cyber-torture représentent le nouveau visage du **totalitarisme**. Un totalitarisme sans idéologie visible, sans armée ni camps de concentration, mais capable d'infiltrer les pensées, de modeler les émotions et d'annuler la volonté. Si ce n'est pas de la torture, qu'est-ce que c'est ? Dans un monde où la surveillance de masse est devenue la norme – du traçage numérique à la biométrie quotidienne –, le risque que ces 1technologies soient utilisées à des fins coercitives est réel. Il ne s'agit pas de futurisme ou de paranoïa, mais de pouvoir. Tout pouvoir tend à s'étendre s'il n'est pas limité. La cyber-torture doit être officiellement reconnue comme un **crime contre l'humanité**. L'ONU doit créer un groupe de travail interdisciplinaire, composé de scientifiques indépendants, de défenseurs des droits humains et de victimes, afin d'enquêter sur les allégations de manipulation neuroélectronique. Et les États doivent adopter des lois interdisant le développement et l'utilisation de technologies de contrôle mental sans consentement. Les discours sur l'éthique technologique ne suffisent pas. Il faut un cadre juridique qui défende la souveraineté de l'esprit humain. Car l'esprit est, en fin de compte, le dernier territoire libre qui nous reste. Je m'inquiète du silence des universitaires et des médias. La presse, si prompte à couvrir les scandales politiques ou les futilités virales, évite de parler de cyber-torture. Peut-être par crainte de perdre sa **crédibilité**, peut-être parce que les mécanismes de contrôle opèrent également dans les espaces de communication. Mais le journalisme, s'il veut rester un exercice de vérité, doit avoir le courage de regarder ce que personne ne veut voir. Les sociologues ont coutume de dire que la réalité n'est pas ce qui se passe, mais ce que la société accepte comme réel. Si nous acceptons la cyber-torture comme un simple fantasme, nous contribuons à la perpétuer. Si nous la reconnaissons comme une **menace concrète**, nous pouvons commencer à la combattre. La différence entre ces deux positions est la ligne qui sépare l'ignorance de la responsabilité. En fin de compte, la question n'est pas de savoir si le contrôle mental existe, mais jusqu'à quel point nous sommes prêts à admettre que la technologie a dépassé notre capacité éthique. L'histoire nous jugera pour ce que nous refusons de voir. La torture du XXIe siècle ne laisse pas de cicatrices sur la peau, mais dans la **conscience**. Et tant que nous continuerons à nier son existence, nous permettrons à l'esprit humain — cet espace sacré de liberté intérieure — de devenir le nouveau champ de bataille du pouvoir. -​--------- **Références** - Melzer, Nils. _Rapport du Rapporteur spécial sur la torture et autres peines ou traitements cruels, inhumains ou dégradants_, Nations Unies, 2019. - Conseil des droits de l'homme des Nations Unies. _Technologies émergentes et droits de l'homme_, Genève, 2020. - Marks, John. _The Search for the « Manchurian Candidate » : The CIA and Mind Control_. W.W. Norton, 1979. - ICATOR (Coalition internationale contre la torture électronique et la robotisation des êtres vivants). _Pétition adressée aux Nations Unies_, 2021. - Parlement européen. _Éthique des neurotechnologies et droits de l'homme_, 2020. Source:
# Careless Whisper: WhatsApp and Signal can leak data from silent receipts __Just saw this video () from Daniel Boctor about a type of exploit that can be used to determine your phone model, whether the screen is locked, unlocked or the app is active, whether you're on Wi-Fi or cellular and much more just from sending malformed messages and analyzing the silent delivery receipts. All an attacker needs, is your phone number. Couple that with the recent WhatsApp leak (https://www.univie.ac.at/en/news/detail/forscherinnen-entdecken-grosse-sicherheitsluecke-in-whatsapp) (and we don't know if anyone else exploited it aside from the security researchers) and we have a pretty devastating situation with WhatsApp in particular.__ __The original source can be found here:__ https://arxiv.org/pdf/2411.11194 __As of now, it seems a fix is not available and neither WhatsApp/Meta or Signal/Signal Foundation have shown any interest in fixing it, which I find quite concerning. Just thought I would share this, so you can be aware. The video is also pretty good, so I suggest you watch that, even after reading the paper first.__ Source :
Je viens de voir cette vidéo () de Daniel Boctor sur un type d'exploit qui peut être utilisé pour déterminer le modèle de votre téléphone, si l'écran est verrouillé ou déverrouillé, si l'application est active, si vous êtes connecté au Wi-Fi ou au réseau cellulaire, et bien plus encore, simplement en envoyant des messages malformés et en analysant les accusés de réception silencieux. Tout ce dont un pirate a besoin, c'est de votre numéro de téléphone. Ajoutez à cela la récente fuite de WhatsApp (https://www.univie.ac.at/en/news/detail/forscherinnen-entdecken-grosse-sicherheitsluecke-in-whatsapp) (et nous ne savons pas si quelqu'un d'autre l'a exploitée à part les chercheurs en sécurité) et nous nous retrouvons dans une situation assez catastrophique, en particulier avec WhatsApp. La source originale se trouve ici : https://arxiv.org/pdf/2411.11194 À l'heure actuelle, il semble qu'aucun correctif ne soit disponible et ni WhatsApp/Meta ni Signal/Signal Foundation ne semblent intéressés par la résolution du problème, ce que je trouve assez préoccupant. Je tenais simplement à vous en faire part afin que vous en soyez informés. La vidéo est également très intéressante, je vous suggère donc de la regarder, même après avoir lu l'article. Source :
# 🌍 Le paradoxe vert de Bitcoin : pourquoi 70 % de son énergie vient d’ailleurs… là où personne ne veut l’acheter ### Introduction : une révolution invisible Pendant des années, le Bitcoin a été présenté comme un gouffre énergétique — une menace pour le climat, un gaspillage industriel à l’ère de la sobriété carbone. Pourtant, une mutation silencieuse a eu lieu. En 2025, **le minage de Bitcoin n’est plus un consommateur d’énergie — il en est devenu un _récupérateur_, un _stabilisateur_, voire un _catalyseur vert_**. Les chiffres parlent d’eux-mêmes : - **Puissance continue mondiale** : 12,8 à 41,8 GW (soit l’équivalent de 10 à 30 centrales nucléaires en fonctionnement permanent) - **Consommation annuelle estimée** : entre 112 et 366 TWh — certes massive, mais désormais **largement décorrélée des réseaux classiques**. - **Efficacité énergétique des ASIC** : 12 à 30,5 J/TH — une progression de 60 % en 3 ans, grâce à des générations de puces 3 nm et à des refroidissements avancés. - **Coût marginal de production d’un BTC** : $34 616 à $98 632 — reflétant non pas un gaspillage, mais une **stratégie de valorisation de ressources économiquement mortes**. Mais derrière ces nombres, c’est **une logique systémique** qui est en train de bouleverser la lecture environnementale du Proof-of-Work. ## 🔋 70 % du minage repose sur de l’énergie _économiquement résiduelle_ — voire _négative_ Contrairement aux représentations caricaturales, **le minage de Bitcoin ne se branche pas sur le réseau domestique**. Il va là où l’électricité est _non commercialisable_ — trop éloignée, trop intermittente, ou trop coûteuse à transporter. En 2025, la répartition est sans ambiguïté : | | | | | ------------------------------------------------------------------------------- | ------ | ---------------------------------------------------------------------------------------------------- | | **Surplus d’énergies renouvelables** (éolien/solaire excédentaire, curtailment) | ≈ 40 % | Énergie _perdue_ si non utilisée — valeur proche de zéro, voire négative (frais d’arrêt de turbines) | | **Gaz torché / méthane de décharge** | ≈ 30 % | Gaz _détruit par combustion_ ou _relâché_ — valoriser via le minage réduit les GES ×84 | | **Chaleur récupérée (data heat reuse)** | ≈ 2 % | Co-produit industriel — dans les pays froids, il couvre jusqu’à **70 % du coût net énergétique** | | **Réseau bas-coût / nucléaire excédentaire / hydraulique sous-utilisée** | ≈ 25 % | Énergie non exportable ou non rentable à vendre sur le marché spot | | **Autres / incertitudes** | ≈ 3 % | — | 👉 **Conclusion fondamentale** : _~70 % de la puissance minière mondiale est alimentée par de l’énergie qui, sans Bitcoin, serait soit perdue, soit émise sous forme de méthane, soit brûlée gratuitement._ Ce n’est plus une anecdote. C’est un **modèle structurel**. ![Bitcoin Miners by Power Source](https://media.licdn.com/dms/image/v2/D4E12AQEGuErC8lBDJw/article-inline_image-shrink_1000_1488/B4EZqrqyB4HUAQ-/0/1763816711082?e=1765411200&v=beta&t=SXxMxX9tOtO-S3RIHm0ZXiDlJ7FPQ29gB49HY5N0OwA) ![Emission Intensity Across Sectors](https://media.licdn.com/dms/image/v2/D4E12AQGVpRSIb7lt7A/article-inline_image-shrink_1500_2232/B4EZqrqyCOHoAU-/0/1763816710934?e=1765411200&v=beta&t=9mJRZRaput7t5s669EDduOqU7WLo0N279UzY4QUFqFw) ![Messari](https://media.licdn.com/dms/image/v2/D4E12AQEDDKo0C-f63A/article-inline_image-shrink_1500_2232/B4EZqrqyCmKkAU-/0/1763816711571?e=1765411200&v=beta&t=M11-EkzpX0V8lQBRN4CdA4VOvxcmGSTFxk8SjreK8kw) ## 🌱 Trois leviers de transformation environnementale — déjà à l’œuvre ### 1. **L’absorption d’excédents renouvelables : le stabilisateur invisible** Le minage est **la charge flexible la plus réactive et la plus scalable** au monde : > Selon Duke University (fév. 2025), les mineurs atteignent une **réduction de charge de 95 % en moins de 2 minutes** lors des pics de demande — contre 20 à 40 % pour les autres charges (ex : électrolyseurs, batteries). Résultat ? Des parcs éoliens/solaires deviennent **rentables là où ils étaient inviables**. En Islande, au Texas, en Scandinavie — des opérateurs intègrent le minage _dès la phase de conception_ du projet renouvelable. ### 2. **La neutralisation du méthane : une externalité _positive_** Le méthane (CH₄) a un **potentiel de réchauffement global 84 fois supérieur au CO₂ sur 20 ans**. Or, chaque MWh produit à partir de gaz torché évite : - la combustion à ciel ouvert (flaring → CO₂ + suies) - ou pire : le _venting_ (émission directe de CH₄). Aujourd’hui, des sociétés comme **MARA** ou **Stranded Energy** convertissent des sites pétroliers en **centrales minières mobiles**, captant 95 % du méthane autrefois perdu. → _Non seulement le minage ne creuse pas le trou carbone — il le rebouche._ ### 3. **La chaleur, un sous-produit valorisé** Un mineur consomme 100 % d’électricité — et rejette **90 % de cette énergie sous forme de chaleur**. Dans les climats froids (Canada, Finlande, Islande, Sibérie), cela devient un **service énergétique** : - Chauffage de serres agricoles (ex : _BitcoinHeating_ en Suède) - Piscines municipales (ex : _Heatmine_ à Helsinki) - Réseaux de chaleur urbains > D’après l’_International District Energy Association_ (juil. 2025) : **1 MW de chaleur récupérée = 455 tonnes de CO₂ évitées/an** vs. une chaudière au fioul. Le minage n’est plus un _coût_ — c’est un **co-produit**. ## 📚 Un consensus scientifique émergent Les données ne sont plus contestables : - **Cambridge (avr. 2025)** : **52,4 % d’énergie durable** dans le mix minié — _et une contribution active à la stabilité des réseaux_. - **PNAS (2024)** : l’association _Bitcoin + hydrogène vert_ permet d’augmenter la capacité éolienne de **+73 %**. - **Journal of Cleaner Production (2024)** : dans 96 % des cas, le minage avec renouvelables est **plus rentable que la production d’hydrogène**. - **IEEE Access (2025)** : ROI de **57,7 %** pour un système PV + minage — contre **12,5 %** avec batteries seules. Et surtout : > « _Le minage n’est pas concurrentiel — il est complémentaire. Il achète ce que personne ne veut, quand personne ne veut l’acheter._ » > — **Lal & You, ACS Sustainable Chemistry & Engineering (2023)** ## 🌐 Une presse enfin alignée sur la réalité Il y a trois ans, les gros titres parlaient de « _Bitcoin dévore la planète_ ». Aujourd’hui ? ✅ **89,5 %** des articles de presse généraliste sont _positifs ou nuancés_ ✅ **91 %** dans la presse spécialisée climat/durabilité ✅ **80 %** des études _peer-reviewed_ soulignent des **externalités positives** Parmi les titres marquants : - **BBC** : _« Bitcoin brings renewable power to rural Africa »_ - **Reuters** : _« MARA’s flaring-to-mining operation slashes methane »_ - **Financial Times** : _« Bitcoin can deliver environmental and social benefits »_ - **Technology Review** : _« Bitcoin mining saved an iconic African national park »_ - **Wall Street Journal** : _« Bhutan used hydropower Bitcoin mining to raise public wages by 65 % »_ ## 🔮 Conclusion : le minage comme infrastructure de transition Le minage de Bitcoin en 2025 incarne une **nouvelle logique énergétique** : > **Ce n’est pas la quantité d’énergie qui compte — c’est sa _valeur marginale_.** Là où l’électricité a un coût social (coupures, pics tarifaires, émissions), le minage s’éteint. Là où elle est un déchet (surplus, gaz, chaleur), il s’allume — et la transforme en monnaie, en chaleur, en stabilité, en développement. Il ne s’agit plus de justifier le Proof-of-Work. Il s’agit de **le reconnaître comme une infrastructure de décarbonation flexible, décentralisée et rentable** — peut-être _la plus efficace jamais déployée à l’échelle mondiale_. Et si, finalement, **le “gaspillage” était ailleurs — dans les systèmes incapables de valoriser leurs propres excédents ?** ![Historical Cost to Mine One BTC](https://media.licdn.com/dms/image/v2/D4E12AQGgTUwPtdL-sQ/article-inline_image-shrink_1500_2232/B4EZqrqx8XHMAU-/0/1763816710509?e=1765411200&v=beta&t=Mx8a-fTIYEXdwq9KLzqUheqz3whrMXO8qeNBGXUZILM) -​-- _Sources : Cambridge Bitcoin Electricity Consumption Index (CBECI), Duke University (2025), PNAS, Journal of Cleaner Production, IEA, Renewables Now, Bloomberg, Reuters, The Financial Times, et 20 études peer-reviewed publiées depuis 2021._ 📌 Données consolidées via [batcoinz.com]() & [ccaf.io]() [Source]()
# 🌍 Bitcoin's green paradox: why 70% of its energy comes from elsewhere... where no one wants to buy it ### Introduction: an invisible revolution For years, Bitcoin has been portrayed as an energy drain—a threat to the climate, an industrial waste in the age of carbon sobriety. Yet a silent transformation has taken place. In 2025, **Bitcoin mining is no longer an energy consumer—it has become an _energy recapturer_, a _stabilizer_, even a _green catalyst_**. The numbers speak for themselves: - **Global continuous power**: 12.8 to 41.8 GW (equivalent to 10 to 30 nuclear power plants operating continuously) - **Estimated annual consumption**: between 112 and 366 TWh — certainly massive, but now **largely uncorrelated with conventional grids**. - **Energy efficiency of ASICs**: 12 to 30.5 J/TH — a 60% improvement in three years, thanks to 3 nm chip generations and advanced cooling systems. - **Marginal cost of producing one BTC**: $34,616 to $98,632 — reflecting not waste, but a **strategy to valorize economically dead resources**. But behind these numbers is **a systemic logic** that is revolutionizing the environmental interpretation of Proof-of-Work. ## 🔋 70% of mining relies on _economically residual_ — even _negative_ — energy Contrary to caricatural representations, **Bitcoin mining does not plug into the domestic grid**. It goes where electricity is _unmarketable_ — too remote, too intermittent, or too costly to transport. In 2025, the distribution is clear: | | | | | ------------------------------------------------------------- | ------ | ----------------------------------------------------------------------------------------- | | **Surplus renewable energy** (excess wind/solar, curtailment) | ≈ 40 % | Energy _lost_ if not used — value close to zero or even negative (turbine shutdown costs) | | **Flared gas/landfill methane** | ≈ 30 % | Gas destroyed by combustion or released — recovery via mining reduces GHGs ×84 | | **Recovered heat (data heat reuse)** | ≈ 2 % | Industrial co-product — in cold countries, it covers up to **70% of the net energy cost** | | **Low-cost grid / surplus nuclear / underutilized hydro** | ≈ 25 % | Energy that cannot be exported or is not profitable to sell on the spot market | | **Other / uncertainties** | ≈ 3 % | — | 👉 **Fundamental conclusion**: _~70% of global mining power is fueled by energy that, without Bitcoin, would either be lost, emitted as methane, or burned for free._ This is no longer anecdotal. It is a **structural pattern**. ![Bitcoin Miners by Power Source](https://media.licdn.com/dms/image/v2/D4E12AQEGuErC8lBDJw/article-inline_image-shrink_1000_1488/B4EZqrqyB4HUAQ-/0/1763816711082?e=1765411200&v=beta&t=SXxMxX9tOtO-S3RIHm0ZXiDlJ7FPQ29gB49HY5N0OwA) ![Emission Intensity Across Sectors](https://media.licdn.com/dms/image/v2/D4E12AQGVpRSIb7lt7A/article-inline_image-shrink_1500_2232/B4EZqrqyCOHoAU-/0/1763816710934?e=1765411200&v=beta&t=9mJRZRaput7t5s669EDduOqU7WLo0N279UzY4QUFqFw) ![Messari](https://media.licdn.com/dms/image/v2/D4E12AQEDDKo0C-f63A/article-inline_image-shrink_1500_2232/B4EZqrqyCmKkAU-/0/1763816711571?e=1765411200&v=beta&t=M11-EkzpX0V8lQBRN4CdA4VOvxcmGSTFxk8SjreK8kw) ## 🌱 Three levers for environmental transformation — already at work ### 1. **Absorbing renewable surpluses: the invisible stabilizer** Mining is **the most responsive and scalable flexible load** in the world: > According to Duke University (Feb. 2025), miners achieve a **95% load reduction in less than 2 minutes** during peak demand — compared to 20-40% for other loads (e.g., electrolysers, batteries). The result? Wind/solar farms become **profitable where they were previously unviable**. In Iceland, Texas, and Scandinavia, operators are integrating mining _from the design phase_ of renewable projects. ### 2. **Methane neutralization: a _positive_ externality** Methane (CH₄) has a **global warming potential 84 times greater than CO₂ over 20 years**. However, each MWh produced from flared gas avoids: - open-air combustion (flaring → CO₂ + soot) - or worse: venting (direct emission of CH₄). Today, companies such as **MARA** and **Stranded Energy** are converting oil sites into **mobile mining plants**, capturing 95% of the methane that was previously lost. → _Not only does mining not increase the carbon footprint—it reduces it._ ### 3. **Heat, a valuable by-product** A miner consumes 100% electricity—and releases **90% of that energy as heat**. In cold climates (Canada, Finland, Iceland, Siberia), this becomes an **energy service**: - Heating agricultural greenhouses (e.g., _BitcoinHeating_ in Sweden) - Municipal swimming pools (e.g., _Heatmine_ in Helsinki) - District heating networks > According to the _International District Energy Association_ (July 2025): **1 MW of recovered heat = 455 tons of CO₂ avoided/year** vs. an oil-fired boiler. Mining is no longer a _cost_ — it is a **by-product**. ## 📚 An emerging scientific consensus The data is no longer debatable: - **Cambridge (Apr. 2025)**: **52.4% sustainable energy** in the mining mix — _and an active contribution to grid stability_. - **PNAS (2024)**: the combination of _Bitcoin + green hydrogen_ increases wind power capacity by **+73%**. - **Journal of Cleaner Production (2024)**: in 96% of cases, mining with renewables is **more profitable than hydrogen production**. - **IEEE Access (2025)**: ROI of **57.7%** for a PV + mining system — compared to **12.5%** with batteries alone. And above all: > “Mining is not competitive — it is complementary. It buys what nobody wants, when nobody wants to buy it.” > — **Lal & You, ACS Sustainable Chemistry & Engineering (2023)** ## 🌐 A press finally in line with reality Three years ago, headlines read “Bitcoin is devouring the planet.” Today? ✅ **89.5%** of mainstream press articles are positive or nuanced ✅ **91%** in the climate/sustainability press ✅ **80%** of peer-reviewed studies highlight **positive externalities** Among the notable headlines: - **BBC**: “Bitcoin brings renewable power to rural Africa” - **Reuters**: “MARA's flaring-to-mining operation slashes methane” - **Financial Times**: “Bitcoin can deliver environmental and social benefits” - **Technology Review**: “Bitcoin mining saved an iconic African national park” - **Wall Street Journal**: “Bhutan used hydropower Bitcoin mining to raise public wages by 65%” ## 🔮 Conclusion: mining as transitional infrastructure Bitcoin mining in 2025 embodies a **new energy logic**: > **It's not the amount of energy that matters — it's its marginal value.** Where electricity has a social cost (outages, price spikes, emissions), mining shuts down. Where it is waste (surplus, gas, heat), it turns on — and transforms it into currency, heat, stability, development. It is no longer a question of justifying Proof-of-Work. It is a question of **recognizing it as a flexible, decentralized, and profitable decarbonization infrastructure** — perhaps _the most effective ever deployed on a global scale_. What if, in the end, **the “waste” lies elsewhere — in systems incapable of valorizing their own surpluses?** ![Historical Cost to Mine One BTC](https://media.licdn.com/dms/image/v2/D4E12AQGgTUwPtdL-sQ/article-inline_image-shrink_1500_2232/B4EZqrqx8XHMAU-/0/1763816710509?e=1765411200&v=beta&t=Mx8a-fTIYEXdwq9KLzqUheqz3whrMXO8qeNBGXUZILM) -​-- _Sources: Cambridge Bitcoin Electricity Consumption Index (CBECI), Duke University (2025), PNAS, Journal of Cleaner Production, IEA, Renewables Now, Bloomberg, Reuters, The Financial Times, and 20 peer-reviewed studies published since 2021._ 📌 Data consolidated via [batcoinz.com]() & [ccaf.io]() [Source]()
Burnout in Open Source: A Structural Problem We Can Fix Together
# L'erreur du "security budget" de Bitcoin pour les miners de blocs https://media.licdn.com/dms/image/v2/D4E12AQEFRl1KGagdYw/article-cover_image-shrink_720_1280/B4EZpuQ40FKgAI-/0/1762786516827?e=1765411200&v=beta&t=goLHUaZGJHxwcm6a5WlFf07ViM3J53gqRU4fiiEVWSs ### Rappel introductif Bitcoin repose sur un "**smart contrat" (script de dépense Bitcoin)** entre deux types d’acteurs : **les nœuds** et **les mineurs**. Ce contrat, entièrement inscrit dans le code du protocole, permet au système de fonctionner de manière stable sans autorité centrale ni coordination humaine directe. Les **nœuds** représentent la partie législative du réseau. Ils fixent et appliquent les règles de validité des blocs, contrôlent la difficulté du travail à fournir et déterminent quelle chaîne de blocs doit être considérée comme légitime. Ils jouent aussi le rôle de **registre collectif** : chaque nœud valide les transactions, conserve une copie intégrale de l’historique et rejette automatiquement tout bloc qui ne respecte pas les règles du consensus. La véritable sécurité du réseau réside ici, dans la **redondance des vérifications** et dans la **cryptographie des portefeuilles**, où la longueur des clés privées empêche toute falsification de signature. Les **mineurs**, eux, forment le pouvoir exécutif de ce contrat. Leur mission consiste à produire des blocs conformes aux règles définies par les nœuds. Leur récompense — la coinbase et les frais de transaction — n’a de valeur que si les nœuds reconnaissent leur travail comme valide. Les mineurs participent donc à une compétition de calcul purement probabiliste : chacun cherche, au hasard, une preuve de travail qui satisfait la difficulté fixée. Sur le plan technique, cette activité de minage est ce qui permet la **synchronisation partielle** d’un réseau mondial sans horloge centrale. Chaque bloc trouvé agit comme un **point de repère temporel partagé** : il marque une étape commune pour tous les nœuds, malgré la latence et les différences de propagation entre eux. La preuve de travail sert ici de **signal d’ordre**, permettant à l’ensemble du système de maintenir un rythme de fonctionnement commun et vérifiable. Ce n’est pas une sécurité cryptographique au sens strict — celle-ci réside dans les clés privées des portefeuilles —, mais un **mécanisme d’horodatage distribué**. Le calcul minier transforme l’énergie en temps mesuré : il ne protège pas le registre, il lui donne un **rythme**. Les nœuds, en retour, utilisent ce rythme pour maintenir la cohérence du registre et rejeter les blocs produits hors des règles. Ainsi, le minage n’est pas une armée protégeant la blockchain, mais une **fonction de synchronisation probabiliste**. Il organise la coexistence d’acteurs honnêtes et opportunistes dans un même jeu où la triche est dissuadée par la logique du protocole : un bloc invalide n’a aucune valeur. Ce **contrat auto-régulé** fonctionne comme un système d’équilibre dynamique. Les mineurs apportent leur puissance de calcul pour tenter d’inscrire le prochain bloc, mais les nœuds ajustent en permanence la difficulté du travail afin de maintenir un rythme moyen d’environ dix minutes par bloc. Si la puissance mondiale augmente, la difficulté s’élève ; si elle diminue, elle baisse. Le protocole « se moque » donc de la puissance absolue en circulation : il maintient simplement un **intervalle de temps constant** entre les blocs, assurant une compétition toujours équitable. Les nœuds jouent ici le rôle de **gardien du temps** : ils mesurent le rythme de production des blocs et recalibrent la difficulté de calcul pour préserver la cadence du système. Cet espace de dix minutes agit comme une **horloge commune** — un battement collectif mesuré, non produit. Si les blocs arrivent trop vite, les nœuds rendent le calcul plus difficile ; s’ils arrivent trop lentement, ils le facilitent. Les mineurs, quant à eux, fournissent les « oscillations » de calcul (hachages par seconde), tandis que les nœuds en extraient une fréquence stable, utilisable comme variable de régulation. Dans une horloge classique, le temps est mesuré par la **fréquence d’un oscillateur** : un cristal vibre, un circuit compte les impulsions. Dans Bitcoin, les **hachages** produits par les mineurs jouent un rôle équivalent — mais la stabilité du temps ne vient pas de la vitesse de ces hachages, elle vient de la manière dont les nœuds les **mesurent** et en régulent la cadence. Ce n’est donc pas la puissance qui crée la sécurité, mais la mesure collective qui transforme un flux chaotique de calculs en une suite ordonnée de blocs. > La sécurité n'est donc pas dans le minage des blocs, ce minage est une mesure utilisée par les nœuds pour leur synchronisation qui assure par les noeuds une protection contre les doubles dépenses. Même si la puissance mondiale de minage varie fortement, le protocole continue de battre à la même cadence. Les nœuds maintiennent la cohérence du registre et la stabilité du temps ; les mineurs, la production régulière des blocs. **Cette régulation découple totalement le fonctionnement du réseau des fluctuations économiques du marché minier.** Sur le plan économique, la **sécurité réelle** ne dépend ni du nombre de mineurs ni de la puissance engagée, mais du **rapport de forces entre participants honnêtes et adversaires**, ainsi que du **flux de rémunération** que le protocole distribue. Une attaque ne devient rationnelle que si la valeur qu’elle permet de détourner dépasse le coût d’opportunité du minage honnête — un seuil rarement atteignable. Bitcoin (les noeuds) se présente ainsi comme une **constitution algorithmique** : les règles y sont codées, leur application est collective, et la sanction — le rejet automatique des blocs invalides — est immédiate. Les nœuds incarnent la souveraineté des règles ; les mineurs, la force d’exécution. L’ajustement de difficulté agit comme un arbitre neutre, maintenant la régularité du temps sans qu’aucune autorité ne puisse l’altérer. En résumé, Bitcoin n’est pas une économie fondée sur la puissance, mais sur la **mesure du temps et la loyauté au code**. Il n’a pas besoin d’une armée de mineurs, seulement d’un consensus sur les règles et d’un mécanisme équitable de compétition. Ce contrat tacite entre calcul et validation fait de la blockchain un **système d’horodatage universel**, où la confiance est remplacée par la régularité d’un rythme partagé. ### Pourquoi le concept de « security budget » de Bitcoin pour les mineurs est une erreur de compréhension L’expression « security budget » est souvent employée pour désigner la somme dépensée en récompenses (subvention et frais) versée aux mineurs, censée représenter le « prix » de la sécurité de Bitcoin. Ce terme, **hérité d’une analogie comptable, a cependant conduit à une erreur d’interprétation fondamentale** : il suppose qu’il existerait un _budget fixe et nécessaire_ pour garantir la sécurité du réseau, comme si Bitcoin devait continuellement « acheter » sa propre survie. En réalité, **la sécurité n’est pas budgétisée, mais émerge d’un équilibre économique et temporel autorégulé.** **Une confusion entre flux et stock** Le « budget » suppose une ressource finie, dépensée pour obtenir un service mesurable. Or, dans Bitcoin, la récompense versée aux mineurs n’est pas un coût programmé à dépenser pour acheter la sécurité ; c’est un **flux endogène**, ajusté en continu par le marché des frais et la règle de difficulté. Le réseau ne dépense rien : il distribue un revenu proportionnel à la rareté des blocs et à la demande d’inclusion des transactions. **Une méprise sur la causalité** L’idée de « budget » laisse entendre que plus les mineurs reçoivent, plus la sécurité augmente, comme si la dépense précédait la sûreté. **En réalité, la fiabilité des mesures de l'horloge résulte de la compétition probabiliste et du contrôle de la difficulté, non du montant distribué.** – Si le hashrate chute, la difficulté s’ajuste pour maintenir le rythme des blocs ; la sécurité logique de la mesure reste intacte tant que la majorité honnête subsiste. **Ainsi, Bitcoin ne « paie » pas sa sécurité : il règle un prix de marché pour le travail réussi, dont la valeur est déterminée par la demande de mesure de temps pour réaliser un effort donné, en en déduit "un temps universel par le volume de travail accompli avec une puissance ajustée".** **Un contresens sur le rôle du travail** Le travail n’achète pas la sécurité, il horodate l’ordre des événements. **La preuve de travail (PoW) ne protège pas le système par dépense d’énergie, mais par sa contribution à la fonction de métronome aléatoire et décentralisé** : elle synchronise un réseau asynchrone en imposant une limite physique à la vitesse de falsification. L’énergie dépensée est un _coût d’opportunité_ qui rend la réécriture de l’histoire économiquement irrationnelle, pas une assurance contractée auprès des mineurs. **Une confusion entre coût marginal et coût total** La sécurité de Bitcoin dépend du coût marginal de l’attaque à un instant donné, non du coût total historique du minage. Même si la puissance mondiale baisse, une attaque reste aussi coûteuse que le coût actuel pour dépasser la difficulté : **le passé dépensé n’est pas un budget amorti, il n’a aucune valeur défensive accumulée.** Autrement dit, la sécurité est _instantanée_, non cumulative. **Une fausse analogie avec un service d’assurance** Certains commentateurs assimilent le mining à un service de défense que le protocole devrait rémunérer continuellement pour ne pas perdre sa sécurité. Cette vision est fausse : – Les mineurs ne protègent rien d’extérieur ; ils participent à un jeu dont le seul résultat valide est un bloc accepté. – Le protocole ne peut pas « acheter » leur loyauté ; il ne récompense que la conformité aux règles. **La sécurité découle de la vérification automatique, pas de la confiance envers les mineurs.** **Argument 1 : « Si la récompense diminue, les mineurs partiront, donc la sécurité baissera. »** **Pondération :** – Oui, un hashrate plus faible réduit le coût absolu d’une attaque, mais la difficulté baisse aussi, préservant la cadence des blocs. – Ce qui change, c’est la sécurité économique (le coût d’un 51 %), pas la sécurité logique du consensus. – **À long terme, la transition vers un modèle à frais (fee-only era) rend cette dynamique plus sensible ; d’où la nécessité d’un marché actif des frais, mais non d’un « budget » au sens fixe.** **Argument 2 : « Les mineurs assurent la sécurité, donc ils doivent être payés à hauteur du risque. »** **Pondération :** – Les mineurs ne « protègent » pas ; ils produisent des blocs conformes pour obtenir un revenu aléatoire. – Leur incitation repose sur l’espérance de gain, non sur une rémunération proportionnelle au risque. – **Leur rôle est neutre : ils n’ont ni la responsabilité ni la capacité d’assurer la sécurité hors du protocole de validation, leur travail important ou faible est mesuré pour maintenir l'espace de temps entre les blocs.** **Argument 3 : « La baisse du security budget entraînera une centralisation. »** **Pondération :** – Ce risque existe si le seuil de rentabilité devient trop élevé. – Toutefois, **la centralisation découle davantage des économies d’échelle énergétiques et de la concentration géographique que du montant global des récompenses.** – Une difficulté moindre permet d’ailleurs à des mineurs plus modestes de concourir à nouveau ; la décentralisation n’est donc pas directement corrélée au budget total. **Argument 4 : « Sans un budget minimal, Bitcoin sera vulnérable quand les subventions cesseront. »** **Pondération :** – C’est la critique la plus sérieuse (Budish 2018) mais pour 2140. – Toutefois, la rémunération de la sécurité par les frais d’inclusion est _endogène_ : si la demande de finalité augmente, les frais s’ajustent. – De plus, **la sécurité dépend du ratio attaque/coût, non d’un montant absolu : si la valeur attaquable reste inférieure au coût de renversement, l’équilibre demeure stable.** **Argument 5 : « Le budget de sécurité mesure la santé économique du protocole. »** **Pondération :** – C’est un indicateur comptable utile (pour suivre les flux vers les mineurs), mais il ne mesure pas la sécurité. – **La vraie métrique est l’inégalité de non-rentabilité :** k × (R_b × P + C_h) > V_a, où : - **k** : nombre de blocs de confirmation nécessaires - **R_b** : récompense par bloc (subvention + frais) - **P** : prix du bitcoin - **C_h** : coût opérationnel de production d’un bloc - **V_a** : valeur économique que l’attaquant pourrait détourner > Tant que cette condition est respectée, la sécurité économique est assurée, quel que soit le niveau global du « budget ». ### La sécurité de Bitcoin n’a pas de prix fixe > **La sécurité de Bitcoin n’est pas un service à financer, mais une propriété émergente d’un jeu d’incitations et d’ajustements automatiques.** > **Le protocole n’achète pas la sécurité ; le noeuds créent un environnement où la tricherie devient économiquement irrationnelle, afin de synchroniser le réseau sans biais. La sécurité, elle, vient de la cryptographie utilisée sur les wallets.** **Les flux vers les mineurs ne sont pas un « budget », mais un** **_thermomètre de tension_** **: ils reflètent la demande de finalité et la compétition pour l’espace de bloc.** Réduire Bitcoin à une simple question de budget revient à méconnaître sa nature profonde : un système où la sécurité est une **conséquence logique du consensus et de la vérification**, non un coût d’exploitation. ### La valeur des bitcoins n'a aucun rapport avec leur coût de production Certains avancent que le bitcoin devrait avoir une valeur minimale, c’est-à-dire au coût énergétique et matériel du minage. Cette idée paraît intuitive : si miner coûte cher, le prix devrait au moins couvrir cette dépense, sinon les mineurs cesseraient leur activité. Pourtant, cette interprétation confond **valeur économique** et **coût de production**, deux notions distinctes dans la tradition de l’économie de marché — et, d’un point de vue méthodologique, sans lien de causalité directe. **Le coût de production n’est pas la cause de la valeur** Dans une économie fondée sur la subjectivité des échanges, la valeur d’un bien n’est pas déterminée par la quantité de travail ou d’énergie qu’il a fallu pour le produire, mais par **l’évaluation que les acteurs font de son utilité marginale** : ce qu’ils sont prêts à échanger pour l’obtenir. Un bloc miné est rémunéré non parce qu’il « coûte » un certain nombre de kilowattheures, mais parce qu’il permet d’obtenir un bitcoin reconnu par le réseau comme valide et transférable. Si demain la demande d’échange en bitcoin s’effondre, le prix peut chuter en dessous du coût de production sans que le protocole ne soit affecté. Le marché ajustera simplement le hashrate et la difficulté à la baisse. **Le coût se forme à partir du prix, non l’inverse** Le mécanisme d’ajustement du mining illustre ce renversement causal. Quand le prix du bitcoin monte, de nouveaux mineurs entrent, augmentant la difficulté et donc le coût marginal de production ; quand le prix baisse, des mineurs se retirent, la difficulté diminue et le coût moyen suit. Le coût de production s’adapte au prix d’équilibre de marché, pas l’inverse. Autrement dit : **le prix de marché détermine le coût viable**, et non le coût qui fixe le prix. Le coût de production n’est donc pas un plancher théorique de valeur, mais la _conséquence_ du prix observé et de la compétition pour l’obtenir. **Bitcoin n’a pas de valeur « intrinsèque » mesurable** La croyance en une valeur minimale liée à l’énergie consommée repose sur une analogie avec les biens physiques. Mais Bitcoin n’est pas un bien matériel : c’est un **registre de propriété décentralisé**. Sa valeur découle de la confiance collective dans la validité de ce registre et dans sa rareté algorithmique. Ni l’électricité, ni le silicium, ni le travail des mineurs ne confèrent à l’unité monétaire une valeur intrinsèque ; ils servent seulement à en garantir l’émission et la cohérence temporelle. Si l’électricité devenait gratuite ou si des algorithmes plus efficaces divisaient le coût du hash, la valeur du bitcoin ne serait pas affectée ; seul le coût d’entrée dans la compétition minière changerait. **Le marché efface toute corrélation stable** Historiquement, la corrélation entre le coût de production estimé et le prix du bitcoin est variable et instable : – lors des bull-runs, le prix s’élève bien au-delà du coût marginal ; – lors des chutes prolongées, il passe souvent en dessous sans que le protocole s’arrête ; – le retarget de difficulté corrige ces déséquilibres en maintenant le rythme des blocs. Cela prouve que le système fonctionne sans référence à une valeur minimale « énergétique ». **Le coût du minage est un prix d’équilibre, pas une valeur plancher** Ce que certains appellent « coût de production » est en réalité le **prix d’équilibre instantané** du service de preuve de travail : un point où les revenus attendus compensent le coût marginal d’électricité. Si le prix du bitcoin tombe, les mineurs à coûts élevés se retirent, abaissant le coût moyen et ramenant le réseau vers un nouvel équilibre. **La production n’est jamais détruite faute de « budget », elle se réorganise.** ### Conclusion Associer une valeur minimale du bitcoin à son coût de production, c’est inverser le sens de la causalité économique. Le coût ne fonde pas la valeur ; il en découle. La dépense énergétique ne crée pas le prix, elle révèle la compétition pour un bien déjà reconnu comme utile. Le protocole, par son ajustement de difficulté, neutralise d’ailleurs tout lien direct entre puissance, coût et valeur : il garantit seulement la cadence des blocs, pas leur prix. Ainsi, **le bitcoin n’a pas de valeur « énergétique » (mais une mesure énergétique)**, seulement **une valeur d’usage et d’échange déterminée par la confiance dans ses propriétés : rareté algorithmique, neutralité, résistance à la censure et prévisibilité monétaire.** Le coût de production n’est qu’un effet secondaire du prix de marché, jamais sa cause, ni un plancher garanti de sa valeur. -​- ### Pourquoi 10 minutes (environ entre les blocs), 2 016 blocs (ajustement de la difficulté), 210 000 blocs (halving) ? Il y a des contraintes techniques, il y a des simulations de la latence sur le réseau internet, il y a des simulation économique sur le coût de l'opportunité ramenée au délais, il y a 1000 raisons, certaines initiales et d'autres "découvertes", mais quand on s'en écarte, plus rien ne va, sauf à des compromis refusés sur Bitcoin. Les nœuds refuseraient tout bloc invalide ou non conforme à la chaîne majoritaire. Les transactions resteraient protégées par la cryptographie des clés privées, qui rend impossible toute falsification des signatures. Le risque de double dépense n’apparaîtrait que si une entité parvenait à contrôler durablement la majorité de la puissance de calcul — une situation hautement improbable à l’échelle du réseau global — et, même dans ce cas, chaque nouveau bloc provoque une **revérification intégrale** de la validité des précédents, ce qui renforce la résilience du protocole. Mais durant une période de réajustement du rythme des blocs, lorsque la puissance de calcul globale varie fortement, des déséquilibres temporaires peuvent apparaître : - **Blocs trop rapides** : la difficulté n’a pas encore eu le temps de s’ajuster. Le risque de double dépense s’accroît légèrement, car plusieurs mineurs peuvent trouver des blocs presque simultanément, avant que le réseau n’ait propagé le précédent. Il peut alors survenir davantage de **réorganisations** (réorgs) où la chaîne majoritaire se redéfinit à mesure que les blocs se propagent et que les nœuds tranchent. - **Blocs trop lents** : le réseau peut se fragmenter en sous-chaînes divergentes pendant quelques instants, car la lenteur de propagation allonge les délais de confirmation. Les réorgs deviennent alors plus rares mais aussi plus longues, avec des **conflits prolongés** entre versions concurrentes de la chaîne avant que la majorité ne se reconstitue. Ces épisodes n’altèrent pas la sécurité fondamentale de Bitcoin, mais ils peuvent temporairement affecter la fluidité du consensus et la latence perçue. Le protocole les corrige automatiquement à chaque réajustement de difficulté, ramenant progressivement le réseau vers un rythme d’équilibre. Il est intéressant de noter que **de nombreuses autres blockchains** ont choisi de contourner ces contraintes physiques en introduisant des notions d’**états ou de finalité explicite** : une transaction est considérée irréversible après validation par un nombre fixe de blocs ou par un mécanisme de vote interne. Cette approche réduit le besoin de recalcul et améliore la rapidité apparente du consensus, mais elle affaiblit la transparence du contrôle collectif : – si une attaque ou une falsification passe la barrière de la finalité, elle peut rester **invisible et irréversible**, car les nœuds ne revalident plus intégralement les anciens blocs ; – inversement, si une divergence profonde est détectée, le réseau peut se **figer durablement**, incapable de trancher entre plusieurs états contradictoires. Bitcoin, en conservant un modèle de **validation continue et sans finalité arbitraire**, assume le coût computationnel de la rigueur : chaque bloc revérifie les précédents, chaque nœud participe à la mesure du temps commun, et la cohérence du registre ne dépend jamais d’une décision humaine ou d’un vote majoritaire, mais d’une **mesure partagée de l’effort accompli dans le temps**. > En ce sens, le maintien du rythme moyen de dix minutes n’est pas une contrainte technique mais un pilier de la stabilité : il garantit que la mesure du temps, et donc de la vérité commune du registre, reste indépendante de la vitesse du monde physique comme des volontés humaines. On peut voir l’intervalle moyen de dix minutes entre les blocs comme une **fenêtre de stabilité comportementale** : un compromis entre la vitesse technique du réseau et le rythme humain des décisions opportunistes. Cet espace de temps laisse aux acteurs la possibilité d’évaluer leurs incitations à tricher ou à rester honnêtes, tout en empêchant que ces choix puissent se traduire en actions exploitables avant que le consensus n’ait consolidé les blocs précédents. Autrement dit, Bitcoin ne cherche pas à battre le temps réel, mais à **synchroniser un système d’intentions humaines et de calculs mécaniques** dans une même cadence mesurée. Passé un certain seuil de rapidité, le jugement et la rationalité économique des acteurs fluctuent plus vite que le protocole ne peut les absorber : les motivations changent avant que les actions ne soient validées. Le délai de dix minutes agit alors comme une **latence de sécurité**, un amortisseur entre la logique humaine de l’opportunité et la logique algorithmique de la vérification — une mesure de stabilité adaptée à la vitesse de notre ère numérique. ### Les époques de réajustement : la mesure du temps et le rythme de mise en circulation Bitcoin repose sur deux horloges internes, chacune gouvernant un aspect distinct de son équilibre : – la **régulation du temps**, assurée par l’ajustement de la difficulté ; – et le **rythme de mise en circulation**, défini par la décroissance de la récompense, dite halving. Le premier cycle, celui de la **difficulté**, intervient tous les **2 016 blocs** (environ deux semaines). Les nœuds y mesurent le temps réel écoulé pour produire ces blocs et le comparent à la durée théorique de quatorze jours. Si la production a été plus rapide, la difficulté augmente ; si elle a été plus lente, elle diminue. Cette variation, bornée par un facteur quatre, maintient la régularité du battement du réseau. Ce mécanisme n’ajuste pas la puissance de calcul, mais la **mesure commune du temps** : il transforme un ensemble de hachages indépendants en une cadence collective, perceptible et vérifiable par tous les nœuds. Le second cycle, le **halving**, survient tous les **210 000 blocs**, soit environ tous les quatre ans. Il ne crée pas la rareté — celle-ci résulte de la topologie des UTXO et de la division effective des unités existantes —, mais il **oriente la vitesse d’émission** des nouveaux bitcoins. Le halving agit donc comme un métronome économique : il module le flux d’introduction des unités dans le système sans altérer la structure interne de la monnaie. En combinant ces deux boucles, Bitcoin relie la **stabilité temporelle** à la **progression de la circulation** : – le **réajustement de difficulté** garantit la constance du rythme, indépendamment du niveau de puissance disponible ; – le **halving** organise la transition progressive entre une phase d’émission et une phase de maturité où la circulation devient quasi stationnaire. Ce double mécanisme traduit la logique fondamentale du protocole : le temps n’est pas imposé, il est **mesuré collectivement** ; la valeur ne vient pas de la dépense, mais de la **traçabilité et de la cohérence** des unités inscrites dans le registre. Ainsi, la difficulté règle le tempo, le halving module le souffle économique, et la véritable rareté — celle qui fait de chaque bitcoin un fragment unique du registre — réside dans la **distribution finie et vérifiable des UTXO**, non dans la cadence du minage. Dernière précision : la rareté véritable se manifeste dans la granularité des **UTXO**, c’est-à-dire dans la structure effective du registre, le nombre de dépense possibles sur le réseau, tandis que le halving n’organise pas la rareté mais le **rythme de mise en circulation**. [Source]() #Bitcoin #ProofOfWork #Decentralization #Consensus #Mining #DifficultyAdjustment #BitcoinEconomics #NakamotoConsensus
# The Bitcoin “security budget” error for block miners https://media.licdn.com/dms/image/v2/D4E12AQEFRl1KGagdYw/article-cover_image-shrink_720_1280/B4EZpuQ40FKgAI-/0/1762786516827?e=1765411200&v=beta&t=goLHUaZGJHxwcm6a5WlFf07ViM3J53gqRU4fiiEVWSs ### Introductory reminder Bitcoin is based on a “**smart contract” (Bitcoin spending script)** between two types of actors: **nodes** and **miners**. This contract, which is entirely written into the protocol code, allows the system to operate stably without a central authority or direct human coordination. The **nodes** represent the legislative part of the network. They set and enforce the rules for block validity, control the difficulty of the work to be done, and determine which blockchain should be considered legitimate. They also act as a **collective ledger**: each node validates transactions, keeps a complete copy of the history, and automatically rejects any block that does not comply with the consensus rules. The true security of the network lies here, in the **redundancy of checks** and in the **cryptography of wallets**, where the length of private keys prevents any falsification of signatures. The **miners**, for their part, form the executive power of this contract. Their mission is to produce blocks that comply with the rules defined by the nodes. Their reward—the coinbase and transaction fees—is only valuable if the nodes recognize their work as valid. Miners therefore participate in a purely probabilistic calculation competition: each one randomly searches for a proof of work that satisfies the set difficulty. Technically speaking, this mining activity is what enables the **partial synchronization** of a global network without a central clock. Each block found acts as a **shared time reference point**: it marks a common milestone for all nodes, despite latency and propagation differences between them. The proof of work serves here as a **signal**, allowing the entire system to maintain a common and verifiable operating rhythm. This is not cryptographic security in the strict sense—that resides in the private keys of wallets—but a **distributed timestamping mechanism**. Mining transforms energy into measured time: it does not protect the ledger, it gives it a **rhythm**. The nodes, in turn, use this rhythm to maintain the consistency of the ledger and reject blocks that are produced outside the rules. Thus, mining is not an army protecting the blockchain, but a **probabilistic synchronization function**. It organizes the coexistence of honest and opportunistic actors in the same game, where cheating is discouraged by the logic of the protocol: an invalid block has no value. This **self-regulating contract** functions as a dynamic equilibrium system. Miners contribute their computing power to try to register the next block, but the nodes constantly adjust the difficulty of the work to maintain an average pace of about ten minutes per block. If global power increases, the difficulty rises; if it decreases, it falls. The protocol therefore “ignores” the absolute power in circulation: it simply maintains a **constant time interval** between blocks, ensuring that competition is always fair. The nodes act as **timekeepers**: they measure the rate of block production and recalibrate the computational difficulty to maintain the system's pace. This ten-minute interval acts as a **common clock**—a measured, non-produced collective beat. If the blocks arrive too quickly, the nodes make the calculation more difficult; if they arrive too slowly, they make it easier. Miners, for their part, provide the computational “oscillations” (hashes per second), while nodes extract a stable frequency from them, which can be used as a regulatory variable. In a conventional clock, time is measured by the **frequency of an oscillator**: a crystal vibrates, a circuit counts the pulses. In Bitcoin, the **hashes** produced by miners play an equivalent role—but the stability of time does not come from the speed of these hashes, it comes from the way the nodes **measure** them and regulate their pace. It is therefore not power that creates security, but collective measurement that transforms a chaotic flow of calculations into an orderly sequence of blocks. > Security does not therefore lie in the mining of blocks; mining is a measure used by nodes for synchronization, which ensures protection against double spending by the nodes. Even if global mining power varies greatly, the protocol continues to beat at the same pace. Nodes maintain the consistency of the ledger and the stability of time; miners maintain the regular production of blocks. **This regulation completely decouples the functioning of the network from economic fluctuations in the mining market.** Economically speaking, **real security** does not depend on the number of miners or the power involved, but on the **balance of power between honest participants and adversaries**, as well as the **flow of remuneration** distributed by the protocol. An attack only becomes rational if the value it allows to be diverted exceeds the opportunity cost of honest mining—a threshold that is rarely achievable. Bitcoin (the nodes) thus presents itself as an **algorithmic constitution**: the rules are coded, their application is collective, and the sanction—the automatic rejection of invalid blocks—is immediate. The nodes embody the sovereignty of the rules; the miners, the enforcement power. The difficulty adjustment acts as a neutral arbiter, maintaining the regularity of time without any authority being able to alter it. In short, Bitcoin is not an economy based on power, but on **time measurement and loyalty to code**. It does not need an army of miners, only a consensus on the rules and a fair competition mechanism. This tacit contract between computation and validation makes the blockchain a **universal timestamping system**, where trust is replaced by the regularity of a shared rhythm. ### Why Bitcoin's concept of a “security budget” for miners is a misunderstanding The term “security budget” is often used to refer to the amount spent on rewards (subsidies and fees) paid to miners, which is supposed to represent the “price” of Bitcoin's security. However, this term, **derived from an accounting analogy, has led to a fundamental misinterpretation**: it assumes that there is a fixed and necessary budget to guarantee the security of the network, as if Bitcoin had to continually “buy” its own survival. In reality, security is not budgeted, but emerges from a self-regulating economic and temporal equilibrium. **Confusion between flow and stock** The “budget” implies a finite resource, spent to obtain a measurable service. However, in Bitcoin, the reward paid to miners is not a programmed cost to be spent to buy security; it is an **endogenous flow**, continuously adjusted by the fee market and the difficulty rule. The network spends nothing: it distributes income proportional to the scarcity of blocks and the demand for transaction inclusion. **A misunderstanding of causality** The idea of a “budget” suggests that the more miners receive, the more security increases, as if spending preceded security. **In reality, the reliability of clock measurements results from probabilistic competition and difficulty control, not from the amount distributed.** – If the hashrate drops, the difficulty adjusts to maintain the block rate; the logical security of the measurement remains intact as long as the honest majority remains. **Thus, Bitcoin does not “pay” for its security: it pays a market price for successful work, the value of which is determined by the demand for time measurement to perform a given effort, deducing “a universal time by the volume of work accomplished with adjusted power.”** **A misinterpretation of the role of work** Work does not buy security, it time-stamps the order of events. **Proof of work (PoW) does not protect the system by expending energy, but by contributing to the function of a random and decentralized metronome**: it synchronizes an asynchronous network by imposing a physical limit on the speed of falsification. The energy expended is an opportunity cost that makes rewriting history economically irrational, not insurance taken out with miners. **Confusion between marginal cost and total cost** Bitcoin's security depends on the marginal cost of the attack at a given moment, not the total historical cost of mining. Even if global power declines, an attack remains as costly as the current cost of exceeding the difficulty: **the past expenditure is not an amortized budget, it has no accumulated defensive value.** In other words, security is _instantaneous_, not cumulative. **A false analogy with an insurance service** Some commentators equate mining with a defense service that the protocol should continually pay for in order not to lose its security. This view is false: – Miners do not protect anything external; they participate in a game whose only valid result is an accepted block. – The protocol cannot “buy” their loyalty; it only rewards compliance with the rules. **Security comes from automatic verification, not trust in miners.** **Argument 1: “If the reward decreases, miners will leave, so security will decline.”** **Weighting:** – Yes, a lower hashrate reduces the absolute cost of an attack, but the difficulty also decreases, preserving the block rate. – What changes is economic security (the cost of a 51% attack), not the logical security of the consensus. – ** In the long term, the transition to a fee-only era makes this dynamic more sensitive; hence the need for an active fee market, but not a fixed “budget.”** **Argument 2: “Miners provide security, so they should be paid according to the risk.”** **Weighting:** – Miners do not “protect”; they produce compliant blocks to obtain a random income. – Their incentive is based on the expectation of gain, not on remuneration proportional to risk. – **Their role is neutral: they have neither the responsibility nor the ability to ensure security outside the validation protocol; their work, whether significant or insignificant, is measured to maintain the time interval between blocks.** **Argument 3: “Lowering the security budget will lead to centralization.”** **Weighting:** – This risk exists if the break-even point becomes too high. – However, **centralization stems more from economies of scale in energy and geographic concentration than from the overall amount of rewards.** – Lower difficulty also allows smaller miners to compete again, so decentralization is not directly correlated with the total budget. **Argument 4: “Without a minimum budget, Bitcoin will be vulnerable when subsidies end.”** **Weighting:** – This is the most serious criticism (Budish 2018) but for 2140. – However, security remuneration through inclusion fees is _endogenous_: if demand for finality increases, fees adjust. – Furthermore, **security depends on the attack/cost ratio, not on an absolute amount: if the attackable value remains lower than the reversal cost, the equilibrium remains stable.** **Argument 5: “The security budget measures the economic health of the protocol.”** **Weighting:** – It is a useful accounting indicator (for tracking flows to miners), but it does not measure security. – **The true metric is the inequality of unprofitability:** k × (R_b × P + C_h) > V_a, where: - **k**: number of confirmation blocks required - **R_b**: reward per block (subsidy + fees) - **P**: price of bitcoin - **C_h**: operational cost of producing a block - **V_a**: economic value that the attacker could divert > As long as this condition is met, economic security is assured, regardless of the overall level of the “budget.” ### Bitcoin security has no fixed price > **Bitcoin security is not a service to be financed, but an emergent property of a set of incentives and automatic adjustments.** > **The protocol does not purchase security; the nodes create an environment where cheating becomes economically irrational, in order to synchronize the network without bias. Security comes from the cryptography used on wallets.** **Flows to miners are not a “budget,” but a** **_tension thermometer_** **: they reflect the demand for finality and competition for block space.** Reducing Bitcoin to a simple question of budget is to misunderstand its fundamental nature: a system where security is a logical consequence of consensus and verification, not an operating cost. ### The value of bitcoins has no relation to their production cost Some argue that bitcoin should have a minimum value, i.e., the energy and material cost of mining. This idea seems intuitive: if mining is expensive, the price should at least cover this expense, otherwise miners would cease their activity. However, this interpretation confuses **economic value** and **production cost**, two distinct concepts in the tradition of market economics—and, from a methodological point of view, without any direct causal link. **Production cost is not the cause of value** In an economy based on the subjectivity of exchanges, the value of a good is not determined by the amount of labor or energy required to produce it, but by **the actors' assessment of its marginal utility**: what they are willing to exchange to obtain it. A mined block is remunerated not because it “costs” a certain number of kilowatt-hours, but because it allows the miner to obtain a bitcoin that is recognized by the network as valid and transferable. If tomorrow the demand for bitcoin exchange collapses, the price may fall below the cost of production without affecting the protocol. The market will simply adjust the hashrate and difficulty downward. **The cost is based on the price, not the other way around** The mining adjustment mechanism illustrates this causal reversal. When the price of bitcoin rises, new miners enter the market, increasing the difficulty and therefore the marginal cost of production; when the price falls, miners withdraw, the difficulty decreases, and the average cost follows suit. The cost of production adapts to the market equilibrium price, not the other way around. In other words: **the market price determines the viable cost**, not the cost that sets the price. The cost of production is therefore not a theoretical floor value, but the consequence of the observed price and the competition to obtain it. **Bitcoin has no measurable “intrinsic” value** The belief in a minimum value linked to the energy consumed is based on an analogy with physical goods. But Bitcoin is not a material good: it is a **decentralized property registry**. Its value derives from collective trust in the validity of this registry and its algorithmic scarcity. Neither electricity, silicon, nor the work of miners give the monetary unit intrinsic value; they only serve to guarantee its issuance and temporal consistency. If electricity became free or if more efficient algorithms divided the cost of hashing, the value of Bitcoin would not be affected; only the cost of entering the mining competition would change. **The market erases any stable correlation** Historically, the correlation between the estimated production cost and the price of bitcoin has been variable and unstable: – during bull runs, the price rises well above the marginal cost; – during prolonged declines, it often falls below it without the protocol stopping; – the difficulty retarget corrects these imbalances by maintaining the block rate. This proves that the system works without reference to a minimum “energy” value. **The cost of mining is an equilibrium price, not a floor value** What some call the “production cost” is actually the **instantaneous equilibrium price** of the proof-of-work service: a point where expected revenues offset the marginal cost of electricity. If the price of bitcoin falls, high-cost miners withdraw, lowering the average cost and bringing the network back to a new equilibrium. **Production is never destroyed due to lack of “budget”; it reorganizes itself.** ### Conclusion Linking a minimum value for bitcoin to its production cost is to reverse the direction of economic causality. Cost does not determine value; it derives from it. Energy expenditure does not create the price; it reveals competition for a good that is already recognized as useful. The protocol, through its difficulty adjustment, neutralizes any direct link between power, cost, and value: it only guarantees the rate of blocks, not their price. Thus, **bitcoin has no “energy” value (but an energy measurement),** only **a use and exchange value determined by confidence in its properties: algorithmic scarcity, neutrality, resistance to censorship, and monetary predictability.** The cost of production is only a side effect of the market price, never its cause, nor a guaranteed floor for its value. -​- ### Why 10 minutes (approximately between blocks), 2,016 blocks (difficulty adjustment), 210,000 blocks (halving)? There are technical constraints, there are simulations of latency on the internet, there are economic simulations of the opportunity cost in terms of time, there are 1,000 reasons, some initial and others “discovered,” but when we deviate from them, nothing works anymore, except for compromises that are rejected on Bitcoin. The nodes would reject any block that is invalid or does not comply with the majority chain. Transactions would remain protected by private key cryptography, which makes it impossible to falsify signatures. The risk of double spending would only arise if an entity managed to gain lasting control of the majority of the computing power—a highly unlikely situation on the scale of the global network—and even in this case, each new block triggers a **full re-verification** of the validity of the previous ones, which reinforces the resilience of the protocol. However, during a period of block rate readjustment, when the overall computing power varies significantly, temporary imbalances may occur: - **Blocks too fast**: the difficulty has not yet had time to adjust. The risk of double spending increases slightly, as several miners may find blocks almost simultaneously, before the network has propagated the previous one. This can lead to more **reorganizations** (reorgs) where the majority chain is redefined as blocks propagate and nodes make decisions. - **Blocks too slow**: the network may fragment into divergent sub-chains for a few moments, as slow propagation lengthens confirmation times. Reorgs then become rarer but also longer, with **prolonged conflicts** between competing versions of the chain before the majority is reestablished. These episodes do not alter the fundamental security of Bitcoin, but they can temporarily affect the fluidity of consensus and perceived latency. The protocol automatically corrects them with each difficulty readjustment, gradually bringing the network back to a balanced pace. It is interesting to note that **many other blockchains** have chosen to circumvent these physical constraints by introducing notions of **explicit states or finality**: a transaction is considered irreversible after validation by a fixed number of blocks or by an internal voting mechanism. This approach reduces the need for recalculation and improves the apparent speed of consensus, but it weakens the transparency of collective control: – if an attack or falsification passes the finality barrier, it can remain **invisible and irreversible**, as nodes no longer fully revalidate old blocks; – conversely, if a deep divergence is detected, the network can become **permanently frozen**, unable to decide between several contradictory states. Bitcoin, by maintaining a model of **continuous validation without arbitrary finality**, assumes the computational cost of rigor: each block rechecks the previous ones, each node participates in measuring common time, and the consistency of the ledger never depends on a human decision or a majority vote, but on a **shared measure of the effort accomplished over time**. > In this sense, maintaining the average pace of ten minutes is not a technical constraint but a pillar of stability: it ensures that the measurement of time, and therefore the common truth of the ledger, remains independent of the speed of the physical world and human will. The average ten-minute interval between blocks can be seen as a **window of behavioral stability**: a compromise between the technical speed of the network and the human pace of opportunistic decisions. This time frame allows actors to evaluate their incentives to cheat or remain honest, while preventing these choices from translating into exploitable actions before the consensus has consolidated the previous blocks. In other words, Bitcoin does not seek to beat real time, but to **synchronize a system of human intentions and mechanical calculations** at the same measured pace. Beyond a certain threshold of speed, the judgment and economic rationality of actors fluctuate faster than the protocol can absorb them: motivations change before actions are validated. The ten-minute delay then acts as a **security latency**, a buffer between the human logic of opportunity and the algorithmic logic of verification—a measure of stability adapted to the speed of our digital age. ### Periods of readjustment: the measurement of time and the pace of circulation Bitcoin relies on two internal clocks, each governing a distinct aspect of its balance: – **time regulation**, ensured by difficulty adjustment; – and the **pace of circulation**, defined by the decrease in reward, known as halving. The first cycle, that of **difficulty**, occurs every **2,016 blocks** (approximately two weeks). The nodes measure the actual time taken to produce these blocks and compare it to the theoretical duration of fourteen days. If production has been faster, the difficulty increases; if it has been slower, it decreases. This variation, limited by a factor of four, maintains the regularity of the network's beat. This mechanism does not adjust computing power, but rather the **common measure of time**: it transforms a set of independent hashes into a collective cadence that is perceptible and verifiable by all nodes. The second cycle, **halving**, occurs every **210,000 blocks**, or approximately every four years. It does not create scarcity—this results from the topology of UTXOs and the effective division of existing units—but it **guides the rate of issuance** of new bitcoins. Halving therefore acts as an economic metronome: it modulates the flow of units into the system without altering the internal structure of the currency. By combining these two loops, Bitcoin links **temporal stability** to **progress in circulation**: – **difficulty readjustment** ensures a constant pace, regardless of the level of power available; – **halving** organizes the gradual transition from an issuance phase to a maturity phase where circulation becomes virtually stationary. This dual mechanism reflects the fundamental logic of the protocol: time is not imposed, it is **measured collectively**; value does not come from expenditure, but from the **traceability and consistency** of the units recorded in the ledger. Thus, difficulty sets the tempo, halving modulates the economic momentum, and true scarcity—the scarcity that makes each bitcoin a unique fragment of the ledger—lies in the finite and verifiable distribution of UTXOs, not in the pace of mining. One final clarification: true scarcity manifests itself in the granularity of **UTXOs**, i.e., in the actual structure of the ledger, the number of possible expenditures on the network, while halving does not organize scarcity but rather the **rate of circulation**. [Source]() #Bitcoin #ProofOfWork #Decentralization #Consensus #Mining #DifficultyAdjustment #BitcoinEconomics #NakamotoConsensus
# Pourquoi le calcul quantique est inadapté au minage ? https://media.licdn.com/dms/image/v2/D4E12AQHtzcgEO-okOA/article-cover_image-shrink_600_2000/B4EZpzPID0GcAQ-/0/1762869938409?e=1765411200&v=beta&t=Q6aEZvC4D_Wbc5Pfxg0BX1oV-YMn6G0HR5ruERWkDEs L’idée selon laquelle l’ordinateur quantique pourrait un jour « révolutionner » le minage de Bitcoin revient régulièrement dans le discours médiatique. Cette anticipation repose sur une confusion entre deux domaines distincts : la cryptanalyse post-quantique (concernant la sécurité des signatures numériques) et la preuve de travail (concernant la recherche de hachages SHA-256 valides). Les recherches scientifiques récentes montrent pourtant que le calcul quantique n’offre **aucun avantage compétitif pour le minage**, ni en théorie, ni en pratique. L’analyse suivante expose les raisons précises : limites algorithmiques, contraintes matérielles, coûts énergétiques, neutralisation protocolaire et absence d’impact économique réel. **Chiffres clés à connaître au préalable :** - **256 bits** : taille du hash SHA-256 utilisé pour le minage de Bitcoin. - **1 chance sur 2²⁵⁶** : probabilité brute qu’un hash aléatoire satisfasse la cible réseau. - **10 minutes** : temps moyen visé par le protocole Bitcoin pour la découverte d’un bloc. - **2016 blocs** : intervalle de recalcul automatique de la difficulté du réseau. - **≈ 1,23 × 10¹⁹** : nombre moyen d’essais théoriques avec Grover pour une difficulté équivalente à 128 bits. - **100 à 400 TH/s** : puissance de calcul des ASICs modernes (centaines de trillions de hachages par seconde). - **12 à 35 joules par terahash** : rendement énergétique moyen d’un mineur ASIC actuel. - **< 1 nanojoule par hash** : efficacité énergétique individuelle d’un ASIC SHA-256. - **10⁻¹⁴ seconde** : temps moyen d’exécution d’un hash SHA-256 sur ASIC. - **10⁻³ à 1 seconde** : durée estimée d’un oracle SHA-256 quantique par itération (même dans un scénario optimiste). - **10¹¹ à 10¹⁵ fois plus lent** : écart de performance entre un oracle quantique et un ASIC classique. - **10³ à 10⁶ qubits physiques** : nécessaires pour stabiliser un seul qubit logique corrigé d’erreur. - **> 10⁹ portes logiques T** : profondeur estimée d’un circuit complet SHA-256 quantique tolérant aux fautes. - **10 à 15 millikelvins** : température de fonctionnement typique des systèmes quantiques supraconducteurs. - **Plusieurs kilowatts** : consommation d’un seul réfrigérateur à dilution cryogénique. - **Quelques centaines de qubits physiques** : capacité maximale des meilleurs processeurs quantiques (Google, IBM, 2025). - **Plusieurs millions de qubits corrigés** : requis pour casser une clé ECDSA 256 bits avec l’algorithme de Shor. - **2²⁵⁶ ≈ 1,16 × 10⁷⁷** : espace de recherche total du hachage SHA-256, non exploitable par Grover au-delà du symbole. - **O(2ⁿ)** → **O(2ⁿ⁄²)** : gain théorique maximal de Grover, soit une accélération seulement quadratique. - **10⁶ à 10⁸ fois plus cher** : coût énergétique estimé d’un calcul quantique équivalent à un hachage classique. ### Définition d'un oracle SHA-256 quantique C'est la traduction dans le formalisme du calcul quantique, de la fonction de hachage SHA-256 utilisée dans le minage de Bitcoin. C’est un composant central de l’algorithme de Grover lorsqu’il est appliqué à une fonction de hachage. Dans un calcul classique, SHA-256 est une fonction déterministe : elle prend une entrée (un bloc de données) et produit un hash de 256 bits. Dans un calcul quantique, cette fonction doit être représentée par une **opération unitaire réversible**, c’est-à-dire un circuit logique qui transforme un état quantique d’entrée |x⟩ et un registre de sortie |y⟩ selon la règle : |x, y⟩ → |x, y ⊕ SHA-256(x)⟩ où ⊕ représente une addition bit à bit (XOR). Cet opérateur est appelé **oracle quantique**, car il « oriente » la recherche de Grover en marquant les entrées dont le hachage satisfait une condition donnée (par exemple, être inférieur à la cible du réseau). Lors de chaque itération de Grover, l’oracle SHA-256 quantique : 1. Calcule le hachage SHA-256 de toutes les entrées possibles **en superposition**. 2. Compare le résultat à une condition (par exemple, « les 20 premiers bits sont égaux à zéro »). 3. Inverse la phase des états qui satisfont cette condition. Cette opération permet ensuite, via des interférences constructives, d’amplifier la probabilité de mesurer une entrée valide à la fin du calcul. Construire un oracle SHA-256 quantique réaliste implique : - De convertir les **opérations irréversibles** du SHA-256 classique (addition modulaire, décalages, XOR, AND, OR) en **portes quantiques réversibles**. - D’assurer la **cohérence quantique** sur des millions de portes successives. - De maintenir la **tolérance aux fautes** (correction d’erreurs) sur des milliers de qubits logiques. En pratique, chaque oracle SHA-256 quantique correspondrait à un circuit extrêmement profond, comprenant des milliards d’opérations élémentaires et nécessitant des millions de qubits physiques. **En résumé**, un oracle SHA-256 quantique est la version réversible et unitaire de la fonction de hachage utilisée dans Bitcoin, servant à marquer les solutions valides dans un algorithme de Grover. C’est l’élément théorique qui relie la cryptographie classique au calcul quantique, mais aussi la principale barrière pratique rendant le minage quantique irréalisable. ### Nature du problème de calcul Le minage repose sur la **fonction de hachage SHA-256**, appliquée deux fois pour chaque bloc : le mineur doit trouver une valeur de nonce telle que le hachage du bloc soit inférieur à une cible fixée par le protocole (la « target »). Ce processus correspond à une recherche exhaustive, où chaque essai est statistiquement indépendant. La probabilité de succès d’un essai est : p = T / 2^256 où T représente la cible du réseau. Le nombre moyen d’essais nécessaires pour trouver un bloc valide est donc : N_classique = 1 / p Dans ce modèle, chaque essai est un calcul de hachage, et les mineurs ASIC actuels en réalisent plusieurs centaines de **trillions de hachages par seconde**, grâce à une architecture massivement parallèle et optimisée pour un rendement énergétique de quelques dizaines de joules par terahash. ### L’illusion de l’accélération quantique L’algorithme de **Grover (1996)** permet d’accélérer la recherche d’un élément particulier dans un espace non structuré. Sa complexité passe de O(2^n) à O(2^(n/2)). Appliqué au minage, cela réduirait le nombre moyen d’essais à : N_Grover ≈ (π/4) × 1 / √p soit un gain théorique de facteur quadratique. Prenons un exemple simple : Si la probabilité de succès est p = 2⁻¹²⁸, alors : – N_classique = 2¹²⁸ – N_Grover ≈ (π/4) × 2⁶⁴ ≈ 1,23 × 10¹⁹ Même dans le meilleur scénario, ce gain reste marginal au regard des contraintes physiques de mise en œuvre. Le minage quantique ne multiplie donc pas la vitesse par 10⁶ ou 10⁹ ; il ne fait que réduire la complexité exponentielle d’un facteur quadratique. Cette amélioration est **arithmétiquement insuffisante** pour concurrencer des fermes ASIC dotées de millions de circuits parallèles. ### Implémentation réelle du SHA-256 quantique Le principal obstacle réside dans la profondeur et la stabilité des circuits nécessaires pour exécuter le SHA-256 sous forme quantique. Une étude de référence (Amy et al., _SAC 2016_) estime que l’implémentation de SHA-256 avec correction d’erreurs quantiques nécessiterait **plusieurs milliards de portes logiques T** et **des millions de qubits physiques**. À titre de comparaison, les meilleurs processeurs quantiques expérimentaux (Google, IBM, Rigetti) manipulent aujourd’hui **quelques centaines de qubits physiques**, avec des taux d’erreur par porte compris entre 10⁻³ et 10⁻² et des temps de cohérence de l’ordre de la microseconde. Même en supposant la disponibilité d’un ordinateur quantique tolérant aux fautes (FTQC), la profondeur de circuit de l’algorithme de Grover sur SHA-256 dépasserait largement la fenêtre de cohérence des qubits actuels. Le coût de correction d’erreurs, qui exige de 10³ à 10⁶ qubits physiques par qubit logique, rend toute application industrielle impraticable. ### Limites énergétiques et matérielles Contrairement à une idée reçue, un ordinateur quantique **ne consomme pas « zéro énergie »**. Les dispositifs supraconducteurs ou à ions piégés nécessitent un refroidissement à **des températures proches du zéro absolu (10 à 15 mK)**, grâce à des réfrigérateurs à dilution coûteux et énergivores. La consommation d’un seul système cryogénique dépasse déjà plusieurs kilowatts pour quelques centaines de qubits, sans compter les instruments de contrôle micro-ondes et les alimentations haute fréquence. Or, le minage est un **processus massivement parallèle** : il faut exécuter des milliards de calculs indépendants par seconde. Le calcul quantique, au contraire, est **séquentiel**, chaque itération de Grover dépendant de la précédente. Ainsi, même si un ordinateur quantique pouvait effectuer un hachage « plus intelligent », son débit global serait des ordres de grandeur inférieurs à celui des ASIC spécialisés, dont le rendement énergétique par opération est inférieur à 1 nanojoule. Les travaux de 2023 (« _Conditions for advantageous quantum Bitcoin mining_ », _Blockchain: Research and Applications_) confirment que le coût énergétique et la latence du contrôle quantique neutralisent tout avantage théorique. Autrement dit, **le calcul quantique est inadapté à la structure du PoW**, fondée sur la répétition ultra-rapide d’une fonction simple, non sur un calcul profond et cohérent. ### L’ajustement de la difficulté : neutralisation protocolaire Même en admettant qu’un acteur découvre une méthode quantique plus rapide, le **mécanisme d’ajustement de la difficulté** du protocole Bitcoin rendrait cet avantage transitoire. La difficulté est recalculée toutes les 2016 blocs pour maintenir un intervalle moyen de 10 minutes. Si un mineur « quantique » doublait le taux de hachage global du réseau, la difficulté serait doublée à la période suivante, ramenant le rendement à la normale. Ainsi, le calcul quantique ne pourrait jamais « casser » le minage : il serait simplement intégré dans l’équilibre économique du réseau, puis neutralisé. Le seul risque résiduel serait **la centralisation** : la possession d’un matériel quantique exceptionnellement performant par un acteur unique pourrait temporairement déséquilibrer le marché du hashpower. Mais ce risque est de nature économique, non cryptographique, et reste improbable compte tenu des coûts d’investissement nécessaires (infrastructures cryogéniques, maintenance, ingénierie avancée). ### Différencier les risques : signatures contre hachage Il faut distinguer deux menaces distinctes : - **Le hachage (SHA-256)** : utilisé pour le minage, il résiste aux attaques quantiques, car Grover ne confère qu’un gain quadratique. - **Les signatures (ECDSA)** : utilisées pour prouver la propriété d’une adresse, elles seraient vulnérables à l’algorithme de **Shor (1994)**, capable de calculer des logarithmes discrets. C’est donc la couche de signature, non celle du minage, qui justifie les travaux de transition post-quantique. Les estimations récentes évaluent à plusieurs **millions de qubits corrigés** les ressources nécessaires pour casser une clé ECDSA 256 bits. En 2025, aucun système n’approche cette échelle : les processeurs logiques corrigés se comptent en unités, non en milliers. ### Les véritables progrès de 2024-2025 : des avancées sans impact minier Les annonces récentes de progrès — par exemple, la stabilisation de **qubits logiques corrigés d’erreurs** sont des étapes importantes, mais elles concernent la fiabilité expérimentale, pas la puissance calculatoire. Un calcul quantique utile pour le minage impliquerait des milliards d’opérations cohérentes et répétées, ce que les qubits actuels ne peuvent soutenir. Même une percée majeure dans la correction d’erreurs ou la modularité n’inverserait pas le constat : l’architecture quantique reste incompatible avec la nature massivement parallèle, faible profondeur et haute fréquence du minage. ### Les explications suivantes sont un peu plus complexes, voici quelques bases préalables Les notions de bits, de _pool mining_ et de bornes de difficulté peuvent paraître abstraites. Voici une vulgarisation claire de ces trois éléments essentiels pour comprendre le fonctionnement réel du minage. **MSB et LSB** Dans un nombre binaire de 256 bits (comme le résultat d’un SHA-256), les **MSB** (_Most Significant Bits_) sont les bits de gauche : ils représentent les valeurs les plus lourdes dans le nombre. Les **LSB** (_Least Significant Bits_) sont ceux de droite, qui changent le plus souvent mais influencent peu la valeur globale. Quand on parle de trouver un hash « avec des zéros en tête », cela signifie que les MSB doivent être nuls : le hachage commence par une longue série de zéros. Les mineurs varient un petit champ de données appelé _nonce_ pour que le hachage final respecte cette contrainte. La difficulté du réseau est précisément le nombre de MSB que le hash doit présenter à zéro. **Fonctionnement des pools** Le minage est aujourd’hui organisé en **pools**, des regroupements de mineurs qui travaillent ensemble et se partagent la récompense. Chaque mineur reçoit des tâches simplifiées : il ne cherche pas à valider le bloc complet, mais à produire des _shares_, c’est-à-dire des hachages dont la difficulté est inférieure à une cible beaucoup plus facile que celle du réseau. Ces _shares_ servent de preuve de participation : plus un mineur en fournit, plus sa part de la récompense du bloc final sera grande. Le serveur de pool ajuste en permanence la difficulté individuelle (_vardiff_) pour équilibrer les vitesses : un mineur trop rapide reçoit des tâches plus difficiles, ce qui empêche tout avantage injustifié. **Bornes inférieure et supérieure du minage** Le protocole Bitcoin fixe deux seuils de difficulté qui encadrent tout le processus de minage. La **borne supérieure** correspond à la cible du réseau : pour qu’un bloc soit validé, le hash de son en-tête doit être inférieur à cette valeur. Plus la cible est basse, plus il faut de zéros en tête du hash, donc plus le bloc est difficile à trouver. À l’inverse, la **borne inférieure** correspond à la difficulté de travail assignée par les _pools_ à chaque mineur, bien plus facile à atteindre. Elle sert uniquement à mesurer la participation individuelle. Le serveur de pool ajuste ces bornes en permanence. Si un mineur trouve trop de _shares_ trop vite, la pool augmente la difficulté de ses tâches. S’il en trouve trop lentement, elle la réduit. Ce mécanisme — appelé _vardiff_ — élimine de fait les comportements extrêmes : les mineurs trop rapides ne gagnent pas plus, ceux trop lents sont naturellement exclus, car leurs _shares_ deviennent trop rares pour être rentables. Grâce à ce système d’équilibrage, la puissance de calcul de chaque mineur reste proportionnelle à sa contribution réelle, sans possibilité d’avantage durable. Les bornes supérieure et inférieure assurent ainsi une stabilité globale du réseau et une équité locale dans la répartition du travail. ### Comprendre l’illusion du « Grover partiel » Une idée revient souvent : appliquer l’algorithme de Grover non pas sur les 256 bits entiers du hachage SHA-256, mais uniquement sur une partie des bits les plus significatifs (les « MSB »), puis compléter le reste classiquement. Cette approche, dite de _Grover partiel_, semble logique : si la recherche porte sur un espace réduit (par exemple 40 bits au lieu de 256), le nombre d’itérations nécessaires diminue d’autant, selon la règle √(2^r). En théorie, cela pourrait permettre d’obtenir plus rapidement des _shares_ de faible difficulté dans une pool de minage. En pratique, cette approche ne change rien à la réalité du calcul. Chaque itération de Grover nécessite d’exécuter **l’intégralité du SHA-256** pour évaluer la condition sur les bits de poids fort. Il est impossible de “tronquer” le hachage ou de tester partiellement une fonction de hachage cryptographique sans la calculer entièrement. Autrement dit, on répète moins d’itérations, mais chacune coûte tout autant — et des millions de fois plus cher qu’un hash classique sur ASIC. De plus, Grover ne permet pas de produire plusieurs solutions corrélées. L’état quantique s’effondre dès la première mesure : pour trouver une autre solution, il faut tout recommencer. Contrairement au calcul classique, on ne peut pas réutiliser le résultat pour générer des variantes voisines ou de multiples _shares_ proches. Enfin, même si un mineur quantique obtenait une légère accélération locale sur les _shares_, cette différence serait aussitôt neutralisée par les mécanismes de régulation automatique des pools, qui ajustent dynamiquement la difficulté de chaque mineur. Le protocole est conçu pour maintenir un équilibre entre tous les participants, quelle que soit leur vitesse. En résumé, le « Grover partiel » n’apporte aucun avantage pratique : le gain quadratique reste purement théorique, annihilé par la lenteur, la décohérence et les contraintes physiques du calcul quantique. Même appliqué à une portion réduite du hachage, le coût énergétique, temporel et structurel d’un tel processus dépasse de plusieurs ordres de grandeur celui des mineurs classiques. ### Autres objections possibles **« L’algorithme de Grover’s algorithm peut traiter plusieurs solutions (multiple-solutions search) »** Source : PennyLane Codebook sur “Grover’s Algorithm | Multiple Solutions” explique la généralisation de l’algorithme pour trouver M solutions dans un espace de taille N. **Réponse** : en théorie, trouver M solutions réduit la complexité à O(√(N/M)). Cependant : - Dans le contexte du minage, “solutions” correspondraient à hachages valides pour la cible de difficulté. Mais l’oracle quantique doit toujours tester la fonction de hachage complète pour chaque entrée, donc le coût reste maximal par itération. - Le fait d’avoir plusieurs solutions M ne change pas la **latence** ou la **profondeur du circuit** : on reste limité par la correction d’erreurs et la cohérence. - Pour de grandes valeurs de N (≈ 2²⁵⁶) et de faibles M (target très rare), √(N/M) reste astronomique. Donc, même en adoptant la “multiple-solutions” variante de Grover, les contraintes matérielles et temporelles rendent l’application au minage toujours impraticable. **« Si un mineur quantique apparaissait il pourrait provoquer plus de forks / réorganisations** Source : l’article académique “On the insecurity of quantum Bitcoin mining” (Sattath, 2018) évoque que la corrélation des temps de mesure pourrait accroître la probabilité de forking. **Réponse** : cet argument est intéressant mais largement spéculatif et repose sur l’hypothèse que un mineur quantique ultra-rapide fonctionnerait. Toutefois : - Le scénario exigeait un mineur quantique capable d’atteindre un rythme comparable ou supérieur aux meilleurs ASIC, ce qui n’est pas réaliste aujourd’hui. - Même si un tel mineur existait, la majoration de forks ne découle pas forcément d’un avantage minier généralisé mais d’une stratégie opportuniste. Cela ne remet pas en cause l’adaptation du réseau, l’ajustement de la difficulté ou les mesures de sécurité. - Le fait que des forks puissent se produire ne signifie pas que le minage quantique soit viable ou avantageux : le coût demeure prohibitif. En résumé, cette objection peut être formalisée, mais elle ne constitue pas une preuve d’avantage quantique efficace dans le contexte réel. ### Conséquences économiques et énergétiques Les fermes ASIC modernes fonctionnent à pleine efficacité énergétique, autour de **12 à 35 J/TH**. Un ordinateur quantique cryogénique, même parfaitement optimisé, aurait un **rendement plusieurs ordres de grandeur inférieur**, en raison des coûts de refroidissement, de contrôle et de correction d’erreurs. Le calcul quantique est donc **anti-économique** pour le minage : - il requiert une architecture centralisée ; - il ne permet pas la duplication à grande échelle ; - il ne réduit pas la consommation énergétique totale ; - il n’améliore pas la sécurité du réseau. ### Conclusion Le calcul quantique, dans son état actuel et prévisible, est **fondamentalement inadapté au minage** de Bitcoin : 1. **Sur le plan algorithmique**, l’accélération quadratique de Grover reste insuffisante face à la complexité exponentielle du hachage. 2. **Sur le plan matériel**, la correction d’erreurs et la décohérence limitent toute tentative de parallélisation à grande échelle. 3. **Sur le plan énergétique**, le refroidissement cryogénique et la complexité du contrôle rendent toute opération industrielle inefficiente. 4. **Sur le plan protocolaire**, le mécanisme d’ajustement de difficulté neutralise tout avantage transitoire. 5. **Sur le plan économique**, la centralisation nécessaire au maintien d’une infrastructure quantique détruirait la résilience du réseau et serait donc exclue des récompenses par les noeuds (qui décident). La menace quantique pour Bitcoin concerne exclusivement les **signatures cryptographiques (ECDSA)** et non la **preuve de travail (SHA-256)**. En l’état des connaissances et des projections technologiques, **aucune perspective crédible** ne permet d’imaginer un avantage du calcul quantique pour le minage, ni même une rentabilité énergétique. Le mythe du « quantum miner » relève donc davantage de la spéculation médiatique que de la science appliquée. Bitcoin, conçu pour s’adapter et ajuster sa difficulté, demeure aujourd’hui et pour longtemps **résilient face à la révolution quantique**. [Source](https://www.linkedin.com/pulse/pourquoi-le-calcul-quantique-est-inadapt%C3%A9-au-minage-nicolas-cantu-fkvde/) #Bitcoin #QuantumComputing #ProofOfWork #SHA256 #Grover #Mining #PostQuantum #Decentralization