Betrachtung und Berechnung von Hash Rate und Stromverbrauch

Hallo und guten Morgen,
ich sitze derzeit über einem größeren Mining-Projekt, wobei ich eher aus der Energiewirtschaft komme. Bei meinen Betrachtungen habe ich mich besonders dem Stromverbrauch und der Effizienz gewidmet. Ich habe zum einen die aktuelle Hash Rate mit 40 EH/s betrachtet und kalkuliert, welche Energie notwendig wäre, um diese Hash Rate mit Modernen Minern und einer Hash Rate von 140 TH/s zu erreichen.
In der Gegenprobe habe ich den derzeitigen Stromverbrauch von 140 Terrawattstunden unter Annahme zurückgerechnet, dass ein moderner S19 pro 3.500 Watt benötigt.
Die Ergebnisse klaffen meilenweit auseinander.
Es ist mir natürlich klar, dass ich sämtliche Verluste, wie auch alte Rechner mit hoher Stromaufnahme und geringer Hash Rate nicht berücksichtigt habe.
Der Faktor 15 ist mir aber schlichtweg zu hoch. Wo ist mein Fehler. Laut meiner Berechnung könnte der Stromverbrauch um den Faktor 15 gesenkt werden, wenn mit optimalen Minern gearbeitet würde. Kann das sein?
Ich würde mich sehr über fachliche Meinungen freuen. Habe da wohl irgendwo einen Bock eingebaut, oder nicht?
Grüße an alle Hodler

Die Hashrate beträgt aktuell etwa 212 EH/s. Siehe hier.

@Pelikan_64 Interessantes Thema, ich würde mir allerdings wünschen, dass Du auch Links bzw. Referenzen angibst, woher Du Deine Zahlen hast.

Hallo und Danke!
Ich habe meine Zahlen nun mal an die Ausarbeitung von Michel KHAZZAKA vom April 2022 angelehnt. Auf Seite 19 stellt er eine ähnliche Betrachtung an. Annähernd nachvollziehbar. Selbst er kommt auf eine Einsparung von 40% !!! Mich wundert es, dass noch niemand dieses Thema bei der Energiediskussion aufgemacht hat. Zeigt wohl einmal mehr, dass alle schreien, dass Bitcoin so viel Strom verbraucht aber im Endeffekt haben Sie nicht oder nur bedingt tiefgreifende Kenntnisse. Eine Effizienz von gerade mal 60% ( bei mir 50%) ist tatsächlich kein Aushängeschild. Falls irgendjemand hier im Forum Artikel oder Informationen zu diesem Thema hat/kennt/findet, bitte gerne an mich weiterleiten. Es gibt sicherlich Verluste, diese können aber kaum mit 40% erklärt werden. Wahrscheinlich werden alte Miner mit geringer HashRate und hohem Stromverbrauch bis zu Ihrem Lebensende mit billigem Strom gefüttert. Das wäre Wasser auf die Mühlen der Kritiker. „Die Hochtechnologie der Zukunft nutz Schrott mit hohem Energiebedarf“ Gar nicht gut. Müssen wir dran abreiten.

Wenn ich Fehler in meiner Betrachtung habe, bitte unbedingt raus damit. Ich würde der Sache schon gerne auf den Grund gehen.

Nochmal: Verlinke doch bitte Deine Quellen bzw. Berechnungsgrundlagen!

Ist das die hier?

Bitcoin: Cryptopayments Energy Efficiency by Michel Khazzaka :: SSRN

Ja genau. Eigentlich ein Vergleich Energie im FIA System und BTC System. Auf Seite 19 , 1 Spalte, letzter Absatz optimiert er aber auch noch mal die BTC Seite.

Willkommen @Pelikan_64 im Forum!

Deine Grundgedanken sind alle richtig, aber es gibt ein entscheidendes Problem:

Im Bitcoin Netzwerk ist die Difficulty sowie die aktuelle mittlere Zeit zwischen den Blöcken bekannt.

Schon die aktuelle Hashrate kennt man allerdings nicht exakt. Man kann dabei entweder den selbst gemeldeten Angaben der größeren Mining Pools glauben, oder man berechnet sie auf Grundlage von aktueller Difficulty und Blockzeit:

Entsprechend diesen Angaben liegen wir aktuell im Bereich von 200…220 EH/s.

Um nun den Stromverbrauch des Netzwerks abzuschätzen, müssen Annahmen über die mittlere Effizienz der Mining Geräte getroffen werden, die zum jeweiligen Zeitpunkt aktiv sind. Darin liegt die Kunst von Studien über den Stromverbrauch von Bitcoin.

Nachdem es sehr unterschiedliche Annahmen gibt, kursieren entsprechend auch unterschiedliche Werte für den Gesamtverbrauch.

Wie du siehst ist es zwar interessant den Stromverbrauch einer Quelle mit Hashrate und Effizienz einer anderen Quelle oder deinen eigenen Annahmen zu vergleichen. Sofern die Annahmen unterschiedlich sind kommt aber etwas anderes dabei heraus und man muss sich klarmachen, dass niemand den genauen Verbrauch kennt.

Zu deiner Abschätzung:

Eine aktuelle Hashrate von 210 EH/s und eine mittlere Effizienz von 110 TH/s pro 3250 W (Antminer S19 Pro) entsprächen einer Gesamtleistung von ca. 210 EH/s / (110 TH/s / 3250 W) = 6,2 GW. Bei 8760 Stunden pro Jahr ergäbe das einen Gesamtverbrauch von ca. 6,2 GW * 8760 h = 54 TWh pro Jahr.

Die Differenz zu deiner Angabe von 140 TWh im Jahr kommt wahrscheinlich daher, dass deine Quelle aufgrund älterer Geräte im Netzwerk eine geringere mittlere Effizienz (Hashrate pro Leistung) als die eines S19 Pro angenommen hat. Es wäre allerdings nur ein Faktor 2…3.

Generell musst du aufpassen, dass du nicht die Leistung mit dem jährlichen Stromverbrauch durcheinander bringst. Interessant ist übrigens dieser Thread:

Zu viel grüne Energie! ESMA-Vize fordert Mining-Verbot

1 „Gefällt mir“

Hallo und besten Dank für deine sehr fachlichen Auskünfte. Ein weites Feld…
Ich meine auch dass alle Berechnungen zu viele variablen haben. Die einzig verlässliche Größe in diesem Spiel, oder sagen wir die meist verlässliche Größe, dürfte die HR sein.
Keiner kennt die genaue Anzahl der aktiven Miner, wie werden die Farmen betrieben, wie groß ist die Anzahl der längst veralteten Geräte, etc.
Deinen Artikel werde ich mir gleich gerne einmal zur Brust nehmen. Wir arbeiten derzeit an einer schwimmenden Farm mit alternativen Technologien zur Energieerzeugung. Daher ist das Thema für mich sehr spannend. Danke noch mal für diese fachlichen Auskünfte!

1 „Gefällt mir“

Hallo Pelikan,
in diesem Zusammenhang kann ich dir den Podcast vom guten Jesse sehr empfehlen.

Grüße

Pools die regelmäßig und relevante Mengen an Blöcken schürfen, kann man z.B. hier sehen. Wobei man hierbei meines Erachtens nur halbwegs ableiten kann, in etwa wieviel anteilige Hashleistung die Pools auf sich vereinen, durchschnittlich über die Messperiode. (Über die aktuelle Difficulty kann man ja ausrechnen, wieviele Hashes durchschnittlich für das Schürfen eines Blocks innerhalb von 10min nötig sind.)
Kommerzielle Farmen, die ihren Energiebedarf bezahlen müssen, haben ein wirtschaftliches Interesse, möglichst effizient und optimiert betrieben zu werden. Dabei gibt es sicherlich einen „Sweet Spot“ zwischen Effiziens und für einen Effizienslevel benötigten Investitions- und Unterhaltskosten. Da habe ich aber keine Erfahrung mit.
Veraltete Geräte zu betreiben, macht selbst bei nahezu kostenlosen Strom kaum einen Sinn, vorallem nicht für in Konkurrenz stehende Farmen. Das wäre Blocklotto, dessen Erfolgswahrscheinlichkeit man ausrechnen kann, wo ich mal darauf tippe, daß das nur „wenige“ Solo-Miner machen, da die Chancen meist minimal sind. Quantifizieren kann ich das nicht, vielleicht orientiert man sich dabei an einem relativ beliebten Solo-Mining-Pool (Link habe ich gerade dafür nicht zur Hand, Google hilft).
Bei der „üblichen“ Difficulty-Entwicklung müssen Farmen idR die effizientesten Geräte einsetzen, insbesondere wenn der Energiebedarf bezahlt werden muss, was ja wohl überwiegend die Regel sein sollte, auch wenn es mitunter nur wenige Cent/kWh sind.