Also, ich schreibe einen ausführlichen Beitrag in dem ich argumentiere, weshalb der knappe Blockspace notwendig ist, um Bitcoin wertvoll zu machen.
Und Du schreibst drei Zeilen mit der Aufforderung mich auf das Whitepaper zu stützen.
Ein schönes Beispiel des Brandolinis Gesetz.
Aber für Dich mache ich es ausnahmsweise 1x.
Er schrieb in einer Mail #3 irgendwas von „The existing Visa credit card network processes about 15 million Internet purchases per day worldwide. Bitcoin can already scale much larger than that with existing hardware for a fraction of the cost. It never really hits a scale ceiling. If you’re interested, I can go over the ways it would cope with extreme size. By Moore’s Law, we can expect hardware speed to be 10 times faster in 5 years and 100 times faster in 10. Even if Bitcoin grows at crazy adoption rates, I think computer speeds will stay ahead of the number of transactions.“
Nimmt man ein paar Jahre später Transaktionen von 100 Millionen/Tag, dann gilt es eine Datenmenge zu speichern mit Blöcke in der Größe von etwa ~147MB nötig. Aaaber, die Zahl ist auch alt. Heutzutage haben wir täglich in etwa 1,86 Milliarden Kreditkartentransaktionen. Dafür wären Blöcke der Größe von 3,23 GB (!) notwendig. Das würde einen Speicherzuwachs von 170 TB (!) pro Jahr (!) ergeben. Somit würden der Speicherbedarf bis 2034 auf 1700 TB ansteigen.
Das Mooresche Gesetz in allen Ehren, aber selbst bei einer Abnahme des Preises pro TB muss man wahrscheinlich mit Kosten von 5000€ für diesen Bedarf rechen, wobei die Inflation bis 2034 hier nicht berücksichtigt ist. Real wird es also eher teurer.
Und nein, das ist offensichtlich nicht für jeden erschwinglich und steht somit komplett im Gegensatz zu einem dezentralisierten P2P-Netzwerk, wo ich die ganze Transaktionshistorie zu Hause habe und niemandem als dem Netzwerk selbst vertrauen muss.
So, ich nehme an, dass ich in etwa die 20x fache Zeit für diesen Beitrag verwendet habe. Ich würde mich also freuen, wenn Deine Antwort länger als drei Zeilen wäre und Argumente beinhalten würde.
Und nochmal zum Whitepaper. Auch dort schreibt er:
"A block header with no transactions would be about 80 bytes. If we suppose blocks are generated every 10 minutes, 80 bytes * 6 * 24 * 365 = 4.2MB per year. With computer systems typically selling with 2GB of RAM as of 2008, and Moore’s Law predicting current growth of 1.2GB per year, storage should not be a problem even if the block headers must be kept in memory."
Liest sich für mich nicht wie Deine Behauptung, dass „Satoshi Nakamoto hat oft gesagt, das die Blocksize mit der Zeit vergrößert werden soll“.