In 100-200 Jahren noch genug speicherplatz für die bitcoinblockchain?

Weil vielleicht mal die herstellung von hardware an physikalische grenzen kommt? Z.b dass man nicht mehr speicherdichte auf noch kleineren raum hinbekommt? Ich weiss es nicht ich bin kein fachmann :smiley:

Dann wäre Bitcoin keine Timechain mehr und die Idee hinfällig. Es ist wichtig das jeder Mensch wenn er möchte alles zu jeder Zeit überprüfen kann.

1TB SSDs findet man heutzutage selbst in den billigsten Notebooks zu Hauf. Das wäre vor ein paar Jahren noch nicht der Fall gewesen. Wenn die Entwicklung dahingehend also weiter geht, dass Speicherplatz immer billiger wird, dann wird das alles sowieso kein Problem sein.

Man muss sich mal überlegen, was alles auf so einem kleinen Chip alles drauf passt. Vor 5 oder 6 Jahren hat SanDisk die erste 1TB Micro SD rausgebracht. Heute kriegst du eine Ultra für 75€. Ich weiß noch, dass die mal schweineteuer war. Bei der 2TB Karte wird es genauso sein. Und das soll ja auch nur als Beispiel dienen. Bei SSD ist es eben ähnlich.

Dann werden diese Grenzen gesprengt :sunglasses:

Solange wir uns nicht wieder in die Steinzeit bomben und alles von vorn beginnt, werden wir uns stets technisch weiterentwickeln. Das ist seit Jahrtausenden so. Warum sollte es irgendwann zu einem Stillstand kommen? Das erscheint mir unlogisch.

1 „Gefällt mir“

Naja weil es physikalische grenzen gibt. Z.b kann man mit dem auto mit 300 km/h auch keinen u-turn machen ohne dass das auto sich überschlägt

Weiß grad nicht, wozu diese Diskussion gut sein soll.

Selbst wenn du glaubst, dass es in 5000 Jahren zu einem Stillstand der Weiterentwicklung kommt, welche Rolle spielt das für dein Leben und das deiner Kinder?


Das war ziemlich teuer!

1 „Gefällt mir“

Ich finde die diskussion absolut wichtig. Es geht darum ob bitcoin ein ablaufdatum hat, wenn auch in sehr ferner zukunft. Für ein geld dass den anspruch hat, das "letzte geld der Menschheit " (wie der blocktrainer es formuliert) zu sein, ist das dann nicht ausreichend

Ich bin mir ziemlich sicher, dass die jetzige technische, global vernetzte menschliche Zivilisation nicht die nächsten Jahrtausende überdauert. Der theoretische zukünftige Speicherbedarf der Blockchain lässt sich hingegen schon mit heutigen Technologien problemlos abdecken.

Don’t waste time on imaginary problems.

2 „Gefällt mir“

Die gesamte Chain natürlich nicht. Aber die Node weiss ja nicht einfach so was die valide längste Chain mit der meisten Arbeit ist. sie muss das von Anfang an Block für Block validieren und folgt den Blöcken mit der meisten Arbeit. Und da kann ich sie eventuell komplett in die Ire führen wenn ich mit modernen ASIC auf alten Blöcken anfange zu minen.

Wie soll die Node denn wissen das sie einen alternativen Zweig validieren soll der in Zukunft irgendwo mehr Arbeit hat? Das sieht sie ja nicht. Snapshots lösen dieses Problem.

Weiss nicht ob ich das verständlich erklärt habe. Jedenfalls ist das nicht etwas was ich mir ausgedacht habe, das ist ein bekanntes Problem.

Wie ich bereits erwähnt habe geht es nicht nur um den Speicher sondern auch um die Validierung wo es weitere Probleme gibt die ich oben erwähnt habe.

Die Idee von Bitcoin wird nicht hinfällig nur weil wir neue Probleme an die Satoshi nicht gedacht hat irgendwie lösen müssen.

1 „Gefällt mir“

Danke für die Mühe…aber verstanden hab ich`s nicht…

Die Kette mit der meisten Arbeit ist die gültige
Die gültige Kette ist bekannt
Wenn nun beim syncen der Kette neu angefangen wird und ich z.B. bei Block 21212 forke (von da an neu aufsetze) muss ich ja eine längere Kette (im Sinne von „mehr Arbeit reinstecken“) erzeugen als die aktuell als gültig angesehene
Wie soll ich insgesamt mehr Arbeit reinstecken können als alle bisher geleistet Arbeit bereits reingesteckt wurde?
MMn ist das nicht möglich!

1 „Gefällt mir“

hab jetzt nicht alles gelesen, aber es mal kurz überschlagen.

1,5 Mb * 6 * 24 * 365 sind ca 80 Gb Pro Jahr.
80gb * 100 = 8Tb

also die nächsten 200 Jahre kannst du stand heute für ca 350Euro speichern (20Tb Festplatte).

4 „Gefällt mir“

Ich habe es so verstanden, dass eine neu aufgesetzte Node beim Validieren der ersten Blöcke diesen Endzustand „noch“ nicht kennt.
Wenn ich also die Blockchain von einem Angreifer runterlade, welcher uralte Blöcke mit einer modernen ASIC neu berechnet hat, dann könnte ich schon verstehen, dass die Node dann tatsächlich erstmal einen falschen Zweig lädt.
Habe ich das richtig verstanden @ZPE ?

Ich denke dies ist aber in der Praxis kein Problem, da

  1. die Full Node im weiteren Verlauf erkennt, dass es eben doch einen Zweig mit mehr POW gibt und dann einfach wechselt. DerAngriff sorgt also lediglich für langsames Laden der Blockchain.
  2. die Node am Anfang erst nur Header Dateien lädt und diese ausreichen um das Proof Of Work zu überprüfen.

Ich weiß nicht wieviele Header man lädt bevor man dann anfängt die ganzen Blöcke zu laden weiß ich nicht.
Aber an sich ist es schnell gemacht alle Header der kompletten Blockchain runter zu laden.
Diese Header kann man dann parallel von verschieden Nodes anfragen und bekommt dann doch wieder sehr schnell raus welche Chain „letztendlich“ die mit dem meisten POW ist.

Dann sind wir da was @WilliOverlord meinte.
Kein Angreifer wird soviel POW aufbringen können.

3 „Gefällt mir“