Kann eine fortschrittliche künstliche Intelligenz in Zukunft eine Gefahr für das Bitcoin-Netzwerk darstellen?
Diese extrem ungenaue Analogie suggeriert, dass Mining mit zunehmender Intelligenz, wie auch immer man diese definieren möchte, effizienter bzw. einfacher wird. In der Praxis hat der Mining-Prozess aber nichts mit komplexen Rätsel, sondern vielmehr mit stupider Wiederholung zu tun. Immer und immer wieder wird dieselbe, kryptografische Hashfunktion ausgeführt, in der Hoffnung, zufällig eine Zahl zu finden, die den aktuellen Regeln im Netzwerk entspricht.
Das ist im Prinzip eine Brute-Force-Methode. Die auf der Annahme basiert dass es keine andere Möglichkeit gibt schneller zum Ziel zu gelangen. Soweit ich weiß gibt es für diese Annahme im Bezug auf den SHA256 Algorihtmus keinen mathematischen Beweis? Sollte also eine Intelligenz, ob nun menschlich oder künstlich, irgendwann einen Weg finden, könnte der SHA256 Algorithmus gebrochen werden und damit möglicherweise auch das Mining betroffen sein.
Und man vertraut darauf dass SHA256 nur allmählich ganz langsam gebrochen wird, weil es auch mit den anderen so war. Aber dafür gibt es keine Garantie. Gerade die Entwicklungen in der KI Technik könnten überraschende Durchbrüche bringen und bisherige Prozesse könnten massiv beschleunigt werden.
Wenn es einen Weg gibt, SHA256 zu brechen, ist es nur eine Frage der Intelligenz, sich dieses Wissen zu beschaffen. In dem Fall wäre es wirklich eine Frage der Zeit und der Intelligenz bis SHA256 gebrochen ist.
Wenn eine künstliche Intelligenz dazu in der Lage wäre den Verschlüsselungsalgorythmus von Bitcoin zu brechen oder irgendeine andere Sicherheitslücke im Bitcoin-Netzwerk zu identifizieren um diese auszunutzen, dann wäre im Gegenzug aber auch eine andere AI dazu in der Lage, diese Sicherheitslücken proaktiv zu identifizieren und zu fixen, bevor diese jemand ausnutzt. AI kann diesebezüglich ja beidseitig eingesetzt werden. Es würde also einen Wettkampf geben zwischen denjenigen, die das Bitcoin Netzwerk mittels AI angreifen wollen und denjenigen die das Netzwerk wiederum schützen wollen. Am Ende würde die Partei den Kampf gewinnen, welche die fortschrittlichere AI besitzt. Und Wer besitzt diese? Natürlich Derjenige mit dem größeren Kapital. Und wer hat in einer hyperbitcoinisierten Welt das meiste Kapital? Diejenige Partei mit den meisten Bitcoin. Und Diejenige mit den meisten Bitcoin wird, wird tendeziell eine größere Motivation haben das Netzwerk zu schützen, als diesem zu schaden. Sonst würde diese Partei ja ihren eigenen Wohlstand gefährden.
Ich glaube sowieso, dass AI die Hyperbitcoinization in diesem Sinne enorm vorantreiben würde. Wenn wir davon ausgehen, dass AI in Zukunft in der Lage ist Finanznetzwerke anzugrefien, würde es ja sowieso zuerst das klassische Bankensystem treffen. Bitcoin ist wie wir wissen bis dato das sicherste Zahlungsnetzwerk der Welt, wohingegen das klassische Banken-/Finazsystem sicherheitstechnisch der reinste schweizer Käse ist. Gerade in der Anfangszeit würde man die AI doch tendenziell eher nutzen um die leichteren Ziele anzugreifen. Also das klassische Finanzsystem. Wenn dies passiert, würden die Leute und Instituitonen notgedrungen in das Bitcoin-Netzwerk flüchten müssen, wenn diese das eigene Geld schützen bzw. sicher Geld von A nach B transferieren wollen.
Man könnte aber auch argumentieren, dass Sicherheitsprobleme die durch Menschen entdeckt werden, kein Problem darstellen, weil es auch Menschen gibt die Sicherheitslücken schließen können. Und weil Softwarehersteller mit besonders viel Kapital auch viele Sicherheitsexperten beschäftigen, können sie ihre Produkte und Dienstleistungen zu ihrem Vorteil sicher halten.
Doch ist dass so? Es ist richtig dass Menschen Sicherheitslücken schließen und Fraktionen mit viel Geld mehr Sicherheitsexperten beschäftigen können. Trotzdem leben wir in einer Welt voller Sicherheitslücken die regelmäßig erfolgreich genutzt werden um Schaden anzurichten.
Deswegen würde ich nicht davon ausgehen, das KIs die Sicherheitsprobleme verursachen, von anderen KIs die Sicherheitsprobleme lösen, vollständig kompensiert werden. Jede Gegenmaßnahme erfordert eine gewisse Zeit, aber in dieser Zeit kann bereits ein kritischer Schaden erfolgt sein.
Dass Gegenmaßnahmen im Rahmen eines Katz-und-Maus-Spiels eine gewisse Zeit dauern und der Angreifer somit einen Zeitvorteil hätte ist selbstredend. Deswegen habe ich oben ja auch von einer proaktiven! Identifizierung von Sicherheitslücken gesprochen. Sprich, dass Lücken bereits vom Verteidiger erkannt und gefixt werden bevor der Angreifer die Lücke erkennt und ausnutzt.
Jetzt natürlich die Frage, ist es überhaupt möglich als Verteidiger die Lücken zu erkennen bevor es der Angreifer tut. Und da würde ich jetzt mal behaupten: Ja es ist möglich unter der Voraussetzung, dass die AI des Verteidigers um ein Vielfaches fortschrittlicher ist als die des Angreifers. Geht man nun davon aus, dass das Verteidigerkollektiv (hypothetisch: das Kollektiv bestehend aus jedem einzelnen Teilnehmer des Bitcoin-Netzwerkes) eine vielfach größere Finanzkraft hat, als der Angreifer, dann hat das Verteidigerkollektiv somit auch viel mehr Geld um die Weiterentwicklung des eigenen Verteidigungs-AI-Systems zu finanzieren. Resultat wäre, dass die AI des Angreifers mangels Finanzkraft technisch um ein Vielfaches hinterherhinken würde und somit die Verteidigungs-AI Sicherheitslücken wesentlich schneller identifizieren könnte als die AI des Angreifers.
Die Frage ist hier bloß, ob es realistisch wäre, dass die Verteidiger des Bitcoin Netzwerkes um ein vielfaches mehr an Kapital besitzen als der Angreifer, um dieses zwecks AI-Forschung einsetzen zu können. In einer hyperbitcoinisierten Welt, wäre die Antwort ein ganz klares JA.
Konkretes Beispiel: Das Verteidigerkollektiv besteht aus der riesengroßen Mehrheit der Bitcoin-Netzwerkteilnehmer, da jeder Bitcoin-Besitzer ein Interesse an der Verteidigung des Netzwerkes hat. Der Angreifer wäre beispielsweise jemand der Satoshis Wallet hacken möchte. Jetzt wäre es z. B. möglich das Bitcoin-Protokoll mittels Update so abzuändern, dass ein jeder Netzwerkteilnehmer eine verpflichtende Sicherheitsabgabe leisten muss. Sprich, pro geminten Bitcoin und pro getätigter Transaktion wird ein Bruchteil davon direkt durch den Algorithmus auf eine speziell dafür eingerichtete „Bug-Bounty-Adresse“ überwiesen. Wenn nun ein „Sicherheitsforscher“ mittels fortschrittlicher AI eine Sicherheitslücke entdeckt und durch die AI einen sofortigen Fix dafür erstellen lässt, hat dieser die Möglichkeit den Sicherheitspatch mittels Update in das Bitcoin-Netzwerk einzuspielen. Nun entscheiden die Node-Betreiber darüber ob das Sicherheitsupdate angenommen wird oder abgelehnt wird. Wird das Sicherheitsupdate durch die Netzwerkteilnehmer angenommen (und das wird es, wenn es notwendig ist!), erhält der „Sicherheitsforscher“ automatisiert gesteuert über einen Smartcontract eine feste Summe aus der zuvor angelegten „Bug-Bounty-Adresse“. Nicht zu vergessen: In einer hyperbitcoinisierten Welt wird der wertmäßige Inhalt der „Bug-Bounty-Adresse“ gewaltig sein. Folglich wird es einen enorm hohen finanziellen Anreiz geben, an künstlicher Intelligenz zu forschen, die dem Schutze des Bitcoin-Netzwerkes dient. Berücksichtigt man die Tatsache, dass ein gehacktes Bitcoin-Netzwerk mit einem massiven Vertrauensverlust verbunden wäre und somit auch ein massiver Werteverlust des Bitcoins eintreten würde, hätte zudem auch aus spieletheoretischer Sicht keiner einen finanziellen Anreiz das Netzwerk anzugreifen, da die erbeuteten Coins nahezu wertlos wären. Somit ist der Schutz des Netzwerkes aus finanzieller Sicht wesentlich lukrativer als der Angriff des Netzwerkes. Folglich werden die Investitionen in die Entwicklung eines proaktiven Verteidigungssystems exorbitant größer sein, als die Investitionen in ein Angriffssystem. Die Verteidiger haben somit einen massiven Technologievorteil.
Wer wird wohl das Technologierennen gewinnen? Die Bananenschnecke oder der Gepard?
Krasse Gedankenspiele die Ihr hier habt. Darüber muss ich Nachdenken. Irgendwie macht mir der Gedanke auch Angst vor der Zukunft.
In einer Hyperbitoinisierten Welt mag das womöglich funktionieren, dass es der größte Anreiz ist das System zu schützen aber da sind wir leider noch lange nicht.
Das FIAT-System wird wohl noch viele Jahre mehr Liquidität haben und bessere KI’s zur Verfügung stellen als unser Freiheitsliebendes Netzwerk.
Fazit:
Wenn wir schon in der Hyperbitcoinisation angekommen wären, würde ich @Sindelbart2 Recht geben aber da sind wir leider noch lange nicht
Es folgt der Versuch einer systemtheoretischen Betrachtung.
Schön den Knacktpunkt erfasst. Aus systemtheoretischer Sicht liegt der Grund dafür, dass eine Maus regelmäßig erfolgreich von einer Katze erbeutet wird, darin, dass die Möglichkeiten, wie die Maus erbeutet werden kann, so groß sind, dass die Fähigkeiten der Maus in vielen Konstellationen nicht ausreichen, um zu entkommen. Umgekehrt gibt es so viele Möglichkeiten, wie eine Maus entkommen kann, dass auch die Katze nicht alle Konstellationen mit ihren Fähigkeiten abdecken kann. Wobei diese Möglichkeiten nicht durch die Maus selbst abgedeckt werden sondern durch den Zufall der Umgebungsvariablen. Dadurch kommt es immer wieder zu Fällen, in denen die Maus mal gefangen wird und mal nicht.
Um das Problem, die Maus zu fangen, perfekt zu lösen, müsste es eine Katze geben, die so mächtig ist, dass sie in jeder möglichen Situation im Universum eine passende Antwort hat und die Maus ausnahmslos immer fängt. Es gäbe also keine Möglichkeit für die Maus zu entkommen. Es wäre prinzipiell unmöglich.
Der Grund, warum es in einem System keine vollkommene Sicherheit geben kann, liegt also darin, dass die Abwehrmaßnahmen in der Realität in der Regel nicht alle Möglichkeiten abdecken können. In komplexen Systemen ist die Anzahl aller Möglichkeiten unglaublich groß. Das hat bisher verhindert, dass es allmächtige Katzen gibt, die mit jeder erdenklichen Situation umgehen können
In der Kryptographie wird dies ausgenutzt, um die unglaubliche Anzahl an möglichen Kombinationen für ein Passwort/Schlüssel als Schutzmechanismus zu nutzen. Denn ein Angreifer hat normalerweise nicht die Kapazität, alle Möglichkeiten in einer akzeptablen Zeit durchzuprobieren.
Nicht nur der Speicher und die CPU von Computern, sondern auch intelligente Lebewesen sind mit der enormen Anzahl von Möglichkeiten überfordert. Die Natur bietet einem intelligenten Lebewesen so viele mögliche Situationen, dass es die biologische Kapazität des Individuums übersteigt, auf alles richtig zu reagieren. Die Folge ist ein ewiges Katz-und-Maus-Spiel in der Evolution.
Ausgehend von den obigen Überlegungen müsste dies bedeuten, dass eine abwehrende KI ausnahmslos alle möglichen Zustände durchlaufen muss, um für jedes mögliche Sicherheitsproblem eine Lösung zu generieren. Besitzt das zu schützende System aber eine gewisse Komplexität (hohe Anzahl möglicher Kombinationen) wird die Anzahl aller möglichen Zustände so gewaltig groß sein dass es unwahrscheinlich ist dass eine KI das alles abdecken kann. Das würde vermutlich Richtung Gott KI gehen.
Wenn ein System jedoch sehr einfach ist und daher die Anzahl der möglichen Kombinationen relativ gering ist, könnten alle möglichen Sicherheitsprobleme von einer KI durchschaut werden. Das System könnte dann im Prinzip perfekt sicher sein. Vielleicht aber auch nicht, weil es nicht sicher ist, dass für jedes mögliche Sicherheitsproblem eine Lösung gefunden werden kann. Es kann sein, dass man das System selbst immer wieder verändern muss, um das mögliche Sicherheitsproblem zu verhindern. Die Änderung kann aber wiederum andere Sicherheitsprobleme verursachen, deren Lösung wiederum problematische Änderungen erfordert. In diesem Fall müsste man sich entscheiden, welche Sicherheitsprobleme man abdecken will und welche man offen lässt.
Das sprengt definitiv den Rahmen und man landet in Bereichen wie der Komplexitätsforschung. Ich würde die Möglichkeit in Betracht ziehen, dass Systeme ab einer gewissen Komplexität prinzipiell nicht perfekt sicher sein können. Weil es prinzipiell unmöglich sein könnte, für jedes mögliche Problem eine Lösung zu finden, ohne andere Sicherheitsprobleme zu erzeugen. Es wird interessant sein zu sehen, welche Probleme Quantencomputer lösen können. Quantencomputer wären ideal, um mit astronomisch großen Kombinationsmöglichkeiten zu arbeiten.
Ein gutes Gegenbeispiel sind Start-ups, die oft innovativer und fortschrittlicher sind als große Konzerne. Viel Geld war noch nie eine Garantie dafür, der Beste zu sein. Dies könnte daran liegen, dass verschiedene Faktoren die Suche im Raum der Möglichkeiten (in Bezug auf die Entwicklung von KI-Systemen) stark beeinflussen. Große Unternehmen versteifen sich oft auf Paradigmen, die sich als erfolgreich erwiesen haben, und sind weniger offen für neue Paradigmen. Und dieser Raum der Möglichkeiten ist so riesig, dass selbst der größte Megakonzern mit dem meisten Geld der Welt nur einen kleinen Teil davon durchdringen kann. Und sobald eine kleine Gruppe das bessere Konzept für ein KI-System hat, fließt das Geld von den Investoren sowieso. Die technischen Kapazitäten aufzubauen ist dann nicht wirklich ein Hindernis. Die Idee ist stärker als das Kapital.