Oftmals wird die Frage bezüglich der bestehenden und zukünftigen Sicherheit des Algorithmus, aber auch der Seedphrase unter Anbetracht von Quanten Computing angefragt und mit der Antwort bedacht, dass es unwahrscheinlich wäre, dass wir diesen Stand der Technik erreichen, da mit steigender Anzahl der Qubits ebenso die Schwierigkeit steigt diese sinnvoll miteinander operieren zu lassen…
Ich empfehle Dir hierzu schon bestehende Threads. Insbesondere die Beiträge von @skyrmion zu dem Thema habe ich sehr gerne gelesen, wie beispielsweise folgenden:
Naja, wenn ein Photon anstatt 2 gleichzeitiger Rechenleistungen quasi 32 darstellen kann und zudem dabei nicht so fehleranfällig ist, dann wäre man ungleich schneller bei der notwendigen benötigten Rechenleistung… Es müsste ja dann nicht mehr 2 hoch n sein, sondern 32 hoch n. Um das mal bildhaft zu machen… 2 hoch 2 wäre 4. 32 hoch 2 (also nur 2 solcher Photonen) wären schon 1024 zeitgleiche Zuständ, wobei die auch noch weniger Fehler anfällig wären. Mit 4 solcher Photonen wäre man dann schon bei über einer Millionen und bei 5… da wäre quasi alles entschlüsselbar…
Wenn es denn dieser Logik folgt.
Danke auch für den Hinweis mit dem anderen Thread und entsprechenden vermeintlichen Lösungen. Mir geht‘s hier aber eher darum, diesen neuen Technikstand aufzuzeigen, der sich von üblichen Quantencomputern scheinbar sehr abhebt.
quantencomputing forschung wird grade von verschiedenen firmen wie IBM eingestampft… man hat die probleme erkannt und sieht keine lösung und ersmal auch keine rosige zukunft für QC… viel heiße luft…die grade abkühlt…
Also ich finde das sehr interessant und hatte auch noch nichts davon gehört, danke für die Info!
Ich habe aber auch den Eindruck, du kannst das schon ganz gut einschätzen. Natürlich hört sich das erst einmal vielversprechend an. Aber wahrscheinlich weiß niemand, ob und wie schnell man da Fortschritte machen wird, die in „gefährliche“ Dimensionen vorstoßen.
Immerhin hat man auch erst einmal „nur“ die 15 faktorisiert.
Die ersten Verfahren aus dem NIST-Auswahlprozess für quantenresistente Kryptosysteme wären ja auch schon bereit, wenn auch nicht wirklich über lange Zeit bewährt.
Übrigens habe ich gerade nochmal auf den Tag „Shor-Algorithmus“ am Ende des Artikels geklickt und bin bei folgendem Artikel gelandet:
Es geht um einen verbesserten Algorithmus auf Basis des Shor-Algorithmus, welcher noch weniger Qubits benötigt und robuster ggü. Fehlern ist. Das hört sich auch sehr spannend an!