2^4096

Zahlen sind abartig. Einen Forenthread nehm ich mal zum Anlass und versuch bildhaft dar zu stellen, wie groß die Zahl 2^{4096} ist. Ich kann gleich schon vorweg nehmen, dass mir das nicht wirklich gelingen wird. Aber sehen wir und das mal an:

2^{4096} das ist eine Zahl mit 1235 Dezimalstellen. Das kann sich kein Mensch vorstellen. OK, angenommen wir wollen bis dahin zählen. Wie lange würde es dauern? Natürlich machen wir das nicht selbst. Wir nehmen einen Computer dafür. Der aktuell schnellste Supercomputer ist der Tianhe-2 mit einer theoretischen Maximalleistung von 55 Petaflops, also 55 \cdot 10^{15} Rechenoperationen pro Sekunde. Da wir für das Rechenbeispiel ja keine Kostenbegrenzung haben, nehmen wir doch gleich diesen Supercomputer. Wobei. Wir sollten nicht zu geizig sein. Wir kaufen jedem der 7 Milliarden Erdenbürger einen solchen Supercomputer und lassen die alle zählen. Kostet ja nur ca. 2,7 Trillionen Dollar (das sind knapp dreißig mal so viel wie die Gesamtmenge der Schulden). Wie lange würde das dauern?

2^{4096} / (55 \cdot 10^{15}) / (7 \cdot 10^9) / 60/60/24/365 \approx 8,6 \cdot 10^{1198} Jahre

Hm… hat irgendwie nicht sonderlich geholfen. Kann sich auch noch niemand vorstellen. Wir müssen da schon größere Geschütze auffahren. Die Planck-Zeit ist die physikalisch kleinste Zeiteinheit. Kürzere Zeitabschnitte gibt es nach aktuellem Stand der Physik nicht. Das sind ca. 5,3 \cdot 10^{-44} Sekunden. Angenommen wir hätten einen Supercomputer, der innerhalb dieser Zeit einen Zählschritt machen kann. Angenommen wir hätten nicht 7 Milliarden also pro Mensch einen, sondern einen pro Stern im Universum. Oder nee, angenommen wir hätten einen dieser unvorstellbar schnellen Supercomputer pro Atom im Universum. Davon gibts ca. 10^{85} und das Universum ist ca. 13 Milliarden Jahre alt. Wie viele Universen mit je einem unmöglichen Supercomputern pro Atom bräuchte man, für die Zählerei?

2^{4096} / (5,3 \cdot 10^{44}) / 10^{85} / 60/60/24/365 / (13 \cdot 10^9) \approx 4,8 \cdot 10^{1085} Universen

Auch nicht viel besser. Jetzt muss ich mich schon echt anstrengen: Unser Universum ist ja echt leer. Das meiste da drin ist Vakuum. Langweilig. Angenommen, wir würden nun unser Universum lückenlos mit den unvorstellbar schnellen Supercomputern vollpacken. Die kleinste Längeneinheit, die unser Universum nach aktuellem Stand der Physik so kennt, ist die Planck-Länge. Das sind ca. 1,6 \cdot 10^{-35} Meter. Das sind quasi die Pixel unseres Universums. Kleiner geht nicht. Angenommen wir könnten unseren unvorstellbar schnellen Supercomputer unvorstellbar klein machen, sodass er innerhalb einer Kubik-Planck-Länge Platz hätte.

Unser Universum hat einen Durchmesser von ca. 78 Milliarden Lichtjahren. Das sind

(78 \cdot 10^9) \cdot (9,4 \cdot 10^{15}) / (1.6 \cdot 10^{-35}) \approx 1,1 \cdot 10^{62} Planck-Längen

Vereinfachend nehmen wir an, das Universum sei kugelförmig, dann ergibt sich ein Volumen von

\frac{1}{6} \pi (1,1 \cdot 10^{62})^3 \approx 6.9 \cdot 10^{185} Kubik-Planck-Längen

Wir lassen jetzt mal außen vor, dass das Universum früher kleiner war.

Wie viele Universen, bei denen jeder noch so kleine Teil einen Supercomputer enthält, der so schnell ist, wie es die Physik auch nur im entferntesten maximal zulassen würde, bräuchten wir um bis 2^{4096} zu zählen?

2^{4096} / (5,3 \cdot 10^{44}) / (6,9 \cdot 10^{185}) / 60/60/24/365 / (13 \cdot 10^9) \\ \approx 6,9 \cdot 10^{984} \text{ Supercomputer-Universen}

Ich fürchte, das ist immer noch nicht ganz vorstellbar. Nur leider gehen mir jetzt die Vergleichsgrößen aus. Was bitte hat mehr Rechenkraft als ein Universum, das ausschließlich aus Supercomputern besteht?

Das einzige, was mir noch bleibt, ist die Aufgabe kleiner zu machen. Angenommen, wir wollten „nur“ bis 2^{2048} zählen. Dann wären es nur 1.4 \cdot 10^{300} Supercomputer-Universen. Bei 2^{1024} wären wir bei 1,1 \cdot 10^{60} Supercomputer-Universen. Erst wenn wir auf 830 Bit runter gehen, wären wir bei 47 Supercomputer-Universen und das können wir uns nun endlich wirklich vorstellen. Oder so.

Was lernen wir daraus? Niemand wird jemals in der Lage sein, RSA durch einen naiven Brute-Force zu knacken. Absolut. Keine. Chance. Niemals.

Ist RSA deshalb für alle Zeiten sicher? Nein. Das Problem ist, dass niemand ausschließen kann, dass nicht irgendwann ein findiger Mathematiker eine zündende Idee hat, mit der man so abartig große Zahlen effizient faktorisieren kann. Es sagt ja niemand, dass man das einzeln durchprobieren muss. Wir können ja schließlich auch mit so großen Zahlen rechnen. Nichts anderes tut unser Computer, wenn wir eine HTTPS-Seite ansurfen.

Die vielleicht interessantere Aussage: Es gibt Dinge, die können wir uns einfach nicht vorstellen, weil sie einfach so dermaßen abartig unvorstellbar sind, dass unser Geist hier kapituliert. Aber es ist ganz lustig, das fest zu stellen. 😉

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.