Hallo Giacomo_S,
danke, Deine Ausführungen sind genauer und helfen vielleicht, die "Überabzählbarkeit" besser zu verstehen.
Trotz großen Respektes vor Cantor ist sie für mich nicht nur eine "Kopfgeburt"
(war Pallas Athena nicht auch eine (ziemlich großartige)?),
sondern v.a. eine Folge der klassischen Logik.
Das Cantors Zahlentheorie eine "Kopfgeburt", ja sogar ein "Hirnfurz" ist, das haben ihm nicht nur seine Zeitgenossen vorgeworfen, sondern auch noch lange nach seinem Tod.
Es gibt aber wichtige Anknüpfungen der Zahlentheorie an die Kryptografie. Zu Cantors Zeiten war die Kryptografie auch bestenfalls nur ein Randgebiet, Stoff für E.A. Poe - Geschichten (Der Goldkäfer) und andere Räuberpistolen.
In den 1940er Jahren änderte sich das aber dramatisch. Die deutsche Wehrmacht verwendete die
Enigma als Verschlüsselungsmaschine, und die Entschlüsselung des Codes durch die Briten war (kriegs-)entscheidend. Der britische Geheimdienst und der englische Mathematiker Alan Turing knackten den Code der Enigma schließlich - mit Heerscharen fließig mit Bleistift und Papier rechnender Damen und waren Monstren von Rechenmaschinen.
Heutzutage ist die Kryptografie ein wichtiger, wenn nicht
der Teil unseren digitalen Lebens: Verschlüsselung von Daten, Passwörter, Dechiffrierung, Kriminalität und deren Abwehr, Blockchain uvm.
Die Kryptografie beruht bis heute auf dem Produkt zweier großer Primzahlen. Die Sicherheit der Kryptografie ist ausschließlich gewährleistet durch zwei Grundsätze:
1. Es ist sehr einfach und schnell, praktisch beliebig große Primzahlen zu erzeugen und miteinander zu multiplizieren. Selbst ein normaler PC kann innerhalb von Sekunden zwei Primzahlen mit 500 Stellen generieren und sie miteinander zu multiplizieren.
2. Es ist sehr schwierig und langsam, eine lange Zahl in ihre unbekannten Primzahlfaktoren wieder zu zerlegen. Aktuell ist dies technisch vllt. bis für Produkte von 220 Stellen möglich (legt mich hier jetzt nicht auf ein Dutzend mehr oder weniger Stellen fest, es ändert am Prinzip nichts), danach nicht mehr. Im unter 1. genannten Beispiel ist es derzeit
unmöglich eine
Primzahlenfaktorisierung mit einer Zahl von z.B. 1.000 Stellen durchzuführen (und falls doch, dann generiert man halt Produkte mit nur 1.100 Stellen). In den USA sind Verschlüsselungsprogramme mit Schlüsseln ab einer gewissen Länge verboten, ihre Herstellung und auch die Verwendung ist eine
Straftat, die mit langen Haftstrafen verfolgt wird.
Alle Algorithmen zur Primzahlenfaktorisierung beruhen letztlich auf dem Verfahren des französischen Mathematikers Pierre de Fermat aus dem Jahr 1634. Ein anderes (besseres) Verfahren zur Primzahlenfaktorisierung ist bis heute nicht bekannt.
Der Algorithmus gilt als in jedem Fall als
NP (1), möglicherweise aber auch als
NP-vollständig (2), genau ist das aber nicht bekannt.
Niemand kann derzeit sagen, ob es einen effizienten Algorithmus zur Primzahlenfaktorisierung schlicht
nicht gibt, oder ob ihn nur noch niemand
gefunden hat. Fände jemand einen effizienten Algorithmus, dann wäre das das Ende jeder Kryptographie und Verschlüsselung. (3)
Möglicherweise ist die Zahlentheorie der Schlüssel dazu - und zu einer ganzen Reihe noch anderer, seit der Antike ungelöster mathematischer Fragen. In gewisser Weise gerät sie dadurch in den Fokus von Sicherheitsbehörden, Geheimdiensten und dem Militär.
Es gibt hier die Menge aller Mengen, die gleich ihrer Potenzmenge ist.
Nach der klassischen Logik kann es die
Menge aller Mengen nicht geben. Denn sie enthielte auch die
leere Menge sowie sich selbst.
Der Mathematiker und Zahlentheoretiker Bertrand Russell veranschaulichte dies mit dem Beispiel
Des Barbiers, der (ausschließlich) alle Männer seines Dorfes rasiert, die sich nicht selbst rasieren.
Nun hat der Barbier auch einen Bartwuchs, deshalb muss er sich rasieren. Dies darf er aber nicht tun, da er damit zu der Gruppe der Männer gehört, die sich selbst rasieren. Man kann mengentheoretisch mit der Aufgabe herum rechnen, um dann festzustellen, dass es diesen Barbier nicht gibt. Er entspricht dann der leeren Menge.
Anmerkungen
:
(1) NP = Nicht deterministisch polynominal.
Nicht deterministisch: Der Algorithmus hat Vergleiche und Verzweigungen, d.h. dessen Rechendauer ist für eine beliebige Zahl nicht vorhersagbar.
Polynominal: In polynominal zunehmender Zeit lösbar.
NP-Algorithmen gelten als
effizient, d.h. grundsätzlich als in annehmbarer Zeit lösbar.
(2) NP-vollständig
Nicht deterministisch, aber nicht mehr in polynominaler Zeit lösbar. NP-vollständige Algorithmen gelten als
nicht effizient, sie lassen sich nicht mehr in annehmbarer Zeit lösen. Man vermutet, dass sie sich mit
Quantencomputern effizient lösen lassen, genau weiß das aber noch keiner. Außerdem gibt es praktisch noch keine Quantencomputer und erst recht keine, die über die dafür notwendigen Registergrößen verfügen würden.
(3) Ich möchte mal annehmen: Wenn jemand einen solchen Algorithmus findet, und mit der CIA Kontakt aufnimmt, um diesen zu verkaufen: Dann lebt er nach dem erfolgreichen Verkauf nicht mehr lange.