Das Cantors Zahlentheorie eine "Kopfgeburt", ja sogar ein "Hirnfurz" ist, das haben ihm nicht nur seine Zeitgenossen vorgeworfen, sondern auch noch lange nach seinem Tod.
Es gibt aber wichtige Anknüpfungen der Zahlentheorie an die Kryptografie. Zu Cantors Zeiten war die Kryptografie auch bestenfalls nur ein Randgebiet, Stoff für E.A. Poe - Geschichten (Der Goldkäfer) und andere Räuberpistolen.
In den 1940er Jahren änderte sich das aber dramatisch. Die deutsche Wehrmacht verwendete die Enigma als Verschlüsselungsmaschine, und die Entschlüsselung des Codes durch die Briten war (kriegs-)entscheidend. Der britische Geheimdienst und der englische Mathematiker Alan Turing knackten den Code der Enigma schließlich - mit Heerscharen fließig mit Bleistift und Papier rechnender Damen und waren Monstren von Rechenmaschinen.
Heutzutage ist die Kryptografie ein wichtiger, wenn nicht der Teil unseren digitalen Lebens: Verschlüsselung von Daten, Passwörter, Dechiffrierung, Kriminalität und deren Abwehr, Blockchain uvm.
Die Kryptografie beruht bis heute auf dem Produkt zweier großer Primzahlen. Die Sicherheit der Kryptografie ist ausschließlich gewährleistet durch zwei Grundsätze:
1. Es ist sehr einfach und schnell, praktisch beliebig große Primzahlen zu erzeugen und miteinander zu multiplizieren. Selbst ein normaler PC kann innerhalb von Sekunden zwei Primzahlen mit 500 Stellen generieren und sie miteinander zu multiplizieren.
2. Es ist sehr schwierig und langsam, eine lange Zahl in ihre unbekannten Primzahlfaktoren wieder zu zerlegen. Aktuell ist dies technisch vllt. bis für Produkte von 220 Stellen möglich (legt mich hier jetzt nicht auf ein Dutzend mehr oder weniger Stellen fest, es ändert am Prinzip nichts), danach nicht mehr. Im unter 1. genannten Beispiel ist es derzeit unmöglich eine Primzahlenfaktorisierung mit einer Zahl von z.B. 1.000 Stellen durchzuführen (und falls doch, dann generiert man halt Produkte mit nur 1.100 Stellen). In den USA sind Verschlüsselungsprogramme mit Schlüsseln ab einer gewissen Länge verboten, ihre Herstellung und auch die Verwendung ist eine Straftat, die mit langen Haftstrafen verfolgt wird.
Alle Algorithmen zur Primzahlenfaktorisierung beruhen letztlich auf dem Verfahren des französischen Mathematikers Pierre de Fermat aus dem Jahr 1634. Ein anderes (besseres) Verfahren zur Primzahlenfaktorisierung ist bis heute nicht bekannt.
Der Algorithmus gilt als in jedem Fall als NP (1), möglicherweise aber auch als NP-vollständig (2), genau ist das aber nicht bekannt.
Niemand kann derzeit sagen, ob es einen effizienten Algorithmus zur Primzahlenfaktorisierung schlicht nicht gibt, oder ob ihn nur noch niemand gefunden hat. Fände jemand einen effizienten Algorithmus, dann wäre das das Ende jeder Kryptographie und Verschlüsselung. (3)
Möglicherweise ist die Zahlentheorie der Schlüssel dazu - und zu einer ganzen Reihe noch anderer, seit der Antike ungelöster mathematischer Fragen. In gewisser Weise gerät sie dadurch in den Fokus von Sicherheitsbehörden, Geheimdiensten und dem Militär.
Nach der klassischen Logik kann es die Menge aller Mengen nicht geben. Denn sie enthielte auch die leere Menge sowie sich selbst.
Der Mathematiker und Zahlentheoretiker Bertrand Russell veranschaulichte dies mit dem Beispiel
Des Barbiers, der (ausschließlich) alle Männer seines Dorfes rasiert, die sich nicht selbst rasieren.
Nun hat der Barbier auch einen Bartwuchs, deshalb muss er sich rasieren. Dies darf er aber nicht tun, da er damit zu der Gruppe der Männer gehört, die sich selbst rasieren. Man kann mengentheoretisch mit der Aufgabe herum rechnen, um dann festzustellen, dass es diesen Barbier nicht gibt. Er entspricht dann der leeren Menge.
Anmerkungen:
(1) NP = Nicht deterministisch polynominal.
Nicht deterministisch: Der Algorithmus hat Vergleiche und Verzweigungen, d.h. dessen Rechendauer ist für eine beliebige Zahl nicht vorhersagbar.
Polynominal: In polynominal zunehmender Zeit lösbar.
NP-Algorithmen gelten als effizient, d.h. grundsätzlich als in annehmbarer Zeit lösbar.
(2) NP-vollständig
Nicht deterministisch, aber nicht mehr in polynominaler Zeit lösbar. NP-vollständige Algorithmen gelten als nicht effizient, sie lassen sich nicht mehr in annehmbarer Zeit lösen. Man vermutet, dass sie sich mit Quantencomputern effizient lösen lassen, genau weiß das aber noch keiner. Außerdem gibt es praktisch noch keine Quantencomputer und erst recht keine, die über die dafür notwendigen Registergrößen verfügen würden.
(3) Ich möchte mal annehmen: Wenn jemand einen solchen Algorithmus findet, und mit der CIA Kontakt aufnimmt, um diesen zu verkaufen: Dann lebt er nach dem erfolgreichen Verkauf nicht mehr lange.