Es ist die Veränderung, die die Zeit überhaupt definiert.
Ich meine, Veränderung ist, was der Zeit Bedeutung gibt und sehe die Zeit als das abstrakte Konstrukt, das notwendig ist, die empirisch beobachtbaren Veränderungen zu begreifen und es ist die Veränderung, die Zeit überhaupt messbar macht. Ob diese Messbarkeit sie auch erst definiert, kann ich ad hoc nicht sagen.
Schrödingers Katze ist ein reines Gedankenbeispiel zur Veranschaulichung quantenmechanischer Vorgänge. Eine reale Umsetzung dieses Experiments hat es nie gegeben und wird es nie geben. Im Übrigen bin ich der Meinung, man sollte nicht einmal in Gedankenbeispielen den Tod von Katzen mutwillig herbeiführen.
Ich weiß nicht, ob nicht schon mal jemand ein solches Experiment durchgeführt hat, aber die Durchführung brächte keinerlei Erkenntnis, denn das Interessante daran ist der Zustand der Katze im unbeobachteten Zustand, und über diesen erfährt man bei der Durchführung des Experimentes eben genau nichts. Also, Hinweis an alle Hobbyexperimentatoren: Lasst die Katzen in Ruhe!
Aber, es gibt auch andere, harmlose Beispiele. Nehmen wir die Lottoziehung. Die Leute sind gespannt, nicht bis die Ziehung statt gefunden hat, sondern bis zu dem Zeitpunkt, an dem die das Ergebnis erfahren. In ihrer Welt besteht bis zu jenem Zeitpunkt beide Möglichkeiten, nämlich dass sie entweder etwas gewonnen haben oder auch nicht. Erst ab dem Zeitpunkt, indem die über den Ausgang informiert worden sind, wurde einer dieser beiden Möglichkeit die Realität und die andere nicht. Und so verhält es sich mit allen Möglichkeiten, nicht nur bei quantenmechanischen.
Bei jenen quantenmechanischen ist lediglich das besonders, dass grundlegende Eigenschaften von Teilchen, von denen man ausgegangen ist, dass sie festgelegt seien und diverse Ausformungen miteinander nicht vereinbar wären, es offensichtlich doch sind. Anschauliches Beispiel dafür ist der Welle-Teilchen-Dualismus.
Auch scheint das quantenmechanische Beispiel die Annahme zu widerlegen, dass nur hier die Unsicherheit sich auch physisch manifestiert. Aber, das ist bei der Lottoziehung und anderen Beispielen ebenso.
Es kommt darauf an, mit welchen Tieren man arbeitet. Katzen, so fand man vor wenigen Jahren heraus, können bis vier zählen - im Unterschied zum Hund, der kann das nicht. Man vermutet, es hat etwas damit zu tun, dass Katzen ihre Jungen an verschiedene Orte bringen.
Ja, soweit das Zählen. Division, Multiplikation, etc hingegen sind ihnen kein Begriff.
Genau, sie zählen dann etwa 1, 2, 3, viele.
Die bestimmte, von der ich las, tut nicht einmal das. Alles, was in deren Sprache hin dieser Richtung existiert ist ein Ausdruck, so soviel bedeutet wie "sie sind wie zwei". Es funktioniert ja auch prinzipiell ohne Zahlen, denn Zahlen sind ja völlig abstrakte Entitäten und Lebewesen können auch ohne abstraktes Denken überleben.
Ihre Kultur kommt ohne Zahlen aus, weil sie keine Landwirtschaft und keinen Handel betreiben. Sie benötigen daher keine Zahlen und haben einen Zahlbegriff gar nicht erst entwickelt. Interessanterweise verhält es sich mit Farben und der Unterscheidung von Farben ganz genauso.
Wir sehen i.A. das 10er-Zahlensystem heutzutage als selbstverständlich an, ja als Norm.
Dabei ist es nur eines von vielen, welches sich wahrscheinlich deshalb durchgesetzt hat, weil wir über 10 Finger verfügen und mit diesen dann zählen und rechnen können.
Aus mathematischer Sicht hätte ein Zahlensystem auf der Basis 12 hingegen Vorteile. Denn während die 12 vier Teiler hat (2, 3, 4 und 6), hat die 10 nur zwei (2 und 5). Es gibt dann deutlich mehr Teilungen, die ganzzahlig aufgehen. Und man muss dies einst auch so gemacht haben, was in früher gebräuchlichen Mengeneinheiten noch durchschlägt: Das Dutzend (12), das Schock (5 Dutzend = 60), das Gros (12 Dutzend = 144) und das Maß (12 Gros = 1.728). Tatsächlich kann man dies im Handel hier und da noch immer sehen. Kartons mit Milch enthalten (aus welchem Grund auch immer) 12 Pack Milch und nicht etwa 10. Bei uns sind in einem Pack Eier 10 Eier, in Frankreich sind es aber 12.
Ja, es gab auch Kulturen, die basierend auf der 12 gezählt haben, und sie haben ebenso wie beim 10er System die Hand dazu verwendet.
Aber nicht die ganzen Finger, sondern die Fingerglieder von Zeige-, Mittel-, Ring- und kleinem Finger (sind zusammen 12), während der Daumen der Zeiger war.
A propos Frankreich:
Die französischen Kelten haben mutmaßlich auf der Basis 8 gerechnet (dann eben nicht mit den Fingern, sondern mit den Zwischenräumen der Finger), was noch immer an den französischen Zahlbezeichnungen erkennbar ist. Das französische Wort für 9 ist neuf, dasselbe Wort wie für neu. Die 9 ist also die einst "neue" Zahl, die es bislang nicht gab. 80 ist dann quatre vingt (4x20, wörtlich "vier - zwanzig") und 90 quatre vingt dix (4x20+10, wörtlich "vier - zwanzig - zehn"). Aber Franzosen machen ja bekanntlich immer alles ganz anders als der Rest der Welt.
Immerhin haben sie Rechtsverkehr.
Beschäftigt sich einmal mit der Zahlentheorie (Georg Cantor, Bertrand Russell, Kurt Gödel u.a.), dann sieht man sich sowieso schnell einer Art intellektuellem Scherbenhaufen gegenüber. Man meint immer, Zahlen genau zu kennen, denn schließlich benutzen sie wir ja auch ständig.
Hinterfragt man sie aber, so sieht es dann ganz anders aus.
Eine allgemeine Definition, was eine Zahl überhaupt ist, die gibt es bis heute nicht. Unsere Berechnungen sind rein theoretisch, denn real kommt keine Zahl ohne eine weitere Kategorie aus.
Lege ich zu 5 Äpfeln einen weiteren Apfel, so sind es 6 Äpfel. Lege ich hingegen eine Birne hinzu, so geht das nicht. Es geht nur dann, wenn ich die Kategorie ändere, z.B. 5 Äpfel + 1 Birne = 6 Früchte.
Richtig, wie oben geschrieben, sind Zahlen reine Abstrakte. In der physischen Realität kommen sie nicht vor.
Die gesamte Mathematik beruht auf einer Reihe von logischen Beweismethoden, die bereits in der griechischen Antike entwickelt wurden, sowie der grundsätzlichen Festlegung auf zwei logische Zustände, wahr und falsch.
Die von Georg Cantor aufgestellte Kontinuitätshypothese (Anzahl der Zahlenmengen endlich oder unendlich) lässt sich mit den Mitteln unserer Mathematik jedoch nicht beweisen, sie gilt als unbeweisbar. Wenn es aber diesen Sonderfall geben kann, dann ist eine seit ca. 2.500 Jahren angewandte Beweismethode, der Beweis durch das ausgeschlossene Dritte, im Grunde ungültig. Viele, auch grundlegende Beweise basieren bis heute aber nur aufgrund dieser Beweismethode: Z.B. der Beweis der Irrationalität der Diagonale im Quadrat.
Die Irrationalität der Diagonale im Quadrat gilt nur für Quadrate mit rationalzahligen Kantenlängen.
Die Kontinuumshypothese (die du wahrscheinlich mit 'Kontinuitätshypothese' meintest) befasst sich mit den Mächtigkeiten von Mengen (also auch Zahlenmengen). Inwiefern das Einfluss hat auf den Beweis der Irrationalität der Diagonale in Quadraten mit rationalzahligen Kantenlängern, weiß ich nicht. Für mir ist der Beweis erbracht im Beweis, dass das Verhältnis zwischen Kante und Diagonale die Wurzel von 2 ist, kombiniert mit dem Beweis der Irrationalität der Wurzel von 2 - und der mir bekannte Widerspruchsbeweis der zeigt, dass die Wurzel von 2 keine rationale Zahl sein kann, mir keine notwendige Ableitung von der Kontinuumshypothese beinhaltet. Aber, ich bin kein professioneller Mathematiker. Wenn du also zeigen kannst, worin diese Verbindung besteht, dann wäre ich sehr daran interessiert, diese zu sehen.
Die gängige Mathematik soll ja ein verlässliches Instrument sein, um die Welt zu begreifen und das Gehirn bzw die menschliche Intelligenz hat letztendlich ja nur den Zweck, "richtig" von "falsch" unterscheiden zu können. "Richtig" ist, eine Heidelbeere zu essen, wenn das tut gut. "Falsch" ist, an einem Pfeilgiftfrosch zu lecken, denn dann ist man tot. Solcher Art Entscheidungen sind da, wofür das Gehirn eigentlich konstruiert worden ist. Mit etwas Anderem hat unser Verstand ein prinzipielles Problem, denn dafür wurde er nicht gemacht - etwas anderes ist einfach nicht 'vorstellbar'. Aber, mittelbar, mit abstrakten Werkzeugen, kann man dennoch mit unvorstellbaren Entitäten arbeiten, beispielsweise auch mit zusätzlichen Dimensionen oder aber viel "einfacheren" Entitäten wie größere Mengen. Und diese größeren Mengen heißen in der Praxis nicht Millionen oder dergleichen, sondern sind schon 5 oder mehr. Hat man zwei Äpfel vor sich liegen, erkennt man sofort, dass es zwei sind. Bei drei Äpfeln geht das auch noch, mit 4 in der Regel ebenso. Ab 5 oder spätestens 6 muss man schon nachzählen, um die Größe der Menge zu erfahren (außer, die Äpfel liegen in einem bekannten Muster, wie beispielsweise der bekannten "6" aus 6 Punkten, wie sie auf gängigen Würfeln zu finden sind). Das ist dann aber eine andere Sache, denn hier geht es nicht um eine Menge, sondern um ein (1 !) Symbol, das als solches Erkannt wird, das (nachträglich) mit der Zahl 6 verknüpft ist.
Man kann das alles für intellektuelle Spielereien halten, Mindfuck, wenn man so will - und lange Zeit hat man das auch.
Mit dem Aufkommen der Kryptographie unserer Tage, der Verschlüsselung und Entschlüsselung spielen diese Theorien aber wieder eine Rolle.
Ja, es ist faszinierend, wie immer wieder Neues entdeckt wird, wobei das Neue nicht immer in weiter Ferne anzutreffen ist, sondern mitunter ganz besonders nahe. Analog dem Spruch "There's plenty of room at the bottom" von Feynman.