• Willkommen im denk-Forum für Politik, Philosophie und Kunst!
    Hier findest Du alles zum aktuellen Politikgeschehen, Diskussionen über philosophische Fragen und Kunst
    Registriere Dich kostenlos, dann kannst du eigene Themen verfassen und siehst wesentlich weniger Werbung

Grundbegriffe der Logik: Wahrheit, Existenz, Möglichkeit

Werbung:
Lieber @Alternativator, ich habe deine Störung an die Moderation gemeldet und hoffe, dass diese entsprechend reagiert.
Ach hör mal noch, 'Aporie': Was meinst'e denn eigentlich genauer mit "entsprechend"? Ja, wüsste doch gern doch noch, was Du Dir wohl 'für' einen 'Kollegen' hier "erhoffst". Ja gerade über die Charakteristika solcher "Melder" wie Dich gut Bescheid zu wissen kann ja nie schaden....
 
Lieber @Alternativator, ich habe deine Störung an die Moderation gemeldet und hoffe, dass diese entsprechend reagiert.

Meine Empfehlung, den Teilnehmer auf die Igonrierliste zu setzen, da ist er bei mir nämlich schon länger. Man kann mit harten Bandagen diskutieren, aber persönliche Angriffe sind unnötig und sollten auch nicht toleriert werden.

Zurück zum Thema:
Mir ist nicht ganz klar, was Du unter "logischer Wahrheit" vs. "faktischer Wahrheit" verstehst. Ich würde da zwei jeweilige Beispiele für nützlich halten.

Gut, dann meinen wir dasselbe. Dann würde ich so zusammenfassen:

Binäre Logik ist ein Sonderfall, der vor allem in metalogischen Kalkülen und unter praktischen Gesichtspunkten von Bedeutung ist.

Immerhin basiert die gesamte Mathematik auf der binären Logik, oder kann zumindest aus ihr abgeleitet werden - und genau das passiert in Digitalrechnern.

Ich denke, dass die Aussagenlogik hauptsächlich deswegen als grundlegend betrachtet, weil sie die simpelste ist. Wenn man aber von der Satzanalyse ausgeht, ist die interne Subjekt-Prädikat-Relation in mancher Hinsicht fundamentaler aus die externe Bewertung wahr/falsch. Aus dieser Perspektive sind dann Prädikaten-, Modal- und Relationenlogik fundamental. Keine von diesen ist zweiwertig.

Noch ein Gedanke zur binären Logik
Wenn man von binärer Logik spricht, verschiebt sich der Fokus weg von der Bedeutung des Prädikatsa 'wahr' hin zu mehr formalen Betrachtungen. Ob die Alternative nun wahr/falsch, 1/0 oder an/aus lautet, spielt dann eingentlich keine Rolle mehr. Die Semantik im engeren Sinn fällt hinten runter, die Syntax übernimmt die Herrschaft. Demgegenüber poche ich darauf, immer beides im Blick zu behalten.

Auch die mathematische Formelsprache folgt der Semantik, einer sehr strengen Semantik sogar.
Man lehrt uns die mathematische Formelsprache, sobald wir eingeschult werden. Sie ist uns daher so sehr in Fleisch und Blut eingegangen, dass wir sie überhaupt nicht mehr hinterfragen. Vor allem wissen wir überhaupt nichts darüber, woher sie denn eigentlich stammt.
Die griechischen Mathematiker formulierten ihre Erkenntnisse ursprünglich wörtlich in ganzen Sätzen aus. Zur Veranschaulichung illustrierten sie ihre Aussagen mit mathematischen Grafiken, die sie bewusst und absichtlich als Handskizze und ungenau darstellten. Es sollte dadurch der Eindruck vermieden werden, die Aussage stimme nur zufällig für diese eine Grafik.

Die griechischen Texten wurden (und mussten) immer wieder handschriftlich kopiert werden, denn den Buchdruck gab es damals ja noch nicht.
Um Zeit zu sparen, und da sich in den Texten bestimmte Ausdrücke oft und immer wieder wiederholten, gingen die Kopisten dazu über, den Texten ein Glossar häufig verwendeter Wendungen voranzustellen. Sie setzten also einzelne Zeichen als Platzhalter für kürzere oder längere Wendungen ein.
Also:

+ steht für: eine Addition
= steht für: ist gleich
/ steht für: eine Division
usw. usf.

Zunächst waren diese Platzhalter noch individuell von Kopist zu Kopist verschieden. Im Laufe der Jahrhunderte setzten sich aber die uns geläufigen Formelzeichen als Konsens der Kopisten untereinander durch. Für manche, heute standardisierte Formelzeichen kann man sogar einen Autor angeben. Das griechische Formelzeichen Pi geht auf den walisischen Mathematiker William Jones zurück. Dem schweizer Mathematiker Leonard Euler verdanken wir f(x), die bis heute gebräuchlichen Notationen für die trigonometrischen Funktionen, e, Sigma und i.
Georg Cantor führte für seine Zahlentheorie das jüdische Alphabet ein - und zwar nicht etwa, weil er Jude gewesen wäre, sondern weil das lateinische und griechische Alphabet mehr oder weniger voll besetzt waren. In Deutschland verwendete man für Vektoren bis in das späte 20. Jh. Kleinbuchstaben aus der Sütterlinschrift (habe ich auch noch so gelernt), macht man aber heute nicht mehr.

Die mathematischen Zeichen sind für uns so dermaßen selbstverständlich, dass wir überhaupt nicht mehr darüber nachdenken, was für komplexe Sinnzusammenhänge (die wiederum ihren eigenen Regeln folgen) sie eigentlich darstellen. Man merkt das eigentlich erst dann, wenn einem eine Formel mit unbekannten Zeichen begegnet, z.B. aus der höheren Mathematik.

"1" ist eine Abstraktion und als solche wirklich.
Ein Kuchen liegt auf dem Teller auf dem Tisch im Wohnzimmer.

Solange es ein Kuchen bleibt, stimmt das. Legst Du einen weiteren Kuchen hinzu, dann kannst Du eine Addition durchführen und erhältst zwei Kuchen. Legst Du aber zusätzlich ein Brot hinzu, dann kannst Du eine Addition nicht mehr ohne Weiteres durchführen.
Zunächst sind es dann zwei Kuchen und ein Brot.
Die Addition wird erst dann möglich, wenn Du für alle Objekte eine gemeinsame Kategorie schaffst, wie etwa drei Backwaren.
Die Abstraktion der Zahl stimmt mit der Wirklichkeit also keineswegs per se überein.
 
was Du unter "logischer Wahrheit" vs. "faktischer Wahrheit" verstehst
Ganz trivial:
faktische Wahrheit: Schnee ist weiß
logische Wahrheit: Schnee ist weiß oder nicht weiß

Sehr interessant deine Darstellung der Herkunft der mathematischen Formelsprache. Das war mir jetzt ganz neu.

Dass man in der mathischen Formelspache auch von Semantik spricht, ist mir bewusst. Aber die Mathematiker haben, wie überall, ihre eigene hochabstrakte Variante entwickelt. Mir ging es darum, darauf zu bestehen, dass nicht nur irgendwelche abstrakten Wertzuweisungen stattfinden, sondern dass man ganz umgangssprachlich an der Bedeutung der Begriffe 'wahr', 'existiert', 'ist möglich' festhält und diese nicht gänzlich aus den Augen verliert.
 
Zuletzt bearbeitet:
Solange es ein Kuchen bleibt, stimmt das. Legst Du einen weiteren Kuchen hinzu, dann kannst Du eine Addition durchführen und erhältst zwei Kuchen. Legst Du aber zusätzlich ein Brot hinzu, dann kannst Du eine Addition nicht mehr ohne Weiteres durchführen.
Zunächst sind es dann zwei Kuchen und ein Brot.
Die Addition wird erst dann möglich, wenn Du für alle Objekte eine gemeinsame Kategorie schaffst, wie etwa drei Backwaren.
Die Abstraktion der Zahl stimmt mit der Wirklichkeit also keineswegs per se überein.

Meine These: Die Abstraktion der Zahl, setzt einen Gewaltakt voraus. So zumindest ist meine Erfahrung.
Mathematik und Logik wird oft als nur gut hingestellt. Doch ihre ursprüngliche Abstraktion verändert gewaltsam die Wirklichkeit zuvor.
Resulltat ist z.b. eine dadurch verursachte Klimaveränderung.
Daher sehe ich es kritisch eine formallogische Analyse eines Sachverhaltes höher zu werten als eine poetische Bestimmung von Wirklichkeit.
Meine zweite Aussage aus meinem Zitat kann das, was ich sagen möchte, möglicherweise besser beschreiben als jede formale Logik oder Mathematik. Allerdings ist auch da die Abstraktion, die passierte, noch zu erkennen.

Ich muss die "1", den einen Kuchen, aus einer totalen Gestalt herausreißen.
 
Zuletzt bearbeitet:
Dass man in der mathischen Formelspache auch von Semantik spricht, ist mir bewusst. Aber die Mathematiker haben, wie überall, ihre eigene hochabstrakte Variante entwickelt. Mir ging es darum, darauf zu bestehen, dass nicht nur irgendwelche abstrakten Wertzuweisungen stattfinden, sondern dass man ganz umgangssprachlich an der Bedeutung der Begriffe 'wahr', 'existiert', 'ist möglich' festhält und diese nicht gänzlich aus den Augen verliert.

Okay, somit habe ich verstanden, worauf Du hinaus willst.
Die binäre Logik ist zwar die simpelste von allen, es ergibt sich aus ihr aber der Vorteil der Eindeutigkeit.
Die umgangssprachliche Bedeutung ist für uns in unserer Sprache noch einigermaßen eindeutig. Auch in Sprachen, die demselben Sprachsystem folgen, in den indoeuropäischen Sprachen etwa, können wir uns meistens auf einen Konsens einigen, zumal dann, wenn es gemeinsame Wurzeln in historischen Sprachen wie dem Latein oder auch dem Germanischen gibt.

In anderen Sprachen und -systemen kann das ganz anders aussehen.
Im Türkischen etwa gibt es keine bestimmten und unbestimmten Artikel, es gibt überhaupt nur einen Artikel. Es gibt also keine Unterscheidung zwischen "ein Haus" und "das Haus".
Eine Bekannte von mir lebte jahrelang in Japan und erlernte die japanische Sprache. Als Sprache fand sie es gar nicht einmal so schwer zu erlernen; die Schwierigkeiten waren anderer Natur. Sie berichtete mir, dass es eine für uns ungewöhnlich große Anzahl persönlicher Anreden gibt (14?). Die Schwierigkeit für einen Ausländer besteht vor allem darin, heraus zu finden, in welchem Hierarchieverhältnis man sich zu seinem Gesprächspartner befindet, denn von diesem ist die Anrede dann abhängig.
 
Da bin ich mir nicht so sicher. Zwar sind die Digitalrechner ein starkes Argument. Aber trotzdem bleiben bei mir da Zweifel. Um mich zu vergewissern, müsste ich mich da tiefer reinbohren.

Aus Interesse habe ich mich mit drei Assemblersprachen beschäftigt und sie programmiert. Es handelt sich um die Sprache, die die CPU selbst auf der untersten Ebene kann. Alle anderen Programmiersprachen setzen sich aus Assembler zusammen, die sog. Hochsprachen (BASIC, C, u.a.).
Es ist zwar auch nicht so, dass man tatsächlich nur Nullen und Einsen verschiebt, auch Assemblersprachen gewähren dem Programmierer ein Minimum an Komfort, Adition und Subtraktion, Vergleiche ... sehr viel mehr konnten die Prozessoren, die wir damals programmierten, aber nicht (Z80, 8-Bit).

Der Z80-Prozessor kann mit 8-Bit-Zahlen rechnen, ganzzahlig, in den Werten von 0 bis 255. Er beherrscht, auf Prozessorebene, als mathematische Operationen nur Addition und Subtraktion. Wird das Ergebnis einer Addition größer als 255, dann setzt der Prozessor ein einzelnes Bit als Signalflag, das man abfragen kann, den sogenannten Übertrag - und behält den Rest.
Man erhält also, sinngemäß, ein Ergebnis wie "255 + Rest", bei der Subtraktion ist es ähnlich.

Will man also, was wir damals wollten und umgesetzt haben, mit Dezimalzahlen rechnen und auch Multiplizieren und Dividieren, dann muss man dies auf dieser Prozessorebene selbst programmieren. Das klingt kompliziert und aufwändig und das ist es auch. Es ist aber möglich, denn die Multiplikation und Division sind nichts anderes als eine fortgesetzte Addition und Subtraktion, die darüber hinaus noch gewissen Regeln folgen.
Tatsächlich läuft es auf eine Art Schema hinaus, die im Grunde nichts anderes ist, als wie wir die Grundrechenarten mit Stift und Papier in der Schule gelernt haben: Ergebnis, Übertrag, Stellen verschieben, Summen bilden.

Aber selbst die Addition und Subtraktion lassen sich allein aus logischen Operationen ableiten, grundlegenden Funktionen der Aussagenlogik selbst. Das blieb uns Gottseidank erspart, aber auch das ist möglich.
Verknüpft man zwei Zustände - ob sie nun "wahr" und "falsch" oder "Null" und "Eins" heissen, das ist letztlich belanglos, mit einem von zwei möglichen Ergebnissen, dann erhält man 8 verschiedene Möglichkeiten:

Operand A________Operand B________Ergebnis
_____0__________________0_________________0
_____0__________________1_________________0
_____1__________________0_________________0
_____1__________________1_________________0
_____0__________________0_________________1
_____0__________________1_________________1 ......... usw.
...

Diese Operationen sind "fest verdrahtet" und haben festgelegte Namen wie AND, OR, EQV, NAND, NOR usw. usf.

Addition und Subtraktion sind nichts anderes als Algorithmen, Vorgaben, die angeben, mit welchen Operatoren zwei Operanden wie zu verknüpfen sind, ggf. in mehreren Schritten, wann und wie ein Übertrag erkannt werden muss und was für Konsequenzen das für das Endergebnis hat.

Hat man erst einmal eine Dezimaldarstellung und die vier Grundrechenarten implementiert (ächts!), dann sind alle höheren mathematischen Funktionen im Grunde ein Kinderspiel. Denn auch sie basieren allein auf den vier Grundrechenarten Addition, Subtraktion, Multiplikation und Division. Will man also höhere Funktionen haben, dann studiert man die mathematische Literatur vergangener Jahrhunderte, Leibniz, Euler, Gauss und wie sie alle heissen. Man findet dann etwa Ketten und Polynome, nach denen man trigonometrische Werte berechnen kann oder Intervallschachtelungen, mit denen man Wurzeln ziehen kann. Die nächst höheren Funktionen sind dann solche, die sich trigonometrischen Funktionen, Wurzeln oder Potenzen bedienen ...

Man sieht:
Die gesamte Mathematik lässt sich aus der binären Aussagenlogik ableiten. Es ist nur eine Frage verschiedener, auf einander ausbauender Ebenen und zunehmender Kompexität. In einer Art vereinfachter Darstellung kann man das wie folgt zusammenfassen:

1. Logische Operatoren: AND, OR, EQV, NAND, NOR ... u.a.
2. Addition und Subtraktion
3. Multiplikation und Division
4. Potenzen, Wurzeln, trigonometrische Funktionen
5. Höhere mathematische Funktionen: Logarithmen, Differenziale, Integrale uvm.
 
Werbung:
Zurück
Oben