• Willkommen im denk-Forum für Politik, Philosophie und Kunst!
    Hier findest Du alles zum aktuellen Politikgeschehen, Diskussionen über philosophische Fragen und Kunst
    Registriere Dich kostenlos, dann kannst du eigene Themen verfassen und siehst wesentlich weniger Werbung

Mal wieder reißerische "KI" Schlagzeilen.

Hm, was meinst du mit "selbstkritischen Doppelpunkt"?
Ein Doppelpunkt signalisiert nach (m)einer *Allgemeinen Informativitätstheorie* immer eine Doppelbindung zwischen Sender und Empfänger unter SELBST erschwerten Bedingungen einer a-synchronen Beobachterqualität eines doppelt SELBST - unschlüssig zitternd - bewegten Bewegers.
Lerntheorien mag es wie Sand am Meer geben, aber es gibt (noch) keine einheitlich evolutionär-generalisierende Lerntheorie für die Lehrenden in populärwissenschaftlicher Vermittlung einer *Allgemeinen Informativitätstheorie*, die sich - SELBST im BEWUSSTSEIN (!) - „gewaschen hat“.
Bernies Sage
Meine grundlegende Idee ist, dass eine allgemeine KI als (eine) Hauptgrundlage "für Mensch" haben sollte.
Wunderbar. Kein Einwand. Dies benötigt aber ein allgemein geistiges Gerüst mit (Strich-)Mustererkennung im Geringsten, also in einer Ur-Erkennung von ur-molekularem Verhalten, welches an ein *ur-wollekulares Verhalten' hocheffizient widerspruchfrei auf einer 'Gegenseite zur Gegenwart' (in einer WART) neuronal spiegelhaft zwecks möglicher Vorerkennung "anzudocken" vermag, grenzwertig vorsichtig mittels einer Entdeckung von Langsamkeit, wozu das Licht und seine Geschwindigkeit eine Doppelrolle in doppelter Vollumdrehung auch eine doppelte Interpretation von Wahrnehmung (als Lichtblendung) und Nichtwahrnehmung (als Lichtschlucker) ermöglicht, in sogenannten weißen Zwergen und schwarzen Löchern.
Wenn sie also etwas für Mensch(en) Negatives feststellt, hat sich einen Grund dieses zu hinterfragen.
Nicht unbedingt! Zum Hinterfragen einer negativen (=fehlenden) Materie bedürfte es eines allgemein positiven Interesses, was aber dem Datenschutz und der Wahrung von Bankgeheimnissen (=fehlende Geldmaterie) in einer Schutzgarantenstellung nicht zuwider laufen darf.

Einem verhängnisvollen Denunziantentum wären damit Tür und Tor geöffnet, aber nicht unbedingt für eine "biblische" Herrlichkeit, was leider schon mit 51% bereits für eine "dieblische" Herrlichkeit -über eine unmerkliche Phasenverschiebung=Phrasenverschiebung des Zeitbegriffes sprechen könnte...
Warum sollte sie nicht klüger werden können? Sie muss halt (u.a.) lernen, was für Mensch gut ist (klar, dass das nicht immer eindeutig ist).
Eine Theorie - insbesondere eine "löwenreißerische" Theorie mit großer Öffentlichkeitswirkung wie in diesen "Berliner Tagen" kann niemals klüger werden als ihr anfängliches Postulat, denn ansonsten müsste sie sich ja praktisch selbst immer wieder in Frage stellen. Peinlich. Peinlich.

Dies habe ich übrigens schon in einer politischen Persiflage einer "Berliner Thiersegartenschau" tierisch ernst aufs 'Korn' genommen, ohne mich um die detailgerechte Übereinstimmung mit der 'Kimme' im RAN-ZOOMEN von RAND-ZONEN zu kümmern. :) :)

War dies nun ein einfacher Fehler oder etwa ein Doppelfehler?

Aber das kümmert doch kein Schwein, selbst wenn es für einem Löwen gehalten wurde.

" >>Was kümmert es die Eiche, wenn sich eine Wildsau - oder eine Löwin - an ihr reibt?<<

Bernies Sage (Bernhard Layer)
 
Zuletzt bearbeitet:
Werbung:
Wunderbar. Kein Einwand. Dies benötigt aber ein allgemein geistiges Gerüst mit (Strich-)Mustererkennung im Geringsten, also in einer Ur-Erkennung von ur-molekularem Verhalten, welches an ein *ur-wollekulares Verhalten' hocheffizient widerspruchfrei auf einer 'Gegenseite zur Gegenwart' (in einer WART) neuronal spiegelhaft zwecks möglicher Vorerkennung "anzudocken" vermag, grenzwertig vorsichtig mittels einer Entdeckung von Langsamkeit, wozu das Licht und seine Geschwindigkeit eine Doppelrolle in doppelter Vollumdrehung auch eine doppelte Interpretation von Wahrnehmung (als Lichtblendung) und Nichtwahrnehmung (als Lichtschlucker) ermöglicht, in sogenannten weißen Zwergen und schwarzen Löchern.
Ich kann nicht behaupten, dass ich verstehe, was du damit sagen willst im Zusammenhang, dass KI grundlegend "für den Menschen" sein soll.
Nicht unbedingt! Zum Hinterfragen einer negativen (=fehlenden) Materie bedürfte es eines allgemein positiven Interesses, was aber dem Datenschutz und der Wahrung von Bankgeheimnissen (=fehlende Geldmaterie) in einer Schutzgarantenstellung nicht zuwider laufen darf.
Vielleicht ist "hinterfragen" nicht eindeutig genug. Ich meinte nicht, dass die KI alles groß breit tritt, am besten noch in der großen Öffentlichkeit. Ich meinte nur, dass sie für sich etwas für den Menschen Negatives in ihr Denken mit einbezieht; was sie daraus dann macht, ist eine andere Frage (z.B. halt wegen Datenschutz).
Eine Theorie - insbesondere eine "löwenreißerische" Theorie mit großer Öffentlichkeitswirkung wie in diesen "Berliner Tagen" kann niemals klüger werden als ihr anfängliches Postulat, denn ansonsten müsste sie sich ja praktisch selbst immer wieder in Frage stellen. Peinlich. Peinlich.
"Niemals klüger werden" ist so eine Sache. Sie kann eine KI z.B. so viel gelernt haben, dass sie "für Mensch" nicht mehr naiv absolut annimmt (z.B. wenn ein Mensch mit "erschieß mich" sie seinen Willen unflektiert befolgt), sondern besser ("klüger") abwägen kann (z.B. "ist der Mensch krank?").
 
Niemals klüger werden" ist so eine Sache
Nein! Klugheit ist entweder vollkommen -oder sie 'ist' nicht.

Eine Steigerung im 'WERDEN von KLUGHEIT' ginge meines Erachtens immer mit einer Steigerung von Vollkommenheit einher und müsste unweigerlich zur Verkommenheit führen. Und das führt meines Erachtens erst zu einer ernsten Krankheit im Anspruchsdenken...
 
Nein! Klugheit ist entweder vollkommen -oder sie 'ist' nicht.

Eine Steigerung im WERDEN von Klugheit ginge meines Erachtens immer mit einer Steigerung von Vollkommenheit einher und müsste unweigerlich zur Verkommenheit führen. Und das führt meines Erachtens erst zu einer Krankheit im Anspruchsdenken...
Das hieße, dass ein kluger Mensch schon als Baby klug war?
Sorry, nicht wirklich ;)
 
Das hieße, dass ein kluger Mensch schon als Baby klug war?
Sorry, nicht wirklich ;)
Tut mir nicht leid, wenn Du dabei mindestens ein Auge zudrücken musst. - Das sagt nämlich alles.

Babys kommen in aller Regel (genetisch anlagebedingt) "vollkommen gesund" zur Welt - und eben nicht nur "zur Hälfte gesund" ! ;)

Sie können sogar schon ab Geburt schwimmen und verlernen dies in der Folge oftmals durch fehlende Übung nach der Geburt.

Ein Baby kommt mit der Vollkommenheit seiner Gene auf die Welt und ist extrem wissbegierig, was aber niemals mit fehlender Klugheit verwechselt werden sollte!

Ein Baby ist darauf angewiesen SOFORT zu verstehen und vermag strategisch und taktisch "all seine Waffen" einzusetzen, um mit einem bestimmten Verhalten schnellstmöglich auf sich aufmerksam zu machen.

Auch deshalb habe ich schon immer gesagt: "Der Wert eines Menschen entspricht dem Wert einer ganzen Menschheit".

Aber dieser natürliche NI-Wert ist natürlich keine reißerische KI-Schlagzeile wert.

Ausgenommen vielleicht doch?

Es scheint nicht ganz abwegig zu sein, dass *KI* künftig militärisch vorrangig dafür im Einsatz erprobt werden soll. ob sie als Schwarmintelligenz nicht nur bei technischen Drohen, sondern in der Folge auch über eine hormonell besonders intelligent steuerbare Fliegengattung einer *DROHSOPHILA* zum gezielten Einsatz in künftigen Kriegs- und Krisengebieten taugen können wird?

In der weiteren Stufe der *KI* wird diese für menschliche Massensteuerungsprogramme allerdings schon längst zum werbenden Einsatz gekommen sein, wozu man den Chinesen schon heute als 'Weltmarktführerherrschaften von steuerbaren Herrschaften' zynisch zu gratulieren vermag.

Es scheint technisch inzwischen pipi-leicht zu sein, den auf Ultraschall empfindsam getrimmte Fledermausviren ihre Ur-Verhaltensprogramme zu entlocken, militärisch zu frohlocken und die kühl berechnenden Elite-Forscher mit sofort anwendbaren Massenschwarmhypnosen -mit ultraleicht hormonell steuerbaren Gedankenflugzeugen - zu reißen von den Socken, - Grund zum echt (mit allen Folgen) anzudocken?

Bernies Sage (Bernhard Layer)
 
Zuletzt bearbeitet:
Hm, was meinst du mit "selbstkritischen Doppelpunkt"?
Meine grundlegende Idee ist, dass eine allgemeine KI als (eine) Hauptgrundlage "für Mensch" haben sollte. Wenn sie also etwas für Mensch(en) Negatives feststellt, hat sich einen Grund dieses zu hinterfragen.

Warum sollte sie nicht klüger werden können? Sie muss halt (u.a.) lernen, was für Mensch gut ist (klar, dass das nicht immer eindeutig ist).
Leider kann solch eine Hauptgrundlage "für Mensch" nicht geben. Natürlich wird die KI daraufhin programmiert, Menschen nicht zu schaden. Doch schon in den angedachten Aufgaben ergeben sich Dilemmata: Gesichtserkennung wird in einem totalitären Gemeinwesen zur Überwachung und Sanktionierung systemkritischer Personen angewendet. Beim autonomen Fahren gar, wird sie zu einem Gottgleichen Wesen: Nach welchen Kriterien wird sie im Falle eines unvermeidbaren Unfalles entscheiden, wer überlebt, wer stirbt? Nach utilitaristischen Maßgaben? Innerhalb sekundenbruchteilen würde dann die (Gesichts-) Erkennung einem jungen Beteiligten eine größere Materielle Nützlichkeit zusprechen als einem älteren oder behinderten Menschen? Wenn überhaupt eine geplante Entscheidung anstünde, müsste sie nicht "erwürfelt" werden, dem Zufall überlassen? In der SF-Literatur treffen wir oft auf kybernetische Kulturen, die sich nach rein logischen und/oder materiellen, arterhaltenden Kriterien orientieren. Um mit biologischen Wesen umzugehen, nutzen sie die Simulation.
Meines Erachtens wird jegliches Einfühlen in menschliches Verhalten nie über den Rang einer Simulation hinausgehen. Da war doch mal der Titel eines Romans von Heinlein: Träumen Roboter von elektrischen Schafen?
Warum bekamen den die Schöpfer der KI plötzlich kalte Füße? Weil sie erst nach dem Run auf ihre Software gemerkt haben, dass sie dem Guten wie dem Bösen dienen wird. Nur eines wird sie nie werden: Klug. Egal was sie aufgrund ihrer Urprogrammierung leisten wird, sie kann nicht phantasieren, träumen oder eigene Wünsche erstreben. KI erkennt Muster, Merkmale, muss zwangsläufig, auch beim Deep Learning empirisch vorgehen. Und legt dann, z. B. in der Medizin, aufgrund ihrer Erkenntnisse vielleicht eine Behandlungsmethode vor. Doch wo bleibt dann die ethische Komponente? Muss dann doch wieder intuitive, menschliche Entscheidungsfindung her?
 
Das hieße, dass ein kluger Mensch schon als Baby klug war?
Sorry, nicht wirklich ;)
Bitte über James Sidis lesen, entweder im Buch von Amy Wallace "The Prodigy" oder vielleicht in der trivialen aber wunderbaren Beschreibung seines Lebens in "Das perfekte Leben des William Sidis". Der war schon als Baby/Kleinkind in der Lage Zeitung zu lesen. Nicht nur aufgrund seiner Intelligenz, auch weil sein Vater seine Fähigkeiten von Baby an trainierte. Denke persönlich, dass es sündhaft ist, seine Kinder um des eigenen Ansehens willen, derart zu konditionieren. Fallen mir die Eltern ein, die unbedingt ein höchstbegabtes Kind ihr Eigen nennen wollen. Nur damit sie sich später, unter scheinbar Ihresgleichen, bei MENSA gegenseitig ihrer Einzigartigkeit versichern können.
 
Ich kann nicht behaupten, dass ich verstehe, was du damit sagen willst im Zusammenhang, dass KI grundlegend "für den Menschen" sein soll.

Vielleicht ist "hinterfragen" nicht eindeutig genug. Ich meinte nicht, dass die KI alles groß breit tritt, am besten noch in der großen Öffentlichkeit. Ich meinte nur, dass sie für sich etwas für den Menschen Negatives in ihr Denken mit einbezieht; was sie daraus dann macht, ist eine andere Frage (z.B. halt wegen Datenschutz).

"Niemals klüger werden" ist so eine Sache. Sie kann eine KI z.B. so viel gelernt haben, dass sie "für Mensch" nicht mehr naiv absolut annimmt (z.B. wenn ein Mensch mit "erschieß mich" sie seinen Willen unflektiert befolgt), sondern besser ("klüger") abwägen kann (z.B. "ist der Mensch krank?").
Dieses Erkennen hat aber nichts mit Klugheit zu tun, sondern mit Empirik, mit Mustererkennung. Abzuwägen hieße ja, Zweifel zu haben. Aber einer KI fehlt vielleicht nicht die Fähigkeit sich zu hinterfragen (eine Routine), aber jedes erneut berechnete Ergebnis würde letztendlich egal sein. Weil es der KI ebenso als nützliches Ergebnis dient, die Person zu erschießen. Leiden beendet, dem leidenden Individuum zur Erfüllung verholfen.
 
Leider kann solch eine Hauptgrundlage "für Mensch" nicht geben.
Das sehe ich halt anders. Ähnlich gibt es doch auch Berufe "für Menschen", z.B. Sozialarbeiter; warum soll es nicht auch KI geben, z.B. mit so einem Berufsbild als Vorbild. Dass KI genauso Probleme wie Menschen dabei haben kann, ist klar.

Natürlich wird die KI daraufhin programmiert, Menschen nicht zu schaden. Doch schon in den angedachten Aufgaben ergeben sich Dilemmata: Gesichtserkennung wird in einem totalitären Gemeinwesen zur Überwachung und Sanktionierung systemkritischer Personen angewendet.
Sicher, was für KI hinsichtlich Mensch gut ist, ist nicht eindeutig, kann von Gesellschaft zu Gesellschaft differieren, um so mehr zwischen kleineren Menschengruppen.
Beim autonomen Fahren gar, wird sie zu einem Gottgleichen Wesen: Nach welchen Kriterien wird sie im Falle eines unvermeidbaren Unfalles entscheiden, wer überlebt, wer stirbt? Nach utilitaristischen Maßgaben? Innerhalb sekundenbruchteilen würde dann die (Gesichts-) Erkennung einem jungen Beteiligten eine größere Materielle Nützlichkeit zusprechen als einem älteren oder behinderten Menschen? Wenn überhaupt eine geplante Entscheidung anstünde, müsste sie nicht "erwürfelt" werden, dem Zufall überlassen?
Ich halte diese Überlegungen für recht überflüssig. Denkt z.B. irgendein Mensch beim Unfall darüber nach in den oft nur Sekundenbruchteilen? Warum sollte es die KI denn? Sie sollte vielmehr wie der Mensch versuchen, die Unfallfolgen grundsätzlich versuchen möglichst gering zu halten, also möglichst schnell bremsen u.ä., grundsätzlich eher vorausschauen fahren usw.
In der SF-Literatur treffen wir oft auf kybernetische Kulturen, die sich nach rein logischen und/oder materiellen, arterhaltenden Kriterien orientieren. Um mit biologischen Wesen umzugehen, nutzen sie die Simulation.
Meines Erachtens wird jegliches Einfühlen in menschliches Verhalten nie über den Rang einer Simulation hinausgehen. Da war doch mal der Titel eines Romans von Heinlein: Träumen Roboter von elektrischen Schafen?
Den Roman kenne ich leider nicht, auch nicht solche kybernetische Kulturen asl SF.
Was man nun genau als Simulation in dem Zusammenhang ansieht, ist unklar. Jedenfalls hat KI bzw. Roboter grundästzlich die Möglichkeit zu lernen, was Menschen gefällt und nicht, ähnlich wie wir von anderen Menschen oder auch Tieren auch, insbesondere auch wenn wir Aspekte nicht direkt nachempfinden können.
Warum bekamen den die Schöpfer der KI plötzlich kalte Füße? Weil sie erst nach dem Run auf ihre Software gemerkt haben, dass sie dem Guten wie dem Bösen dienen wird.
Also halt in der normalen Realität mit ihrem Gut und Böse. Bisher hat man der KI ja noch nicht wirklich beigebracht, was gut bedeutet.
Nur eines wird sie nie werden: Klug. Egal was sie aufgrund ihrer Urprogrammierung leisten wird, sie kann nicht phantasieren,
Was immer "klug" und "phantasieren" jeweils genau heißt. Klug werden erfordert natürlich viel Erfahrung u.ä.; Phantasie z.B. "eigene Ideen", z.B. beruhend auf eigenen Erfahrungen (durch Lernen in und aus der Welt).
träumen oder eigene Wünsche erstreben.
Träumen ist u.a. Verarbeiten von Gedanken im "Unterbewusstsein", also ohne gerade wichtige Dinge zeitnah im "Kopf" zu haben, keine/kaum Einfluss von außen... also in einem Schlafzustand seiend... so ungefähr...
KI erkennt Muster, Merkmale, muss zwangsläufig, auch beim Deep Learning empirisch vorgehen. Und legt dann, z. B. in der Medizin, aufgrund ihrer Erkenntnisse vielleicht eine Behandlungsmethode vor. Doch wo bleibt dann die ethische Komponente? Muss dann doch wieder intuitive, menschliche Entscheidungsfindung her?
Ehtik ist u.a. eine Lernsache, z.B. bringt man Kindern bei, keine Tiere zu quälen, ähnlich kann man der KI viel beibringen, woraus diese denn ihr Ethik aufbauen kann. Aber Menschen sollten natürlich letztlich die letzte Enscheidung gerade über sich behalten.
 
Werbung:
Bitte über James Sidis lesen, entweder im Buch von Amy Wallace "The Prodigy" oder vielleicht in der trivialen aber wunderbaren Beschreibung seines Lebens in "Das perfekte Leben des William Sidis". Der war schon als Baby/Kleinkind in der Lage Zeitung zu lesen. Nicht nur aufgrund seiner Intelligenz, auch weil sein Vater seine Fähigkeiten von Baby an trainierte. Denke persönlich, dass es sündhaft ist, seine Kinder um des eigenen Ansehens willen, derart zu konditionieren. Fallen mir die Eltern ein, die unbedingt ein höchstbegabtes Kind ihr Eigen nennen wollen. Nur damit sie sich später, unter scheinbar Ihresgleichen, bei MENSA gegenseitig ihrer Einzigartigkeit versichern können.
Selbst wenn ein Mensch schon als Baby so konditioniert wird, ist es damit ja noch nicht klug. Auch der IQ (von wegen MENSA) sagt nicht unbedingt was über Klugheit aus.
 
Zurück
Oben