• Willkommen im denk-Forum für Politik, Philosophie und Kunst!
    Hier findest Du alles zum aktuellen Politikgeschehen, Diskussionen über philosophische Fragen und Kunst
    Registriere Dich kostenlos, dann kannst du eigene Themen verfassen und siehst wesentlich weniger Werbung

Auf Thema antworten

Leider kann solch eine Hauptgrundlage "für Mensch" nicht geben. Natürlich wird die KI daraufhin programmiert, Menschen nicht zu schaden. Doch schon in den angedachten Aufgaben ergeben sich Dilemmata: Gesichtserkennung wird in einem totalitären Gemeinwesen zur Überwachung und Sanktionierung systemkritischer Personen angewendet. Beim autonomen Fahren gar, wird sie zu einem Gottgleichen Wesen: Nach welchen Kriterien wird sie im Falle eines unvermeidbaren Unfalles entscheiden, wer überlebt, wer stirbt? Nach utilitaristischen Maßgaben? Innerhalb sekundenbruchteilen würde dann die (Gesichts-) Erkennung einem jungen Beteiligten eine größere Materielle Nützlichkeit zusprechen als einem älteren oder behinderten Menschen? Wenn überhaupt eine geplante Entscheidung anstünde, müsste sie nicht "erwürfelt" werden, dem Zufall überlassen? In der SF-Literatur treffen wir oft auf kybernetische Kulturen, die sich nach rein logischen und/oder materiellen, arterhaltenden Kriterien orientieren. Um mit biologischen Wesen umzugehen, nutzen sie die Simulation.

Meines Erachtens wird jegliches Einfühlen in menschliches Verhalten nie über den Rang einer Simulation hinausgehen. Da war doch mal der Titel eines Romans von Heinlein: Träumen Roboter von elektrischen Schafen?

Warum bekamen den die Schöpfer der KI plötzlich kalte Füße? Weil sie erst nach dem Run auf ihre Software gemerkt haben, dass sie dem Guten wie dem Bösen dienen wird. Nur eines wird sie nie werden: Klug. Egal was sie aufgrund ihrer Urprogrammierung leisten wird, sie kann nicht phantasieren, träumen oder eigene Wünsche erstreben. KI erkennt Muster, Merkmale, muss zwangsläufig, auch beim Deep Learning empirisch vorgehen. Und legt dann, z. B. in der Medizin, aufgrund ihrer Erkenntnisse vielleicht eine Behandlungsmethode vor. Doch wo bleibt dann die ethische Komponente? Muss dann doch wieder intuitive, menschliche Entscheidungsfindung her?


Zurück
Oben