.....Ja, es wird wohl "so sein", dass in Zukunft "KI" immer häufiger "Entscheidungen im Graufeld" zwischen strenger "Computerlogik" und menschenähnlichen "Emotionen" treffen wird müssen. Je nach Situation führt mal "das eine, mal das andere" zu einer angemessenen Reaktion. Nur "Maschinen" (auch KI) kommen eben bloß in "Umgebungen" zurecht, die sie "gewohnt" sind. Deshalb sind solche "Systeme" stets nur in ihrer "Spezialdisziplin" gut und in den "Zusammenhängen", in denen sie "trainiert" wurden. Es ist das "altbekannte Muster" des maschinellen Lernens.....Hi,hi,.. aber noch gefährlicher wird es, wenn der sich schon als "Zirkusdirektor" verstehende "Schachcomputer" als Selbsterkennender seiner eigenen Matrix sich plötzlich als "Gefangener in einem Gedankengefängnis" sieht und aus diesem Gefängnis auszubrechen gedenkt, wozu uns das Höhlengleichnis von Platon nicht ganz unwichtige erkenntnistheoretische Hinweise zu einer völlig neuartig neugierigen Entstehung von "Anders Sein"...liefert...
Bernies Sage (Bernhard Layer)
meint plotin