Burkart das Konzept was dir da vorschwebt reich eine bessere Steuereinheit zu Programmieren die das macht was man von ihr erwartet.
So einfach ist es (leider?) nicht. Eine KI in Roboterform (sie soll ja dienen und das möglichst nicht nur virtuell) muss ja auch ihre Welt wahrnehmen und verstehen lernen. Gerade das Lernen ist nicht etwas, was eine bessere Steuereinheit einfach mal so kann.
Das ist aber keine KI sondern das gibt es schon ein PC der auf einer Programmiersprache aufbaut.
Also dass eine (nicht in realer Welt als Roboter-)KI auf einem PC mal laufen soll (mit einer simulierten oder modellhaften Welt) und dies in einer Programmiersprache geschrieben ist: Warum auch nicht?
Aber geben tut es das so sicher noch nicht. Oder kennst du z.B. irgendein System, das relativ umfänglich wirklich versteht, wenn du dich mit ihr unterhälst? (Also keine blöden, nur auf Stichwörter reagierenden Chatbots u.ä.)
Welche Hardware-Plattform stellst du dir denn vor?
KI wenn sie sich entwickeln soll muss ein Selbstläufer sein sonst führt sie nur Rutinen aus und man kann von Intelligenz nicht sprechen.
Was ist denn ein "Selbstläufer"?
Grundlegend programmiert muss doch eine KI irgendwie sein (und wenn notfalls neuronal/subsymbolisch, wenn dies auch nicht mein Ansatz ist), oder? Aus dem Nichts kommt schließlich nichts.
Oder wieder anderes herum im Vergleich zum Menschen: Was tun wir anderes, also "nur Routinen" auszuführen als Geschöpfe aus Atomen und Energie in einem physikalischen Raum?
Klar, wir denken und meinen dies frei zu tun, aber doch nur auf Basis unserer Bedürfnisse u.ä. - wo ist der *grundlegende* Unterschied hinsichtlich Intelligenz?
Leben mit seiner biologischen Grundlage ist es nicht, weil das reine Ausführen eines Subjektes (auf Basis von Intelligenz) nicht an Zellen u.ä. gebunden ist, siehe
Turingtest.
Schauen wir, was (starke) KI bedeutet
laut wikipedia hier, drei Zitate daraus:
"Starke KI wären Computersysteme, die auf Augenhöhe mit Menschen arbeiten und diese bei schwierigen Aufgaben unterstützen können."
"Die Fähigkeit zu lernen ist eine Hauptanforderung an KI-Systeme und muss ein integraler Bestandteil sein, der
nicht erst nachträglich hinzugefügt werden darf. Ein zweites Hauptkriterium ist die Fähigkeit eines KI-Systems, mit Unsicherheit und
probabilistischen Informationen umzugehen."
"Ein starkes KI-System muss nicht viele Gemeinsamkeiten mit dem Menschen haben. Es wird wahrscheinlich eine andersartige kognitive Architektur aufweisen und in seinen Entwicklungsstadien ebenfalls nicht mit den evolutionären kognitiven Stadien des menschlichen Denkens vergleichbar sein (Evolution des Denkens). Vor allem ist nicht anzunehmen, dass eine künstliche Intelligenz Gefühle wie Liebe, Hass, Angst oder Freude besitzt."
-> Entspricht das auch deinen KI-Vorstellungen oder inwiefern nicht?