Ich denke ohne dass die Maschine ein Bewusstsein hat (ein ICH) und einen Selbsterhaltungstrieb bleibt es bei einem nichts. Es kann sich keine Intelligenz entwickeln.
Gehen wir hier mal davon aus.
Wie wäre es, wenn die Maschine ein Bewusstsein entwickelt anstatt schon sofort eines zu haben?
Ich weiß nicht, wann ein kleines Kind das erste Mal "Ich" sagt (oder denkt), das erste Wort ist jedenfalls meist "Mama".
Wie soll sich der Selbsterhaltungstrieb auswirken? Soll die KI bei jeder Aktion prüfen, ob sie selbst irgendwie betroffen ist? Oder nur, wenn sie explizit bedroht wird? Und was, wenn ein oder mehrere Menschen ist Gefahr sind, soll ihre Selbsterhaltung ihr vorgehen?
Was in dem Artikel beschrieben ist, ist ein Nachbau eines Menschen.
Das Ziel ist das Maschine und Mensch nicht voneinander unterschieden werden kann.
Das ist nicht unser Ziel, right?
Mir schwebt eine KI vor die befreit ist von menschlichen Unzulänglichkeiten und menschlichen Bedürfnisse die die KI gar nicht verstehen muss um Intelligent zu sein.
Menschliche Unzulänglichkeiten soll eine KI für mich auch möglicht nicht haben - ich fürchte nur, dass kollidiert mit dem Selbsterhaltungstrieb, der eine KI recht egoistisch machen kann.
Menschlichen Bedürfnisse sollte eine KI verstehen, um Menschen gut verstehen zu können (ich zumindest habe nicht vor, sie alleine ins All zu schicken o.ä., wo sie mit Menschen praktisch nichts zu tun hat), auch weil Menschen gute Lehrer sein können. Uns interessieren ja ansonsten auch tierische Bedürfnisse.