Beim autonomen Fahren gar, wird sie zu einem Gottgleichen Wesen: Nach welchen Kriterien wird sie im Falle eines unvermeidbaren Unfalles entscheiden, wer überlebt, wer stirbt? Nach utilitaristischen Maßgaben? Innerhalb sekundenbruchteilen würde dann die (Gesichts-) Erkennung einem jungen Beteiligten eine größere Materielle Nützlichkeit zusprechen als einem älteren oder behinderten Menschen? Wenn überhaupt eine geplante Entscheidung anstünde, müsste sie nicht "erwürfelt" werden, dem Zufall überlassen?
Nein das ist nicht ganz richtig.
Ich habe ja zwei Jahre in der Software-Entwicklung für autonomes Fahren gearbeitet.
Erstmal möchte ich sagen, dass es innerhalb des Autos eine Ring-Architektur gibt mit drei Ebenen die parallel berechnen.
Die erste ist sozusagen die normale Ebene bei der berechnet wird, wobei im zweiten Kanal eine unabhängige zweite Berechnung läuft.
Im nächsten Schritt schaut man, ob irgendwelche Abweichungen zwischen First und Second sind.
Ein dritter Kanal ist dann zur Absicherung da (Funktion streng limitiert).
Das Auto könnte so noch rechts heranfahren und notfalls SOS (falls notwendig).
Aber bis dahin müsste erstmal ein Ausfall der beiden Kanäle passieren, was fast ausgeschlossen werden kann.
Normalerweise harmoniert es zwischen diesen beiden "Hirn-Hälften" (first und second).
Und das wichtigste: Dazu braucht man keine KI sondern es reichen zeitoptimierte Module/ Interaktion.
Was wir mit KI gemacht haben war eher Schilder-Erkennung oder relevante Objekte (static/ dynamic).
Da konnte man Geschwindigkeiten ablesen, oder Dinge ablesen die man normalerweise nicht kann (durch Sensor-Fusion).
Es gibt dann Fälle, wo zb. der Lidar etwas sieht, aber die Kamera nicht und innerhalb der Fusion kann KI zb. über einen Look-Up-Tabelle oder Cloud unterstützend helfen/ das System schneller machen. Aber es werden keine Entscheidungen wie du es sagst, alleine von KI getroffen.
So wie in unserem Körper zb. auch nicht alleine das Hirn steuert, sondern das Gesamtsystem (check?).
Wenn du magst, kannst du dir mal die Tesla-Unfälle anschauen.
Als ich damals tätig war, wurde ein Fall ganz besonders beleuchtet. Ein Tesla fuhr in den USA einfach so in ein (ich glaube) am Stauende stehendes Feuerwehrauto. Das krasse war, dass der Tesla noch beschleunigt hat, also die Systeme meinten volle Fahrt voraus.
(Anmerkung: Tesla nutzt Autopilot und Autopilot ist soweit ich weiß autonomous driving level 3 (maximal 4)).
Oder ein Uber-Fahrzeug (lvl 3), was eigentlich hätte bremsen müssen, weil es in den Lidar-Daten einige Treffer gab.
Da wurde einmal andersherum geschaut, also warum hat KI NICHT gesehen, was sie sehen sollte, obwohl die Ergebnisse da waren?
Und was ich noch weiß... es gab damals für Level 4-5 Autonomes Fahren in de USA ein Gremium was diese ethischen Sachen geregelt hat. Hatte Daimler 2011 aber auch schon, als ihre erste S-Klasse mit Level 3 die Bertha-Benz-Strecke fuhr. Und zwar durch Anforderungen und Anwendungsfällen. Auch hätte man autonome Autos viel früher auf den Markt bringen können, aber wer brauchte das 2016 schon?
Ansonsten gerne, wenn du noch was wissen möchtest.
Liebe Grüße