• Willkommen im denk-Forum für Politik, Philosophie und Kunst!
    Hier findest Du alles zum aktuellen Politikgeschehen, Diskussionen über philosophische Fragen und Kunst
    Registriere Dich kostenlos, dann kannst du eigene Themen verfassen und siehst wesentlich weniger Werbung

Vertrauen in Künstliche Intelligenz

Warum steht es außer Frage, nur weil es ihre Anwendung findet? Diese Ansicht hätte ich gerne konkreter erläutert --.

Selbst in der sogenannten "modernen Medizin" operieren immer noch die Chirurgen, und nie ein selbständig operierenden Roboter durch KI. Es gab bisher noch keinen einzigen Fall, in dem die KI ganz selbständig eine Operation durchgeführt hat -- immer war ein Mensch dahinter, der entweder observierte, eingriff, operierte, oder den Prozess unterbrach.


Was meinst du mit "ein Stück weit"?


Klar, man kann Menschen immer auf Kriterien "zerstückeln" -- aber das macht man bewusst -- eine holistische Wahrnehmung wird von Faktoren getriggert, die sich zumindest nicht auf den ersten Augenblick benennen lassen und die unbewusst ablaufen. Ich sehe solche Prozesse als maßgebend dafür, warum bestimmte Menschen mit anderen überhaupt in Beziehung treten. Und diese Beziehungen sind nicht minder bedeutend.

eine ziemlich armselige Haltung, findest du nicht?
Du hast die Frage gestellt, ob KI dem Menschen nützlich ist. Ich habe diese Frage mit dem Verweis auf die moderne Medizin und ihren Einsatz von KI-Systemen bejaht. Dass eine KI vollkommen autonom medizinische Operationen durchführt, folgt daraus freilich nicht. Indes habe ich das auch nicht behauptet. Eine KI kann auch nützlich sein, wenn sie nicht vollständig autonom arbeitet.

Mit "ein Stück weit" meinte ich, dass gerechtfertigtes zwischenmenschliches Vertrauen nur bis zu einem gewissen Grad von Intuition bestimmt wird. Sicher mögen Intuitionen eine Rolle spielen, aber im Alltag wird das Vertrauen von A durch etwaige frühere Erfahrungen mit B bestimmt, und die Erfahrung, die er mit B im vorliegenden Fall macht, wird den Grad seines Vertrauens in B in Zukunft mitbestimmen. Ich erachte dieses psychologische Wechselspiel nicht als armselig, sondern vielmehr als natürlich.
 
Werbung:
Du hast die Frage gestellt, ob KI dem Menschen nützlich ist. Ich habe diese Frage mit dem Verweis auf die moderne Medizin und ihren Einsatz von KI-Systemen bejaht. Dass eine KI vollkommen autonom medizinische Operationen durchführt, folgt daraus freilich nicht. Indes habe ich das auch nicht behauptet. Eine KI kann auch nützlich sein, wenn sie nicht vollständig autonom arbeitet.
Okay, dann verstehe ich deine Frage bezüglich Vertrauen in die KI nicht, wenn ohnehin klar ist, dass gewichtige Entscheidungen weiterhin vom Menschen getroffen werden und nicht gänzlich von KI.
 
Okay, dann verstehe ich deine Frage bezüglich Vertrauen in die KI nicht, wenn ohnehin klar ist, dass gewichtige Entscheidungen weiterhin vom Menschen getroffen werden und nicht gänzlich von KI.
Dann scheinst du einen anspruchsvolleren Vertrauensbegriff vorauszusetzen, demzufolge lediglich autonome Akteure (wie Menschen) potenzielle Objekte/Subjekte von Vertrauen sein können. Obzwar ich dies grundsätzlich für eine legitime Sichtweise halte, möchte ich anhand eines Beispiels zu Deliberationen darüber anregen, ob wir diesen starken Vertrauensbegriff angesichts der modernen KI nicht ausweiten sollten.

COMPAS ist ein Tool zur Fallverwaltung und Entscheidungsunterstützung, das von US-Gerichten verwendet wird, um die Wahrscheinlichkeit zu bewerten, dass ein Angeklagter erneut straffällig wird. Unglücklicherweise verstieß diese KI in der Vergangenheit bereits mehrmals gegen die Equal Protection Clause, da sie einen racial bias gegen Personen mit schwarzer Hautfarbe zeigte. “The formula was particularly likely to falsely flag black defendants as future criminals, wrongly labeling them this way at almost twice the rate as white defendants."

Wir haben hier also den Fall vorliegen, dass die algorithmischen Operationen eines KI-Systems zu ethisch problematischen Resultaten gelangt. Dies wäre vielleicht halb so schlimm, wenn diese Outputs keinen Eingang in die juristische Entscheidungsfindung menschlicher Richter finden würde. Das tun sie aber. Man könnte den Sachverhalt auch so formulieren, dass das Gericht ein gewisses Vertrauen in die KI setzt. Angesichts der erwähnten Kalamität könnte man sich nun die Frage stellen, ob dieses Vertrauen gerechtfertigt ist und wie eine vertrauenswürdige KI denn aussehen müsste. Diese Fragen scheinen aber bereits darauf hinzudeuten, dass wir eine KI als potenzielles Vertrauensobjekt behandeln, obgleich es kein autonomes System ist.
 
Wir haben hier also den Fall vorliegen, dass die algorithmischen Operationen eines KI-Systems zu ethisch problematischen Resultaten gelangt.

Das bestätigt letztlich was ich sagte. Die Qulität und Vertrauenswürdigkeit der KI steht und fällt mit der Kompetenz, Intention, Subjektivität..... dessen, der sie programmiert.

Daher ist es unabdingbar die Programmierung und Funktionsweise der KI transparent zu machen. Ansonsten entzieht sie sich jeglicher Kontrolle und somit auch der Chance überhaupt in irgend einer Weise vertrauenswürdig zu sein.
Dann erübrigt sich zumindest für mich die Frage, ob man Vertrauen auf KI ausweiten sollte.

Denn dies ist untrennbar an Transparenz gekoppelt.

TM, die im IT Bereich einzig und allein Open Source vertraut
 
... also ich'gäb'zu , ...
:-)
... daß ich's einfach absurd'find' , ... ausgerechnet "dort" mit der KI zu "beginnen" , ... wo's nun letztlich nur WENIGE "zu ersetzende" Arbeit's - Plätze - sei'n , ... wie der Jurisdiction , ...
:-)
... & versteh' drum auch nicht die Hypothese :
... "wie" könn'e's denn "recht's - Objekte" ( "Delinquenten" ) geben ?
... irgendwie scheint's mir "der" demokratischen Grund - Annahme zu "wider" sprechen :
... "daß" Mensch also ein ( explizites ) "Individuum" sei :
... & drum ( bspw. ) keiner - statistischen - be - wert - ung unterläge , ...
... & eben erst RECHT keiner Maschine ...
:-)
... denn Euer Beispiel ist wirklich "sprichwörtlich" :
... denn dort scheint's NUR "Bewertungen" zu geben ...
 
Hallo an alle,

anlässlich eines Call for Papers zum Thema "Digitalisierung und Künstliche Intelligenz" würde ich gerne folgende Fragen mit euch diskutieren:

- Wie müssen wir Vertrauen in KI begreifen? Ist es ein Gefühl, eine Haltung ein Zustand? Ist Vertrauen eine Einstellung? Ist es eine Überzeugung? Eine Tugend?
- Sind digitale Technologien wie Algorithmen, die auf maschinellem Lernen beruhen, angemessene Objekte von Vertrauen?
- Wann ist Vertrauen in KI gerechtfertigt?
- Kann Vertrauen in KI überhaupt gerechtfertigt sein?

Da ich euer Denken nicht in bestimmte Bahnen lenken möchte, werde ich auf eine persönliche Einleitung verzichten und lade in diesem Sinne zum freien gemeinsamen Philosophieren ein!

- Kratylos
Hallo in die Runde, leider erst jetzt auf den Thread gestoßen. Luhmann hat Vertrauen ganz einfach definiert, nämlich als riskante Vorleistung. Wir sollten allerdings das Konzept möglicher KI nicht überbewerten, uns erst recht nicht ihr jemals unterordnen. Und sie nicht einfach mit der Digitalisierung in einen Topf werfen. Beschäftige mich seit längerem mit autonomem Fahrzeugverkehr. Mit allen Vor-und Nachteilen, mit den Grenzfragen die ich weiter unten schon angeschnitten sah. Egal wie intelligent solch ein Steuerungssystem sein will, spätestens bei der Frage, welches (nach Maschinenverstand) unausweichliches Opfer gebracht werden muss, sind wir bei banalem Utilitarismus angekommen. Der Algorithmus als Gott. Jedenfalls bei schönem Wetter. Spätestens wenn es schneit bedarf es solcher Entscheidungen nicht mehr. Noch (lange) gibt es keinerlei Sensorik, die unseren Augen gleich, auch in einem Schneegestöber sich orientieren könnte. Künstliche oder programmierte Intelligenz wird heutzutage einfach das Kommando an den Menschen übergeben oder einfach abschalten. Deshalb finden die Erprobungen ja gern in ewig sonnigen Regionen statt.
Eine KI oder auch nur der Verstand sieht ein, dass ein extern geregelter Verkehr nur ganzheitlich in einem totaltären Verkehrssystem stattfinden kann. Unter Einbeziehung seperater Daten zum Verkehrsfluss, Wetter usw. Bei Schnee würde aufgrund der berechenbaren Parameter und Risiken dann gar kein Verkehr stattfinden. Physikalisch berechenbar sind nämlich solche Manöver wie sie Rallyefahrer erbringen nicht möglich. Usw.
 
Das autonome Fahren ist ein interessantes Beispiel. Da kommen wir zu einem ganz elementaren Problem.
Dem sogenannten Trolley-Problem, welches auch rechtlich umstritten ist.

Dieses Szenario klingt konstruiert, doch gerade in Bezug auf autonomes Fahren ist es realistisch – und hochaktuell. Denn ein computergesteuertes Fahrzeug muss im Ernstfall genau solche Entscheidungen fällen: Schützt es bei einem drohenden Unfall seinen Fahrer? Oder opfert es diesen, wenn dafür mehrere Fußgänger gerettet werden? Und ab wann zählen die Fußgänger mehr? Studien mithilfe interaktiver Online-Szenarien belegen, dass sich auch Menschen bei diesen Fragen keineswegs immer einig sind.

Ein Kind löst das Problem so.


Da die KI allerdings vorwiegend eingesetzt wird, um Menschen zu analysieren, einzuordnen, zu überwachen und Psychogramme zu erstellen eingesetzt, liegt für mich dort die eigentliche Gefahr. Denn dann wird sie manipulativ.

Es wurde getestet, wie eine KI Jobbewerber beurteilt. Das Ergebnis ist anders als erwartet.

Diskriminierung soll durch Künstliche Intelligenz ausgeschaltet werden, so ein naheliegender Gedanke. In der Praxis funktioniert das bisher aber nicht wie gewünscht. „Es gab Fallbeispiele, bei denen Frauen von KIs systematisch benachteiligt worden sind“, sagt Verhoeven. „Das lag an den Datensätzen, die die künstliche Intelligenz bekommen hat“, erklärt der Recruiting-Experte. Hintergrund: Wenn in einem Unternehmen in der Vergangenheit viel mehr Männer eingestellt worden sind, lernt die KI auf Basis der bisherigen Bewerberdaten, dass Männlichkeit ein Merkmal für Erfolg und Kompetenz sein soll. Dann werden Männer gegenüber Frauen bevorzugt.

Das stellt ebenfalls klar, dass die KI nur so gut oder schlecht ist, je nach dem, wie sie programmiert und "gefüttert" wird.

Und das macht eine klare Regelung und Überwachung nötig. Das geht nur durch Transparenz und Open Source.
Im Folgenden werden die EU-Staaten und das EU-Parlament den Vorschlag besprechen, bevor er schließlich verabschiedet wird. Bis jetzt zeigt sich eine klare Tendenz, künstliche Intelligenz so regulieren zu wollen, dass mögliche Risiken für EU-Bürger minimiert werden. »Neben den vielen nützlichen Anwendungen von künstlicher Intelligenz kann diese Technologie missbraucht werden und neue und mäwechtige Werkzeuge für manipulative, ausbeuterische und soziale Kontrollpraktiken bereitstellen«, stellen die Autoren des Entwurfs fest. Das gelte es zu verhindern.
Eine künstliche Intelligenz sollte vorurteilsfrei sein
Zwei Punkte sind vor diesem Hintergrund besonders interessant: das Verbot der Manipulation und die Vorgabe, dass die Trainingsdaten künftiger Systeme des maschinellen Lernens frei sein sollen von Verzerrung und Vorurteilen.

Letzteres dürfte in der Praxis schwer umsetzbar sein: Immer wieder haben Forscherinnen und Forscher darauf hingewiesen, dass diese Verzerrungen in den Daten schwierig zu eliminieren seien und dass sie letztlich in der Kultur begründet sind. Allerdings werden diese Herausforderungen immer wieder von Entwicklern und Anbietern solcher Systeme übersehen und fallen erst auf, wenn ein System anders als erwartet plötzlich Menschen mit dunkler Hautfarbe diskriminiert. Von daher ist es auf alle Fälle ein Gewinn, wenn Systeme künftig auf solche Verzerrungen hin überprüft werden müssen. Beim Thema Manipulation sind sicherlich Lobbyaktivitäten zu erwarten, um den Entwurf weiter abzumildern. Denn so weit, wie der Begriff bis jetzt gefasst ist, fallen darunter vermutlich viele Systeme des maschinellen Lernens, die bereits jetzt den Alltag bestimmen und auf denen das Geschäftsmodell verschiedener Unternehmen basiert; etwa personalisierte Werbung, wie sie viele aus ihrem Facebook-Feed kennen. Dabei berechnen Systeme aus allen Informationen und Interaktionen einer Nutzerin, was diese interessiert, was ihre Vorlieben sind und welche Werbung bei ihr möglicherweise wirkt. Es gab bereits Studien, die zeigten, dass ein solches Targeting sowie das darauf basierende psychologische Profiling durchaus Effekte hat und dass Anzeigen, die auf eine Person zugeschnitten sind, erfolgreicher sein können als andere.

Wie so oft, wird sich die Lobby bestimmt wieder durchsetzen.

TM, die nicht versteht, warum Open Source so einen geringen Stellenwert hat und Geschäftsgeheimnisse und Patente einen zu hohen
 
Dann scheinst du einen anspruchsvolleren Vertrauensbegriff vorauszusetzen, demzufolge lediglich autonome Akteure (wie Menschen) potenzielle Objekte/Subjekte von Vertrauen sein können. Obzwar ich dies grundsätzlich für eine legitime Sichtweise halte, möchte ich anhand eines Beispiels zu Deliberationen darüber anregen, ob wir diesen starken Vertrauensbegriff angesichts der modernen KI nicht ausweiten sollten.

COMPAS ist ein Tool zur Fallverwaltung und Entscheidungsunterstützung, das von US-Gerichten verwendet wird, um die Wahrscheinlichkeit zu bewerten, dass ein Angeklagter erneut straffällig wird. Unglücklicherweise verstieß diese KI in der Vergangenheit bereits mehrmals gegen die Equal Protection Clause, da sie einen racial bias gegen Personen mit schwarzer Hautfarbe zeigte. “The formula was particularly likely to falsely flag black defendants as future criminals, wrongly labeling them this way at almost twice the rate as white defendants."

Wir haben hier also den Fall vorliegen, dass die algorithmischen Operationen eines KI-Systems zu ethisch problematischen Resultaten gelangt. Dies wäre vielleicht halb so schlimm, wenn diese Outputs keinen Eingang in die juristische Entscheidungsfindung menschlicher Richter finden würde. Das tun sie aber. Man könnte den Sachverhalt auch so formulieren, dass das Gericht ein gewisses Vertrauen in die KI setzt. Angesichts der erwähnten Kalamität könnte man sich nun die Frage stellen, ob dieses Vertrauen gerechtfertigt ist und wie eine vertrauenswürdige KI denn aussehen müsste. Diese Fragen scheinen aber bereits darauf hinzudeuten, dass wir eine KI als potenzielles Vertrauensobjekt behandeln, obgleich es kein autonomes System ist.
Grundsätzlich sollten wir erst einmal darüber nachdenken, wie wir den Begriff KI überhaupt verstehen. Solche Tools wie COMPAS sind meiner Meinung nach von mit Vorurteilen behafteten Menschen ersonnene Instrumente, die diese Vorurteile aufgrund der programmierten Parameter bestätigen. Wären sie von einer KI meines Verstehens erstellt, würden die Eingriffe in die Urteilsfindung viel radikaler ausfallen. Nämlich von einer übergeordneten, jedoch einfältigen Warte aus geprägt. Nur einer, aus sich selbst, quasi inzestuös, gezeugten Wahrheit. Dieses Wahrheitsverständnis könnte aber nur einer ursprünglichen, von fühlenden Menschen oktroyierten Programmierung entspringen. Maschinen haben, außer in der SF, nun mal keine Phantasie und auch keinen Selbsterhaltungstrieb. Künstliche Intelligenz meines Verständnisses wohnt ein Kontext zu Kybernetischen Emanationen inne, nichts menschliches. Sie wird nicht an den Bedürfnissen der sie umgebenden Menschen wachsen, sondern an mechanischen Bedürfnissen. Mein Fazit: KI wäre ein von Programmen ersonnenes Programm, welches eigenständige Entscheidungen treffen kann. Zum Glück eine unerfüllbare Dystopie.
Würde, wie bei COMPAS, nur dem Wunsch entspringen, Verantwortung abzugeben. Wie eben auch beim autonomen Fahren. Oder anderen fordernden Entscheidungsereignissen. Aus philosophischer Sicht finde ich COMPAS ein interessantes Thema. Dürfen wir, um Verbrechen zu verhindern, Verbrechen begehen? Gibt es tatsächlich ein (wie ich es schon in einem Essay nannte) gerechteres Recht? Heiligt, der Volksmund weiß es schon lange, der Zweck die Mittel? Künstliche Intelligenz müsste sich auch in Konkurrenz zu den vielen verschiedenen Definitionen von "Intelligenz" dem evolutionären Wettbewerb stellen. Doch spätestens wenn der Faktor Mensch den Strom abstellt, oder der Zufall, ist damit Schluss. Vertrauen können wir nur in uns selbst finden, verlassen wir uns nur noch auf maschinell generierte Entscheidungen, könnten wir auch um Entscheidungen würfeln. Wenn jemand ernsthaft einer Unterordnung unter eine KI das Wort reden, zeigte er nur seine Hilflosigkeit gegenüber dem Schicksal. KI kann, wie schon erwähnt, nur rigoros sein. Ja oder nein. Immer einem unmenschlichen Ziel verpflichtet.
 
Zuletzt bearbeitet:
Das autonome Fahren ist ein interessantes Beispiel. Da kommen wir zu einem ganz elementaren Problem.
Dem sogenannten Trolley-Problem, welches auch rechtlich umstritten ist.



Ein Kind löst das Problem so.


Da die KI allerdings vorwiegend eingesetzt wird, um Menschen zu analysieren, einzuordnen, zu überwachen und Psychogramme zu erstellen eingesetzt, liegt für mich dort die eigentliche Gefahr. Denn dann wird sie manipulativ.

Es wurde getestet, wie eine KI Jobbewerber beurteilt. Das Ergebnis ist anders als erwartet.



Das stellt ebenfalls klar, dass die KI nur so gut oder schlecht ist, je nach dem, wie sie programmiert und "gefüttert" wird.

Und das macht eine klare Regelung und Überwachung nötig. Das geht nur durch Transparenz und Open Source.


Wie so oft, wird sich die Lobby bestimmt wieder durchsetzen.

TM, die nicht versteht, warum Open Source so einen geringen Stellenwert hat und Geschäftsgeheimnisse und Patente einen zu hohen
Auch hier spüre ich wie zuvor, all die beschriebenen Gefahren und Verfahren bedürfen gar keiner KI. Alles schon mit herkömmlicher Nutzung algorithmischer Gesetzmäßigkeiten möglich. Und auch oben lese ich wieder: ... so gut oder schlecht, je nach dem, wie sie programmiert und gefüttert wird ... Das wäre ja die Krux, KI bedarf keiner beeinflussbaren Programmierung. Sie wird ja aus sich selbst, aus operierenden Programmen heraus geschaffen. Ohne Einfluss von außen. Deshalb künstlich. Übersetzungsprogramme rühmen sich gern ihres Gebrauchs. Zeigt bis dahin, wo Programme Empathie entwickeln, ihre Grenzen.
 
Werbung:
Ich kann damit zumindest einfacher umgehen. Aber da das Werk KI untrennbar mit dem Schöpfer verbunden ist, ist ja nicht die KI per sé gut oder schlecht, oder vertrauenswürdig oder nicht, sondern der Zweck der damit verfolgt wird.
Auch nicht unerheblich ist die Transparenz. KI ist m. W. oft sog. closed Source. Bedeutet man weiß nicht, was da vor sich geht.

Ist alles offen, erübrigt sich die Frage nach dem Vertrauen, da dann alles kontrollierbar wird. Vertrauen brauche ich ja nur, wenn sich etwas meiner Kontrolle entzieht und ich es in andere Hände gebe.

Es gibt durchaus Entscheidungen, für die ich KI - sofern diese Bezeichnung überhaupt zutrifft - nicht nur gerechtfertigt, sondern wünschenswert finde. In meiner Großstadt dauert es sieben Monat bis ein Jahr, bis z.B. über einen Antrag auf eine Sozialwohnung entschieden ist. Selbst dann, wenn es sich um einen Folgeantrag ohne Veränderungen der Voraussetzungen handelt. Begründet werden solche lähmenden Fristen mit der Überlastung der Ämter.
Warum soll nicht eine Software über solche Dinge entscheiden können, die ohnehin nur Formalien sind?
Das verhindert ja schließlich nicht, dass nicht dennoch ein menschlicher Sachbearbeiter Spezialfälle bearbeiten kann.

Dazu müsste es allerdings auch endlich mal zu dem kommen, was man uns Jahrzehnten verspricht: Dem papierlosen Büro.
Es klingt banal, und das ist es auch:
So etwas wie eine Verdienstbescheinigung ensteht digital, textbasiert und als vektorielle Datei. Ein Empfänger, dem ich sie auf meinen und seinen Wunsch versende, hätte sie gern auch so. Dazwischen stehe ich, der sie auf Papier erhält, und einen Scan oder ein Foto machen darf, um sie als voluminöse Pixeldatei zu versenden, die keiner haben will.

Solange wir noch an solchen Kinderkrankheiten der Steinzeit der Digitalisierung herum machen, sind KI und andere Maßnahmen Raketenwissenschaft.
 
Zurück
Oben