Dieses Vertrauen muss gut begründet sein und mit dem Ausmaß der potenziellen Auswirkungen eines Systems zunehmen.
"potenzielle Auswirkungen" ist ein äußerst schwammiger Begriff.
Jeder Schritt aus dem Haus hat die potenzielle Auswirkung, dass einem ein Meteorit auf den Kopf fällt und man stirbt. Und auch im Haus ist man davor nicht gefeit. Also zu welcher Konsequenz führt dieser Ansatz ?
Aber auch hier - Vertrauen oder nicht, die Entwicklung findet statt. Man kann sich damit befassen, wie sie nach persönlichem Empfinden aussehen "soll", aber kontrollieren lässt sie sich so schlecht wie die Weltpolitik.
In der jüngsten Erklärung von OpenAI zu künstlicher allgemeiner Intelligenz heißt es: "Irgendwann könnte es wichtig sein, eine unabhängige Überprüfung einzuholen, bevor mit dem Training künftiger Systeme begonnen wird, und für die am weitesten fortgeschrittenen Bemühungen zu vereinbaren, die Wachstumsrate der für die Erstellung neuer Modelle verwendeten Daten zu begrenzen."
"Irgendwann könnte es wichtig sein....." auch äußerst schwammig. Und was bitte heißt hier "unabhängig" ? Unabhängig wovon ?
Wir stimmen dem zu.
Dieser Zeitpunkt ist jetzt gekommen.
Also nicht "irgendwann könnte es wichtig sein", wie in der jüngsten Erklärung von OpenAI, sondern "jetzt ist es wichtig".
Falls dem so wäre, wieso wird es in jener jüngsten Erklärung nicht auch so formuliert ?
Welche Information steht jenem "wir" zur Verfügung, die den Leuten von OpenAI nicht zur Verfügung stand ?
Hiermit fordern wir alle KI-Labore auf, die Ausbildung von KI-Systemen, die leistungsfähiger als GPT-4 sind, unverzüglich für mindestens sechs Monate zu unterbrechen. Diese Pause sollte öffentlich und überprüfbar sein und alle wichtigen Akteure einbeziehen.
Fordern lässt sich alles. Nur, wie willst du alle KI-Labore dazu motivieren, dieser Forderung nachzukommen ?
Würdest du deine Arbeit für 6 Monate unterbrechen (inkl. deinen Lohnbezug), weil Außenstehende diffuse Ängste
vor möglichen künftigen Auswirkungen deiner Arbeit haben ?
Wenn eine solche Pause nicht schnell umgesetzt werden kann, sollten die Regierungen eingreifen und ein Moratorium verhängen.
Aha, und alle Regierungen weltweit würden jener Forderung nachkommen ? Und alle Regierten würden der Regierung gehorchen ?
So wie es auch bei Covid und den Klimazielen funktioniert hat und funktioniert ?
KI-Labore und unabhängige Experten sollten diese Pause nutzen, um gemeinsam eine Reihe gemeinsamer Sicherheitsprotokolle für fortschrittliche KI-Designs und die Entwicklungen zu entwerfen und anfangen sie umzusetzen.
Aha, wer wären diese "unabhängigen Experten" ? Wie wird man ein KI-Experte, ohne Verbindungen zu KI-Laboren zu haben ?
Mich deucht, da will jemand einem System kontrollieren ohne auch nur grundlegende Ahnung zu haben, was das System ist oder wie es funktioniert. Dieser Schluss deckt sich auch mit dem Prinzip "Je weniger Ahnung, desto größer die Angst".
Das alles sollte von unabhängigen externen Experten streng geprüft und überwacht werden.
Diese Protokolle sollten gewährleisten, dass Systeme, die sich an sie halten, zweifelsfrei sicher sind [4].
Selbst Altbekanntes ist niemals zweifelsfrei sicher. Sicherheit ist in der Praxis immer relativ, nie absolut und daher nie zweifelsfrei.
Dies bedeutet keine generelle Pause in der KI-Entwicklung, sondern lediglich eine Abkehr von dem gefährlichen Wettlauf zu immer größeren, unberechenbaren Black-Box-Modellen mit emergenten Fähigkeiten.
Fein, und wenn du die Hälfte tatsächlich zur Abkehr bewegen kannst, was hast du dann gewonnen ?
Du überlässt der anderen (sorgloseren, rücksichtsloseren, skrupelloseren, ....) Hälfte das Rennen, was dann wem genau dient ?
Die KI-Forschung und -Entwicklung sollte sich darauf konzentrieren, die heutigen leistungsfähigen, hochmodernen Systeme genauer, sicherer, interpretierbarer, transparenter, robuster, abgestimmter, vertrauenswürdiger und loyaler zu machen.
Forschung und Entwicklung basiert auf dem menschlichen Trieb der Neugier. Diese Neugier motiviert dazu Risiken einzugehen, Neues und erfinden, entwickeln und auszuprobieren. Dass Bekanntes durch Forschung und Entwicklung leistungsfähiger, genauer, sicherer, interpretierbarer, transparenter, robuster, abgestimmter, vertrauenswürdiger und loyaler wird ist ein nützliches Nebenprodukt von Forschung und Entwicklung - aber nicht ihr primärer Treiber.
Denn: auch jene Verbeserungen von Bekannten werden durch Neuheiten erlangt. Beispielsweise, das bekannte Auto wurde durch etwas Neues, dem Sicherheitsgurt, sicherer. Aber auch hier gab es Zweifler, die Angst vor dem Neuen hatten. Der Gurt könnte einschnüren, würgen, sich nicht öffnen lassen, etc...
Also: deine Forderung, was KI-Forschung und -entwicklung deiner Meinung nach tun sollte zeigt, dass du nicht wirklich mit Forschung und Entwicklung vertraut bist.
Parallel dazu müssen die KI-Entwickler mit den politischen Entscheidungsträgern zusammenarbeiten, um die Entwicklung robuster sog. KI-Governance-Systeme drastisch zu beschleunigen.
Diese sollten mindestens Folgendes umfassen:
- neue und fähige Regulierungsbehörden, die sich speziell mit KI befassen;
- die Überwachung und Verfolgung hochleistungsfähiger KI-Systeme und großer Pools von Rechenkapazitäten;
- Herkunfts- und Wasserzeichensysteme, die dabei helfen, echte von synthetischen Daten zu unterscheiden und Modelllecks zu verfolgen;
- ein robustes Prüfungs- und Zertifizierungssystem;
- Haftung für durch KI verursachte Schäden;
- solide öffentliche Finanzierung für technische KI-Sicherheitsforschung;
- gut ausgestattete Institutionen zur Bewältigung der dramatischen wirtschaftlichen und politischen Störungen (insbesondere der Demokratie), die KI verursachen wird.
Politische Entscheidungsträger können Entwicklungen in jene Richtungen vorantreiben, ja.
Andere, nutzengetriebene Entwicklungen abzuwürgen, wird jedoch eher weniger gelingen.
So kann eine Staatführung Forschungsprojekte finanzieren, die auf die Abwehr von Hackerangriffen
auf staatssicherheitsrelevante Daten erschweren sollen. Hackerangriffe und Entwicklung von Malware
wird sie damit aber nicht verhindern.
Die Menschheit kann mit KI eine blühende Zukunft erleben.
Natürlich, und deswegen wird sie auch weltweit erforscht und entwickelt.
Nachdem es uns gelungen ist, leistungsfähige KI-Systeme zu schaffen, können wir nun einen "KI-Sommer" genießen, in dem wir die Früchte ernten, diese Systeme zum eindeutigen Nutzen aller entwickeln und der Gesellschaft eine Chance zur Anpassung geben.
KI ist ein Werkzeug, und mit dem Nutzen wird es so sein wie mit allen Werkzeugen. Manchen nutzen sie mehr, manchen weniger, manche haben durch sie sogar Nachteile, es geschehen Unfälle und manche missbrauchen sie bewusst. Sie intensität der weltweiten Nutzung hängt von der Relation von Nutzen und Kosten ab.
Bei anderen Technologien mit potenziell katastrophalen Auswirkungen auf die Gesellschaft hat die Gesellschaft eine Pause eingelegt, [5] und das können wir auch hier tun.
Nun, oft steht einer Technologie mit potenziell katastrophalen Auswirkungen auch potenziell katastrophale Auswirkungen bei Nichtanwendung gegenüber. Beispielsweise Chirurgie, der vor einigen Jahrhunderten noch Gotteslästerlichkeit unterstellt wurde, die ja potenziell katastrophale Auswirkungen haben kann (Apokalypse, Sintflut, etc...) hätte ein Verbot ihrer in der heutigen Zeit wohl auch potenziell katastrophale Auswirkungen. Weiters, Kernkraft - nimmt man diese als Beispiel für die Pause (momentaner Trend, von Kernkraft abzugehen) auf Grund der Probleme und Gefahren, der mag einmal darüber nachdenken, wenn die Kernkraft nie genutzt worden wäre und der benötigte Energiebedarf in den letzten Jahrzehnten durch die einzigen Alternativen Gas/Öl/Kohle abgedeckt worden wären. Der heute so intensiv beklagte Klimawandel wäre noch deutlich ausgeprägter und die Welt vor ein weit größeres Problem stellen, als die Schäden, die jemals durch Kernkraft angerichtet wurden, das getan haben.
Genießen wir einen langen KI-Sommer und stürzen wir uns nicht unvorbereitet in den Herbst.
Menschheit, verharre beim aktuellen status quo und entwickle dich nicht weiter. Oder wenigstens nur ganz langsam, sodass wir uns nicht so fürchten.
Dass du dich immer schon in deiner Geschwindigkeit entwickelt hast und gar nicht anders kannst, lassen wir außer Acht.
p.s.: Ich spreche dich bezüglich der Inhalte persönlich an, da du offensichtlich mit ihnen übereinstimmt und hier für die Autoren sprechen und für deren Anliegen werben willst. Falls dem nicht so wäre, bitte um entsprechende Distanzierung.