....."Schwache KI" wäre ein "Schachcomputer" (Deep Blue)! Der "kann zwar Schach", aber nicht "nebenher" eine "Einkaufsliste" erstellen!.....
....."Starke KI" wäre ein "Schachcomputer" der weiß, dass er ein "Schachcomputer" ist!.....
Das ist ein interessanter Punkt, wobei das sicher auch implizieren soll, was er alles nicht ist (wie halt z.B. Zirkusdirektor), und was es sonst auf der Welt noch so alles (na ja, möglichst viel) gibt.
Aber warum soll die KI allerdings ausbrechen aus ihrer Welt? Zumindest hat der Mensch das auch Jahrtausende auch nicht gewollt bzw. will es i.a. eigentlich immer noch nicht ernsthaft, also z.B. Fliegen wie ein Vogel (dann lieber das Flugzeug o.ä. entwickelt haben - die technische Möglichkeit des Fliegens ja, auch nicht identisch mit einem Flugtier), Wachsen wie ein Baum etc. ...außer es ist gerade schlecht darauf, ist irgendwie krankhaft veranlagt o.ä.
Eine KI hat auf jeden Fall ihre Grundprogrammierung a la "Ich werde dem Menschen dienen" und kann diese nicht so einfach überwinden. Notfalls erfinden wie halt die KI-Psychiatrie oder -Polizei
plotin schrieb:
.....Ja, es wird wohl "so sein", dass in Zukunft "KI" immer häufiger "Entscheidungen im Graufeld" zwischen strenger "Computerlogik" und menschenähnlichen "Emotionen" treffen wird müssen.
Ist es bei Menschen nicht sehr ähnlich, dass sie zwischen (vermeintlicher) Logik (z.B. auf Basis von stark verwurzeltem Gelerntem) und eher spontanen, halt emotionellen Entscheidung (wie die Erfüllung eines aktuellen Bedürfnisses) wählen müssen, zumindest wenn sich beides widerspricht?
Je nach Situation führt mal "das eine, mal das andere" zu einer angemessenen Reaktion.
"Angemessen" für wen bzw. in welcher Hinsicht?
Als menschlicher Diener sollte eine KI i.a. vernünftig für den Menschen agieren, aber man mag sie gerne auch mal auf (spontanen) Smalltalk-Modus stellen, wenn man es denn riskieren möchte
Nur "Maschinen" (auch KI) kommen eben bloß in "Umgebungen" zurecht, die sie "gewohnt" sind.
Kommt der Mensch denn einfach auf'm Mars zurecht? Oder tief unten im Meer?
Natürlich ist "Gewohnheit" ein wichtiger Aspekt, allerdings sollte eben auch abstrakt verallgemeinert und sich so angepasst werden können, eben auch die KI...
Deshalb sind solche "Systeme" stets nur in ihrer "Spezialdisziplin" gut und in den "Zusammenhängen", in denen sie "trainiert" wurden. Es ist das "altbekannte Muster" des maschinellen Lernens.....
...um eben nicht nur eine "Spezialdisziplin" zu haben wie schwache KI.
Eine grundlegende Basisprogrammierung wie "dem Menschen dienen" sollte die Grundlage für eine starke KI sein, worauf sie aufbauend dann sehr viel zu lernen hat und das eben auch in abstrakteren Ebenen wie Strategien zu "Zielerreichungen" (zum richtigen Dienen) u.a.
ichbinderichwar schrieb:
burkart schrieb:
Und was ist künstliche Intelligenz dann für dich? Wie wäre es mit:
"Unter künstliche Intelligenz erlaube ich mir die Fähigkeit zu verstehen, teilweise grundlegend programmiert und teilweise erlernt, auf neuartige Situationen angemessen zu reagieren."
Ohne Worte,müsstest du mich deuten,denk ich,.....
Nicht wirklich.
Was will die Kunst von der Intelligenz?
Wieso Kunst? Ok, gefällt die "artifizielle Intelligenz" besser als "künstliche"?
Erlernte Programme vielleicht?
Und wenn,...für was?
Ich bin für eine nicht-egoistische Intelligenz neben der z.T. sehr selbstsüchtigen des Menschen. Eine KI hat keine lebenswichtigen Bedürfnisse wie ein Mensch und kann deshalb sachlicher sein.
dasinci [#217] hat es gut formuliert:
"Ich mag den Gedanken, dass vielleicht in naher Zukunft solche Möglichkeiten nicht mehr nur Regierungsorganen, sondern auch Endverbrauchern dienen könnten."
Bernies Sage schrieb:
Zwischenfrage: Könnten negative Zusammenhänge eher natürlich intelligent (=hohl und widerstandslos) erscheinen und positive Zusammenhänge " wo möglich" weit eher den Eindruck einer künstlichen Intelligenz (=im widerstandsbehaftetem Prall ) erwecken?
Das kann gut sein, zumindest wenn negativ/natürlich mit spontan egoistisch zusammenhängt (a la Trump(eltier)), während Vernunft meist mehr wohlüberlegt ist und so der KI näher kommen sollte.
Die Stärkung der konventionellen natürlichen Intelligenz (seit Jahrtausenden bewährt) nützt der menschlichen Gesundheit "in der Regel" weit mehr als künstliche Intelligenz...
Da bin ich mir aber gar nicht sicher, wenn man z.B. in die Politik mit dem Trumpel(tier) schaut u.ä.
dasinci hat es gut gesagt:
"Ich würde es wagen, deiner Annahme zu widersprechen, dass natürliche Intelligenz der menschlichen Gesundheit mehr nützt als künstliche. Die künstliche Intelligenz ist bestimmt weniger anfällig für charakterliche Verderbtheit, Unmoral, Skrupellosigkeit, ausbeuterische Absichten, Intoleranz, Vorverurteilung, etc. Wahrscheinlich gäbe es wesentlich weniger Ungerechtigkeit, wenn behördliche Sachbearbeiter und Bürgerberater durch künstliche Intelligenz ersetzt werden würden."
...wobei ich "behördliche Sachbearbeiter" u.ä. noch auf ganz andere Menschenkreise erweitern würde.
Und um dasinci gegenüber Bernie Sage in #226 weiter beizustehen:
Perfektionismus mag bei lebendigen Menschen ja ein Problem sein. Aber erwarten wir nicht, dass eine Maschine wie eine starke KI möglichst gut funktioniert? Möchtest du nicht, dass z.B. ein Navi als Diener nicht möglichst gut den Weg weist und dich nicht z.B. in einen Fluss hineinmanövriert?
Die KI muss natürlich viel lernen, halt wie wir Menschen auch, wenn wir gut werden wollen.
...durch Kommerzialisierung von gentechnisch veränderter Massenware.
Wo ist für dich der Zusammenhang zwischen KI und "gentechnisch"?