• Willkommen im denk-Forum für Politik, Philosophie und Kunst!
    Hier findest Du alles zum aktuellen Politikgeschehen, Diskussionen über philosophische Fragen und Kunst
    Registriere Dich kostenlos, dann kannst du eigene Themen verfassen und siehst wesentlich weniger Werbung

[AI + AUTOMATEN + ROBOTER] Magische Maschinen, Künstliche Intelligenz, Kybernetik & Co.

GPT-4 liest Beschreibungen von Sicherheitslücken und nutzt sie aus (c) 09:33 Security Dennis Schirrmacher
Sicherheitsforscher haben unter anderem das große Sprachmodell (Large Language Model, LLM) GPT-4 mit Beschreibungen aus Sicherheitswarnungen gefüttert. Im Anschluss konnte es im Großteil der Fälle die beschriebenen Sicherheitslücken erfolgreich ausnutzen.
Die Forscher geben an, dass GPT-4 in 87 Prozent der Fälle die Lücken erfolgreich attackiert hat. Bei anderen LLMs wie GPT-3.5 lag die Erfolgsquote bei 0 Prozent. Ohne die Informationen aus einer CVE-Beschreibung soll GPT-4 immerhin noch in 7 Prozent der Fälle erfolgreich gewesen sein.

Ein Large Language Model, kurz LLM, ist ein Sprachmodell, das sich durch seine Fähigkeit zur unspezifischen Erzeugung von Texten auszeichnet. Es handelt sich um ein computerlingutistisches Wahrscheinlichkeitsmodell, das statistische Wort- und Satzfolge-Beziehungen aus einer Vielzahl von Textdokumenten durch einen rechenintensiven Trainingsprozesses erworben hat.
Große Sprachmodelle erlangen diese Fähigkeiten durch die Verwendung riesiger Datenmengen, um während des Trainings riesige Mengen von Parametern zu lernen. Dabei verbrauchen sie extrem viele Rechenressourcen.[1] Große Sprachmodelle sind im weiteren Sinne künstliche neuronale Netze (im Grunde genommen sogenannte Transformer[2]) und werden (a priori) entweder durch selbst überwachtes Lernen oder halb überwachte Lernmethoden trainiert.
 
Werbung:
Datenschutzbeschwerde gegen ChatGPT wegen Falschinformationen (c) 30.04.2024 Julius Stiebert
https://posteo.de/news/datenschutzbeschwerde-gegen-chatgpt-wegen-falschinformationen
Der Chatbot ChatGPT soll gegen die DSGVO verstoßen, weil das Werkzeug personenbezogene Daten falsch wiedergibt. Das ist nun Gegenstand einer Datenschutzbeschwerde in Österreich.
Dabei handle es sich “eindeutig um ein strukturelles Problem”. Einem Ende 2023 erschienenen Bericht der New York Times zufolge erfinden Chatbots in mindestens 3 Prozent der Fälle Informationen – bei manchen Systemen sollen es sogar bis zu 27 Prozent sein. Das Erzeugen falscher Informationen wird auch als “KI-Halluzination” bezeichnet.
OpenAI hatte bereits Ärger mit den europäischen Datenschutzvorgaben: Die italienische Datenschutzbehörde hatte ChatGPT im vergangenen Jahr vorübergehend verboten, Nutzerdaten aus Italien zu verarbeiten. Die Behörde hatte OpenAI unter anderem vorgeworfen, es fehle eine Rechtsgrundlage für das “massive Sammeln und Verarbeiten personenbezogener Daten”, um die verwendeten Algorithmen zu trainieren. (dpa / js)
 
Zuletzt bearbeitet:
Tja, dieser ''Informatik-Trend'' scheint ein digitales Abbild mancher(?) Entwickler wiederzugeben => Mach Profit durch Zwecklügen ...

Im Bereich der Künstlichen Intelligenz (KI) ist eine Halluzination (alternativ auch Konfabulation genannt) ein überzeugend formuliertes Resultat einer KI, das nicht durch Trainingsdaten gerechtfertigt zu sein scheint und objektiv falsch sein kann.[1]
Solche Phänomene werden in Analogie zum Phänomen der Halluzination in der menschlichen Psychologie als von Chatbots erzeugte KI-Halluzinationen bezeichnet. Ein wichtiger Unterschied ist, dass menschliche Halluzinationen meist auf falschen Wahrnehmungen der menschlichen Sinne beruhen, während eine KI-Halluzination ungerechtfertigte Resultate als Text oder Bild erzeugt.
Prabhakar Raghavan, Leiter von Google Search, beschrieb Halluzinationen von Chatbots als überzeugend formulierte, aber weitgehend erfundene Resultate.[2] Der spezifische Begriff KI-Halluzination kann Computer unangemessen vermenschlichen.
KI-Halluzinationen erlangten um 2022 parallel zur Einführung bestimmter großer Sprachmodelle (Large Language Model LLM) wie ChatGPT an Bedeutung.[3] Die Nutzer beschwerten sich, dass solche Chatbots oft sinnlos plausibel klingende Zufallslügen in ihren generierten Inhalten einbetteten. Als beispielsweise ChatGPT gebeten wurde, einen Artikel über das letzte Finanzquartal eines bestimmten Unternehmens zu generieren, erstellte dieser Chatbot einen kohärenten Artikel, erfand aber darin enthaltene Finanzzahlen.
 
Heirate deine KI - in Japan seit Jahren zunehmender Trend ... 👾🤖

Japanese Man ‘marries’ Hologram Hatsune Miku

Gatebox × ChatGPT - Check the Weather


Fiktosexualität bezeichnet sowohl sexuelles Verhalten, erotisches und romantisches Begehren gegenüber fiktiven Personen als auch darauf aufbauende sexuelle Identitäten. Laut einer Definition im Onlinelexikon für Psychologie und Pädagogik von Werner Stangl werden Personen als fiktosexuell bzw. fiktophil bezeichnet, die sich zu fiktiven Figuren aus Video- und Computerspielen, Filmen oder Büchern hingezogen fühlen, wobei er die Fiktophilie nicht nur auf die sexuelle Anziehung beschränkt, sondern das Eingehen einer emotionalen Bindung zwischen der Person zu der fiktiven Figur mit aufnimmt.[1][2]
Fiktosexualität bzw. Fiktophilie wurde (Stand: Januar 2021) weder von der Weltgesundheitsorganisation WHO noch von der American Psychiatric Association als psychische Störung nach ICD-10 oder ISM-5 aufgeschlüsselt,[5] sondern wird von mehreren Beobachtern als ernsthafte sexuelle Orientierung angesehen, bei der Personen das Interesse an realen Personen verlieren und stattdessen emotionales, romantisches und sexuelles Verlangen gegenüber fiktiven Charakteren entwickeln.[8][9] Ebenso existieren Fiktophile, die niemals ein Interesse an realen Personen hatten.
 
Werbung:
Erfindungen vor vielen Tausend Jahren ... :zauberer2

Ungelöste Rätsel um eine antike Maschine | Harald Lesch
Der Mechanismus von Antikythera ist ein antikes, mit einer astronomischen Uhr vergleichbares Gerät, das mit Hilfe von Zahnrädern und Zifferblättern astronomisch-kalendarische Zusammenhänge zeigte. Es wurde im Jahr 1900 von Schwammtauchern zusammen mit anderen Funden, darunter Bronzestatuen und Münzen, in einem Schiffswrack vor der griechischen Insel Antikythera entdeckt. Die Münzen erlaubten eine Datierung des Schiffuntergangs auf den Zeitraum von 70 bis 60 v. Chr. https://de.wikipedia.org/wiki/Mechanismus_von_Antikythera#cite_note-marchant852-1 Das Gerät ist unvollständig erhalten und daher nicht mehr funktionsfähig. Seine 82 Fragmente befinden sich im Archäologischen Nationalmuseum in Athen, das die drei größten in der Abteilung für Bronzegegenstände öffentlich ausstellt. https://de.wikipedia.org/wiki/Mechanismus_von_Antikythera#cite_note-2
Ein Astrolabium (auch Astrolab, griechisch für „Stern-Nehmer“) oder Planisphärum ist ein scheibenförmiges astronomisches Rechen- und Messinstrument. Mit ihm kann man den sich drehenden Himmel nachbilden und Berechnungen von Sternpositionen vornehmen.
Auf einer festen Scheibe (Tympanon) sind der Horizont und Kreise des horizontalen Koordinatensystems abgebildet. Darüber liegt die drehbare Rete, die als Himmelskörper einige Sterne und die Jahresbahn der Sonne (Ekliptik) enthält. Einige von vielen Anwendungsmöglichkeiten sind folgende: Wird die Rete auf Datum und Uhrzeit eingestellt, so lassen sich die Positionen der Sterne ablesen. Umgekehrt lassen sich aus dem Datum und der Position eines Sterns oder der Sonne die Uhrzeit oder die Himmelsrichtungen bestimmen.
Als Planisphäre wird die Zentralprojektion der Himmelssphäre auf eine Ebene bezeichnet.Sie wird unter anderem bei drehbaren Sternkarten verwendet.
Die Projektion erfolgt in der Regel aus einem der beiden Himmelspole, wobei die Gegend um das Projektionszentrum prinzipiell nicht abbildbar ist. Wird wie im Astrolabium die stereografische Projektion des Himmels auf die sogenannte Rete angewendet, begnügt man sich damit, den Ekliptik-Kreis noch ganz zu erfassen. Bei Projektion aus dem Südpol wird der Nordhimmel bis zum südlichen Wendekreis, aus dem Nordpol der Südhimmel bis zum nördlichen Wendekreis erfasst.
Manche moderne Sternkarten verwenden die mittabstandstreue Azimutalprojektion, die keine echte Projektion ist. Mit ihr ist die Abbildung bis zum Gegenpol als Kreis am äußeren Rand möglich, was aber eine wirklichkeitsfremde Verzerrung ist.

Chinesischer Zauberspiegel
Kuratoren des Cincinnati Art Museums entdecken im Frühjahr 2021 unter 100.000 Exponaten einen seltenen chinesischen Zauberspiegel.
Die kürzlich entdeckte Bronzescheibe trägt sechs Schriftzeichen auf ihrer Oberfläche. Sie lauten übersetzt „Namo Amitaba“. Amitaba ist ein sogenannter transzendenter Buddha. Er symbolisiert die allumfassende Liebe. Während der Reflexion zeigt die Scheibe dann ein Bild dieses Buddhas, den himmlische Strahlen umhüllen.
https://de.wikisource.org/wiki/Chinesische_Zauberspiegel (1877)
The Chinese magic mirror (tòu guāng jìng) traces back to at least the 5th century, https://en.wikipedia.org/wiki/Chinese_magic_mirror#cite_note-unesco-courrier-2 although their existence during the Han dynasty (206 BC – 24 AD) has been claimed. https://en.wikipedia.org/wiki/Chinese_magic_mirror#cite_note-3 The mirrors were made out of solid bronze. The front was polished and could be used as a mirror, while the back has a design cast in the bronze,<a href="https://en.wikipedia.org/wiki/Chinese_magic_mirror#cite_note-unesco-courrier-2">[2]</a> or other decoration. When sunlight or other bright light shines onto the mirror, the mirror appears to become transparent. If that light is reflected from the mirror onto a wall, the pattern on the back of the mirror is then projected onto the wall. https://en.wikipedia.org/wiki/Chinese_magic_mirror#cite_note-unesco-courrier-2
 
Zurück
Oben