• Willkommen im denk-Forum für Politik, Philosophie und Kunst!
    Hier findest Du alles zum aktuellen Politikgeschehen, Diskussionen über philosophische Fragen und Kunst
    Registriere Dich kostenlos, dann kannst du eigene Themen verfassen und siehst wesentlich weniger Werbung

Bildschärfung

Welches der beiden Bilder sieht schärfer aus?

  • Bild A sieht schärfer aus

    Stimmen: 2 100,0%
  • Bild B sieht schärfer aus

    Stimmen: 0 0,0%

  • Umfrageteilnehmer
    2
Ich finde schon, dass eines der beiden Bilder etwas schärfer aussieht, wenn man es sich in Originalgröße anschaut.

Hier mal noch ein paar Beispiele ohne Verblindung: Den Schmetterling in Originalgröße angucken - da finde ich den Unterschied bzw. Verbesserung deutlich. Bei den Libellen auf die Maserung der Flügel achten:

IMGP7708c_Falter_Deconv.webpIMGP7454c_Llibelle_Deconv.webpIMGP7450c_Llibelle_Deconv.webpIMGP7419c_Llibelle_Deconv.webp
 
Werbung:
Ich finde schon, dass eines der beiden Bilder etwas schärfer aussieht, wenn man es sich in Originalgröße anschaut.

Es lässt sich eine gewisse Schärfung erkennen, dennoch landet man in der Bildbearbeitung mit dem Ziel, die Qualität eines Bildes verbessern zu wollen, am Ende immer bei dem sog. TITO-Prinzip: Trash In, Trash Out.

Die Information ist in einer Datei nicht oder nicht in dem gewünschten Maße vorhanden, also lässt sie sich auch nicht herbeizaubern. Sicher, es kann durch Algorithmen, welcher Natur auch immer, eine gewisse Verbesserung erzielt werden, aber der Qualitätsgewinn bleibt klein. Verstärkt man die Parameter, dann kommt es zu einer Überzeichnung des Bildes: Es entstehen Artefakte, Farbübergänge gehen verloren und man nähert sich mehr "gezeichneten" Varianten des Originals.

Aus verschiedenen theoretischen Überlegungen heraus sollte eine Bildbearbeitung digital entstandener Bilddateien idealerweise auf den folgenden Grundlagen beruhen:

1. Als Grundlage der Bildbearbeitung sollte ein Rohdatenformat, "RAW" der Kamera dienen, den jegliches "JPEG" (strenggenommen ein JFIF) stellt bereits eine Reduzierung der ursprünglichen Kameradaten dar. Das Problem dieser Rohdatenformate ist allerdings, dass es sehr viele von ihnen gibt, die außerdem propietäre Formate der Kamerahersteller sind.
Der erste Schritt für die weitere Verarbeitung stellt daher die Umwandlung des propietären Rohdatenformats in Adobes DNG-Format dar, welches von Adobe durch einen kostenlosen Konverter unterstützt wird. Das DNG-Format, selbst ein vereinheitlichtes Rohdatenformat, ist dann die eigentliche Grundlage der nächsten Schritte, zumal es ausreichend veröffentlicht und dokumentiert ist.

2. Der Algorithmus zur Schärfung wird nun an dem DNG-Format angewandt, welches noch die originalen, nichtinterpolierten Sensordaten der Kamera enthält, und mit 10, 12, 14 oder 16 Bit per Pixel eine erheblich bessere Helligkeitsauflösung darstellen.

3. Je nachdem, was man schließlich mit dem Bild am Ende machen will, stellt sich die Frage des Zielformates der Datei. JFIFs ("JPEG") sind weit verbreitet, aber nicht unbedingt das Dateiformat der ersten Wahl.
JFIFs sind (sehr) klein, aber sie können dies nur durch eine verlustbehaftete Komprimierung sein. Je nach Kompressionsgrad kann dies zu einem Verlust der Farbtiefe führen. Das JPEG-Komprimierungsverfahren wurde ursprünglich für fotografien entwickelt, es kann aber auch weniger gur geeignete Bildinhalte für dieses Verfahren geben. Große, einheitlich farbige Flächen können zur bildung von Artefakten führen: "Wolken" mit einem einheitlichen Farbton, daneben andere Wolken mit leicht abweichendem Farbton.
Außerdem verwendet das JFIF-Format den Farbmodus YCbCr, der selbst eher suboptimal ist.

Muss es ein JFIF sein, dann muss es eben sein. Muss es nicht sein, dann ist man mit einem unkomprimierten TIFF i.d.R. besser bedient. Es ist (viel) größer, kommt aber ohne (verlustbehaftete) Komprimierung aus. Natürlich verlangsamen sich Übertragungsgeschwindigkeiten, weswegen sich das JFIF vor allem im Internet durchgesetzt hat. Bei ggf. weiteren Bildbearbeitungen lässt sich ein TIFF aber oft sogar schneller verarbeiten, weil durch das Bilbearbeitungsprogramm intern keine Komprimierungen mehr aufgelöst werden müssen.

4. Zur Umwandlung des DNG-Formats in das Zielformat muss eine Interpolation der Bilddaten in einen 8-Bit-Farbmodus erfolgen, denn die Zielformate beherrschen nur diese. Dies stellt grundsätzlich eine Reduktion des ursprünglichen Farbraumes dar.
Zu beachten ist auch, dass die i.d.R. vollmundig verbreitete Aussage diverser Hersteller 256 x 256 x 256 = ca. 16 Millionen Farben eine Milchmädchenrechnung ist. Denn mehr als 90% der Dreierkombinationen RGB sind untereinander farbidentisch und stellen nur Wiederholungen von anderen Tripeln dar.
Der reale Farbumfang des RGB-Farbraums beträgt rund 1 - 1.5 Mio. Farben - mehr geht nicht.

5. Die Farbumwandlung sollte unter Berücksichtigung und Einbindung des Farbmanagement-Profils der Kamera erfolgen (ICC-Profil). Nachfolgende Systeme können dann das ICC-Profil zur Optimierung der Darstellung nutzen ... sofern sie denn Farbmanagement auch korrekt beherrschen.

Die Methodik - in meinen Augen eine Methodik, die bezugnehmend auf die Qualität des Zielbildes die besten Resultate erzeilen kann - hat aber auch eine Reihe von Nachteilen:

a) Der Ansatz ist zunächst erklärungsbedürftig, dies wollen aber viele User nicht. Auch und gerade in der digitalen Welt nicht.
Die Methodik bedingt als ersten Schritt die Umwandlung der Kamera-Rohdaten in das DNG-Format. Dafür gibt es von Adobe zwar einen kostenlosen, funktionstüchtigen und einfach zu bedienenden Konverter, aber den muss der User sich eben auch downloaden und verwenden.
Erfahrungsgemäß schliesst man durch eine solche Vorgehensweise viele potentielle User aus.
Diese User sind denkfaul und wollen sich nicht mit neuen Herangehensweisen auseinandersetzen. Gewünscht ist eine Plug & Play - Lösung für JFIFs, die am Besten nur einen einzigen Button besitzt, der "OK" heisst.

b) Die Rohdaten sind größer und enthalten mehr Information. Dies verlangsamt nachfolgende Berechnungen, viele User wollen aber nicht auf sich langsam vergrößernde Balken warten.

c) Das Handling: Nur wenige Bildbearbeitungsprogramme können das DNG-Format öffnen und überhaupt nur anzeigen. Der User muss aber entscheiden können, welches Bild er zu schärfen hat und welches nicht. In der Praxis kann es darauf hinauslaufen, mit zwei Dateiformaten arbeiten zu müssen, ein Kamera-JFIF zur Anzeige und das entsprechende Rohdatenformat für die weitere Berechnung. Das macht das Handling kompliziert und vor allem auch fehleranfällig (Verwechselungen o.ä.).

Am Apple Macintosh ließe sich das umgehen (für die Profis der Grafik ohnehin die Umgebung der Wahl):
- Ein eigener Editor, der das Rohdatenformat der Kamera herunterlädt.
- Ein Apple Script, welches den DNG-Konverter (der natürlich vorhanden sein muss) aufruft und die Konvertierung durchführt (machbar).
- Die Umwandlung des DNG-Formates durch die eigene Software in ein Anzeigeformat, welches am Monitor angezeigt wird, und die Entscheidung des Users ermöglicht.
- Im Anschluss die weiteren Bearbeitungen ...

Wie sich dies an einem Windows-PC umsetzen lässt, das kann ich nicht sagen, dazu kenne ich das System letztlich zu wenig. Den DNG-Konverter wird es sicher auch für Windows geben, aber ich sehe da keine geeignete Script-Unterstützung.
 
Es lässt sich eine gewisse Schärfung erkennen, dennoch landet man in der Bildbearbeitung mit dem Ziel, die Qualität eines Bildes verbessern zu wollen, am Ende immer bei dem sog. TITO-Prinzip: Trash In, Trash Out.
(...)

Durchaus richtig, was Du da alles schreibst, aber es geht etwas an meiner Zielrichtung vorbei.

Es gibt sehr viele Algorithmen und Heuristiken auf dem Markt, um Bilder ggf. nachzuschärfen; egal ob aus dem RAW-Daten oder einem fertigen Bild. Diese Methoden sind mathematisch manchmal ziemlich spannend. Ich habe da jetzt einen weiteren mathematischen Algorithmus implementiert, anhand eines mathematischen Ansatzes, den ich bislang noch nicht bei den mir bekannten Algorithmen gesehen habe. Kann sein, dass andere auch schon auf die gleiche mathematische Idee kamen wie ich... bekannt ist es mir aber nicht.

Primär ging es mir also darum diese mathematische Idee auszuprobieren - auch in einer Art Programmier-Fingerübung.

Von den Ergebnissen, auch wenn sie keine Wunder sind, bin ich durchaus so überzeugt, dass ich mir vorstellen könnte, dass Firmen, diemit Bildbearbeitung hantieren, an diesem Algorithmus interessiert sein könnten. Das probiere ich aktuell aus.

Ich weiß durchaus die ganzen Arbeitsschritte, die Hobby-Fotografen (wie ich) und Profis am Rechner wie und mit welchen Programmen durchführen. Und ich versuche zu irruieren, ob meine Arbeit ein kleines weiteres Puzzelstück in der Sammlung der mathematischen Algorithmen sein kann, die es in den Programmen schon implementiert gibt.
 

Nun, so ist das mit dem Nachschärfen von Bildern, wenn die Parameter bereits zu hoch eingestellt sind:

Das rechte Bild - das geschärfte Bild - ist überzeichnet, es bildet Artefakte ab, die im (unscharfen) Ursprungsbild nicht vorhanden sind: Es wird pixelig, auch in z.B. den ansicht relativ einheitlich grauen Flächen, z.B. im Flügel rechts oben.

Das kann man im Grunde keinem konventionellen Algorithmus zur Bildschärfung vorwerfen, es ist schlicht die Grenze dessen erreicht (und bereits überschritten), was so ein Algorithmus leisten kann. Die fehlende Information ist nicht vorhanden, und um diese zu erhalten bedürfte es mehr Information zum Inhalt des Bildes.

So gesehen ist der neuere Ansatz, für weitere Verbesserungen einer Lösung des Problems, KI hinzuzuziehen, ein an sich konsequenter und folgerichtiger nächster Schritt. Eine KI, die andere Bilder dieses Vogels hinzuzieht, um die unscharfe Information um jene zu ergänzen, die man in dem Bild eigentlich zu erwarten hätte.
 
Werbung:
So gesehen ist der neuere Ansatz, für weitere Verbesserungen einer Lösung des Problems, KI hinzuzuziehen, ein an sich konsequenter und folgerichtiger nächster Schritt. Eine KI, die andere Bilder dieses Vogels hinzuzieht, um die unscharfe Information um jene zu ergänzen, die man in dem Bild eigentlich zu erwarten hätte.
Upscayl verwendet bereits KI, aber es fehlt noch eine Option um Vergleichsbilder zu importieren.
Also bspw., wie der Vogel ursprünglich überhaupt aussieht.
Geheimdienste, Detektive etc. werden solche Tools wahrscheinlich schon lange einsetzen.

BTW: Aus einem kurzen Text mittels KI einen Vogel zu kreieren, ist für Laien ja bereits möglich ...


ai-bird-man.webp
 
Zurück
Oben