16 Bit Farbtiefe - kann man das überhaupt nutzen?

Hier diskutieren die Anwender von PhotoLine untereinander
Antworten
Torsten
Mitglied
Beiträge: 551
Registriert: Mo 28 Nov 2011 09:27

16 Bit Farbtiefe - kann man das überhaupt nutzen?

Beitrag von Torsten »

Wie erkennt man die Vorteile von Farbearbeitung in 16Bit Tiff wenn der Grafikkarten-Treiber nur 8Bit kann und der Monitor damit betrieben wird, so weit ich weiß gibt es im hochprofessionellen Bereich gerade mal Treiber und Grakas die 10Bit können.

Viele Grüße Torsten
Martin Huber
Entwickler
Entwickler
Beiträge: 4159
Registriert: Di 19 Nov 2002 15:49

Re: 16 Bit Farbtiefe - kann man das überhaupt nutzen?

Beitrag von Martin Huber »

Torsten hat geschrieben:Wie erkennt man die Vorteile von Farbearbeitung in 16Bit Tiff wenn der Grafikkarten-Treiber nur 8Bit kann und der Monitor damit betrieben wird, so weit ich weiß gibt es im hochprofessionellen Bereich gerade mal Treiber und Grakas die 10Bit können.
Zum einen hat 16 Bit Vorteile, wenn du einen großen Farbraum verwendest. ProPhoto RGB oder Lab sind praktisch nur mit 16 Bit sinnvoll.

Zum anderen hast du mit 16 Bit Vorteile, wenn du ein Bild bearbeiten musst. Wenn du z.B. die dunklen Bereiche stark aufhellen willst, bekommst du mit 8 Bit recht schnell Farbabrisse. Bei einem (echten) 16-Bit-Ausgangsbild hast du das Problem kaum.

Martin
Torsten
Mitglied
Beiträge: 551
Registriert: Mo 28 Nov 2011 09:27

Re: 16 Bit Farbtiefe - kann man das überhaupt nutzen?

Beitrag von Torsten »

Vielen dank für die Erläuterung :)

Aber prinzipiell ist es schon richtig, dass man solche Bilder gar nicht sehen kann, also man kann die 16Bit Farbtiefe nicht sehen, weil sie gar nicht an den Monitor übermittelt werden kann?

Es grüßt Torsten
Benutzeravatar
Hoogo
Betatester
Beiträge: 4021
Registriert: So 03 Jul 2005 13:35
Wohnort: Mülheim/Ruhr

Re: 16 Bit Farbtiefe - kann man das überhaupt nutzen?

Beitrag von Hoogo »

Jein ;)
Mir fallen 2 Dinge ein, die noch zwischen dem "fertigen" Bild und den 8 Bit für den Monitor passieren können:
1) Farbraumkonvertierung
2) Dithern

Zunächst was technisches zu den 16Bit-Reserven
Stell Dir einen Grauverlauf vor, 256 Graustufen, den Du mit einer Histogramm-Korrektur dunkel machst, Beispielbild anbei.

Bei 8 Bit landen dabei mehrere Graustufen des Ursprungsbildes auf einer Graustufe des Ausgangsbildes. Kein folgender Arbeitsschritt kann die unterscheiden oder sogar wiederherstellen. Das gilt nicht nur für die Histogrammkorrektur, sehr viele Filter und Arbeitsschritte haben bei 8Bit den Effekt, dass sie bei Rundungen oder aus Prinzip mehrere Werte zu einem zusammenfassen müssen.

Bei 16Bit sieht das ganze wesentlich entspannter aus, das ist quasi, als ob man noch mit 2 Nachkommastellen rechnen würde. Das lässt sich hier wiederherstellen. Es braucht also kein 16Bit-Ausgangsmaterial, z.B: aus Kamera-Raws, um einen Vorteil von 16Bit zu haben.
--------------------
1) Farbraumkonvertierung
Ein einfaches System ohne Farbverwaltung würde Dein Bild direkt zum Monitor schicken. Es hängt dann vom Monitor ab, wie die Farben eigentlich aussehen, Dein Bild ist damit im Monitor-Farbraum.
Mit Farbverwaltung wird das Bild aus dem eigenen Farbraum umgerechnet, und das kann besser laufen, wenn das Bild noch Zwischenstufen in 16Bit hat.

2) Dithern
Wandel mal ein Bild über die Ebenen-Attribute nach "monochrom" um und probier mal "Schwellenwert" im Vergleich zu den anderen aus.
Monochrom hat garantiert nur Schwarz und Weiß, aber das dennoch kann man Zwischenstufen darstellen.
Das Gleiche geht auch mit der Darstellung von 16Bit-Bildern auf Monitoren. Man muss nicht plump mit Schwellenwert auf 8Bit runterrechnen, man kann zur Darstellung auch Dithern.
Das macht nicht jedes Programm, aber PL macht es.
--------------------
So oder so: Sehen tust Du wirklich nur ein 8Bit-Bild, aber das ist nicht unbedingt das Gleiche, wie ein 8Bit-Bild zu laden und anzuzeigen.
Dateianhänge
16Bit-Test.pld
(8.94 KiB) 35-mal heruntergeladen
----------------
Herr Doktor, ich bin mir ganz sicher, ich habe Atom! /Doctor, doctor, I'm sure, I've got atoms!
bkh
Betatester
Beiträge: 3674
Registriert: Do 26 Nov 2009 22:59

Re: 16 Bit Farbtiefe - kann man das überhaupt nutzen?

Beitrag von bkh »

Torsten hat geschrieben:Aber prinzipiell ist es schon richtig, dass man solche Bilder gar nicht sehen kann, also man kann die 16Bit Farbtiefe nicht sehen, weil sie gar nicht an den Monitor übermittelt werden kann?
Hoogo war schneller, ich schick' meine (recht ähnliche) Antwort trotzdem, ist immerhin ein bisschen anders formuliert :mrgreen:

Kommt darauf an. Bei dem Beispiel mit ProPhotoRGB kannst du den Unterschied sehen, bei 8 bit sind die Farbsprünge im ProPhotoRGB-Farbraum größer als die Farbsprünge in deinem Monitorfarbraum, also bekommst du bei 16 bit nach der Umrechnung in den Monitorfarbraum auch auf dem Monitor feinere Abstufungen.

Zumindest in OS X ist es auch so, dass Sprünge in der Monitor-Lookup-Tabelle (CLUT) bei 16 bit in PL durch Dithering ausgeglichen werden – und auch bei der Wiedergabe in OS X werden alle Farbstufen des Monitors genutzt, auch die, die bei 8 bit ausgelassen werden.

Außerdem benutzt je nach Antialiasing-Einstellung PL bei der Umwandlung von 16 bit nach 8 bit Dithering, so dass Farbübergänge auch bei 8 bit-Ausgabe viel gleichmäßiger aussehen. Bei stark entrauschten oder weichgezeichneten Bildern in 8 bit entstehen da gerne Farbabrisse, die du bei der Anzeige des 16 bit-Bildes durch dithering praktisch nicht erkennen kannst.

16 bit ist auch notwendig, wenn du mit Raw (oder einem anderen Farbraum mit linearem Gamma) arbeitest, denn ein linearer Farbraum hat in den Schatten bei 8 bit viel zu wenig Farbabstufungen und einen viel zu geringen Kontrastumfang. (Öffne mal ein Raw-Bild und setze die Hintergrundebene auf 8 bit … – zugegebenermaßen ein bisschen gemein, weil Raw normalerweise nicht die vollen oberen 8 bit nutzt.)

L.G.

Burkhard.
Antworten