HIER GEHT ES DIREKT ZUR NEUEN FOTOTALK COMMUNITY
>> JETZT KOSTENLOS REGISTRIEREN! <<

Tonwert(umfang) vs. Kontrast

Diskussionen und Fragen rund um die digitale kompakt und DSLR Technik.

Moderator: ft-team

Antworten
Benutzeravatar
Diogenes
postet oft
Beiträge: 130
Registriert: Di Jul 22, 2008 4:54 pm

Tonwert(umfang) vs. Kontrast

Beitrag von Diogenes » Do Mär 05, 2009 11:28 am

Tach zusammen,

besonders bezugnehmend auf (Link wurde entfernt) diese Diskussion mit DSP frag ich jetzt mal ganz dumm:

Was ist der Unterschied zwischen Tonwert(umfang) und Kontrast?

Ich dachte bzgl digitaler Photographie bisher so:

Die Daten werden wie die Lichtwerte (LW) des Motivs in 2er Potenzen abgespeichert. Bei 8bit (jpg) hat man dann einen Tonwertumfang von 2^8 (2 hoch 8 = 256) und bei 12bit raw sind dies 2^12 = 4096 Tonwerte. Diese umfassen dann auch 8LW in jpg bzw. 12LW in raw.

Als Bild werden jeweils 0LW schwarz und in jpg/raw 8LW/12LW als weiß dargestellt. Beide Bilder haben also vollen Kontrast.

Dem scheint keineswegs so zu sein... In raw liegen die einzelnen Tonwerte nur enger zusammen als in jpg, um am Ende wieder die 8LW zu reproduzieren...

Ich finde das nicht nur doof, es widerspricht auch meinen Erfahrungen mit der EBV (alles Nikon): Fehlbelichtete Bilder lassen sich in raw problemlos um 2LW in beide Richtungen verschieben. Mehr erlaubt CNX gar nicht.
- Es treten dabei völlig neue Strukturen auf.
- Das Histogramm (256 angezeigte Tonwerte) bleibt vollständig besetzt. Mach ich die Belichtungskorrektur aus jpg (zb mit GIMP, CNX unterstützt das nur aus raw), wird ein Ende abgeschnitten (keine Bildpunkte mit diesen Tonwerten).

Gruß, Wolfgang

Benutzeravatar
Cano
postet sehr sehr oft!
Beiträge: 4940
Registriert: So Feb 19, 2006 10:02 am
Wohnort: RHEINLAND-Pfalz
Kontaktdaten:

Re: Tonwert(umfang) vs. Kontrast

Beitrag von Cano » Do Mär 05, 2009 11:39 am

Diogenes hat geschrieben: Was ist der Unterschied zwischen Tonwert(umfang) und Kontrast?
Möglicherweise hilft der folgende Link bei der Beantwortung dieser Frage :arrow:

(Link wurde entfernt)

Gruß
Cano

Gast

Beitrag von Gast » Do Mär 05, 2009 1:44 pm

Kontrast = Unterschied in der Helligkeit zwischen dunkelster und hellster Stelle.

Tonwert = Grau- oder Farbwert innerhalb eines vorgegebenen Farbspektrums.

Tonwertumfang = Anzahl der möglichen Grau- oder Farbwerte innerhalb eines Vorgegebenen Farbspektrums.

Bei SW (ist einfacher vorzustellen): Anzahl der Graustufen zwischen Schwarz und Weiß.

2 Tonwerte (1bit) => 0=Schwarz oder 1=Weiß
4 Tonwerte (2bit) => 0=Schwarz, 1= Dunkelgrau, 2=Hellgrau und 4=Weiß
16 Tonwerte (4bit) => 0=Schwarz, 1= ganz ganz dunkles Grau, 2= etwas heller als ganz ganz dunkles Grau,...., 14= fast weiß und 15 = Weiß.

Bei 4Bit also achtfach so großer Tonwertumfang, der Kontrast ist aber identisch (dunkelste "Farbe" ist Schwarz, hellste ist Weiß).

Benutzeravatar
Diogenes
postet oft
Beiträge: 130
Registriert: Di Jul 22, 2008 4:54 pm

Beitrag von Diogenes » Do Mär 05, 2009 5:40 pm

Danke, beide Antworten sind Gleich. Tonwert bezieht sich also auf das Bild und nicht auf digitale Datenverarbeitung (Anzahl der Graustufen).

Drum frag ich weiter:
Wie viele Lichtwerte (Blendenstufen) sind zwischen schwarz und weiß???

Bei jpg sind es 8.
Bei raw sind es 12LW??? oder 8???

Noch'n Gruß, Wolfgang

Werner_B.

Beitrag von Werner_B. » Do Mär 05, 2009 8:48 pm

:shock:
Zuletzt geändert von Werner_B. am Mo Aug 13, 2012 10:03 pm, insgesamt 1-mal geändert.

Gast

Beitrag von Gast » Do Mär 05, 2009 8:51 pm

Werner_B. hat geschrieben:Digitale Sensoren in DSLRs liegen meist bei 6-9 Blenden, die Fuji S5 aufgrund dessen, was ich oben geschrieben hatte, deutlich höher.

Gruss, Werner B.
Bereits bei JPEGS schafft sie laut dPreview.com 11,8 Blenden.
Apropos: dPreview hat jede DSLR auf ihren Dynamikumfang getestet - und auf so ziemlich alles andere :wink:


Edit: die Rechtschreibung...
Zuletzt geändert von Gast am Do Mär 05, 2009 9:04 pm, insgesamt 1-mal geändert.

Werner_B.

Beitrag von Werner_B. » Do Mär 05, 2009 8:56 pm

:shock:
Zuletzt geändert von Werner_B. am Mo Aug 13, 2012 10:03 pm, insgesamt 1-mal geändert.

Gast

Beitrag von Gast » Do Mär 05, 2009 9:47 pm

In der Realität oder "auf dem Sensor"?

In der Realität kann der Kontrast sehr hoch sein (Dunkles Universum kontra Sonne aus ein paar Kilometern Entfernung)

Der Sensor schafft es, in einem engen Bereich (sehr eng) Lichtunterschiede fast linear "abbilden" oder unterscheiden zu können.

Je nach Kamera und gewählter ISO liegt der maximal durch den Sensor darstellbare Kontrast (außer "Exoten") bei um die acht bis neun Blenden.


Vielleicht (etwas) OT:

Die Lichtmenge, die (gerade so) ausreicht um einen Hauch von Strom (ich nenn es mal so, sind in Wirklichkeit erstmal Ladungen) zu erzeugen ist für den Sensor nicht mehr schwarz. Alles darunter ist für ihn Schwarz.

Die Lichtmenge (und alles was über dieser Menge liegt) die den Sensor auf und über seine maximale Stromstärke (in echt Ladungsdichte oder Kapazitätsgrenze, ich nenne es aber jetzt einfach mal so) bringt ist Weiß.

Mit der Realität muss das was der Sensor sieht (an Helligkeiten) nicht übereinstimmen.

Die minimale "Gerade nicht mehr Schwarz" Stromstärke ist hauptsächlich durch Eigenschaften des Siliziums (und des Sensoraufbaus) festgelegt.

Genauso ist es bei der "Ab jetzt ist alles Weiß" Lichtmenge.

Der Unterschied "Jetzt alles Weiß" durch "ab Jetzt nicht mehr Schwarz" ist der Kontrast.

Bits und Bytes waren da noch gar nicht, da der Digitalsensor - man achte auf die Ironie - Analog arbeitet.

Das war also der Sensor. Er ist belichtet, der Verschluss ist zu - es kommt kein Licht mehr auf das Teil.

Jetzt wird das Bild verarbeitet.

Dazu wird Pixel für Pixel (einer nach dem anderen) die Ladung in einem Schaltkreis je nach ISO-Einstellung verstärkt und das verstärkte Signal an einen Analog nach Digital-Wandler geschickt. Dieser Ordnet die einzelnen verstärkten analogen Spannungen einer digitalen Zahl zu.

Dieser AD-Wandler arbeitet auf der analogen Seite vielleicht (ich rate mal) mit 0V bis 5V und ordnet diese Spannungen (Bei vielen Kameras) mit einer Auflösung von 12bit einem digitalwert zu. 0V = 0x000000000000 (Dezimal 0) und 5V = 0x111111111111 (Dezimal 4095) die Aufteilung der Werte dazwischen wird linear (Gleichmässig) verteilt vorgenommen 2,5V sind also 0x0111111111111 (Dezimal 2047).

Über die Bitbreite des AD-Wandlers wird also festgelegt in wie kleine Kuchenstücke die verschiedenen Spannungen zerlegt werden.

Ein AD-Wandler mit 4Bit Breite würde 0V al 0x0000 (0) und 5V als 0x1111 (16) darstellen, der Sensorkontrast würde also voll ausgenutzt werden, aber während der 4Bit Wandler alles zwischen 0V und 0,3124 Volt als 0x0000 (0) darstellen würde und erst ab 0,3125V (=5V geteilt durch 16 mögliche Digitalwerte) den Wert 0x0001 (1) schreibt wird beim Digitalisieren mit einem 12bit AD-Wandler die Spannungen zwischen 0V und 0,00121V als 0x000000000000 (0) und ab 0,00122V wird dann 0x000000000001 (1) geschrieben.

Diese Werte werden für das gesamte Bild in den Puffer geschrieben (+ EXIFs und weitere Daten).

- Immer noch kein Unterschied zwischen RAW und JPG.

Wird nun ein RAW gespeichert wird der Puffer quasi so wie er ist auf die Speicherkarte geschrieben.

Ich lasse mal die Verrechnung bei Bayer und sonstwelchen Farbfiltern unbeachtet und mache Farbenblind weiter:

Wird ein 16Bit TIF geschrieben, so wird die Bitanzahl auf 16 erhöht indem man einfach hinten vier Bits dranhängt (entspricht einer Multiplikation mit 16) aus 0x111111111111 wird einfach 0x1111111111110000 und das wird dann im TIF-Format gespeichert.

Wird ein JPG gespeichert, so werden einfach die letzten vier Bit abgeschnitten (entspricht einer Division durch 16 ohne Rest) aus

0x000000000000 (0) wird 0x00000000
aber auch aus
0x000000001111 (15) wird 0x00000000

aus

0x111111111111 (4095) wird 0x11111111 (255)
aber auch aus
0x111111110000 (4080) wird 0x11111111 (255)

Das wird dann an den JPG - verwurster geschickt der die Pixel komprimiert.

So und jetzt öffnen wir das JPG am Monitor.

Ein Monitor hat 8bit. und 0x00000000 ist die dunkelste per Kontrast und Helligkeitsregler am Monitor eingestellte und Darstellbare Helligkeit. 0x11111111 ist die hellste am Monitor per Kontrast, Helligkeit eingestellte und darstellbare Helligkeit.

Das Bild wird also 1:1 ausgegeben an die Grafikkarte und da an den Monitor geschickt der es darstellt.

Wird ein RAW geöffnet bekommt das Bild-Anseh-Programm ein Problem: Der Monitor kann keine 12Bit!.

Also wird das Bild als 12bit im Speicher gehalten, aber an die Grafikkarte werden nur die ersten 8bit jedes Pixels geschickt (also wie bei JPG in der Kamera durch 16 dividiert). Intern bei Bearbeitungen wird aber weiterhin mit 12bit (eigentlich 16) gearbeitet.

Will ich den Helligkeiten lokal "ausdehnen", also z.B. nur im Hellen noch Details rausholen gibt es ein Problem:

Zwischen 254 und 255 ist bei JPG nichts mehr.

Aber: Bei 12Bit ist da noch was, da ja intern mit 12 Bit gerechnet wird und mit den dargestellten Helligkeiten 254 und 255 in Wirklichkeit die Helligkeiten zwischen 4064 und 4095 gemeint sind. Bei diesen können bei der Bearbeitung noch unterschiedliche Helligkeiten rauskommen.

[Nachtrag - soviel auf einmal geht nicht]

Soweit zur Theorie.

In der Praxis wissen die Kamerahersteller (oder denken es sich) das der 08/15 Fotografierer seinen Monitor nicht 100%ig kalibriert hat (meistens sind Monitore zu hell oder dunkel und fast immer mit zu hohen Kontrasten [besser zum lesen von Texten und die Farben knallen besser] eingestellt).

Daher wird beim Speichern als JPG unten und oben beschnitten,
Die theoretischen 255 Abstufungen des JPGs werden nicht ausgenutzt sondern zum Teil nur 248 bis 252. Weiter wird JPG nicht im RB Farbraum gespeichert sondern ins YCbCr-Farbmodell umgerechnet (inklusive Rundungsfehler). Bei der Komprimierung geht dann noch mehr verloren (Je nach Stärke der Komprimierung).

Dies alles führt dann in der traurigen Realität dazu, das ein schlechter JPG-Algorithmus (mit zu starker Komprimierung) dazu führt, das die Canon 5D (Alter Prozessor, der konnte es halt nicht besser) bei einem Vergleichstest in der foMa bzgl. Blendenkontraste und so weiter ggü. einer 400D komplett verloren hat.

Würden die bei der foMa mal in RAW fotografieren und testen wäre eventuell was anderes rausgekommen (Da die ja eigentlich nur den JPG-Algorithmus testen und nicht was die Kamera unter besten Bedingungen zu leisten in der Lage ist)

Benutzeravatar
fibbo
postet sehr sehr oft!
Beiträge: 6878
Registriert: Sa Jan 21, 2006 11:36 pm
Wohnort: Tirol
Kontaktdaten:

Beitrag von fibbo » Do Mär 05, 2009 10:18 pm

Hosentaschenagent hat geschrieben:..
Bereits bei JPEGS schafft sie laut dPreview.com 11,8 Blenden.
Apropos: dPreview hat jede DSLR auf ihren Dynamikumfang getestet - und auf so ziemlich alles andere :wink:

Dazu möchte ich gleich mal anmerken dass nicht jedes Foto besser aussieht wenn die Dynamik so hoch ist, im Gegenteil, oft wirken diese Fotos etwas flauer und nicht so "knackig". Das ist z.B. ein Argument der Nikonianer gewesen beim Vergleich Fuji S5pro mit der D200, selbst bei der Fuji-Einstellung 100%.
Man hat dadurch allerdings mehr Möglichkeiten, ein Foto am Rechner exakt so zurechtzufrisieren wie man es haben will ohne gleich negative Effekte befürchten zu müssen. Insbesondere bei Bühnenaufnahmen und AL-Events, aber auch bei Hochzeiten, feinsten Farbabstufungen und Portraits (natürliche Hautfarbe) ist die höhere Dynamik der Fuji aber jeder anderen APS-C überlegen.

fibbo

Werner_B.

Beitrag von Werner_B. » Do Mär 05, 2009 10:40 pm

:shock:
Zuletzt geändert von Werner_B. am Mo Aug 13, 2012 10:04 pm, insgesamt 1-mal geändert.

Benutzeravatar
Diogenes
postet oft
Beiträge: 130
Registriert: Di Jul 22, 2008 4:54 pm

Beitrag von Diogenes » Fr Mär 06, 2009 9:38 pm

Danke Werner für den Tipp, ich hab leider schon stukadiert so richtich anne Ackemie unn soo... Drum weiß ich, was im Prinzip der Photoeffekt ist und dass Einstein für seine Entdeckung den Nobelpreis bekam...

Aber von DSP: "Die Lichtmenge (und alles was über dieser Menge liegt) die den Sensor auf und über seine maximale Stromstärke (in echt Ladungsdichte oder Kapazitätsgrenze, ich nenne es aber jetzt einfach mal so) bringt ist Weiß." spekulier ich mal, dass jedes Pixel wie ein Kondensator ist, der tatsächlich irgendwann mal "voll" ist.

Außerdem habe ich bislang so verstanden, dass zur Abbildung des Dynamikumfangs des Motivs nicht die 8 oder 12 bits von jpg oder raw die Begrenzung sind sondern der Sensor, der nur vielleicht 10LW auflösen kann zwischen leer und voll.

Gruß, Wolfgang

Werner_B.

Beitrag von Werner_B. » Fr Mär 06, 2009 9:57 pm

:shock:
Zuletzt geändert von Werner_B. am Mo Aug 13, 2012 10:04 pm, insgesamt 1-mal geändert.

Benutzeravatar
Diogenes
postet oft
Beiträge: 130
Registriert: Di Jul 22, 2008 4:54 pm

Beitrag von Diogenes » Sa Mär 07, 2009 7:18 pm

Werner_B. hat geschrieben:
Diogenes hat geschrieben:Danke Werner für den Tipp, ich hab leider schon stukadiert so richtich anne Ackemie unn soo... Drum weiß ich, was im Prinzip der Photoeffekt ist und dass Einstein für seine Entdeckung den Nobelpreis bekam...
Hat's geholfen? 8)
Jau, immerhin lebt meine Familie davon nicht ganz schlecht, und auch ich kann mir ein Hobby leisten, dass zwar keine großen laufenden Kosten verursacht, aber die Gerätschuft kostet erst mal. Außerdem hab ich hier noch was dazu gelernt, was ich so genau aus der Filmfotographie nie wusste.

Bzgl der technischen Nutzung des Photoeffektes bin ich aber nun zum 2. Mal derbe enttäuscht:

1. habe ich vor einigen Wochen gelernt, dass vor den Pixeln Farbfilter sind. Dabei ist prinzipiell die Farbe aus der Energie der einfallenden Photonen bestimmbar. Diese wird an der Photozelle in eine elektrische Spannung umgesetzt, die messbar ist.

2. habe ich hier gelernt, dass die Sensoren voll laufen. Je voller desdo weiß. Im Prinzip werden jedoch bei großer Helligkeit nur viele Photonen durch die Zelle absorbiert, die dort einen Strom erzeugen, der messbar ist. Weiß als absolute Obergrenze gibt es dann nicht.

Im richtigen Leben ist es eben so wie bei Radio Eriwan: "Im Prinzip ja, aber..." Weshalb ich mich gerne für die Nachhilfe bedanke,
Gruß, Wolfgang

Gast

Beitrag von Gast » Sa Mär 07, 2009 8:19 pm

1. habe ich vor einigen Wochen gelernt, dass vor den Pixeln Farbfilter sind. Dabei ist prinzipiell die Farbe aus der Energie der einfallenden Photonen bestimmbar. Diese wird an der Photozelle in eine elektrische Spannung umgesetzt, die messbar ist.
Außer bei den Sigma Kameras mit Foveon-Sensor. Der bestimmt die "Farbe" der Photonen durch die Eindringtiefe in das Halbleitermaterieal ;-)

Problem bei Halbleitersensoren: Ob Gelb ob Blau, ein Photon jedweder Farbe wirft immer maximal ein Elektron aus der Bindung ( mannoman ist das lange her mit der Energie und Umweltphysik - ob die Energie eines "blauen" Photons soviel höher ist als die des "roten" Photons um unterschiedlich viele Elektronen auf die höhere Bahn zu bekommen kann ich mittlerweile nicht mehr sagen. Ich geh mal davon aus, das dem nicht so ist).

War glaube ich der Quanteneffekt (Es wird eine feste Energie benötigt um das Elektron aus der "Bahn" zu werfen, das Photon gibt diese Energie ab und die Restenergie reicht dann gerade noch zum "Warm machen" des Sensors.).

Die Farbe eines Photons lässt sich bestimmen, dann darf aber immer nur ein Photon gemessen werden (Beispiel: Rot hat halbe Energie von Blau - Ich erhalte als Messwert die Energie von Blau. Frage War es ein "blaues" Photon oder zwei "rote"?).

Benutzeravatar
Diogenes
postet oft
Beiträge: 130
Registriert: Di Jul 22, 2008 4:54 pm

Beitrag von Diogenes » So Mär 08, 2009 8:55 pm

Da hast Du wohl einiges grundsätzlich mistverstanden mit dem Photoeffekt:
DSP hat geschrieben:Die Farbe eines Photons lässt sich bestimmen, dann darf aber immer nur ein Photon gemessen werden (Beispiel: Rot hat halbe Energie von Blau - Ich erhalte als Messwert die Energie von Blau. Frage War es ein "blaues" Photon oder zwei "rote"?).
Unabhängig davon, dass exakt 1 Photon nicht messbar ist, gilt folgender Grundsatz:

1. Um eine Kugel beliebiger Masse eine schiefe Ebene auf Grund ihres Schwungs (= Anfangsgeschwindigkeit oder anfängliche kinetische Energie) hinauf zu befördern, benötigt sie für die gleiche Gipfelhöhe unabhängig(!) von ihrer Masse die gleiche(!) Anfangsgeschw. Beim Photon ist dies die Frequenz oder übertragen zum Bild die Farbe.

2. Die Masse oben genannter Kugel ist ähnlich zur Anzahl auf den Sensor einfallender Photonen. Und die Anzahl der Photonen bestimmt bekanntlich die Helligkeit des Pixels.

Farbe und Helligkeit eines Pixels aufgrund hereinbrechender Photonen sind somit im Prinzip(!) klar und unabhängig voneinaneder bestimmbar (Spannung und Strom). Nur kann man es z.Zt. anscheinend technisch nicht so umsetzen. Die Gründe interessieren mich nicht sonderlich.

Mich interessiert sonderlich, dass ich mich nicht erinnern kann, mit meiner aus der Jugendzeit noch vorhandenen Olympus OM1 technisch so gute Bilder gemacht zu haben, wie mit meiner jetzigen Nikon mit Crop Sensor. Das sieht man nicht an Bilder mit 1024 Pixeln, sondern sauber ausgedruckt in Din A3,...

Gruß, Wolfgang

Antworten

Zurück zu „Digitalkamera Technik“


>> DAS NEUE FOTOTALK <<

cron