Den Vorgang habe ich schon ein paar Posts weiter oben ähnlich beschrieben, bin aber zu einer anderen Deutung gekommen:Topfenfranz hat geschrieben: Beim Live-Seherlebnis kann ich meinen Fokus auf die Lichter setzen, die sehr gut differenziert wahrgenommen können. Diese Lichter hüllen sich in ein undifferenziertes gleichmässiges Schwarz. Setze ich meinen Fokus jetzt von den Lichtern weg in den Schatten, dann dauert es eine Weile, bis ich auch dort etliche Nuancen differenzieren kann. Sie sind real da und werden von mir auch wahrgenommen. Natürlich darf ich nicht gleichzeitig meinen Fokus auf das Licht setzen, denn dann blendet es und das Seherlebnis ist zum Teufel.
Bei einem Abbild habe ich diese Möglichkeit nicht. Will ich dennoch solch eine Aufnahme machen, dann muß ich zu Tricks greifen. Zum Beispiel Langzeitbelichtungen mit Blitz. Dennoch, der Dynamikumfang des fertigen Bildes ist starr und alle Adaptionskünste des menschlichen Auges nützen nichts, um mehr informationen aus dem gleichmässigen Schwarz nachträglich herauszuholen.
HDR ist eine Krücke, die in der Lage ist, einem höheren Dynamikumfang als ohne gerecht zu werden, das natürliche Sehen wurde damit aber nicht erfunden.
Beim natürlichen Sehen entsteht das überall korrekt belichtete Bild erst im Gehirn:
Man schaut ins Helle, das Auge passt sich an, dann weiß man wie es dort aussieht.
Dann schaut man ins Dunkle, das Auge passt sich anders an, dann weiß man auch wie es dort aussieht.
Und schon kann das Gehirn ein hochdynamisches Gesamtbild zusammensetzen.
Bei HDR macht man Vergleichbares mit Bildverarbeitung:
D.h. dem Auge wird das fertige HDR-Bild schon so präsentiert, wie es sich ein Betrachter der Realität erst im Gehirn zusammenreimen müßte.
HDR entlastet also das Gehirn auf Kosten des Computers.