HIER GEHT ES DIREKT ZUR NEUEN FOTOTALK COMMUNITY
>> JETZT KOSTENLOS REGISTRIEREN! <<

Lohnt sich HDTV? Auflösung/Betrachtungsabstand

Allgemeine Fragen rund um die Digitalfotografie.

Moderator: ft-team

Antworten
inwa
wenige Posts
Beiträge: 3
Registriert: So Apr 09, 2006 4:25 am

Lohnt sich HDTV? Auflösung/Betrachtungsabstand

Beitrag von inwa » So Apr 09, 2006 4:29 am

Hallo,

für einen Artikel über HDTV versus PAL habe ich folgende Berechnungen angestellt.
schneiderkreuznach hat geschrieben: Der übliche Betrachtungsabstand für eine DIN A4 Vorlage wird etwa 25 cm betragen ("deutliche Sehweite"). Welche Details kann das menschliche Auge dabei noch erkennen? Die Antwort aus vielen praktischen Versuchen ist:

Grenzauflösung des Auges: maximal 6 Linienpaare pro mm ( 6 Lp/mm). http://www.schneiderkreuznach.com/knowhow/digfoto.htm
Also bei 25 cm 12 Punkte pro Millimeter = 120 pro cm = 304 dpi

Daraus läßt sich ableiten:

* Maximal notwendige Auflösung (dpi) = 7600 : Betrachtungsabstand (cm)

Erklärungen und ein Link zur Herleitung finden sich auch (Link wurde entfernt)
schneiderkreuznach hat geschrieben: Allgemein kann man davon ausgehen, daß ein Bild als einwandfrei scharf beurteilt wird, wenn es, bei einem Betrachtungsabstand von 25 cm, ca. 4 Linienpaare pro Millimeter auflöst. http://www.schneiderkreuznach.com/knowhow/opt_quali.htm
Also bei 25 cm 8 Punkte pro Millimeter = 80 pro cm = 200 dpi


Für PAL Fernseher (540 Zeilen) gilt dann:

Die dpi Auflösung eines 16:9 PAL Fernsehers mit 80 cm Diagonale (Höhe 39,2 cm) beträgt 540 : 39,2 cm x 2,54 = 35 dpi

Maximal notwendiger Betrachtungsabstand = 7600 : Physikalische Auflösung (35 dpi) = 220 cm

220 cm : 80 cm (Diagonale) = Faktor 2,7


Aus einem Betrachtungsabstand von dem 3fachen der Diagonalen eines 16:9 PAL TVs, was etwa dem 3,5fachen der Diagonalen eines 4:3 PAL TVs entspricht, kann also ein Bild mit höherer pysikalischer Auflösung nicht schärfer gesehen werden.

Da die Standard TV Größe 80 cm ist, ergibt sich das sich HDTV für ca. 90% der Bevölkerung nicht lohnt. Den dazu sollten sie aus einem Betrachtungsabstand von deutlich unter 2,40 Metern zuschaun.

35 dpi gesehen auf 2,40 Meter ist gleich 336 dpi gesehn auf 25 cm.

"Die höhere Zeilenanzahl von HDTV soll nicht zu einem schärferen Bild an sich führen", heißt es auch im (Link wurde entfernt)

Denn ab dem 6fachen der Bildhöhe, was etwa dem 3fachen der Bilddiagonale eines 16:9 TVs entspricht, kann das Auge die einzelnen Fernsehzeilen nicht mehr voneinander unterscheiden. (Link wurde entfernt)

Weiss jemand ob sich vergleichbare Rechnung irgendwo finden und ob es Fachausdrücke gibt, etwa den der "Normierten Auflösung" oder der "Equivalenten Auflösung" im Sinne einer "Gesehenen Auflösung"?
Zuletzt geändert von inwa am Mo Mai 01, 2006 12:46 am, insgesamt 1-mal geändert.

KaoTai

Beitrag von KaoTai » So Apr 09, 2006 8:02 pm

Zu der vorgelegten Argumentation möchte ich das folgende anmerken:


1. Auflösungsvermögen besser als Winkel angeben

Das Auflösungsvermögen des menschlichen Auges in diesem Zusammenhang in "Linienpaaren pro
Millimeter bezogen auf einen Betrachtungsabstand von 25cm" anzugeben halte ich für ungeschickt,
zumal 25cm ein fürs Fernsehen ganz untypischer Abstand ist.

Üblicherweise [1] findet man in der Literatur das Auflösungvermögen als Winkel angegeben, es
beträgt etwa 1 Bogenminute.

Das ergibt in 25cm Entfernung etwa 7 Linienpaare, deckt sich also mit den von dir gefundenen
Werten - ist aber als Winkel-Angabe m.E. allgemeiner.


2. Betrachtungsabstand skaliert nicht linear mit Bildschirmdiagonale

Die Argumentation an sich wäre richtig, unter der Annahme, daß sich mit der Bildschirm-
diagonale notwendig auch der Betrachtungsabstand vergrößert.

Bei mir daheim ist der Betrachtungsabstand durch die Entfernung Sofa - Wohnzimmerschrank
bestimmt und wäre daher unter Größenänderung des Bildschirms invariant.
D.h. ich würde einen 80cm Bildschirm aus der gleichen Entfernung betrachten wie meinen
derzeitigen 50cm Monitor.


3. Die Realität hat die Eigenschaft, das ganze Gesichtsfeld auszufüllen.

Ein Videobild erscheint umso realer, je größer der Winkel des Gesichtsfeldes ist, den es
ausfüllt - vergleiche IMAX-Kino.
Das hat m.W. etwas mit der nötigen Augenbewegung zu tun um den ganzen Schirm zu überblicken.

Ich könnte nun mit meinem 50cm-PAL-TV einen beliebig großen Winkel ausfüllen, wenn ich mir
nur nah genug davor hocken würde.
Dabei müßte aber mein Auge auf entsprechend kurze Entfernungen scharfstellen - das strengt an.

Außerdem - hier stimme ich deiner Argumentation zu - könnte ich dann die einzelnen Pixel
(zumindest die Zeilen) des Bildes auflösen. Wenn dem Bild aber sichtbar die Detailschärfe
fehlt, dann leidet der Realitätseindruck.

D.h. bei gleichem Abstand muß der Wunsch nach einem größeren Bildschirm der einen
realistischeren Bildeindruck erweckt, da er einen größeren Sehwinkel bedeckt, von
einer höheren Auflösung des Videosignals begleitet werden.

Das spricht für HDTV.


"Normierten Auflösung", "Equivalenten Auflösung", "Gesehenen Auflösung"
sind mir als Begriffe nicht geläufig - aber das muß nichts bedeuten.


[1] Dobrinski, Krakau, Vogel, "Physik für Ingenieure", Teubner-Verlag, Stuttgart

inwa
wenige Posts
Beiträge: 3
Registriert: So Apr 09, 2006 4:25 am

Beitrag von inwa » Mo Apr 10, 2006 1:07 am

Hallo,
KaoTai hat geschrieben:
Zu der vorgelegten Argumentation möchte ich das folgende anmerken:


1. Auflösungsvermögen besser als Winkel angeben

Das Auflösungsvermögen des menschlichen Auges in diesem Zusammenhang in "Linienpaaren pro
Millimeter bezogen auf einen Betrachtungsabstand von 25cm" anzugeben halte ich für ungeschickt,
zumal 25cm ein fürs Fernsehen ganz untypischer Abstand ist.

Üblicherweise [1] findet man in der Literatur das Auflösungvermögen als Winkel angegeben, es
beträgt etwa 1 Bogenminute.

Das ergibt in 25cm Entfernung etwa 7 Linienpaare, deckt sich also mit den von dir gefundenen
Werten - ist aber als Winkel-Angabe m.E. allgemeiner.
Die Winkelangaben fürhen zu komplizierten Umrechnungen. Mit dpi geht das viel einfacher.

7 Linienpaare bei 25 cm sind 14 Punkte pro Millimeter = 140 pro cm = 356 dpi auf 25 cm.

Das wären 89 dpi auf 1 Meter. Das entpricht 1 mm auf 3,50 Meter was das beste Auge unter besten Bedingungen sehen kann. Das sind 90 dpi auf ein Meter.

Ich habe die Unterscheidung zwischen angestrengtem und entspannten Sehen gefunden. Fernsehn schaut man ja entspannt. Daher ist eher von 76 dpi auf einen Meter auszugehen.

Zur Sehschärfe aus Wikipedia:
Bei einem normalsichtigen Auge bzw. bei korrigierter Fehlsichtigkeit hängt die Sehschärfe vor allem vom Auflösungsvermögen der Netzhaut ab, die im Bereich scharfen Sehens bei 0.5 bis 1 Bogenminuten liegt. Der Begriff der absoluten Schärfe würde verlangen, dass ein Punkt von z.B. 1 µm Durchmesser auch tatsächlich durch einen Punkt von ebenfalls 1 µm Durchmesser wiedergegeben würde. Der Aufbau der menschlichen Netzhaut des Auges bringt es jedoch mit sich, dass infolge mangelnder Auflösung eine ganz beträchtliche Schärfentoleranz besteht. Unter normalen Verhältnissen beträgt diese für eine mittlere Betrachtungsdistanz von 30 cm etwa 1/10 mm. http://de.wikipedia.org/wiki/Sehsch%C3%A4rfe
0,1 mm auf 30 cm sind 1 mm auf 3 Meter sind 1 cm auf 30 Meter sind 1 dpi auf 30 x 2,54 Meter also 1 dpi auf 76,2 Meter. Das sind 76 dpi auf 1 Meter. Das sind wiederum rund 250 dpi auf 30 cm und rund 300 dpi auf 25 cm.
KaoTai hat geschrieben:
2. Betrachtungsabstand skaliert nicht linear mit Bildschirmdiagonale.
Das dacht ich zunächst auch, als ich nach Pyaturas die Bildhöhe ausgerechnet habe. Es ist aber ein liniares Verhältnis.

Bei 16:9 gilt:

* Bildhöhe = Diagonale x 0,49

Für 4:3 gilt:

* Bildhöhe= Diagonale x 0,6
KaoTai hat geschrieben: Die Argumentation an sich wäre richtig, unter der Annahme, daß sich mit der Bildschirm-
diagonale notwendig auch der Betrachtungsabstand vergrößert.

Bei mir daheim ist der Betrachtungsabstand durch die Entfernung Sofa - Wohnzimmerschrank
bestimmt und wäre daher unter Größenänderung des Bildschirms invariant.
Ja, die meisten können ihren Betrachtungsabstand nicht varrieren. Daher macht für sie HDTV nur Sinn, wenn sie einen ensprechen großen Fernseher kaufen.
KaoTai hat geschrieben: D.h. ich würde einen 80cm Bildschirm aus der gleichen Entfernung betrachten wie meinen derzeitigen 50cm Monitor.
Wenn du einen 17 Zoll 4:3 Monitor hast entspricht die zu sehende maximale Auflösung von 1280 x 1024 Pixel bei einem Betrachtungsabstand von 87 cm der zu sehenden Auflösung, die ein 540 Zeilen PAL TV aus dem 3fachen der Diagonalen hat. Für 19 Zoll 4:3 Monitore sind es 97 cm.

KaoTai hat geschrieben: 3. Die Realität hat die Eigenschaft, das ganze Gesichtsfeld auszufüllen.

Ein Videobild erscheint umso realer, je größer der Winkel des Gesichtsfeldes ist, den es
ausfüllt - vergleiche IMAX-Kino.
Das hat m.W. etwas mit der nötigen Augenbewegung zu tun um den ganzen Schirm zu überblicken.
16:9 hat nichts mit der Frage PAL oder HDTV zu tun. Auch PAL gibt es in 16:9. Das klassische Format ist auch im Kino lange 4:3 gewesen. Man kann sich auch darüber streiten, ob 16:9 nun mehr Bild zeigt, oder weniger, da oft stärker beschnitten wird.

Dazu ein guter Bildervergleich.

(Link wurde entfernt)

Die 16:9 ähnlichen Formate beschneiden stärker.


*Normalformat: Höhe : Breite = 1:1,37 entspricht etwa 4:3

*Breitwand: Höhe : Breite = 1:1,66 ('Europäisches Breitwand') liegt zwischen 3:2 und 16:9

*Breitwand: Höhe : Breite = 1:1,85 ('Amerikanisches Breitwand') liegt über 16:9

*'Cinemascope' (1) bzw. Panavision ®: Höhe : Breite = 1:2,35

*'Cinemascope' (2) bzw. Panavision ®: Höhe : Breite = 1:2,55


* 4:3 = 1:1,33

* DIN A4, etc = 1:1,41

* 3:2 = 1:1,5

* 16:9 = 1:1,78

Das 16:9 Format soll eher dem Gesichtsfeld gerecht werden. Allerdings ist beim Vergleich 4:3 zu 16:9 zu berücksichtigen, das in der Regel der 4:3 ein höheres Bild hat, als das 16:9 TV. Die Frage ist, was man da vergleicht. Gleich hohe Fernseher, oder gleich breite Fernseher oder TVs mit gleicher Fläche oder TVs mit gleicher Diagonale.

Der Vorteil von 4:3 ist, das aus dem selben Betrachtungsabstand immer etwa die gleiche Qualität zu sehen ist, während 16:9 gerade von den Privaten noch oft in verminderter Letterbox Auflösung gesendet wird, was nur auf 16:9 TVs bei 16:9 Vollbilddarstellung zu einer Reduzierung der Auflösung führt.
KaoTai hat geschrieben: Ich könnte nun mit meinem 50cm-PAL-TV einen beliebig großen Winkel ausfüllen, wenn ich mir
nur nah genug davor hocken würde.
Dabei müßte aber mein Auge auf entsprechend kurze Entfernungen scharfstellen - das strengt an.

Außerdem - hier stimme ich deiner Argumentation zu - könnte ich dann die einzelnen Pixel
(zumindest die Zeilen) des Bildes auflösen. Wenn dem Bild aber sichtbar die Detailschärfe
fehlt, dann leidet der Realitätseindruck.
Die beliebten Plätze im Kino sind eher hinten als vorne. Mit HDTV kannst du den Betrachtungsabstand zum TV maximal halbieren.
KaoTai hat geschrieben: D.h. bei gleichem Abstand muß der Wunsch nach einem größeren Bildschirm der einen
realistischeren Bildeindruck erweckt, da er einen größeren Sehwinkel bedeckt, von
einer höheren Auflösung des Videosignals begleitet werden.

Das spricht für HDTV.

Die Bildgröße kann nicht allein für einen Bildeindruck herangezogen werden. Denn das Gehirn rechnet die gesehen Bilder nach Erfahrungswerten um. Dazu ein guter Link:
(Link wurde entfernt)

Bei einem TV mit 100 cm Diagonale sollte der Betrachtungsabstand schon unter 2,50 Metern liegen. Sonst lohnt HDTV nicht wirklich.
Die Standardgröße wird aber 80 cm betragen und da lohnt sich HDTV nur, wenn der Betrachtungsabstand deutlich unter 2,40 Metern liegt.


Zum Hintergrund:

Da die Investitionskosten für die Sender sehr hoch sind, kommt HDTV erst langfristig flächendeckend. Das ZDF nannte zuletzt 2010 als möglichen Starttermin, der ORF gab bekannt nicht vor 2015 HDTV auszustrahlen. Pro7/Sat1, die ohnehin nur sehr wenig echtes HDTV senden, planen nach Informationen der Verbraucherzentralen das HDTV Angebot kostenpflichtig zu machen. Ggf. wird es nach der WM auch ganz eingestellt. Premiere kostet, da das normale Programm mitabonniert werden muss, für 3 HD Sender 55,-- Euro im Monat.

Ein Problem der HDTV Fernseher das hochrechnen von PAL. Nur wenige schaffen das gut.
(Link wurde entfernt)

In einem (Link wurde entfernt) konnte ein PAL optimiertes 540 Zeilen Gerät die HDTV Auflösungen besser darstellen als die HDTV Referenzgeräte, da er die HD Auflösungen besser umrechnen kann. Röhren sind immer PAL optimiert. Viele Flache haben aber nur die 480 Zeilen Auflösung oder die HD Auflösung.

Im Mediamarkt kann man gut sehen, das die Bildqualität den Leuten beim Kauf egal zu sein scheint oder sie sehen einfach nicht, wie schlecht das Bild vieler Flachen ist.

HDTV hat übrigens auch nicht mehr Farben als digitales PAL.
(Link wurde entfernt)


In den USA wurden die Sender zur Ausstrahlung von HDTV verpflichtet. Allerdings lohnt es sich dort auch mehr, da die NTSC Auflösung nur 480 Zeilen beträgt.

Was aber hauptsächlich gegen HDTV spricht, ist der eingebaute Kopierschutz HDCP mit dem sich sämtliche Aufnahmen unterbinden lassen. Wer ein TV mit HDCP Kopierschutz ("HD ready", "HD kompatibel", etc.) kauft, verzichtet auf sein bezahltes Recht auf Privatkopie, nach § 53 Urhebergesetz. Siehe:

(Link wurde entfernt)

(Link wurde entfernt)

inwa
wenige Posts
Beiträge: 3
Registriert: So Apr 09, 2006 4:25 am

Beitrag von inwa » Mo Mai 01, 2006 12:53 am

Ich habe jetzt noch mehrere seriöse Quellen aufgetan, die alle belegen, dass HDTV nicht schärfer oder detailreicher ist, wenn dem 2,5 - 3fachen der Diagonalen eines 16:9 TVs zugeschaut wird. In der (Link wurde entfernt) allerdings nur anhand von Testbilder bestätigen konnte. Mittels Versuchsprojektionen konnte er beweisen, dass eine erhebliche Schärfetoleranz herscht.

Ich habe jetzt auch noch mal zwei HDTV - PAL Vergleiche gemacht, wo das objektiv zu sehen ist.

(Link wurde entfernt)

Bild

(Link wurde entfernt)

Bild

Und ein Bildvergleich von guten und schlechten PAL Qualitäten wo auch gezeigt wird, warum die Bildqualität von HDTV Fernsehern meist nicht gut ist.

Bild

Antworten

Zurück zu „Digitale Fotografie“


>> DAS NEUE FOTOTALK <<

cron