HIER GEHT ES DIREKT ZUR NEUEN FOTOTALK COMMUNITY
>> JETZT KOSTENLOS REGISTRIEREN! <<

Verschiede Chipgröße bei gleicher MP-Zahl

Allgemeine Fragen rund um die Digitalfotografie.

Moderator: ft-team

Antworten
Oliver G.
postet ab und zu
Beiträge: 62
Registriert: Do Okt 19, 2006 9:00 am
Wohnort: Nähe Wiesbaden

Verschiede Chipgröße bei gleicher MP-Zahl

Beitrag von Oliver G. » Fr Nov 10, 2006 2:33 pm

Hallo,

mir ist beim Vergleich verschiede digitalen Kamaras (DSLR u. Kompakt) auf gefallen, dass die Kamaras bei gleicher MP-Zahl verschiede Chip-Größen haben. So hat z.b. eine 10 MP bei eine Chip-Diagonale von 8,9 mm (1/1,8") und eine andere bei einer Chip-Diagonale von 27,1 mm (APS-C).

Da hat sich bei mir die Frage gestellt, dass doch bei einer kleineren Chip-Größe die Pixel viel dichter angeordnet sind, als bei einer größeren Größe. Heißt im Umkehrschluss, dass bei einer größen Chip-Größe die Pixel weiter auseinander stehen.
Oder sind die Pixel im Durchmesser bei einem größeren Chip auch größer?

Wäre die Dichte der Pixel-Anordnung bei den großen Chips geringer, würde doch die Bildpunkte, die das Objektiv auf den Chip wirft, nicht aufgenommen, die zwischen den Pixel liegen würden.
Um es anschlaulicher zu machen. Ich habe auf einer Fläche von 1 x 1 m Gläser mit einem Durchmesser von 10 cm. So würden diese Gläser Rand an Rand auf der Fläche stehen. Werfe ich jetzt Erbsen über die Fläche gleichmässig ab, würden alle Erbsen in den Gläser landen.
Habe ich aber jetzt eine Fläche von 2 x 2 m, würden die gleichen Gläser nicht mehr Rand an Rand stehen, sondern es wäre Lücken zwischen den Gläsern. Würde ich jetzt wieder flächendeckend Erbse ausschütten, würde einige Erbsen neben den Gläsern auf der Fläche landen. Die Erbsen sind meine Bildinformationen in Form von Lichtpunkten und die Gläser meine Pixel. Das würde heißen, dass einige Lichtpunkte nicht aufgenommen werden vom Sensor.

Wären die Pixel bei einem größeren Chip größer, würde doch das Bild später gröber, weil mehrere Lichtpunkte als ein Punkt aufgenommen werden. Ich stelle auf die doppelt so große Fläche einfach doppel so große Gläser. Jetzt laden zwar alle Erbsen in den Gläsern, weil sie wieder Rand an Rand stehen, aber viele Erbsen werde zu einem Punkt gerechnet. So werden dann auch verschiede Lichtpunkt als 1 Pixel aufgenommen.

Wie sieht das nun mit den verschiedenen Chip-Größen bei gleicher MP-Zahl aus? Und mache ich hier Denkfehler (was ich befürchte.)

Ciao Oliver

Gast

Beitrag von Gast » Fr Nov 10, 2006 3:20 pm

Die Pixel sind größer.

Und der unterschied, ob ich vier kleine Pixel zu einem großen zusammeninterpoliere oder ob ich gleich einen noch größeren (Jeder Pixel hat einen Rand der blind ist) ist gleich null.

Gröber wird das Bild nicht, da jedes Bild einer 10MP Kamera 10MP also die gleiche Anzahl Pixel hat.

Bei großen Pixeln gibt es aber leider einen unterschied zu den kleinen (Das Erbsenbeispiel habe ich nebenbei hier schonmal wo gebracht).

In ein großes Glas passen leider viel mehr Erbsen als in ein kleines.

Beim Erbsenzählen bekomme ich dann einProblem:

In ein kleines Glas passen null bis 100 Erbsen wobei etwa 0-5 Erbsen durch Reinigungsfehler (Pixelgrundrauschen) sowieso in dem Glas sin und zwar in jedem Glas anders.

Ich muß dann also die Helligkeitswerte anhand von 101 möglichen Füllständen auslesen und verteilen, wobei knapp 5% durch Rauschen verursacht wird.

In einem Großen Glas rauschen zwar bis zu 10Erbsen allerdings passen da dann aber null bis 500 Erbsen in das Glas.

"Nachteil" der Großen Sensoren: Der Rauschanteil ist prinzipiell geringer und die Helligkeitswerte und die Differenz Maximalhelligkeit zu minimalhelligkeit (Dynamik oder Kontrastumfang) ist viel größer.

Aber wer will sowas schon? - Da sind 40MP (mit Pixeln so groß wie bei den Kompakten) doch viel wichtiger.

Dirk,

ps die letzen beiden Absätze sind ironisch aber leider Massentauglich

KaoTai

Beitrag von KaoTai » Fr Nov 10, 2006 7:37 pm

DSP hat recht.

Bei gleicher Sensorgrößer und niedrigerer Pixelzahl, steigt nicht der Abstand zwischen den Pixeln sondern die Siliziumfläche jedes einzelnen Pixels.

Dieses fängt mehr Licht ein. Dadurch muß sein Signal weniger stark verstärkt werden und rauscht dadurch weniger.

Ahriman
postet sehr sehr oft!
Beiträge: 1253
Registriert: Mo Sep 12, 2005 11:47 pm
Wohnort: 89250 Senden

Beitrag von Ahriman » Sa Nov 11, 2006 12:18 pm

Noch wichtiger finde ich es, wenn der betreffende Chip einen größeren Helligkeitsumfang bewältigt. Ich empfinde es immer wieder als schmerzlich, wie "eng" da meine digitalen Kameras sind. Da hat meine Minolta mit dem extrem "weichen" Konica-Film erheblich bessere Ergebnisse geliefert. Da glitzerten die Wasseroberflächen oder poliertes Metall noch richtig. In der Beziehung haben die Ingenieure noch einiges zu lernen.

Gast

Beitrag von Gast » Sa Nov 11, 2006 12:28 pm

Dynamicumfang bei Digital ist halt das große Problem.

Nur die Ing. müssen da nichts lernen, der Kunde muß bereit sein für sowas viel Geld hinzulegen - da Dynamic physikalisch auf Silizium bei hoher Pixelzahl nur durch große Chipflächen realisierbar ist - oder aber weniger MP bei gleicher Chipfläche akzeptieren (Was aber zur Zeit allein aus Reputationsgründen - man macht sich ja lächerlich wenn man nicht mehr MP als der Nachbar hat - nicht möglich ist im Massenmarkt)..

Fuji bringt jetzt die S5 raus - Auf Dynamic optimiert aber nur 6MP. Das Geschrei in den Foren wie man (Fuji) nur so bescheuert sein kann heutzutage eine Kamera (im 2000EU Segment) mit weniger als 10MP herauszubringen möchte ich hier nicht wiedergeben.

Analogfotografie hatte mehr als 100Jahre Zeit ihre Prozesse zu optimieren, wobei die ersten 30 Jahre noch nicht mal Farbe möglich war (Für den 08/15 Fotografen). Digital steckt zeitlich gesehen noch in den Kinderschuhen..

KaoTai

Beitrag von KaoTai » Sa Nov 11, 2006 2:31 pm

Ahriman hat geschrieben:Noch wichtiger finde ich es, wenn der betreffende Chip einen größeren Helligkeitsumfang bewältigt.
Könntest Du das den technisch weniger versierten erklären, wie die Pixelgröße den Dynamikumfang beeinflußt ?

Oliver G.
postet ab und zu
Beiträge: 62
Registriert: Do Okt 19, 2006 9:00 am
Wohnort: Nähe Wiesbaden

Beitrag von Oliver G. » Sa Nov 11, 2006 3:08 pm

KaoTai hat geschrieben:
Ahriman hat geschrieben:Noch wichtiger finde ich es, wenn der betreffende Chip einen größeren Helligkeitsumfang bewältigt.
Könntest Du das den technisch weniger versierten erklären, wie die Pixelgröße den Dynamikumfang beeinflußt ?
So wie ich das verstanden habe, hat DSP das mit dem Erbsen-Beispiel erklärt, oder irre ich mich da?

Ciao Oliver

Gast

Beitrag von Gast » Sa Nov 11, 2006 3:15 pm

So ein Pixel auf dem Chip ist so etwas wie ein Kondensator der elektrische Ladungen speichern kann.

Beim Pixel werden durch auftreffen von Lichtteilchen elektrische Ladungen erzeugt und erstmal gespeichert bis der Pixel geleert (ausgelesen) wird.

So entsteht erstmal prinzipiell ein Bild:

Viel Licht auf einen Pixel = viele Ladungen = sehr hell

Wenig Licht auf einen Pixel = wenig Ladungen = dunkel.

Das erstmal als Grundlage.

Dynamic ist der mögliche unterschied an Abstufungen zwischen kein Licht (=keine Ladung) und maximale Heligkeit (=Soviele Ladungen wie der Pixel max.aufnehmen kann).

Ein kleiner Kondensator (wenig Kapazität) kann aber weniger Ladungen speichern als ein großer.

Ein kleiner Pixel kann ebenfalls weniger Licht "Speichern" als ein großer. Alles was bei einem vollen Pixel noch an Licht draufkommt geht verloren - der Pixel läuft über (Ist wie mit einem Wasserglas - in einem kleinen passt weniger Wasser als in ein großes).

Belichtest du nun so, das in den Schattenbereich noch genug Ladungen auf die Pixel kommt um in den Schatten unterschiede zu merken, dann laufen die kleinen Pixel an den Hellen Stellen über - der Himmel ist nur noch hell und ohne Zeichnung (Überbelichtet).

Machst du das mit größeren Pixeln, so laufen diese nicht so schnell über und können weiter unterschiede in den hellen Bereichen Aufzeichnen (Himmel hat noch Struktur).

Aber irgendwann reicht das auch nicht mehr, also müssen die Pixel für noch mehr dynamik noch größer werden was entweder weniger Pixel pro Fläche oder eine größere Fläche bedeutet.

Bei großen Pixeln gibt es aber komplizierte Probleme diese vernünftig in den dunklen bereichen auszulesen .

Fuji ist bei der S3 und S5 daher einen Zwischenschritt gegangen und hat zwei Pixelgrößen auf dem Chip. Die einen für die hellen Bereiche und die anderen für die dunklen. Das Bild wird dann in der Kamera (oder im RAW konverter) aus den informationen der großen und kleinen Pixel zusammengerechnet, was einerseits dazu führt das weniger (Fuji zählt jeweils einen kleinen und einen großen als ein Pixel) Pixel auf den chip passen (daher zur Zeit nur 6MP, eigentlich 2x6MP) aber andererseits die dynamik um ein paar Blenden erweitert (theoretisch - praktisch hatten die ein paar Probleme und haben daher die Erweiterung der Dynamic etwas beschnitten).

Bei der S5 sollen aber die PRoblem halbwegs behoben sein und die Dynamic durch bessere Firmware und Hardware doch besser ausgenutzt werden können (Die S5 ist für Februar angekündigt).

Ach ja Fuji verwendet das Nikon Bajonett und bei der S5 wird das Gehäuse der D200 verwendet.

Ich habe noch eine S2 welche noch nicht die kleinen Pixel hatte, aber alleine schon wegen der achteckigen Pixel schon bessere Bilder macht als die 6MP vermuten lassen. Außerdem war zumindest damals der Fuji CCD der beste für Hauttöne und die S3 soll hier immer noch eine Klasse für sich sein (die S5 somit auch).

Daher sind die Fuji SLRs sehr Beliebtt bei Hochzeits und Portrait Fotografen.

KaoTai

Beitrag von KaoTai » Sa Nov 11, 2006 3:42 pm

Wenn ich aber aus meinem Chip ein Bild mit einer Farb- bzw. Helligkeitstiefe von 8 Bit herauslese, dann ist mein Dynamikumfang 8 Bit, bzw. 256 Stufen, bzw. 24 dB (?).

Wenn ein Pixel zumindest 256 Elektronen halten kann ohne überzulaufen, dann sollte ich doch diese Dynamik voll ausschöpfen, d.h. der ganze Wertebereich einschl. aller Zwischenwerte ist darstellbar.
Und wenn es mehr Elektronen fassen kann (was der Fall ist), dann nützt es mir nichts.
Zumindest nicht in der Dynamik, wohl aber im Signal-Rausch-Verhältnis.

Gast

Beitrag von Gast » Sa Nov 11, 2006 3:58 pm

Was hat die Eingangsdynamic mit dem Tonwertumfang der Ausgabedatei zu tun?

Oder anders: Wenn du um die Schatten sauber hinzubekommen so belichten mußt, das bei Dunkelgrau 256Elektronen gespeichert werden und im Himmel etwa 10.000 Elektronen gespeichert werden müssten (aber bei 256Elektronen abgeschnitten wid), dann ist das was anderes als wenn ich über Gradationsänderungen noch unterschiede zwischen 9.000Elektronen und 10.000 mit in das Bild bringe.

Bei der Eingangsdynamik geht es darum welchen Helligkeitsunterschied der Chip noch differenzieren kann. Wie ich diese Differenzen dann später im Bild verteile -Wenig Kontrast aber kleine Helligkeitsunterschiede oder hoher Kontrast dafür aber grösere Schritte - um Sie auf die Geforderte Bitzahl zu bringen ist was anderes. Daher ist RAW ja auch besser, weil da der differenzierbare Kontrast mit mindestens 12 Bit gespeichert ist und ich den selber in 8 Bit quetsche - wie ich es will und nicht wie die Automatik es vorschreibt.

NEbenbei Diese Tonmapping Bilder auch HDR genannt wirken ja auch besser in der Kontrastbewältigung obwohl es ebenfalls 8Bit JPGs sind.

Dirk

[edit mehrfach ich treffe heute garnichts mehr]

KaoTai

Beitrag von KaoTai » Sa Nov 11, 2006 4:57 pm

DSP hat geschrieben:Wenn du um die Schatten sauber hinzubekommen so belichten mußt, das bei Dunkelgrau 256Elektronen gespeichert werden und im Himmel etwa 10.000 Elektronen gespeichert werden müssten (aber bei 256Elektronen abgeschnitten wid), dann ist das was anderes als wenn ich über Gradationsänderungen noch unterschiede zwischen 9.000Elektronen und 10.000 mit in das Bild bringe.
Auch in einer RAW-Datei steht nicht die Anzahl der Elektronen.
Sondern (Anzahl der Elektronen im Pixel) / (Maximalzahl der Elektronen pro Pixel) * (2 hoch Farbtiefe)

2^12 = 4096

Wenn also ein Pixel mehr als 4096 freie Ladungsträger fassen kann ohne in Sättigung zu gehen (die tatsächlich Zahl wird wohl um ein Dutzend Zehnerpotenzen höher liegen), dann nutzt der Sensor die Dynamik des Dateiformats voll aus, bzw. die Dynamik der Kamera wird vom Dateiformat beschnitten.

Daß der größere Pixel ein besseres Rauschverhalten hat, das bestreite ich aber keineswegs.

Es würde also nichts nutzen, den Unterschied zwischen pechschwarz und schneeweiß mit 16 anstatt 12 Bits aufzulösen, wenn diese zusätzlichen 4 Bits nur Rauschinformation enthalten.

Gast

Beitrag von Gast » Sa Nov 11, 2006 5:15 pm

Das mit den Elektronen war ein extrem vereinfachendes Beispiel - Mir ist schon klar, das da vom AD Wandler nicht die einzelnen Elektronen gezählt werden.

Nur wenn ich hier mit Ladungseinheiten in zehnerpotenzen und mit eV als Maßeinheit anfange versteht es halt keiner.

Andererseits ändert es auch nichts daran, das 4096 Stufen pro Farbe mehr ist als 256 Stufen pro Farbe und das die Stufen pro Farbe nichts aber auch garnichts mit dem Maximal aufzeichenbaren Lichtkontrast auf dem Chip zu tun hat.

Wir sprechen hier von den Teilen vor dem AD - Wandler und nicht vom elektrokram dahinter.

KaoTai

Beitrag von KaoTai » Sa Nov 11, 2006 6:43 pm

DSP hat geschrieben: und dass die Stufen pro Farbe nichts aber auch garnichts mit dem Maximal aufzeichenbaren Lichtkontrast auf dem Chip zu tun hat
Ja, aber die "Stufen pro Farbe" sind doch das einzige, was als Kontrastinformation hinterher in der Datei drinsteckt, oder nicht ? :shock:

Gast

Beitrag von Gast » Sa Nov 11, 2006 8:49 pm

Nicht ganz was du meinst ist der Tonwertumfang also ob der Kontrast (Bei SW einfacher zu erklären) mit 256,1024 oder 4096 Graustufen dargestellt wird.

Der Kontrast bei einem SW-Ausdruck von einer Textseite hat ja auch nur 1Bit (Schwarz oder Weiß) und trotzdem ist der Kontrast genauso groß wie wenn ich da ein Bild mit 256 Graustufen ausdrucke (8Bit).

Nur bei letzterem sind halt noch 254 zusätzliche Tonwerte zwischen Maximum (Weiß) und Minimum (Schwarz).

Die Dynamik beschreibt wie groß der Unterschied zwischen Schwarz und Weiß ist.

Die Eingangsdynamik beschreibt, welchen Unterschied an Helligkeit der CCD/CMOS nutzbar unterscheiden kann.

Der Analog Digital Wandler verteilt diese Werte dann erstmal auf RAW-Bittiefe Werte - also im allgemeinen auf 4096 Stufen pro Farbe.

Wenn in JPG gespeichert wird werden diese 4096 Stufen nochmal (+ Bearbeitung bzgl. Weißabgleich, Kontrast usw.) auf 256 Stufen pro Kanal reduziert wobei aber der kleinste und größte Wert immer dem Minimum oder Maximum der Eingangsdynamik entspricht (und nur dazwischen die Werte anders zugeordnet werden).

Eine Kamera deren CCD als mehr Kontrast bewältigt (meistens halt durch größere Pixel) kann diesen auch in einem JPG wieder geben, wobei dann die Abstufungen in Kontrastarmen Bildern schlechter sind (die feinen Abstufungen gehen flöten).

Dirk

Oliver G.
postet ab und zu
Beiträge: 62
Registriert: Do Okt 19, 2006 9:00 am
Wohnort: Nähe Wiesbaden

Beitrag von Oliver G. » Mi Nov 29, 2006 3:53 pm

Um noch einmal kurz auf mein Ursprungs-Problem zurück zukommen:

Bei gleicher MP-Zahl ist es (immer?) besser wenn der Chip größer ist, oder?
Wenn ich jetzt in die Zukunft blicke: Heißt das die Folge der größeren MP-Zahlen immer größere Chips benötigt. So dass diese dann auch über das Vollformat hinausgehen? Weil doch sonst mit steigender MP-Zahl wieder die Pixel zu dicht auf dem Chip liegen würden. Oder wird es nach oben irgendwann eine max. MP-Zahl geben, die man nicht überschreiten brauch?
Welche Auflösung hat eigentlich ein analoge Kleinbild-Film? Weil dies wäre doch die max. Pixelzahl, die man auch in der digitalen Welt bräuchte, oder?
So viel ich weiß, ist ja ein ISO 100 Film feinkörniger (kleinere Pixel) als ein ISO 400 Film. Also müsste ein ISO 100 auch eine höhere Pixelzahl als ein ISO 400 Film haben. Wäre dann die Pixelzahl eines ISO 100 Films nicht das Max. der benötigen Pixel in der digitalen Welt?

Ciao Oliver

PS: Hoffe, ihr versteht, was ich meine.

Antworten

Zurück zu „Digitale Fotografie“


>> DAS NEUE FOTOTALK <<