EMFOTO hat geschrieben:Auch auf die Gefahr hin, dass ich mich jetzt logisch-fototechnisch-physikalisch blamiere:
Die optische Drehung hat ja auf ihrem Weg durchs Objektiv schon stattgefunden: Was in der Realität links von links unten kam, ist nun rechts oben. Wenn nun an dieser Stelle der Sensorfleck liegt, verdunkelt er nun den Bereich, der ehemals links unten lag. So geht nun die ganze Information in die Datenverarbeitung der Kamera, dort wird das Bild um 180° gedreht, der Sensorfleck müsste wieder links unten erscheinen.
Meine ganze Überlegung setzt einen Standpunkt hinter dem fotographierten Objekt und in gegenüberliegender Stellung zur Kamera voraus:
Betrachter ---> Motiv <--- Kamera
VG, Michael
Das ist alles richtig, was du schreibst.
Wenn du dir den Sensor von hinten vorstellst (sehen kannst du ihn von da ja nicht), ist das Objekt, das du durch den Sucher links unten erblickst, dann rechts oben (und zwar seitenverkehrt und auf dem Kopf stehend). Die Korrektur übernimmt dann der Prozessor der Kamera wie bei unserem Auge unser Gehirn.
Wenn du dir den Sensor nun als Scheibe vorstellst (mit dem Objekt rechts oben) und dann um die Scheibe herumgehst, dann siehst du das Objekt links oben. Und das ist genau die Situation, die vorliegt, wenn du in den Spiegelkasten guckst.
Übrigens: Ich kann den Punkt sehen; er liegt links oben. Aber trotzdem kann ich ihn nicht wegwischen.
Was für mich nur einen Schluss zulässt: Das Staubkorn wurde bei der Produktion zwischen Filter und Sensor eingeschlossen.
Ist nicht wirklich schlimm (ich fotografiere nur sehr selten mit kleiner Blende monochrome Flächen, und falls doch, kann man ja immer noch stempeln), aber irgendwie wurmt es mich doch ein bisschen.