• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Juni 2024.
    Thema: "Wiederholung"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Juni-Wettbewerb hier!
WERBUNG

Schärfentiefe bei Mittelformat?

[...]
Bei der Produktfotografie gilt allerdings auch: wichtiger als die Kamera ist das Licht / die Ausleuchtung und das handwerkliche Geschick des Menschen hinter dem Apparat. Ein versierter Fotograf wird wohl in den meisten Fällen ein besseres Ergebnis mit einer KB-Ausrüstung (meinethalben auch mit Tilt-Optik) hinbekommen, als ich mit einer Sinar Großformatkamera mitsamt Grandagon.

(y)
So isses.
 
Ein versierter Fotograf wird wohl in den meisten Fällen ein besseres Ergebnis mit einer KB-Ausrüstung (meinethalben auch mit Tilt-Optik) hinbekommen, als ich mit einer Sinar Großformatkamera mitsamt Grandagon.

Weil?

(ich hoffe mal, das sollte nicht nur ausdrücken, dass man mit jedem Equipment schlecht umgehen kann...)
 
Aber die größeren Formate nehmen mehr auf. Natürlich nehmen sie nicht einfach nur Unschärfe auf: Wenn sich die Schärfeebene durch die Mitte des Fotos zieht, dann wird sie in den Randbereichen natürlich fortgeführt. "Oben" und "unten" geht es dann aber im Raum weiter nach hinten/vorne, und damit werden diese Bereiche unschärfer.

Deswegen kann dann bei gleicher Brennweite und Blende auf dem Foto eines kleineren Sensors fast die gesamte Fläche scharf sein, während beim Foto eines größeren Sensors viel mehr Unschärfe erkennbar ist – einfach weil bei gleicher Brennweite viel mehr abgebildet wird und so auch Bereiche abseits der Schärfeebene sichtbar sind. Deshalb sind die äquivalenten Werte zum Vergleichen sinnvoller (das war mein ursprünglicher Punkt).
Nein, ich glaube, Du beschreibst es falsch. Die Aussagen "Schärfe" und "mitte" und "raum weiter vorne und hinten" beschreibt es nicht korrekt. Die Schärfeebene eines Bildes liegt wie eine Glassplatte in einer bestimmten Tiefe im Raum. Diese Ebene ist im Idealfall plan und verläuft parallel zum Sensor (bei einer normalen Optik). Du beschreibst es so, als ob die Unschärfe des größeren Sensors entsteht, dem ist nicht so. Sie entsteht auch nicht, weil "mehr drauf ist", sondern schlicht und ergreifend durch die größere Brennweite.

Ich bin nicht sicher, ob wir aneinander vorbei reden, oder Du nur ein "ungeschicktes" Beispiel genommen hast.
 
Nunja bei MF Rückteilen kommt man schon schnell auf 5% und mehr, aber natürlich macht das alleine den Braten auch nicht fett. Es ist halt aber eine Rauschquelle die eben mit einem digitalem Pixel verhindert werden könnte. Und das wahrscheinlich um einen noch größeren Faktor da ja früher umgewandelt wird.
Von was genau redest Du, und was hat es mit dem Thema hier zu tun ?
 
Nein, ich glaube, Du beschreibst es falsch. Die Aussagen "Schärfe" und "mitte" und "raum weiter vorne und hinten" beschreibt es nicht korrekt. Die Schärfeebene eines Bildes liegt wie eine Glassplatte in einer bestimmten Tiefe im Raum. Diese Ebene ist im Idealfall plan und verläuft parallel zum Sensor (bei einer normalen Optik).
Ja. Aber je weiter ein Objekt von dieser Schärfentiefe entfernt ist, desto unschärfer wird es abgebildet. Und je mehr Bildinhalt eine Kamera bei gleicher Brennweite aufnimmt (also je größer der Blickwinkel bei gleicher Brennweite ist), desto mehr Objekte aus diesem unscharfen Bereich kommen aufs Bild.

Du beschreibst es so, als ob die Unschärfe des größeren Sensors entsteht, dem ist nicht so. Sie entsteht auch nicht, weil "mehr drauf ist", sondern schlicht und ergreifend durch die größere Brennweite.
Ein größerer Sensor nimmt bei gleicher Brennweite mehr Bildfläche auf – siehe Cropfaktor. Die Brennweite ändert sich doch durch die Sensorgröße nicht!?

Ich glaube auch, dass wir aneinander vorbeireden, aber ich weiß nicht genau wieso.
 
Und je mehr Bildinhalt eine Kamera bei gleicher Brennweite aufnimmt (also je größer der Blickwinkel bei gleicher Brennweite ist), desto mehr Objekte aus diesem unscharfen Bereich kommen aufs Bild.

Das ist eine ziemlich missverständliche Darstellung, die Du Dir abgewöhnen solltest. Wo im Bild wieviel in der Fokusebene oder davor und dahinter liegt, ist vollkommen willkürlich, deshalb solltest Du damit auch nicht argumentieren.


Gruß, Matthias
 
bei einem CMOS Sensor mit digitalen Pixel ...

Schon wieder - kennst Du auch Sensoren mit analogen Pixeln? Würde mich als Ingenieur interessieren.



Hoppla ... dann hab ich mich wohl irritieren lassen, weil die größeren Sucherbei MF und GF in meinen Augen immer dunkler erschienen ... vielleicht lag das an der schlechten Mattscheibe. :devilish:
Das ist in der Tat so - die Mattscheibe meiner alten Hassi C500 - einst ein Top-Modell - ist aus heutiger Sicht kaum brauchbar.
Das gilt aus andren Gründen auch für das winzige Sucherchen früher Leicas.
 
Zuletzt bearbeitet:
Das ist eine ziemlich missverständliche Darstellung, die Du Dir abgewöhnen solltest. Wo im Bild wieviel in der Fokusebene oder davor und dahinter liegt, ist vollkommen willkürlich, deshalb solltest Du damit auch nicht argumentieren.
Ich hatte typische Motive wie Portraits im Kopf, aber du hast natürlich Recht. Ich beschäftige mich nebenbei mit der Brenizer-Methode, dort geht es um die Vergrößerung des Blickwinkels bei gleicher Brennweite (durch Panorama-Aufnahmen), um eben mehr Unschärfe ins Bild zu bekommen für einen plastischeren Bildeindruck. Daher kommt mein Blick auf das Thema, aber natürlich ist das eine spezielle Anwendung, bei der man die Schärfentiefe gezielt in die Komposition einbaut. Also – sorry für die Verwirrung, die ich gestiftet habe!
 
ArtooDetoo schrieb:
Beispiel:
Ich mache zwei Bilder, gleiche Perspektive und gleicher Bildausschnitt.
Einmal im Kleinbildformat und einmal Mittelformat.
Die Schärfentiefe soll bei beiden gleich sein.
Unterscheidet sich dann die Beugungsunschärfe?
Wenn man von Effekten wie sphärischer Aberration absieht und
Nachbearbeitungen rausläßt (Focus Stacking, kodierte Blende),
sind Schärfentiefe, Beugung und die räumliche Lichtausbeute fest
miteinander verkoppelt.

Sie sind keine Eigenschaft des Objektivs, sondern des aufgefangenen
Lichtbündels.

Amen, das bringt es m.E. auf den Punkt. Wenn ich den gleichen Bild-Eindruck gewinnen will (Schärfentiefe, Belichtungszeit, Ausgabegröße), dann ist es theoretisch vollkommen egal, wie groß das Aufnahmemedium ist, solange die Auflösung des Mediums für die gewünschte Ausgabe ausreicht. Auf die Gesamtfläche des Sensors oder Films fällt immer exakt die gleiche Lichtmenge bzw. Anzahl Photonen.

Das ist dann, neben eventuellen Verbesserungen beim Herstellen von Mattscheiben, auch der Grund, warum das Mattscheibenbild einer Mittel- oder Großformatkamera dunkler erscheint als z.B. bei einer KB. Es fällt die gleiche Menge Licht auf eine größere Mattscheibe, die wirkt dann dunkler. Drum hängt man sich beim Fotografieren mit Großformat ja auch dieses schicke schwarze Tuch über den Kopf. Betrachtet man die Mattscheibe dann durch einen Sucher, der dem Auge den gleichen optischen Winkel bietet, sollte alles wieder gleich sein. Bei Großformat ist das halt nicht wirklich praktikabel.

Weswegen Mittel- bzw. Großformat immer noch eine sinnvolle Rolle spielt haben ja andere schon geschrieben: Aufgrund des größeren optischen Systems sind auch größere Toleranzen möglich, sowohl bei den Optiken, der Mechanik und auch den Sensoren. Man stelle sich mal ein Balgengerät oder gar eine optische Bank vor, die auf mFT-Format verkleinert ist und entsprechend winzige Toleranzen bei der Fertigung und Bedienung braucht, um den gleichen Effekt zu erreichen wie an einer 8 x 10 Zoll Platte mit der 240fachen Fläche bzw. mehr als 15fachen Diagonale.

Aber vielleicht gibt es ja demnächst mal APS-C-Sensoren mit 100 Megapixel und Optiken mit Blende 0.25, die das auch entsprechend auflösen können.

Joe
 
Aber vielleicht gibt es ja demnächst mal APS-C-Sensoren mit 100 Megapixel und Optiken mit Blende 0.25, die das auch entsprechend auflösen können.

100 MP werden es wohl nicht werden, da bleibt schlicht der Nutzwert auf der Strecke. Aber APS-C Sensoren im Bereich 30-40 MP werden über kurz oder lang den Normalfall darstellen.

Übrigens brauchst Du auch für Deinen imaginären 100 MP APS-C Sensor nicht f/0.25. Als Faustregel für die größte noch ohne Beugungseffekte nutzbare Blende geht man von einer dem doppelten Pixelpitch entsprechenden Blende aus, da wäre also f/3.5 noch völlig unproblematisch. Eine Systemkamera wie die Pentax Q hat schon heute eine höhere Pixeldichte als sie Dein 100 MP APS-C Sensor hätte.

cv
 
Es fällt die gleiche Menge Licht auf eine größere Mattscheibe, die wirkt dann dunkler.

Bei gleicher Blende(nzahl) fällt gleich viel Licht pro Fläche auf den Sensor/die Mattscheibe. Insgesamt also um das Flächenverhältnis mehr. Nur bei gleicher äquivalenter Blende ist die gesamte Lichtmenge gleich.

Aber vielleicht gibt es ja demnächst mal APS-C-Sensoren mit 100 Megapixel und Optiken mit Blende 0.25, die das auch entsprechend auflösen können.

Blende f/0,25 wird nichts werden. 100MP wären nicht unpraktisch, dann kommste ohne optischen AA-Filter aus.


Gruß, Matthias
 
100 MP werden es wohl nicht werden, da bleibt schlicht der Nutzwert auf der Strecke.

Das erzähl mal den Leuten, die jetzt die 100 und 200 MP-Bilder im Rahmen ihrer Arbeit machen :D

Übrigens brauchst Du auch für Deinen imaginären 100 MP APS-C Sensor nicht f/0.25. Als Faustregel für die größte noch ohne Beugungseffekte nutzbare Blende geht man von einer dem doppelten Pixelpitch entsprechenden Blende aus, da wäre also f/3.5 noch völlig unproblematisch. Eine Systemkamera wie die Pentax Q hat schon heute eine höhere Pixeldichte als sie Dein 100 MP APS-C Sensor hätte.

Es ging nicht um die minimale Blende, ab der Beugungsunschärfe auftritt, sondern darum, was ich brauche, um mit einem 'kleinen' Sensor den gleichen Bildeffekt hinsichtlich Tiefenschärfe zu erreichen, wie mit Mittelformat oder gar Großbild.

Bei gleicher Blende(nzahl) fällt gleich viel Licht pro Fläche auf den Sensor/die Mattscheibe. Insgesamt also um das Flächenverhältnis mehr. Nur bei gleicher äquivalenter Blende ist die gesamte Lichtmenge gleich.

Und davon hab ich ja die ganze Zeit gesprochen - äh, geschrieben. Vergleiche zwischen unterschiedlichen Sensor-Größen machen nur bei gleicher äquivalenter Blende Sinn.

Blende f/0,25 wird nichts werden. 100MP wären nicht unpraktisch, dann kommste ohne optischen AA-Filter aus.

Q.E.D. Ergo die Daseinsberechtigung für Mittel- und Großformat auch in der heutigen Zeit.

Cheers

Joe
 
Sony will bereits 2013 funktionsfähige organische Sensoren (fragt mich nich ...) mit 80MP+ bei APS-C herstellen und schnell auf über 100MP kommen, also seid nicht so zurückhaltend mit euren Prognosen! :D
 
Gutes Argument (y) Wenn man die Ausgangsblenden zumindest aktueller Wechselobjektive der jeweiligen 'Ligen' ansieht, zeigt sich, dass es bei den kleineren Sensoren an bezahlbaren Objektiven mit der nötigen Offenblende hapert. Für mich spricht das bei APS-C oder gar mFT für elektronische Sucher, die das kompensieren. Ein Voigtländer Nokton mit f0,95 an mFT ist ja schon richtig schick aber auch schweineteuer. Wo wir wieder bei der Daseinsberechtigung für die größeren Sensorformate wären ...

Joe
 
Nunja so ziemlich die meisten sind das?! Die entstehende Ladung am Pixel wird ja erst nach dem Transport zum AD Wandler digitalisiert.

Photonen und Ladungen (Elektronen) sind auch "digital", und die werden auch bei einem Deiner "digitalen Sensoren" nicht einfach gezählt. Im übrigen verstehe ich weiterhin nicht, welche dramatischen Verbesserungen Du da erwartest, wenn sowieso nur maximal 5% verloren werden. Dieser Effekt ist Bestandteil des Ausleserauschens, und das spielt bei modernen Sensoren nur noch bei sehr geringer Belichtung/hohen ISO eine Rolle. Sonst dominiert das unvermeidbare Photonenrauschen. Und erst recht verstehe ich nicht, was das mit "Schärfentiefe bei Mittelformat" zu tun hat.


Gruß, Matthias
 
Es hat rein gar nichts damit zu tun, habe es ja schon oft genug als ot deklariert. Trotzdem würde ich mal eine Erklärung zu deinen "digitalen" Elektronen haben.
 
WERBUNG
Zurück
Oben Unten