• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Juni 2024.
    Thema: "Wiederholung"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Juni-Wettbewerb hier!
WERBUNG

Pixelgröße/-aufteilung, 24MP Bild -> FHD/4k Video

Arlen

Themenersteller
Hintergrund der frage ist der einsatzbereich in sachen astro videos (planeten).

Als bsp. nehm ich mal die sony zv e10
APS-C, CMOS 23.5x15.6mm, 3.92µm Pixelgröße (3,92 x 4,62 µm um genau zu sein)
bei 6000x3376(16:9) pixeln (23,5 / 6 = 3,92 passt also)

Wie werden die pixel denn bei einem 4k (3840x2160) video aufgeteilt/zusammengefasst?!
Mal 2 pixel zu einem, dann wieder ein einzelnes und wieder zwei zusammen?
Und was passiert bei 1080p? Hab ich dann noch mal doppel so große pixel?

Kann ich der kamera sagen: nimm pixelgenau die 3840x2160 im zentrum? (alternative/gepimpte firmeware?)
Mit dem Verlust an "sensorgröße". Vermutlich nicht, aber wäre ja mal eine (zugegebener maßen sehr spezielle) idee.
 
Beide Verfahren zur Pixelreduzierung scheinen vertreten zu sein(1).

Weiterhin macht bereits die Atmosphäre aus jedem Sternen"punkt" einen endlich großen Fleck. Für Deine Anforderungen musst Du schon auf den Mond umziehen.

Auch das Bild eines "Punktes" ist mindestens wegen Limits aus der Wellenoptik ein Fleck. Die Größe des Flecks erstreckt sich bei uns immer über mehrere Pixel, wie die 100% oder größere Ansicht einer scharfen Kante in jedem Foto belegt. Mittels EBV kriegst Du aber alles hin.

Betrachtest Du nun das Bild des "Punktes", macht das Auge erneut Unschärfen dazu. Sollte es aber wider erwarten doch wie ein weißer Punkt statt eines grauen Fleck aussehen, liegt das an unserer betrügerischen EBV zwischen den Ohren.

Aber vielleicht kommen ja Antworten, die Dir den Spaß doch erhalten wollen.
LG, Wolfgang

1. https://www.adobe.com/de/creativecloud/video/discover/video-resolution.html
 
Weiterhin macht bereits die Atmosphäre aus jedem Sternen"punkt" einen endlich großen Fleck. Für Deine Anforderungen musst Du schon auf den Mond umziehen.
Das ist für das thema planeten zum glück nicht korrekt und auch beim thema sterne ist die aussage nur teilweise richtig.

Meine frage bezog sich speziell auf das thema planeten.
 
…Kann ich der kamera sagen: nimm pixelgenau die 3840x2160 im zentrum? …
Das ist gar nicht so wünschenswert, wie du denkst!;)

Denn die (z.B.) 24 Megapixel des Sensors in einer Systemkamera sind nach dem "Bayer-Muster" schachbrettartig angeordnet, d.h. es gibt 12 MP die nur die Grüntöne, 6 MP die nur die Rottöne und 6 MP die nur die Blautöne aufnehmen. Alle anderen Farbtöne der einzelnen Pixel werden interpoliert/per Software 'abgeschätzt'.

Bzgl. "4k" werden hier die unterschiedlichen Methoden kurz erläutert
www.hireacamera.com/line-skipping-pixel-binning-and-oversampling-for-video-what-does-it-all-mean/
 
Das ist für das thema planeten zum glück nicht korrekt und auch beim thema sterne ist die aussage nur teilweise richtig.
Die Atmosphäre zeichnet alle Strukturen von Objekten außerhalb der Atmosphäre in gleicher Weise weich. Sie unterscheidet dabei nicht zwischen Raumschiff, Mond, Planet oder Stern. Sie kann es auch gar nicht.
 
d.h. es gibt 12 MP die nur die Grüntöne, 6 MP die nur die Rottöne und 6 MP die nur die Blautöne aufnehmen.
Achja, die bayer matrix...
Damit wäre oversampling mit anschließendem herunterrechnen die optimale variante.
Aber ob das der jeweile sensor bzw die jeweilige kamera macht, müsste in der dokumentation stehen - oder auch nicht ^^

Die Atmosphäre zeichnet alle Strukturen von Objekten außerhalb der Atmosphäre in gleicher Weise weich. Sie unterscheidet dabei nicht zwischen Raumschiff, Mond, Planet oder Stern. Sie kann es auch gar nicht.
Auch das stimmt wieder nicht.. lass das thema doch bitte sein.
 
...
Als bsp. nehm ich mal die sony zv e10
APS-C, CMOS 23.5x15.6mm, 3.92µm Pixelgröße (3,92 x 4,62 µm um genau zu sein)
bei 6000x3376(16:9) pixeln (23,5 / 6 = 3,92 passt also)

Wie werden die pixel denn bei einem 4k (3840x2160) video aufgeteilt/zusammengefasst?!
...
Das kann nicht nur von Kamera zu Kamera differenzieren, sondern sich auch bei den unterschiedlichsten Aufzeichnungsmöglichkeiten einer Kamera unterscheiden.

Konkret bei der ZV-E10 bekommst du bei 4k 24fps ein oversampling aus der kompletten breite. Bei 4k 30fps ein oversampling aus einem x1,23 Crop. Auch bei 1080p wird mit oversampling gearbeitet. Es ist aber in der Regel nicht ratsam in 1080p aufzuzeichnen, da das oversampling in der Kamera auf 1080p verlustbehaftet ist. Ratsamer ist in 4k aufzuzeichnen und dann am PC auf 1080p runterzurechnen.
 
Zuletzt bearbeitet:
Ich merk schon, da kommen höchst unterschiedliche methoden zum einsatz und das sogar innerhalb des gleichen gerätes.
Hätte ich so gar nicht erwartet, aber vielen dank für die aufklärung :)
 
WERBUNG
Zurück
Oben Unten