cantsin hat geschrieben: ↑Mo 27 Mär, 2023 09:26
Frank Glencairn hat geschrieben: ↑Mo 27 Mär, 2023 08:57
Die Bittiefe ist nur die Anzahl der möglichen Abstufungen zwischen den beiden Dynamik Brackets, hat aber nix mit der Dynamik selbst zu tun.
Umgekehrt wird aber ein Schuh draus: Für adäquate Log-Aufnahmen von Sensoren mit hoher Dynamik braucht man mehr Bittiefe. Z.B. hat Arri bei LogC4 (dem neuen Log-Format für Arri LF-Kameras) die Bittiefen-Anforderung an den Aufzeichnungscodec von 10bit auf 12bit erhöht. (Quelle:
https://www.arri.com/resource/blob/2787 ... n-data.pdf )
Ja, deshalb wird jeder Hersteller die entsprechenden Log-Kurven auch auf die Sensoren mit der größten Dynamik ausrichten, und nicht nach jenen mit der niedrigsten. Dass Log bei 8-Bit (obwohl die Profile durchaus manchmal verfügbar sind, selbst in den Kameras) nicht die beste Idee ist, sollte sich ja herumgesprochen haben.
Das liegt dann aber an den 8-Bit und nicht an der Logkurve, denn die funktioniert mit 10-12 hervorragend.
Was Frank glaube ich sagen wollte - zumindest habe ich ihn so verstanden: Versteh die 12-Bit nicht als höhere Maximaldynamik. Jetzt meine Worte: Sondern eher als Samplingrate um Audio als Vergleich zu bedienen. Speicher die 12 Blenden vom Sensor in 12Bit und Du hast, 4096 Werte pro Kanal, speicherst du die 10 Bit weg hast Du nur mehr 1024 pro Kanal aber unter Umständen fast die gleiche Dynamik (immer noch 12 Blenden) weil die Minimal und Maximalwerte trotzdem am Ende gleich liegen. Die Hersteller werden unter der Haube schon angepasste Kurven verwenden (müssen) - allein wegen der anderen Wert-"Bennenungen" (256 "Weiß" 8-Bit, 1024 "Weiß" 10-Bit), aber das ändert nichts am Verlauf der Kurve selbst.
Das zeigt quasi jeder synthetische Dynamiktest ganz gut, die Dynamik ist fast immer ein inherentes Merkmal des Sensors (oder des Sensors + der AD/s) und nur an den extremen Randbereichen der Argumentation findest du wirklich größere Dynamikunterschiede: Raw bringt nicht mal eben 1 Blende mehr, nur weil jetzt 12-Bit gespeichert wird statt 10-Bit. Vielleicht eher im Bereich einer halben Blende max. Mit 8 Bit sieht das wieder anders aus (aber da bewegen wir uns eben am untersten Rand der Möglichkeiten), umgekehrt bringt 16 nicht nennenswert mehr Blenden als 12. Die Quantisierung / Log-Kurve / Speicherung generell ist normalerweise nicht mehr der Flaschenhals, sondern eher was vom Sensor kommt - mit Ausnahme der vordersten Dynamikfront: Alexa 35.
Arri hat somit eben wieder am unteren Ende aufgeräumt: Mit LogC4 sollte nicht in 10-Bit weggespeichert werden, weil die Quantisierung seit LogC4 dafür nicht ausgelegt ist. Äquivalent dazu, wie (mittlerweile muss man das ja fast sagen) vor Jahren die gängigen 8-Bit nicht von Log-Profilen generell profitiert haben. Da bewegen wir uns allerdings an der vordersten Front der Sensorentwicklung mit der höchsten Dynamik in einem für Bewegtbildanwendungen tauglichen Sensor (im industriell-wissenschaftlichen Bereich gibt es sicher noch mehr, da kommt aber am Ende kein Kinobild raus) - weswegen sie jetzt auch die Raw-Speicherung von 12 Bit Log auf 13 Bit Log hochgespect haben. Aber das ist ein Bit für angegebene 3 Blenden mehr, welche der neue Sensor vgl mit ALEV3 können soll (in der Praxis sind es wohl auch knapp nur mehr als eine Blende SNR2 als ALEVIII, im CineD Standardtest hat die Mini LF 13.8 SNR2, die Alexa 35 15.1 SNR2).
Deine Argumentation liegt theoretisch sicher richtig und an den untersten Randbereichen zeigt sich das auch in der Praxis, in der breiten Praxis aber sind die Probleme andere: Die meisten Kameras mit denen gedreht wird haben noch nicht mal flächendeckend AD-Konverter, die überhaupt mehr als 12-Bit für Bewegtbildraten auslesen könnten, da steht sehr viel um die "magischen" 12-Blenden und das meiste liegt da noch darunter mit mittlerweile einigen Ausnahmen, die knapp darüber landen - und die schaffen das eher aufgrund des guten Denoisings statt 12-Bit interner Speicherung. In der Klasse zeigt sich eigentlich recht deutlich: Selbst externe 16-Bit (Wo die her kommen sollen ist ein anderes Thema) zeigen meist weniger Dynamik als das herstelleroptimierte, kamerainterne 10-Bit Profil mit Firmware-Level-Denoising.
Da sind solche Argumente einfach nicht das Thema, weil ohnehin dann nur in 10-Bit gespeichert wird, keine 12-Möglich sind und wenn 12 möglich sind oder von 14 auf 10 runter, dann scheitert es eher an der Implementierung als an der Technik (siehe Nikon, Fuji, etc.). Arri hat in den letzten 10 Jahren gezeigt, dass man auch 13.8-Blenden in 10-Bit speichern kann und die Log-Kurve nicht limitiert - mit 15.1 Blenden scheint das nicht mehr möglich zu sein, aber dann gibt es genau eine Kamera, die das "Problem" hat. Also in der Theorie hast Du sicher Recht, in der Praxis gibt es davor noch zig andere Baustellen.
PS: Umgekehrt betrachtet ist auch recht klar, wie wenig Einfluss Quantisierung selbst auf Dynamik hat: Um selbst Highest End HDR zu realisieren hat der Sprung von den (objektiv veralteten) 8-Bit auf 10-Bit mehr als ausgereicht um zukunftssichere HDR-Implementierungen zu ermöglichen. Da limitieren einfach wieder andere Faktoren: Panelhelligkeit, Bandbreite, Kompression. Setzt man das fort: Würde ein 12-Bit Stream/Projektion im momentanen Praxisumfeld irgendwelche Vorteile bieten? Ganz im Gegenteil.