Du hast so recht. (Fast) keine Unterschiede ;)prime hat geschrieben: ↑Mi 12 Jul, 2023 12:28 Viel Aufwand und das Ergebnis ist nicht mal marginal besser als klassische Greenscreen Setups. Generell halte ich die Idee sich die Farben erstmal komplett zu vermurksen um sie dann per ML/KI Modelle wiederherzustellen als komplett daneben. Die Autoren behaupten zwar ihr "recoloring" wäre temporal stabil, aber was haben die getestet, ein oder zwei Sequenzen?
Von optical flow und motion blur sich wieder reinrechnen fange ich erst gar nicht an, beides berühmt berüchtigt für artefakt-freie Bilder, nicht wahr? ;-P
So wie ich das verstehe, geht es gerade darum, Optical Flow und künstliches Motion Blur NICHT verwenden zu müssen ;)
Kannste dir sowieso nicht leisten, die Technik ;)TheGadgetFilms hat geschrieben: ↑Mi 12 Jul, 2023 13:48 Warm WB auf das Grün, kälter auf die Person. Schon immer so gemacht. Verstehe die Frage nicht.
Vor allem dürfte das ein Alptraum für die Leute vor und um die Kamera sein, wenn sie den ganzen Tag auf diese schrecklichen Farben starren müssen. Das ist ja bereits bei grün schlimm genug, aber jetzt noch Magenta?prime hat geschrieben: ↑Mi 12 Jul, 2023 12:28 Viel Aufwand und das Ergebnis ist nicht mal marginal besser als klassische Greenscreen Setups. Generell halte ich die Idee sich die Farben erstmal komplett zu vermurksen um sie dann per ML/KI Modelle wiederherzustellen als komplett daneben. Die Autoren behaupten zwar ihr "recoloring" wäre temporal stabil, aber was haben die getestet, ein oder zwei Sequenzen?
Von optical flow und motion blur sich wieder reinrechnen fange ich erst gar nicht an, beides berühmt berüchtigt für artefakt-freie Bilder, nicht wahr? ;-P
Ja, deswegen wird das auch nicht gemacht.macaw hat geschrieben: ↑Mi 12 Jul, 2023 16:13Vor allem dürfte das ein Alptraum für die Leute vor und um die Kamera sein, wenn sie den ganzen Tag auf diese schrecklichen Farben starren müssen. Das ist ja bereits bei grün schlimm genug, aber jetzt noch Magenta?prime hat geschrieben: ↑Mi 12 Jul, 2023 12:28 Viel Aufwand und das Ergebnis ist nicht mal marginal besser als klassische Greenscreen Setups. Generell halte ich die Idee sich die Farben erstmal komplett zu vermurksen um sie dann per ML/KI Modelle wiederherzustellen als komplett daneben. Die Autoren behaupten zwar ihr "recoloring" wäre temporal stabil, aber was haben die getestet, ein oder zwei Sequenzen?
Von optical flow und motion blur sich wieder reinrechnen fange ich erst gar nicht an, beides berühmt berüchtigt für artefakt-freie Bilder, nicht wahr? ;-P
Nicht gleich schreien: Es taugt nichts! :)prime hat geschrieben: ↑Mi 12 Jul, 2023 12:28 Viel Aufwand und das Ergebnis ist nicht mal marginal besser als klassische Greenscreen Setups. Generell halte ich die Idee sich die Farben erstmal komplett zu vermurksen um sie dann per ML/KI Modelle wiederherzustellen als komplett daneben. Die Autoren behaupten zwar ihr "recoloring" wäre temporal stabil, aber was haben die getestet, ein oder zwei Sequenzen?
Von optical flow und motion blur sich wieder reinrechnen fange ich erst gar nicht an, beides berühmt berüchtigt für artefakt-freie Bilder, nicht wahr? ;-P
Du meintest sicher maritime...
Eigentlich nicht ... aber wenn du denkst :)
Was noch dazu heutzutage kein Hexenwerk zum QCen auch am Set ist. Inklusive Live-Compositing.
While manual keying techniques could certainly succeed in keying this green screen shot, we are interested in an automated, reliable matting technique which makes no restrictions on what the actor wears or how they move.
In each case, the technique [Time-Multiplexed Triangulation Matting] works well except when there is significant subject motion, and optical flow is relied upon to align the channels of the foreground element and/or the matte from neighboring frames recorded at 48fps.
The remaining drawback of time-multiplexing in this manner is that the shorter shutter angle reduces the amount of motion blur, which is considered desirable for cinema.
... we can address the problem in our Time-Multiplexed Magenta Green Screen technique by computing optical flow and using the flow not only to temporally align adjacent frames, but also to add simulated 180 degree motion blur to the images. We show an example of this in Figure 7 and in the accompanying video.
Ich glaube nicht, dass sie sich widersprechen, sondern sie zeigen verschiedenen Wege auf. Oder Stadien des Prozesses.prime hat geschrieben: ↑Do 13 Jul, 2023 12:43 Optical flow wird verwendet für frame-alignment (wenn deren Time-Multiplex Triangulation Verfahren nicht funktioniert) und auch für künstliches Motion Blur. Aber wehe es bewegt sich jemand zu schnell. Da widersprechen die sich auch ein wenig.
While manual keying techniques could certainly succeed in keying this green screen shot, we are interested in an automated, reliable matting technique which makes no restrictions on what the actor wears or how they move.In each case, the technique [Time-Multiplexed Triangulation Matting] works well except when there is significant subject motion, and optical flow is relied upon to align the channels of the foreground element and/or the matte from neighboring frames recorded at 48fps.The remaining drawback of time-multiplexing in this manner is that the shorter shutter angle reduces the amount of motion blur, which is considered desirable for cinema.
... we can address the problem in our Time-Multiplexed Magenta Green Screen technique by computing optical flow and using the flow not only to temporally align adjacent frames, but also to add simulated 180 degree motion blur to the images. We show an example of this in Figure 7 and in the accompanying video.
(ich muss mich in englisch ganz schön strecken, dass zu verstehen)The ML colorization technique to reconstruct the green channel of Time-Multiplexed Magenta Green Screen has the advantage that no optical flow is required to align channels, and it can be applied to Time-Multiplexed Magenta Green Screen footage just as it can be to non-Time-Multiplexed Magenta Green Screen footage.
Glaub nicht. Bei den time based Verfahren wird grundsätzlich das Nachbarbild zur Generierung des (fehlenden) Grünkanals benutzt. Dafür braucht man dann Optical Flow. Hier wird EIN Bild jeweils zur Hälfte (1/48) Margenta und danach Grün belichtet. Damit kann man den Grünkanal Rekonstruieren und hat den Motion Blur aus dem 1/24-belichteten Gesamtbild.prime hat geschrieben: ↑Do 13 Jul, 2023 13:13 Der Teil den du zitiert hast bezieht sich glaub ich nur auf die "ML colorization". Für Szenen die mit 48fps und entsprechend kürzeren Belichtungszeiten gefilmt wurden nutzen sie optical flow um die Bewegungsunschärfe wieder dazuzurechnen.
Ob jetzt ein KI-Modell oder optical flow irgendwas wieder neurechnet, beides nicht berühmt für artefaktfreie Bilder.
Dazu braucht man doch keine KI.
Ahh - das ist also der Ansatz.dienstag_01 hat geschrieben: ↑Do 13 Jul, 2023 11:09 Wie ich das Papier verstehe:
Komlimentärfarben zur Generierung eines Alphakanals, also beste Bedingungen.
Damit Schauspieler nicht in Margentalicht agieren müssen, wird es mit Grün gewechselt. Für das Auge neutralisieren sich die Farben, die Kamera nimmt Margenta auf (bei abgestimmter Frequenz).
Der resultierende Farbstich wird mit Machine Learning Algorythmen entfern. Dazu werden die Schauspieler vor neutralem Hintergrund gefilmt.
Vorteil: bestmöglicher Alphakanal, keine Bewegungsalgorythmen (Optical Flow) nötig, vollautomatisch
Nachteil: derzeit nicht live anwendbar, da das Training des Colorization Models zu lange dafür dauert.
Aber da haben die auch schon gute Idden ;)
Margenta ist die gegenderte Variante.medienonkel hat geschrieben: ↑Do 13 Jul, 2023 22:15 Für Margenta schmiert man dann Margarine auf die Leuchten, oder wie? 😜
Jan Ulrich und Manfred Krug wissen:
Es heißt Magenta.
(Vielleicht klappt's ja mit der Telekom Variante dann auch beim Motion Blur...)
Erinnert irgendwie ein wenig ans Bipack-Verfahren.
Es heißt gerendert, soviel Zeit muss sein :Pdienstag_01 hat geschrieben: ↑Do 13 Jul, 2023 22:51 Margenta ist die gegenderte Variante.
Nicht gewusst, hm?!