Newsmeldung von slashCAM:
Mit seiner ersten App macht sich FXhome die Augmented Reality Technologie, welche sich in neueren Apple Mobilgeräten findet, zunutze und bietet Anwendern eine extrem einf...
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Motion Tracking für das iPhone / iPad: CamTrackAR App von FXhome
Antwort von Banana_Joe_2000:
Dazu mal eine Frage: Kann ich die erzeugten Daten auch für eine Aufnahme nehmen, die ich mit einer anderen Kamera gedreht habe? Setup wäre z.B. das iPhone auf der Hauptkamera so zu befestigen, dass der Bildausschnitt so genau wie möglich passt. Dann den iPhone-Clip gegen den Hauptkameraclip austauschen.
Hat das schon mal jemand ausprobiert?
Laienhafte Grüße,
banana
Antwort von Frank Glencairn:
Das wird wegen der Parallaxe, den unterschiedlichen Optiken, und Sensorgrößen nicht funktionieren.
Antwort von Jott:
Steht im Artikel, dass es nicht geht. Ist ja auch logisch.
Antwort von Gabriel_Natas:
Wenn es sowas in einer richtigen Kamera geben würde, das würde VFX-Shots ziemlich vereinfachen. Stellt euch eine Kamera mit eingebauter Linse vor, die dadurch, dass sie kein Wechselmount hat, Verzerrungsfrei aufnehmen kann und gleichzeitig mit einem TOF-Sensor Tracking- und Tiefendaten für alles, was die Kamera sieht, aufzeichnet.
Vielleicht als 1-Zoll-Sensor, 10-Bit-Aufnahme, lichtstarkes Objektiv ... :)
Man müsste dann nicht mehr maskieren, weil man anhand der Tiefendaten sagen kann, was vor dem eingefügten Objekt und was hinter dem eingefügten Objekt ist, man muss nicht mehr aufwendig im Programm tracken ...
Antwort von Frank Glencairn:
Seit wann verzerrt ein Wechselmount?
Antwort von Gabriel_Natas:
"Frank Glencairn" hat geschrieben:
Seit wann verzerrt ein Wechselmount?
Es kommt auf das Objektiv an. Aber z.B. so ziemlich alle MFT Objektive verzeichnen und werden nur digital korrigiert. Wenn man so eine VFX-Kamera bauen würde, wäre es einfacher, wenn es nur ein Objektiv gibt, dass entweder gut gebaut ist oder für das die digitalen Entzerrungen bekannt sind. Bei Wechselobjektiven müsste ja auch der TOF-Sensor entsprechend das entsprechende Objektiv berücksichtigen, was es wieder komplizierter machen würde.
Wenn es nur ein Objektiv gibt, weil es festinstalliert ist, würde das viele Dinge vereinfachen.
Antwort von CameraRick:
Gabriel_Natas hat geschrieben:
Man müsste dann nicht mehr maskieren, weil man anhand der Tiefendaten sagen kann, was vor dem eingefügten Objekt und was hinter dem eingefügten Objekt ist, man muss nicht mehr aufwendig im Programm tracken ...
Das funktioniert leider auch nur solange bis Du mit Reflektionen, transparenten Ebenen oder Motioblur zu tun bekommst. Und die Maskierung innerhalb der Tiefendaten macht, je nach Auftrag, die Sache auch nicht unbedingt angenehmer. Ist halt nur Tiefeninformation und kein Deep Render.
Antwort von roki100:
Banana_Joe_2000 hat geschrieben:
Dazu mal eine Frage: Kann ich die erzeugten Daten auch für eine Aufnahme nehmen, die ich mit einer anderen Kamera gedreht habe? Setup wäre z.B. das iPhone auf der Hauptkamera so zu befestigen, dass der Bildausschnitt so genau wie möglich passt. Dann den iPhone-Clip gegen den Hauptkameraclip austauschen.
warum das wenn es doch passende Programme gibt? Beispiel:
https://www.youtube.com/watch?v=KLF56y8ggng
Antwort von Frank Glencairn:
Gabriel_Natas hat geschrieben:
Wenn es nur ein Objektiv gibt, weil es festinstalliert ist, würde das viele Dinge vereinfachen.
Vereinfachen ja, aber man wäre bei der Aufnahme mit einer Brennweite halt sehr eingeschränkt.
Und die Kamera müßte dann auch in der RED/ARRI/BM Liga spielen, sonst kann ich gleich das iPhone nehmen.
Ich glaub da ist es einfacher und praktikabler das ganze herkömmlich - mit der selben Kamera wie den Rest des Filmes - zu drehen, und das Tracking in der Post zu machen.
Antwort von SteveScout:
Hallo an alle.
Die Frage von banana ist sehr berechtigt und war auch meine erste Frage. Und ja, das geht, aber ich habe es mit der App hier noch nicht probiert. Ist aber einiges an Aufwand. Und zwar befestigen wir des öfteren kleine Witness-Kameras auf einer Alexa, wenn wir eine lange Brennweite benutzen (50mm und höher) und nicht genug Trackingpunkte ins Bild kriegen, und genau hier könnte das iphone als Witness-Kamera fungieren. Ist natürlich noch die Frage der Synchronität (wenn man visuell mit Klappe synct), aber das müsste man alles mal ausprobieren.
Wenn man keine Zeit und Möglichkeit hat, die Chips direkt übereinander zu alignen, gehe ich immer hin und schiesse von dem gesamten Aufbau Bilder für Photogrammetry, mit einem Lineal mit dabei. Dadurch weiss ich nachher im 3D-Raum ganz genau, wo die beiden Chips der beiden Cams aufeinander saßen und auch den Maßstab der Szene. Nun wird die getrackte 3D-Kamera an die Position des Witness-Cam-Sensors gelegt und eine neue Kamera an das Konstrukt an Position des Alexa-Sensors gebunden. Mit dieser 3D-Cam wird die Szene dann abgefilmt und fertig ist das Ganze.
Sitzt natürlich nicht 100% weil wir Rundungsfehler & Co. dabei haben, aber bei einem eher langbrennweitigem Shot ist das meistens ja gar nicht nötig, da sowieso kein Bodenkontakt sichtbar ist.
lg,
Steffen
Antwort von CameraRick:
SteveScout hat geschrieben:
Und zwar befestigen wir des öfteren kleine Witness-Kameras auf einer Alexa, wenn wir eine lange Brennweite benutzen (50mm und höher) und nicht genug Trackingpunkte ins Bild kriegen, und genau hier könnte das iphone als Witness-Kamera fungieren.
Ein klassischer Aufbau mit Witness-Cam ist natürlich auch technisch anders als eine automatisch generierte Kamera die dann auf Biegen und Brechen versucht wird zu verschieben, denn...
SteveScout hat geschrieben:
Sitzt natürlich nicht 100% weil wir Rundungsfehler & Co. dabei haben, aber bei einem eher langbrennweitigem Shot ist das meistens ja gar nicht nötig, da sowieso kein Bodenkontakt sichtbar ist.
... hier liegt ja auch die Krux: wenn der Track schwimmt, ist er halt unbrauchbar.
Antwort von SteveScout:
Sehe ich anders. Wenn der Track schwimmt, dann ist das immer noch besser als gar nichts zu haben, weil die Hauptkamera nur totale Unschärfe gesehen hat und sich im Schärfebereich Menschen bewegen: Man kann die 3D-Daten/das Rendering dann z.B. 2D-stabiliseren, das dann versuchen irgendwo an einen schlecht zu sehenden Punkt im Footage wieder 2D drantracken und hat dadurch immerhin die perspektivisch korrekte Verzerrung. Ist mir alles lieber als mit nichts dazustehen .. aber eben wie gesagt, mal sehen, ob die App das auch noch kann, wenn Leute durch"s Bild laufen & Co ..
Antwort von SteveScout:
Also ich finde in der App nichtmal die Möglichkeit die fps einzustellen .. evtl. bin ich zu dumm oder das gibt"s nur in der Vollversion. Wäre ohne das Feature natürlich nicht wirklich brauchbar, wenn es auf 30fps (denk ich mal) beschränkt ist.
Antwort von CameraRick:
SteveScout hat geschrieben:
Sehe ich anders. Wenn der Track schwimmt, dann ist das immer noch besser als gar nichts zu haben, weil die Hauptkamera nur totale Unschärfe gesehen hat und sich im Schärfebereich Menschen bewegen: Man kann die 3D-Daten/das Rendering dann z.B. 2D-stabiliseren, das dann versuchen irgendwo an einen schlecht zu sehenden Punkt im Footage wieder 2D drantracken und hat dadurch immerhin die perspektivisch korrekte Verzerrung. Ist mir alles lieber als mit nichts dazustehen .. aber eben wie gesagt, mal sehen, ob die App das auch noch kann, wenn Leute durch"s Bild laufen & Co ..
Kommt schon auf die Art des Shots an - Müll ist mir aber meist weniger Lieb als nichts, weil man viel Zeit verschwendet aus dem Müll was brauchbares zu machen. Wenn ein schwimmender Track reicht, tuts meist auch ein billigster 2D oder 3D Track direkt im Comper... :)
SteveScout hat geschrieben:
Wäre ohne das Feature natürlich nicht wirklich brauchbar, wenn es auf 30fps (denk ich mal) beschränkt ist.
Oder besser noch, Telefon-typisch in variabler FPS :)