Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // Motion Tracking für das iPhone / iPad: CamTrackAR App von FXhome



Newsmeldung von slashCAM:



Mit seiner ersten App macht sich FXhome die Augmented Reality Technologie, welche sich in neueren Apple Mobilgeräten findet, zunutze und bietet Anwendern eine extrem einf...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Motion Tracking für das iPhone / iPad: CamTrackAR App von FXhome


Space


Antwort von Banana_Joe_2000:

Dazu mal eine Frage: Kann ich die erzeugten Daten auch für eine Aufnahme nehmen, die ich mit einer anderen Kamera gedreht habe? Setup wäre z.B. das iPhone auf der Hauptkamera so zu befestigen, dass der Bildausschnitt so genau wie möglich passt. Dann den iPhone-Clip gegen den Hauptkameraclip austauschen.

Hat das schon mal jemand ausprobiert?

Laienhafte Grüße,

banana

Space


Antwort von Frank Glencairn:

Das wird wegen der Parallaxe, den unterschiedlichen Optiken, und Sensorgrößen nicht funktionieren.

Space


Antwort von Jott:

Steht im Artikel, dass es nicht geht. Ist ja auch logisch.

Space


Antwort von Gabriel_Natas:

Wenn es sowas in einer richtigen Kamera geben würde, das würde VFX-Shots ziemlich vereinfachen. Stellt euch eine Kamera mit eingebauter Linse vor, die dadurch, dass sie kein Wechselmount hat, Verzerrungsfrei aufnehmen kann und gleichzeitig mit einem TOF-Sensor Tracking- und Tiefendaten für alles, was die Kamera sieht, aufzeichnet.
Vielleicht als 1-Zoll-Sensor, 10-Bit-Aufnahme, lichtstarkes Objektiv ... :)

Man müsste dann nicht mehr maskieren, weil man anhand der Tiefendaten sagen kann, was vor dem eingefügten Objekt und was hinter dem eingefügten Objekt ist, man muss nicht mehr aufwendig im Programm tracken ...

Space


Antwort von Frank Glencairn:

Seit wann verzerrt ein Wechselmount?

Space


Antwort von Gabriel_Natas:

"Frank Glencairn" hat geschrieben:
Seit wann verzerrt ein Wechselmount?
Es kommt auf das Objektiv an. Aber z.B. so ziemlich alle MFT Objektive verzeichnen und werden nur digital korrigiert. Wenn man so eine VFX-Kamera bauen würde, wäre es einfacher, wenn es nur ein Objektiv gibt, dass entweder gut gebaut ist oder für das die digitalen Entzerrungen bekannt sind. Bei Wechselobjektiven müsste ja auch der TOF-Sensor entsprechend das entsprechende Objektiv berücksichtigen, was es wieder komplizierter machen würde.
Wenn es nur ein Objektiv gibt, weil es festinstalliert ist, würde das viele Dinge vereinfachen.

Space


Antwort von CameraRick:

Gabriel_Natas hat geschrieben:
Man müsste dann nicht mehr maskieren, weil man anhand der Tiefendaten sagen kann, was vor dem eingefügten Objekt und was hinter dem eingefügten Objekt ist, man muss nicht mehr aufwendig im Programm tracken ...
Das funktioniert leider auch nur solange bis Du mit Reflektionen, transparenten Ebenen oder Motioblur zu tun bekommst. Und die Maskierung innerhalb der Tiefendaten macht, je nach Auftrag, die Sache auch nicht unbedingt angenehmer. Ist halt nur Tiefeninformation und kein Deep Render.

Space


Antwort von roki100:

Banana_Joe_2000 hat geschrieben:
Dazu mal eine Frage: Kann ich die erzeugten Daten auch für eine Aufnahme nehmen, die ich mit einer anderen Kamera gedreht habe? Setup wäre z.B. das iPhone auf der Hauptkamera so zu befestigen, dass der Bildausschnitt so genau wie möglich passt. Dann den iPhone-Clip gegen den Hauptkameraclip austauschen.

warum das wenn es doch passende Programme gibt? Beispiel:

https://www.youtube.com/watch?v=KLF56y8ggng

Space



Space


Antwort von Frank Glencairn:

Gabriel_Natas hat geschrieben:

Wenn es nur ein Objektiv gibt, weil es festinstalliert ist, würde das viele Dinge vereinfachen.
Vereinfachen ja, aber man wäre bei der Aufnahme mit einer Brennweite halt sehr eingeschränkt.
Und die Kamera müßte dann auch in der RED/ARRI/BM Liga spielen, sonst kann ich gleich das iPhone nehmen.

Ich glaub da ist es einfacher und praktikabler das ganze herkömmlich - mit der selben Kamera wie den Rest des Filmes - zu drehen, und das Tracking in der Post zu machen.

Space


Antwort von SteveScout:

Hallo an alle.
Die Frage von banana ist sehr berechtigt und war auch meine erste Frage. Und ja, das geht, aber ich habe es mit der App hier noch nicht probiert. Ist aber einiges an Aufwand. Und zwar befestigen wir des öfteren kleine Witness-Kameras auf einer Alexa, wenn wir eine lange Brennweite benutzen (50mm und höher) und nicht genug Trackingpunkte ins Bild kriegen, und genau hier könnte das iphone als Witness-Kamera fungieren. Ist natürlich noch die Frage der Synchronität (wenn man visuell mit Klappe synct), aber das müsste man alles mal ausprobieren.

Wenn man keine Zeit und Möglichkeit hat, die Chips direkt übereinander zu alignen, gehe ich immer hin und schiesse von dem gesamten Aufbau Bilder für Photogrammetry, mit einem Lineal mit dabei. Dadurch weiss ich nachher im 3D-Raum ganz genau, wo die beiden Chips der beiden Cams aufeinander saßen und auch den Maßstab der Szene. Nun wird die getrackte 3D-Kamera an die Position des Witness-Cam-Sensors gelegt und eine neue Kamera an das Konstrukt an Position des Alexa-Sensors gebunden. Mit dieser 3D-Cam wird die Szene dann abgefilmt und fertig ist das Ganze.
Sitzt natürlich nicht 100% weil wir Rundungsfehler & Co. dabei haben, aber bei einem eher langbrennweitigem Shot ist das meistens ja gar nicht nötig, da sowieso kein Bodenkontakt sichtbar ist.
lg,
Steffen

Space


Antwort von CameraRick:

SteveScout hat geschrieben:
Und zwar befestigen wir des öfteren kleine Witness-Kameras auf einer Alexa, wenn wir eine lange Brennweite benutzen (50mm und höher) und nicht genug Trackingpunkte ins Bild kriegen, und genau hier könnte das iphone als Witness-Kamera fungieren.
Ein klassischer Aufbau mit Witness-Cam ist natürlich auch technisch anders als eine automatisch generierte Kamera die dann auf Biegen und Brechen versucht wird zu verschieben, denn...
SteveScout hat geschrieben:
Sitzt natürlich nicht 100% weil wir Rundungsfehler & Co. dabei haben, aber bei einem eher langbrennweitigem Shot ist das meistens ja gar nicht nötig, da sowieso kein Bodenkontakt sichtbar ist.
... hier liegt ja auch die Krux: wenn der Track schwimmt, ist er halt unbrauchbar.

Space


Antwort von SteveScout:

Sehe ich anders. Wenn der Track schwimmt, dann ist das immer noch besser als gar nichts zu haben, weil die Hauptkamera nur totale Unschärfe gesehen hat und sich im Schärfebereich Menschen bewegen: Man kann die 3D-Daten/das Rendering dann z.B. 2D-stabiliseren, das dann versuchen irgendwo an einen schlecht zu sehenden Punkt im Footage wieder 2D drantracken und hat dadurch immerhin die perspektivisch korrekte Verzerrung. Ist mir alles lieber als mit nichts dazustehen .. aber eben wie gesagt, mal sehen, ob die App das auch noch kann, wenn Leute durch"s Bild laufen & Co ..

Space


Antwort von SteveScout:

Also ich finde in der App nichtmal die Möglichkeit die fps einzustellen .. evtl. bin ich zu dumm oder das gibt"s nur in der Vollversion. Wäre ohne das Feature natürlich nicht wirklich brauchbar, wenn es auf 30fps (denk ich mal) beschränkt ist.

Space


Antwort von CameraRick:

SteveScout hat geschrieben:
Sehe ich anders. Wenn der Track schwimmt, dann ist das immer noch besser als gar nichts zu haben, weil die Hauptkamera nur totale Unschärfe gesehen hat und sich im Schärfebereich Menschen bewegen: Man kann die 3D-Daten/das Rendering dann z.B. 2D-stabiliseren, das dann versuchen irgendwo an einen schlecht zu sehenden Punkt im Footage wieder 2D drantracken und hat dadurch immerhin die perspektivisch korrekte Verzerrung. Ist mir alles lieber als mit nichts dazustehen .. aber eben wie gesagt, mal sehen, ob die App das auch noch kann, wenn Leute durch"s Bild laufen & Co ..
Kommt schon auf die Art des Shots an - Müll ist mir aber meist weniger Lieb als nichts, weil man viel Zeit verschwendet aus dem Müll was brauchbares zu machen. Wenn ein schwimmender Track reicht, tuts meist auch ein billigster 2D oder 3D Track direkt im Comper... :)
SteveScout hat geschrieben:
Wäre ohne das Feature natürlich nicht wirklich brauchbar, wenn es auf 30fps (denk ich mal) beschränkt ist.
Oder besser noch, Telefon-typisch in variabler FPS :)

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


CamTrackAR - 3D Tracker als iPhone App
CamTrackAR 2.1 jetzt mit Export zu Apple Motion
Blackmagic bringt kostenlose Profi-Kamera App fürs iPhone: Camera App
Motion Tracking am Pantoffeltier
motion tracking oder bewegungen verfolgen
DJI Mavic Mini: Flugsteuerungs-App Litchi rüstet Tracking und weitere Funktionen nach
CineControl Multicam App -- mehrere ARRI Kameras vom iPad aus kontrollieren
CyberLink PowerDirector iOS: mobiler Schnitt per iPad oder iPhone
CamTrack AR v2.0 - virtuelles Production Studio fürs iPhone und iPad
Zoom F6 mit IPhone 14Pro (statt Ipad Pro) verbindbar?
Accsoon SeeMo Pro SDI - macht iPhone/iPad zu 1080p60 SDI-Streaming Monitor-Recorder
Apple setzt auf lokale KIs in iPhone, iPad und Mac
Apple iOS 15.1: ProRes Video jetzt auch für native Kamera App auf dem iPhone 13 Pro und Max
RavenEye & das neue FX6 tracking
Die Zukunft des Tracking - das Ende der High-Speed-Kameras?
Verwandelt iPhone in Webcam: NDI HX Camera App jetzt kostenlos
Apple: Bekommt die iPhone Kamera-App endlich Profi-Funktionen?
iPhone Tierfilm / Whalewatching App




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash