Erstaunliches 3D-Telepresence-System

Es sieht so aus, als ob die Welt der Kinect-Hacks ein bisschen interessanter ist.

Während viele der Kinect-basierten Projekte, die wir sehen, ein oder zwei Einheiten verwenden, hat dieses 3D-Telepresezsystem von UNC Chapel Hill Studentin [Andrew Maimone] unter der Anleitung von [HENRY FUCHS], die sich unter der Anleitung von [Henry Fuchs] entwickelt hat, alle schlagen.

Das Setup verwendet bis zu vier Kinect-Sensoren in einem einzigen Endpunkt, wodurch Bilder aus verschiedenen Winkeln erfasst werden, bevor sie mit GPU-beschleunigten Filtern verarbeitet werden. Das von den Kameras erfasste Video wird in einer Reihe von Schritten verarbeitet, die Löcher und das Einstellen von Farben zum Erstellen eines Mesh-Images verarbeitet. Sobald die Videoströme verarbeitet wurden, werden sie miteinander überlagert, um ein vollständiges 3D-Bild zu bilden.

Das Ergebnis ist ein erstaunliches Echtzeit-3D-Rendering des Themas und des umliegenden Raums, der uns an dieses Papercraft-Kostüm erinnert. Das 3D-Video kann an einer Remote-Station angezeigt werden, die einen Kinect-Sensor verwendet, um Ihre Augenbewegungen zu verfolgen, um die Perspektive der Videozufuhr entsprechend zu ändern. Das TelePresence-System bietet auch die Möglichkeit, nicht vorhandene Objekte hinzuzufügen, wodurch es ein tolles Werkzeug für den Vorführungen von Remote-Technologie und dergleichen ist.

Schauen Sie sich das Video unten an, um eine umfangreiche Komplettlösung dieses 3D-Telepresenzsystems zu sehen.

Leave a Reply

Your email address will not be published. Required fields are marked *