Echtzeit-Engine und archäologische Ideen

Geländedaten in 3D zu visualisieren ist nicht nur ein Werkzeug zur aktuellen Darstellung und Planung von Objekten, wie bei unseren Landschaftspark-Projekten, sondern ebenso eine Möglichkeit in die Vergangenheit zu blicken.

2016 begannen wir an einem Projekt in Süditalien zu arbeiten. Zusammen mit Studierenden im Rahmen ihrer Abschlussarbeitenhaben haben sich u.a. unsere Kollegin Nicole Spiske-Salamanek sowie Jens Rothe (ZBG) Mauerreste vermessen, die einst zu einer antiken lukanischen Siedlung gehörten. Unser Labor hat sich damit beschäftigt, sowohl den aktuellen Stand in 3D zu visualisieren als auch mögliche historische Versionen zu rekonstruieren.

Damals fand der Wechsel von der reinen Render-Software Terragen hin zur Echtzeit-Spiele-Engine Unreal statt.

Terragen hatte den Vorteil, sehr realistische Landschaften zu entwerfen. Die Software wird sehr gerne für Hintergründe in Filmen verwendet und kann charmanterweise direkt mit realen Geländedaten umgehen sowie Koordinaten aus beispielsweise Satellitenbildern auslesen. Außerdem geht die Modellierung größerer Landschaften mit Terragen schneller von der Hand. Spiele-Engines sind eher darauf ausgelegt, dass jeder Quadratmeter von einem Level-Designer gestaltet wird. Geländemodelle lassen sich als Graustufenbild auch hier einladen, Echtwelt-Koordinaten kennt die Software jedoch nicht mehr.

Trotzdem ging der Schritt in die richtige Richtung. In einer in Echtzeit bearbeitbaren Welt, die ebenfalls Bilder in sehr hoher Qualität produziert, lassen sich deutlich einfacher diverse Ideen direkt in Zusammenarbeit mit den Archäolog*innen testen und umsetzen. Als Endprodukt entsteht somit nicht nur Bild- und Videomaterial, sondern beispielsweise eine spielerisch erfahrbare archäologische Simulation, die es Laien wie Experten ermöglicht, (vorher ausgestaltete) Konzepte durchzuspielen.

Unreal Engine, Darstellung der Tiefe (links) sowie die Kombination der im Feld gezeichneten Mauersteinkonturen (gelb) mit den 3D-Modellen
Unreal Engine, Darstellung der Tiefe (links) sowie die Kombination der im Feld gezeichneten Mauerblöcke (gelb) mit den 3D-Modellen
Unreal Engine: in einfachen Farben gehaltene Darstellung einer möglichen historische Version (oben) sowie der aktuelle Stand der italienischen Siedlung (unten)
Unreal Engine: in einfachen Farben gehaltene Darstellung einer möglichen historische Version (oben) sowie der aktuelle Stand der lukanischen Höhensiedlung (unten)

Virtual Reality

Um nicht nur die Immersion zu steigern, sondern auch die Interaktion mit der virtuellen Welt zu vereinfachen, bietet sich der Schritt in die Virtuelle Realität an. Grafisch nicht viel anders, wird der Blickwinkel jetzt direkt in die Augen der virtuellen Figur verlegt. Die Navigation erfolgt nun nicht mehr unbedingt über Maus&Tastatur oder das Gamepad. Der Nutzer bzw. die Nutzerin zeigt vielmehr in die Richtung, in die er oder sie sich bewegen möchte und fliegt dort hin. Im kleinen Radius kann sich sogar in der virtuellen Welt bewegt werden, indem einfach ein Schritt in die entsprechende Richtung gemacht wird. Neben der Navigation wird auch die Interaktion einfacher. Die Controller sind so gebaut, dass ein Zugreifen mit den realen Händen halbwegs automatisch dazu führt, dass durch das Drücken entsprechender Knöpfe Objekte in der Nähe gegriffen werden können. Zum Betrachten müssen keine Tasten betätigt werden, der Nutzer/die Nutzerin kann so interagieren, wie er oder sie es in der realen Welt tun würde.

Natürlich erfordert auch dies eine vorhergehende Aufarbeitung der Ausgangsdaten. Vasen müssen gescannt, Gelände modelliert und die Navigation angelegt werden. Für eine Ausstellung oder die Präsentation für Fachkolleg*innen, die sich weniger mit der 3D-Technik auseinandersetzen als vor allem die Forschungsergebnisse betrachten wollen, lohnt dieser Aufwand aber allemal.

Durch die Kolleg*innen des Labor für Photogrammetrie, die seit 2009 in die Türkei reisen, um eine archäologische Grabungsstätte detailliert zu erfassen, war das Labor für Geomedien in der Lage, die 3D-Modelle in die Virtuelle Realität zu versetzen und als gemeinsames Projekt auf der Langen Nacht der Wissenschaften 2019 zu präsentieren. Auch hierfür wurde die Unreal Engine genutzt. Als Ausgabemedium stand eine Oculus Rift zur Verfügung, bei der uns besonders die natürliche Griffhaltung gefiel. Mit TP-Cast gibt es dazu eine tadellos funktionierende Erweiterung, welche die Brille kabellos mit dem PC verbindet. Alternativ wäre für die gleiche Aufgabe natürlich auch die HTC Vive denkbar, die es ebenfalls mit kabellos-Adapter auf dem Markt gibt.

Als Sahnehäubchen produzierten wir einen 3D-Druck des unterirdischen Ganges.

In den nächsten Schritten wird es um die Skalierbarkeit solcher Projekte gehen. Momentan wird für die Darstellung ein Rechner mit leistungsfähiger Grafikkarte benötigt. Erste Experimente zeigen, dass auch mobile Brillen wie die Oculus Quest in der Lage sind, 3D-Modelle mit einigen wenigen Millionen Polygonen flüssig darzustellen. Diese Brillen kommen komplett ohne PC aus, verfügen aber trotzdem über genügend Sensoren, um dem Betrachter alle Freiheitsgrade zu lassen und werden lediglich von einem Smartphoneprozessor angetrieben. Von dort weitergedacht geht es zu den Web-Darstellungen, die vor allem kleine Datenmengen erfordern.

Unreal Engine mit der photogrammetrisch erfassten Ausgrabungsstätte sowie einem antiken Krug
Unreal Engine mit der photogrammetrisch erfassten Ausgrabungsstätte sowie einem antiken Krug
Unsere Kollegin steigt den virtuellen Gang hinab
Unsere Kollegin steigt den virtuellen Gang hinab
VR-Präsentation auf der LNDW 2019 (Foto: Beuth Hochschule für Technik/Zarko Matovic)
VR-Präsentation auf der LNDW 2019 (Foto: Beuth Hochschule für Technik/Zarko Matovic)
Der 3D-Druck des Ganges sowie der Kammer am Ende
Der 3D-Druck des Ganges sowie der Kammer am Ende