Wenn laut einem bekannten Sprichwort ein Bild „mehr als tausend Worte“ sagt, so stellt sich im Zuge der gegenwärtigen Entwicklungen virtueller Realitäten die Frage, was Mixed Reality „sagen“ kann bzw. wie viele Worte es ersetzen kann. Könnte diese Technologie zu einer besseren gegenseitigen Verständlichkeit beitragen?
Insbesondere in der Stadtplanung wären intuitive und anschauliche Kommunikationsmedien angebracht, um Verständigungsprobleme zu minimieren. Verkehrsplaner/innen, Schallschutzexperten/innen, Investoren/innen u. v. a. bringen sich in den Planungsprozess mit ihren fachrelevanten Interessen ein. Jenseits der rechtlichen Mindestanforderungen können sie dabei schnell Potenzial für Befürwortung verspielen, wenn ihr genutzter Fachjargon nicht allgemein verständlich ist. Was wäre nun, wenn in einem im Raum schwebenden Modell des Planungsgebietes, der Verkehrsplaner absehbare Szenarien des Berufsverkehrs, die Investorin die Wirtschaftlichkeitsbetrachtung der Nutzfläche und der Schallschutzexperte die zu erwartende Lärmausbreitung mit einer zusätzlichen Schallschutzwand, mit einem Klick für alle visualisieren könnten? Gewiss würden solche Anwendungen fachrelevanten Austausch keinesfalls ersetzen. Sie könnten jedoch im Abwägungsprozess die tatsächliche Bedeutung bspw. eines ökologischen Belangs – wie der zu erwartenden Smogwolke – auch für fachfremde Beteiligte überzeugender darstellen und den weiteren strategischen Ablauf maßgeblich bestimmen. Schon aus diesem Grund lohnt sich ein Einblick in die Mixed-Reality Technologie sowie ihre möglichen Potenziale speziell für die Stadtplanung.
1. Virtual, Augmented, Mixed Reality
Für das bessere Verständnis von Mixed Reality sei vorerst der Bezug zu „Virtual Reality“ und „Augmented Reality“ verdeutlicht. Alle drei Technologien werden in der Regel über kopfgebundene Ausgabegeräte wahrgenommen, die in der Fachsprache als „head-mounted-displays“ (HMD) bezeichnet werden. Virtual Reality schirmt dabei, im Gegensatz zu den beiden anderen, das Sichtfeld komplett ab, indem das HMD die Nutzer/innen in eine gänzlich virtuelle Welt eintauchen lässt. Demgegenüber erlauben Augmented Reality und Mixed Reality mit ihren durchsichtigen Gläsern die Wahrnehmung der realen Welt und ergänzen diese in Echtzeit um virtuelle Darstellungen. Augmented Reality legt dabei eine 2D-Ebene mit virtuell dargestellten Texten und Grafiken auf die Realität. Hingegen können in Mixed Reality reale und virtuelle Objekte in der Realität in Echtzeit mit physischen Objekten „koexistieren“. So kann in Mixed Reality bspw. ein virtueller Hund auf dem physischen Boden eines Raumes vorbeilaufen und im Nachhinein hinter einem physischen Sofa verschwinden, wenn die Betrachtungsperspektive dies erfordert. (vgl. Pluralsight Technology Learning Platform, 2016)
Mögliche Klassifikation virtueller Realitäten (virtuelle Objekte gelb), eigene Darstellung nach Peddie, 2017, S. 201, 202
Insbesondere die Abgrenzung zwischen Mixed Reality und Augmented Reality ist nicht allgemeingültig, da die Begrifflichkeiten zur virtuellen Welt, ebenso wie ihre Technologien, sich in der (frühen) Entwicklungsphase befinden. Marketing-Strategien führender Hersteller und Anwender, Hobbynutzer/innen und die akademische Welt gebrauchen diese Begriffe vielfach in verschiedenen Kontexten. So betrachtet in etwa die vielfach zitierte Begriffseinteilung „Reality-Virtuality-Continuum“ die Mixed Reality-Technologie nicht gleichrangig, sondern als einen Oberbegriff für verschiedene Stufen von Augmented Reality (vgl. Milgram u. a., 1994, S. 283). Dieses bereits 1994 vorgeschlagene Kontinuum unterscheidet verschiedene Stufen von Augmented Reality hinsichtlich des Anteils virtueller Elemente an der Gesamtdarstellung. Eine weitere Begriffseinteilung stellt das Gerät für die physisch-virtuelle Wahrnehmung in den Mittelpunkt, so dass Augmented Reality nur bei mobilen Geräten wie Smartphones oder Tablets, und Mixed Reality nur bei kopfgebundenen Ausgabegeräten erwähnt werden (vgl. Bumford, 2017).
Mixed Reality (visualisierte Begriffseinteilung) ist die aufwendigste und entwicklungstechnisch auch die neuste Technologie. In diesem Feld nimmt Microsoft derzeit eine Pionierrolle ein, da die „HoloLens“ der weltweit erste eigenständige und frei tragbare holografische Computer ist. Im vorderen Teil des Brillengestells ist die Rechenleistung eines vollständigen PC mit Windows 10 verbaut, das neben der 3D-Hologramme auch die Positionierung von beliebig großen Fenstern gewöhnlicher Windows Apps wie Skype oder Edge im Raum erlaubt. Die HoloLens bildet die Hologramme (3D Darstellungen von Gegenständen) dabei nicht für alle Beteiligten sichtbar im Raum ab, sondern die Brille projiziert die Darstellungen mittels der durchsichtigen Linsen auf beide Augen. Für eine realistische „Koexistenz“ physischer und projizierter Objekte sowie die Steuerung letzterer, scannt die Brille fortlaufend ihre Umgebung u. a. hinsichtlich der aktuellen Position (Bewegungssensor), der Raumstruktur (fünf Kameras), der Lichtverhältnisse (Infrarotsensor) und der Sprach- und Gestenbefehle (Mikrofon, Kamera). (vgl. Computer Bild, 2016)
Die Bedienung der HoloLens erfolgt standardmäßig auf drei Wegen: über den Blickverlauf mittels der eigenen Kopfbewegung, über Gesten und über Sprachbefehle. Zusätzlich kann die Brille durch die integrierte Bluetoothfunktion auch per Funktastatur, Xbox Controller usw. bedient werden. Die HoloLens ist zum jetzigen Entwicklungsstand insbesondere für die innenräumliche Anwendung geeignet, da zum einen die meisten Apps für eine uneingeschränkte Nutzung WLAN benötigen. Zum anderen ist die Reichweite der exakten Raumvermessung – und damit auch der Platzierung von virtuellen Objekten im Raum – auf ca. 10 m beschränkt.
- Akkulaufzeit: 2-3 Stunden
- Gewicht: 579 Gramm, Verteilung auf ganzköpfiges Brillengestell
- 3D-Lautsprecher, keine Abschirmung der Ohren um die Geräusche der Realität zu erweitern, nicht zu ersetzen
- erhältlich für ca. 3200 €, bisher nur in der „Development Edition“
- mehrere HoloLens Nutzer/innen können gleichzeitig dieselben virtuellen Objekte betrachten bzw. steuern
[ps2id id=’berlin’ target=”/] Microsoft richtet sich mit dieser Technologie vorerst ausschließlich an Geschäftskunden und Entwickler-Communities, um die Mixed Reality Technologie mit Apps in unterschiedlichen Bereichen zu testen und zu entwickeln. Beispiele hierfür sind Kooperationen mit Thyssenkrupp Elevator für eine schnellere Wartung von defekten Aufzügen und mit der NASA für virtuelle Rundgänge für Marsforscher/innen.
2. Berlin-Charlottenburg in Mixed Reality
Dieses Kapitel spiegelt meine eigenen Erfahrungen mit der HoloLens während eines Hackathons der TU Braunschweig im September 2017 wider. Auf einem Hackathon – Wortschöpfung aus „Hack“ und „Marathon“ – formieren sich zumeist studentische Teams unterschiedlicher Fachrichtungen und entwickeln mittels einer vorgegebenen Technologie innerhalb kürzester Zeit, lösungsorientierte prototypische Anwendungen für einen vorher definierten Sachbereich. Im Rahmen des Braunschweiger Hackathons galt es die Potenziale der Mixed Reality-Technologie HoloLens, für die Stadt und/oder ihre Produktionsstätten zu entdecken. In unserem Team haben wir eine Anwendung entwickelt, die eine intuitive Wahrnehmung von Emissionen in einem virtuellen städtischen Raum erlaubt.
Das ursprünglich in City-GML vorliegende Stadtmodell haben wir aus ArcGIS exportiert und in Blender als fbx-Dateiformat abgespeichert. Die Hauptarbeit vollzog sich dann in Visual Studio kombiniert mit Unity3D, einer Spiel-Engine für die Entwicklung virtueller Umgebungen und Spielabläufe.
Ziel war eine vereinfachte Darstellung der Luftqualität sowie Geräuschkulisse in einigen Straßenzügen in Berlin-Charlottenburg. Die Applikation legt unter die Gebäude eine Karte der computermodellierten Luftqualität, sodass die Betrachter/innen die Verteilung anhand der Farben erkennen können (rot verschmutzt, grün sauber). Mit dem Sprachbefehl „show measured“ zeigt die Anwendung eine andere Karte mit der tatsächlich gemessenen Luftqualität. Die Sprachbefehle bedürfen lediglich einer textlichen Eingabe in Unity3D und werden mit dem System vorher nicht verbal geübt. Für die Umsetzung der Geräuschkulisse bietet die HoloLens die Funktion „Spatial Sound“ mit deren Hilfe sich im dreidimensionalen Raum Schallquellen positionieren lassen. Für unsere Illustrationszwecke haben wir in der einen Ecke des Modells das Geräusch von zwitschernden Vögeln und in der anderen Ecke das Geräusch von vorbeifahrenden Kraftfahrzeugen positioniert. Bei einer Bewegung aus der Ecke mit der befahrenen Straße zum Vogelgezwitscher verändert sich die Geräuschkulisse allmählich. Insbesondere als ich die HoloLens getragen habe, fabrizierten die eingebauten Lautsprecher ein erstaunlich echtes Sounderlebnis.
Für dieses Resultat haben wir lediglich 24 Stunden entwickelt, wobei wir in unserer vierköpfigen Gruppe ohne einen einzigen studierten Programmierer ausgekommen sind. Sicherlich blendet unsere Bearbeitungszeit den Aufwand des zuvor angefertigten 3D-Modells aus. Dieser spielt jedoch faktisch für die Anwendung von Mixed Reality in der Stadtplanung, lediglich eine untergeordnete Rolle, da CAD-Modelle in der heutigen Bau- und Planungspraxis ohnehin ein Standard sind. [ps2id id=’potenzial’ target=”/]Der tatsächlich bedeutende Entwicklungsaufwand ergibt sich erst durch die Umwandlung des CAD-Modells in Mixed Reality, d. h. aus einer Visualisierung für den 2D-Bildschirm in eine interaktive Applikation mit Echtzeitanpassungen im physischen Raum. Das folgende Kapitel legt den Mehrwert dieses Aufwands im Hinblick auf stadtplanerische Herausforderungen dar.
3. Potenzial für die Stadtplanung
Für Mixed Reality zeichnen sich im stadtplanerischen Kontext zumindest drei mögliche Anwendungsbereiche ab. Diese Technologie könnte die Beteiligung der Öffentlichkeit, die Abwägung zwischen planungsrelevanten Belangen und den Städtebau verbessern.
Um die Umsetzung stadtplanerischer Planinhalte abschätzen zu können, bedarf es selbst bei Fachkräften eines ausgesprochen guten Vorstellungsvermögens. Im Frühstadium stadtplanerischer Überlegungen nutzen Stadtplaner/innen in der Regel keine virtuellen 3D Modelle, da eine Visualisierung aller möglichen Alternativen in 3D, unverhältnismäßige Investitionen in Personal und Zeit bedeuten würden. Entsprechend proben sie den anfänglichen Entscheidungsspielraum vorwiegend auf 2D Plänen aus. Demgemäß bedeutet dieses „Denken in Varianten“ eine ständige Abstraktion von 2D Ansichten in die dreidimensionale Realität. Selbst wenn Stadtplaner/innen diese Fähigkeit durch ihre Ausbildung und Erfahrung in gewisser Weise entwickeln können, so stellt sich diese Herausforderung spätestens bei der Beteiligung der Öffentlichkeit erneut. Mixed Reality könnte demnach sowohl Stadtplaner/innen als auch Planungsadressaten/innen eine dreidimensionale und anschaulichere Variantenprüfung, von bspw. Raumkanten, Straßenverläufen und Gebäudeanordnungen des Planungsgebiets, ermöglichen. Das hohe theoretische Potenzial von Mixed Reality Modellen lädt zum Experimentieren ein. Könnte der Einsatz dieser Technologie als lebendige Diskussionsgrundlage die Beteiligungsbereitschaft steigern und womöglich dem „Beteiligungsparadoxon“ etwas entgegenwirken?

Sicherlich erfordert eine Umsetzung dieses Vorschlags erhebliche Investitionen in Zeit, Technologie und Personal. Dennoch lässt sich dieser Einsatz mit einem Blick auf den planungsinternen Mehrwert weiter befürworten. Neben der Konsensfindung mit der Bürgerschaft verbessert eine auf Anschaulichkeit ausgelegte Kommunikation auch die internen Abstimmungen im Planungsprozess. Gerade im Hinblick auf das sich gewandelte Rollenverständnis der öffentlichen Hand in der Stadtplanung bestimmt der Faktor Kommunikation maßgeblich den Erfolg der Planung. Durch den zunehmenden Einfluss der Globalisierung entwickelte sich der öffentliche Sektor vom zentral organisierten Wohlfahrtsstaat mit umfassender staatlicher Daseinsvorsorge, zunehmend zum „kollaborativen Staat“, der als Koordinator den Konsens zwischen seinen Interessen, denen der Zivilgesellschaft und der Marktakteure zu finden versucht (vgl. Nuissl, Heinrichs u. a., 2006, S. 53).
Konkret bedeutet dies für die heutige Stadtplanung eine tagtägliche Zusammenarbeit mit Investoren, ausgelagerten Dienstleistungsunternehmen der Ver- und Entsorgung, Einzelhandelsunternehmen, Lokalmedien, Bürgerinitiativen, Architektur- und Planungsbüros, der Wirtschaftsförderung u. v. a. Dabei sind die während der Zusammenarbeit angewandten Kommunikationsmedien in ihrer Gestalt zumeist von Experten/innen für Experten/innen. Im Sinne der fachlichen Korrektheit und tiefgründigen Auseinandersetzung mit dem Fachthema ist dies auch erforderlich und sogar wünschenswert. Die Schwierigkeit liegt eher in der Darstellung all dieser Unterlagen, die durch Präsentationsfolien, ausgedruckte Pläne oder Gutachten immer in eine statische 2D Ansicht mündet. Bei der Vielfalt der Denklogiken und fachlichen Hintergründe der Akteure können nicht alle Beteiligten, bspw. die Informationen eines Kanalisationsplans, der Grundstücksplanung einer Filiale oder eines Luftschadstoffplans, in ihrer Bedeutung für die reale Welt ableiten. Insbesondere bei einander ausschließenden Belangen wie mehr Wirtschaftlichkeit (mehr Bauland) oder mehr Umweltbewusstsein (mehr Grünflächen) können sich aufgrund wenig überzeugender Unterrichtung, die Allianzen schneller für mehr Rendite als für mehr Luftqualität bilden. Während sich die Wirtschaftlichkeit von mehr Bauland durch monetäre Berechnungen sehr überzeugend darstellen lässt, lässt sich der tatsächliche Mehrwert von besserer Luft schwieriger vermitteln. Als Folge kann die gesamte Planung einen nachteiligen Kurs einschlagen.
Mit entsprechenden Darstellungen in Mixed Reality wäre der tatsächlichen Relevanz einzelner Belange mehr Rechnung getragen. Nutzer/innen könnten das Modell im Raum beliebig positionieren, um dieses herumlaufen, sie könnten die Größe verändern und bei entsprechender App-Entwicklung sogar in Echtzeit – und für alle Beteiligten sichtbar – das Modell umgestalten und so z. B. über die Luftqualität mit mehr oder weniger Grünflächen besser unterrichten. Ganz im Sinne dieser Vorteile entwickelt das Schweizer Software Unternehmen afca in Kooperation mit dem Amt für Städtebau der Stadt Zürich eine Mixed Reality Anwendung namens „HoloPlanning“. Interessanterweise beantwortet der Webauftritt die eingangs gestellte Frage mit dem Spruch „Ein Hologramm sagt mehr als tausend Bilder“ (Stand 10/2017).
Als dritter Anwendungsbereich bietet sich der Städtebau an. Für den Städtebau ist als „gestaltende Stadtplanung“ die architektonische Gestaltung des städtischen Raumes ausschlaggebend (vgl. Reicher, 2012, S. 4). Aufgrund dieses Fokus auf die dritte Dimension nehmen im Städtebau dreidimensionale Darstellungen eine bedeutende Rolle ein. Entsprechend ermöglichen CAD Zeichenprogramme (z. B. Autodesk, ArchiCAD) eine schnelle prototypische Visualisierung städtebaulicher Ideen mithilfe eines virtuellen Massenmodells. Indessen sind diese Programme nicht primär als Hilfsmittel für Interaktionen über diese Modelle ausgelegt. (vgl. Schmalstieg & Sareika, 2007, S. 1) Modelle in Mixed Reality könnten die Interaktion vereinfachen, indem sie die Abstraktionslücke zwischen Bauvarianten und ihren Umsetzungen in der realen Welt schließen. Eine Simulation der städtebaulichen Einfügung in die Umgebung, Sichtachsen, Fassaden, Dachformen etc. erlaubt mittels Mixed Reality eine effektivere Gestaltung von städtebaulicher Qualität. [ps2id id=’reise’ target=”/] Auch hierfür hat das Schweizer Unternehmen in Zusammenarbeit mit der Stadt Zürich eine prototypische Anwendung entwickelt (Video).
4. Wohin die Reise geht
Losgelöst von potenziellen Anwendungen für die Stadtplanung sowie von einer Unterscheidung zwischen Augmented, Mixed und Virtual Reality, empfiehlt sich als Ausblick ein generalisierender Blick auf die Entwicklungen virtueller Welten und ihrer Wahrnehmung. Meilensteine der Computertechnologie verändern auch die Art, wie wir die virtuellen Welten bedienen. Während wir ehemals für unsere Eingabe nur Knöpfe, Tastaturen und Mäuse verwendeten, nehmen mittlerweile auch Touchscreens eine bedeutende Stellung ein. Die Entwicklung der head-mounted-displays (HMD) forcieren neue Eingabemethoden wie Sprach- und Gestensteuerung sowie Eyetracking. (vgl. Peddie, 2017, S. 41)
Nahezu alle nennenswerten Tech-Giganten investieren in eine Zukunft aus HMDs: im Jahr 2014 übernahm Facebook für zwei Milliarden US-Dollar „Oculus VR“ – ein Unternehmen, das sich auf Hard- und Software für Virtual Reality spezialisierte. Im Jahr 2015 erwarb Apple das Münchener Augmented Reality Unternehmen „Metaio“. Im selben Jahr brachte Samsung in Zusammenarbeit mit Oculus das Virtual Reality Headset „Samsung Gear VR“ für seine Smartphones auf den Markt. Im Jahr 2016 gab Microsoft die Entwicklerversion seiner HoloLens bekannt. Ebenfalls 2016 startete Google mit „Daydream“ seine Entwickler-Plattform für Virtual Reality und ein eigenes Virtual Reality Headset für Smartphones. Noch deutlicher wird die Entwicklung mit einem Blick auf Microsofts Kooperationen mit HP, Dell, Lenovo, Acer oder Samsung im Mixed Reality Bereich. All diese Unternehmen sind etablierte PC- und Notebookhersteller, die nun ihre eigene Hardware für Windows Mixed Reality entwickeln.

In Zukunft werden wir virtuelle Objekte bzw. virtuelle Welten nicht über statische und auf ein Rechteck limitierte 2D-Bildschirme wahrnehmen und steuern. Zwar befindet sich die HMD-Technik noch in ihrer Entwicklung und bringt auf dem jetzigen Stand noch mehrere praktische Barrieren mit sich: viele der Geräte sind auf externe Rechenleistung angewiesen und daher nicht frei tragbar, das Sichtfeld bei Mixed Reality ist beschränkt, der hohe Preis sowie der unwirtschaftliche Kosten-/Nutzenaufwand für die Entwicklung nutzbarer Anwendungen und einige weitere. Ein Blick auf die explosionsartige Entwicklung des Smartphones zeigt jedoch, wie rasant die Massentauglichkeit und -akzeptanz vonstattengehen kann. HMD-Technologien eröffnen eine neue Dimension für die menschliche Wahrnehmung und werden sowohl die Berufswelt als auch die Freizeitgestaltung revolutionieren. Eine Auseinandersetzung mit den sozialen und psychologischen Folgen kann nicht früh genug beginnen, denn es ist heute schon eindeutig, wohin die Reise geht.
Quellen
Für die Quellenangaben im Fließtext gilt: vor dem Satzpunkt beziehen sie sich auf den Satzinhalt, nach dem Satzpunkt beziehen sie sich auf den Inhalt des gesamten Absatzes.
- Computer Bild. (2016, Oktober). Microsoft HoloLens im Test: Ab November in Deutschland erhältlich! Abgerufen 28. Oktober 2017
- Matthew Bumford. (2017, März 28). Why Mixed Reality Will Eat Augmented Reality for Breakfast [Company Website]. Abgerufen 24. Oktober 2017
- Milgram, P., Takemura, H., Utsumi, A., Kishino, F., & Society of Photo-optical Instrumentation Engineers (Hrsg.). (1994). Augmented reality: a class of displays on the reality-virtuality continuum. In Telemanipulator and telepresence technologies: 31 October-1 November 1994, Boston, Massachusetts (S. 282–292). Bellingham, Wash: SPIE.
- Nuissl, H., Heinrichs, D., & Altrock, U. (Hrsg.). (2006). Zwischen Paradigma und heißer Luft: Der Begriff der Governance als Anregung für die räumliche Planung. In Sparsamer Staat – schwache Stadt? (S. 51–72). Kassel: Altrock.
- Peddie, J. (2017). Augmented reality: where we will all live. New York, NY: Springer Berlin Heidelberg.
- Pluralsight. (2016, Mai). Holographic programming: a HoloLens how-to in a mixed reality world. Abgerufen 28. Oktober 2017
- Reicher, C. (2012). Städtebauliches Entwerfen (1. Aufl). Wiesbaden: Vieweg + Teubner.
- Reinert, A., Sinnig, H., Bühler, T., & Stiftung Mitarbeit (Hrsg.). (1997). Mobilisierung der Kompetenz der Bürgerinnen und Bürger. Das Bürgergutachten ÜSTRA zum öffentlichen Nahver kehr in Hannover. In Bürgerbeteiligung und Demokratie vor Ort (S. 143–157). Bonn: Stiftung Mitarbeit.
- Schmalstieg, D., & Sareika, M. (2007). Urban Sketcher: Mixed Reality on Site for Urban Planning and Architecture. In International Symposium on Mixed and Augmented Reality (Hrsg.), ISMAR 2007 proceedings. Los Alamitos, California: IEEE.