Kostümgestaltung für inszenierte Räume zwischen materieller und virtueller Realität
Theaterwissenschaftlerin Birgit Wiens im Gespräch mit Luise Ehrenwerth
Kostüme lassen sich auch als eigenständige Objekte und raumplastische Elemente im szenografischen Gestaltungsraum auffassen und nicht primär nur als Kleidungsstücke, die eine*n Träger*in in einer Rolle kennzeichnen. Zudem beeinflussen Material und Formeigenschaften Aktion und Bewegungsmöglichkeiten in einer Performance. Hier setzt Luise Ehrenwerth an: Was geschieht, wenn man Verwendung und Funktion von Kostümen, wie man sie bisher kannte, um technologische Funktionalitäten erweitert? Im Spannungsfeld zwischen physischem und virtuellem Raum experimentiert sie mit e-textiles, Microcontrolling, Sensoren und aktuell v.a. mit AR-Technologie.
Du hast in Dresden Bühnen- und Kostümbild studiert, warst Fellow an der Akademie für Theater und Digitalität, und in der Auseinandersetzung um ‚digitale Szenografie‘ ist Dir offenbar beides gleich wichtig: Kostüm- und Bühnenbild. In der AG Digitaler Raum hast Du zurecht mal gesagt, dass in der Diskussion das Kostüm oft vergessen wird. Wo hingegen siehst Du die Potentiale?
Ich sehe Potential zum einen in der Entwurfsarbeit am Theater – mit dem Einsatz von Design-Tools wie z.B. Clo3D, die aus der Modebranche kommen, oder Marvelous Designer, einer 3D-Designsoftware, die unter anderem zum Entwerfen der Bekleidung von Gamecharakteren genutzt wird. Da eröffnen sich künstlerische Möglichkeiten. Zudem könnte digitales Design Abläufe bei den Proben und der Kostümherstellung verändern. Vor allem interessiert mich aber der szenische Einsatz von digital augmentierten Kostümen, d.h. Ansätze, materielle Kostüme mit eingearbeiteter Elektronik ‚smart‘ zu machen. Wie können Kostüme zum Device, zur Schnittstelle zwischen Bühne, Körper und virtuellen Räumen werden? Anders gesagt, geht es mir um die schon viel beschriebene Grenze zwischen Mensch und Technologie und die Frage, wo diese Grenze heute verläuft. Als Kostümbildnerin und Szenografin geht es mir darum, sie zu bearbeiten und am Theater vielleicht auch ein bisschen durchlässiger zu machen.
Das Thema, das Du ansprichst, Human Enhancement, rührt an Fragen des Trans- bzw. Posthumanismus, also an Diskussionen, die Menschenbilder und tradierte Auffassungen menschlicher Körperlichkeit hinterfragen. Steve Dixon hat in seinem Buch Digital Performance (2007) einen auch in den Künsten länger schon laufenden Diskurs um virtuelle Körper, digitale Doubles, Roboter und Cyborgs beschrieben, man denke z.B. an Stelarcs „Dritten Arm“. Worauf zielen Deine Überlegungen, „die Grenzen ein bisschen durchlässiger zu machen“?
Aus unserem Alltag sind digitale Medien nicht mehr wegzudenken, das beeinflusst natürlich die Art und Weise wie wir kommunizieren, uns orientieren oder informieren. Ich bin Anfang der 1990er Jahre geboren und somit Teil der ersten Generationen von Digital Natives. Mein Umgang mit dem Internet oder Geräten wie Smartphones ist möglicherweise genau deshalb ein eher offener, optimistischer und spielerischer. Natürlich steht die Frage im Raum, wie wir mit der Technik leben wollen, wieviel Raum wir ihr geben, aber ich glaube, dass eine Chance darin liegt, durch eigene Zugriffe auf die digitalen Technologien neue Beziehungen zu ihnen aufzubauen. Künstlerisch interessiert mich vor allem die Frage, wie ich sie, anders als im Alltag, im Theaterkontext einsetzen kann. Es geht darum, Wahrnehmungsweisen zu untersuchen: Wie nehmen wir die Welt wahr und mit welchen Sinnen: Wie sind der Sehsinn, Hörsinn oder auch der haptische Sinn beteiligt? Und auf inhaltlicher Ebene: welche Utopien oder Dystopien entwerfen wir, wenn wir szenografische und narrative Welten gestalten?
Das Forschen zwischen materieller und virtueller Realität schließt, wie Dein Portfolio zeigt, Theater-Machen, wie man es bisher kennt, nicht aus. Zugleich arbeitest Du u.a. mit machina eX und komplexbrigade zusammen und entwickelst partizipative Kunsträume. Dort liegt der Fokus nicht allein auf virtuellen Bühnen, sondern eben auf dem ‚Dazwischen‘.
Mich interessiert das ganze Spektrum, und auch die rein virtuelle Bühne und Kostümgestaltung wirft viele Fragen auf. Als ich die Ergebnisse meines Dortmunder Forschungsprojekts „connecting:stitches“ in der AG Digitaler Raum präsentiert habe, wurde ich gefragt, ob es eigentlich auch schon einen Fundus für virtuelle Kostüme gibt. Ich glaube, die Frage kam von Dir und ich fand das einen guten Impuls: Lasst uns einen Online-Fundus für virtuelle Kleidung und Theaterkostüme einrichten! Zwar gibt es im Game-Design bereits Online-Bibliotheken, wo man virtuelle Objekte und Charaktere downloaden kann, aber meist sind das stark stilisierte Körperformen und Bekleidungsdesigns. Ein digitaler Theaterkostümfundus wäre ein anderes Konzept.
Was würde man dort alles finden: Virtuelle Kostüme für virtuelle Bühnen? Oder auch 3D-Scans von Kostümen? Vielleicht auch vernetzte Bestandverzeichnisse, was verschiedene Theater, auch materiell, in ihrem Fundus haben? Und man könnte historische Kostümentwürfe aus Theaterarchiven, auch in 3D, online zugänglich machen. Da stellen sich, u.a. urheberrechtlich, aber gleich wieder Fragen…
Ein virtueller Fundus wäre wie ein klassischer Kostümfundus ein Sammelort für all die großartigen und vielfältigen kostümbildnerischen Werke – denn zunehmend entstehen auch für virtuelle Theaterformate eigens entworfene 3D-modellierte Kostüme für Avatare. Diese werden dann häufig nur für ein spezifisches Projekt genutzt und versauern dann auf den Festplatten ihrer Designer*innen. Davon abgesehen, dass eine Online-Kostümplattform künstlerisch inspirierend wäre, könnte es zudem helfen, ressourcenschonend zu arbeiten, vergleichbar dem Konzept der „Digitalen Bauprobe“. Allerdings, finde ich, fehlen Zahlen: Was spart man ein, was Material, Arbeitsaufwand und Reisen angeht, und wann ist es sinnvoller, vor Ort eine Bauprobe zu haben? Zu Kostüm und Nachhaltigkeit fällt mir ein, dass digitale Tools in der Fashion Branche anfangs durchaus mit dem Ziel der Ressourcenschonung entwickelt wurden, damit nicht jeder Entwurf genäht und Models nicht für Fittings ständig um den Globus fliegen mussten. Heute gibt es virtuelle Kleidungsstücke z.B. als Filter für die eigene Instagram-Story; inzwischen dient das den großen Modefirmen vor allem auch als Werbung. Zudem ist ein Trend, dass Designer-Kleidung – als Einzelstücke und Kunstwerk – als NFTs angeboten werden, die aber bekanntlich viel Speicherkapazität und Energie brauchen. So gesehen, bewegt sich das vielleicht in die falsche Richtung… Wie immer kommt es darauf an, welche Technologie man einsetzt und in welcher Weise.
Lass uns über Arbeiten von Dir sprechen… Ein roter Faden ist offenbar Deine Auseinandersetzung mit der Guckkastenbühne, das Erproben anderer, räumlicher Situationen und Recherchen mit AR-Technologie. Hier begannen auch Deine Experimente mit e-textiles und mit Erweiterungen des Kostüms durch Microcontrolling, Sensoren und AR.
Ich persönlich mag nicht so gern, wenn das Publikum räumlich auf einen festen Platz verwiesen ist, wie es in der Guckkastenbühne eben der Fall ist. Meine augmentierten Kostüme sind für partizipative Formate gedacht: Ich arbeite mit textilen AR-Markern sowie mit Microcontrollern, die ich in das Kostüm einnähe oder auch nur mit Schräubchen befestige, sodass ich sie mehrmals, d.h. auch nachhaltig, verwenden kann. Situativ kann das zum Beispiel heißen, dass ein*e Zuschauer*in diese Marker scannt und sich selbst einen Weg durch eine Geschichte bahnt, wo es verborgene Welten zu entdecken gibt. Dabei muss man sich bewegen, also auch den eigenen Körper aktiv einbeziehen.
Anders als bei der AR Magic-Leap-Brille, mit der Oliver Proske arbeitet (vgl. Labor #5), hat das Publikum in den AR–Konstellationen, die Du entwirfst, iPhones oder Tablets in der Hand. Man könnte einwenden, dass das, was auf den Tablets zu sehen ist, nicht AR, sondern gefilmte AR ist.
Was ich an Smartphones oder Tablets schätze, ist die Freiheit, dass ich sie halten kann, wie ich will und bei Bedarf auch schnell aus der Hand legen kann. Und was ich dort sehe, entsteht live vor mir, in Echtzeit, und zugleich sehe, höre und spüre ich meine Umgebung – ich nenne das den „haptischen Blick“: Meine Hand führt meinen Blick in den virtuellen Raum, der überall um mich herum ist, und der ganze Körper muss mitmachen, um die AR zu entdecken. An AR finde ich gut, im Unterschied zu VR, dass sie den materiellen Raum nicht ausschließt. Erfahrungsgemäß können auch schon AR-Erlebnisse mit Smartphones oder Tablets hochgradig immersiv sein. Nicht umsonst bekommt man beim Öffnen von AR-Apps manchmal Warnhinweise, dass man gut auf den Verkehr achten sollte, um nicht etwa über eine rote Ampel zu laufen.
An der ATD Dortmund hast Du 2021/21 den Prototyp „connecting:stitches“ entwickelt.
Ja, und was sich auf Fotos – wie den beiden oben auf dieser Seite – leider nicht vermittelt ist, dass ich, wenn ich das Kostüm anhabe, steuern kann was in der App passiert. Das Kostüm ist eine am Körper getragene Fernbedienung für das Geschehen in der AR. Durch Öffnen oder Schließen herkömmlicher Metalldruckknöpfe, die mit leitendem Garn an den Microcontroller angenäht sind, kann ich steuern: Was wird sichtbar, welche virtuellen Objekte werden gezeigt? Das ist auch dramaturgisch und narrativ interessant, denn ein*e Darsteller*in kann so Einfluss auf den Stückverlauf nehmen, z.B. bestimmte Objekte erst später freischalten oder unterschiedlich kombinieren – je nachdem auch, für welchen Erzählstrang sich ein Publikum entscheidet.
Die Frage, wer steuert eine digitale Performance, also: Who’s driving?, ist auch eine, die lange schon diskutiert wird. Sind nach Deiner Vorstellung Regie, Choreografie, eine (mehr oder weniger offene) narrative Grundstruktur vorgesehen oder inwiefern soll situativ wechseln, wer gerade steuert?
Mit meinem Prototyp ist es so, dass aus dem Tablet heraus z.B. Licht im Kostüm gesteuert werden kann. Beide Seiten: Performer*in und Publikum bekommen Optionen zur Interaktion, Hin- und Her-Bewegungen finden statt. Ermöglicht wird das durch die MQTT-Technologie, einer Netzwerktechnik, über die unterschiedliche technische Geräte wie eben z.B. die Mikrocontroller im Kostüm und die Unity-App auf dem Tablet kommunizieren können. So ist es auch möglich, aus dem Kostüm heraus z.B. die Scheinwerfer oder Lautsprecher im Raum zu steuern. Das müsste man programmieren, dazu braucht es natürlich entsprechende Kenntnisse im Coden, die ich mir selbst erst nach und nach aneigne, aber prinzipiell ist es möglich. Für mein Projekt in Dortmund hatte ich Unterstützung von Anton Kurt Krause, der Regisseur ist, aber auch als Creative Coder Software für Theaterprojekte erarbeitet und mir die MQTT-Technik nahegebracht hat. Bislang sind es die Techniker*innen am Beleuchtungspult, die die Scheinwerfer steuern und denen die Darsteller*innen in gewisser Weise ausgeliefert sind. Die Frage, wer die Cues gibt, stellt sich immer. Das augmentierte Kostüm, mit zusätzlichen Fähigkeiten, käme als Player dazu. Übrigens macht es Spaß, wenn eine Person im Tablet ein Objekt findet und z.B. ich, im Kostüm, es wieder verschwinden lasse. Das löst Irritation aus: Wo ist es hin? Und ich sage: Das war ich…! Damit kann man prima spielen, zudem berührt das die alte Frage nach der Hierarchie der Theatermittel.
Luise Ehrenwerth ist freischaffende Kostümbildnerin, Szenografin und passionierte Makerin. Sie ist Alumna der Akademie für Theater und Digitalität Dortmund, wo sie 2021/22 mit dem Projekt „connecting:stitches“ zur Verknüpfung von Kostümen und digitalen Technologien forschte. Zuvor Studium Bühnen-/Kostümbild an der HfBK Dresden (2012-18). Seither entstanden u.a. Arbeiten für partizipative Formate, wie ihr Diplomprojekt „SCHRAPP SCHRAPP BUFF ZONG“, das in Zusammenarbeit mit Nele Bühler mittels binauraler Aufnahmetechnik das Potential von 3D-Hörräumen untersucht, sowie gemeinsam mit dem Medientheaterkollektiv machina eX das theatrale Klassenzimmer-Game „setup.school () – Die Lernmaschine“.