ask – art & science krems: Ihre Studierenden gehören zur GenZ. Was ist Ihr Eindruck: Wie reflektiert sind sie in Bezug auf den Einsatz von KI?
Sonja Gabriel: Viele meiner Studierenden verwenden selbstverständlich generative KI, vor allem ChatGPT. Manche versuchen, damit alle ihre Aufgaben zu lösen und haben dabei ein schlechtes Gewissen, andere nicht. Ich bemerke, dass vielen Studierenden Hintergrundinformation zur Technologie fehlen, die ich für sehr wichtig halte. Sie wissen, dass sie vorsichtig sein müssen und nicht alles korrekt ist, was die KI ausspuckt. Die Tools sind einfach zu benutzen, aber prompten können die meisten nicht gut. So können sie generative KI nur eingeschränkt für sich nutzen.
Funda Zeynep Aygüler: Meine Studierenden kommen aus unterschiedlichen Fachrichtungen: Architektur, Medienkunst und Informatik. Die meisten von ihnen verfügen bereits über Programmierkompetenzen. In meinem praktischen Kurs dringen wir tief in die Technik vor, lesen aktuelle wissenschaftliche Literatur, laden Modelle herunter, modifizieren sie. Wie erkunden neue kreative Techniken wie Prompt Engineering und Model Fine Tuning. Ich ermutige sie, Modelle außerhalb ihres eigentlichen Einsatzgebietes zu nutzen. Die Reflexion passiert zu Beginn, wenn wir uns mit den Modellen vertraut machen, wie sie funktionieren und wofür sie gebaut wurden.
ask – art & science krems: Ihr Kurs an der Bauhaus-Universität Weimar heißt „Generative AI in Physical Production“. Was genau machen Sie da mit den Studierenden?
Aygüler: Der Kurs war ein Fachmodul, das sich auf die Lücke zwischen generativer KI und physischer Kreation fokussierte, erkundete, wie diese neuen digitalen Möglichkeiten in Produktionsprozesse integriert werden können. Die Studierenden arbeiteten beispielsweise mit Text- und Bild-zu-3D-Modellen. Wir befassten uns auch kritisch mit der Komplexität, die durch intransparente Interfaces entsteht, und untersuchten die offene Zukunft generativer KI-Anwendungen. Wir ließen uns vom Replikator aus „Star Trek“ inspirieren – einer fiktiven Maschine, die auf Befehl Dinge erzeugt. Vielleicht ist in Zukunft jedes Objekt nur einen Befehl entfernt. Wir sprachen über die Zukunft der physischen Produktion, über spekulative Ideen wie die Entfernung des Menschen aus der Produktionslinie.
ask – art & science krems: Frau Gabriel, wie wird zeitgemäße Lehre mit dem Einsatz von KI heute vermittelt?
Gabriel: Nicht nur Informatiklehrende müssen wissen, was ein Modell ist und wie es funktioniert. Ein Large Language Model erzeugt Text anhand von Statistik. Es ist keine Faktenproduktions-, sondern eine Rechenmaschine. Wenn ich das weiß, kann ich Erwartungen anpassen und erkenne typische Probleme. Es ist einfacher, aktive Kolleg*innen weiterzubilden. Im Oktober startet bei uns ein Hochschullehrgang zu generativer KI im Bildungswesen, der auch ethische Implikationen behandelt. Bei der Lehrer*innenausbildung sind wir nicht so flexibel. Ein Curriculum für das Lehramt Primarstufe wird genehmigt und muss einige Jahre halten. Das erstellen wir gerade. Dabei versuchen wir, KI-Kompetenz sowie Hintergrundinfos einzubauen und KI integriert beispielsweise auch in Lehrveranstaltungen zu Deutsch- und Mathemathik-Didaktik zu vermitteln.
ask – art & science krems: Wo kann KI aus Ihrer Sicht Lehrende besonders gut unterstützen?
Gabriel: Ich sehe großes Potenzial im Administrativen, das viel Zeit braucht und wenig kreativ ist. Für die Unterrichtsvorbereitung kann man ChatGPT nach Perspektiven und Vorschlägen fragen. 2024 haben sich meine Bachelor-Studierenden dazu recht kritisch geäußert. Ein echter Vorteil ist, dass KI multimodal – also etwa Bilder, geschriebenen Text und Stimme – übersetzen kann. Solche Live-Übersetzungen können im Gespräch mit Eltern und Kindern, deren Deutschkenntnisse nicht so gut sind, eine echte Unterstützung sein. Und KI kann Situationen simulieren, die man mit Rollenspielen nur begrenzt und im Job gar nicht üben kann – mit einem trainierten Chatbot etwa für herausfordernde Elterngespräche.

ask – art & science krems: Kommen wir zur Frage, wie die Kunst mit KI arbeiten kann. Frau Aygüler, in Ihrer Arbeit „A________Manifesto“ erzeugten Sie eine organisch aussehende Skulptur aus Manifesten. Wie genau hat Sie KI dabei unterstützt?
Aygüler: Diese Arbeit nutzt Vektorraummodelle der Semantik, eine Methode aus der Computerlinguistik. Dabei werden Worte oder Sätze als Vektoren dargestellt. Je enger die Worte verwandt sind, desto ähnlicher sind die Vektoren. Sie können verwendet werden, um Rechenoperationen zwischen Wörtern oder Sätzen durchzuführen. Das Ziel war, Textdaten in 3-D-Drucke zu übertragen. Für das Training erstellte ich eine Datenbank, die Manifeste aus verschiedenen Zeiträumen enthält, zu Ökologie, Feminismus, Politik, Kunst und Religion. Derzeit arbeite ich an einer weiteren Datenskulptur, die sich mit dem Wort „Maschine“ befasst. Ich erforsche den Begriff, dessen Bedeutung sich über Jahrhunderte änderte und die Szenarien, in denen Maschinen als beseelte Wesen betrachtet werden. Maschinen dienen auch als Metaphern für abstrakte Begriffe und sogar Lebewesen, besonders unsere modernen Maschinen, die sich an der Grenze zwischen Beseeltheit und Unbeseeltheit befinden. Auf diese Art finde ich neue Bedeutungen für den Begriff Maschine und erzeuge eine Skulptur, begleitet von Bildmaterial, das den Datenbestand erläutert.
ask – art & science krems: Angesichts der vielen Möglichkeiten von KI: Läuft Kunst heute Gefahr, banal oder eine technische Spielerei zu werden?
Aygüler: Die technischen Prozesse erzeugen nicht automatisch kreative Tiefe. KI wird immer einfacher zu benutzen, also wird es herausfordernder, sie mit Bedeutung aufzuladen. KI kann von Künstler*innen und Designer*innen als Werkzeug benutzt werden, wie ein Bleistift oder eine Kamera. Jemand anderer erkundet die Arbeitsweise des Systems und benützt es experimentell. Wieviel man über ein Werkzeug wissen will, liegt an einem selbst. Mit einer großartigen konzeptuellen Idee kann es immer funktionieren.
ask – art & science krems: Und was, Frau Gabriel, brauchen Pädagog*innen, damit ihnen die KI nicht den Rang abläuft?
Gabriel: Bildung ist viel mehr als Informationsaufnahme und -wiedergabe. Für Menschen ist sie ein sozialer Prozess. Wir müssen dafür Beziehungen aufbauen. Gefühle helfen uns, Dinge im Gedächtnis zu speichern. Es gibt Roboter, Avatare, die Gefühle simulieren können, mit Mienenspiel und Stimmmodulation. Sie wirken darin echt, sind es aber nicht. Doch wir werden dauerhaft immer lieber mit echten Menschen zu tun haben wollen. Lehrpersonen können sicher noch mehr von KI unterstützt werden. Gerne auch von Robotern im Klassenzimmer, die unermüdlich Fremdsprachen trainieren oder mit Schüler*innen in ihrer Muttersprache kommunizieren.
Aygüler: Auf der Ars Electronica wurde einmal ein Roboter ausgezeichnet, der auf diese Weise alte Menschen unterstützt.
Gabriel: Was mir zu den Robotern, die Miene und Stimme simulieren können, noch einfällt: Es gab eine Doku über einen Krebskranken, der wusste, dass er sterben würde. Die KI sollte seine Erinnerungen bewahren, damit sein Avatar mit seiner Frau sprechen konnte. Es war ihr aber nicht möglich, das in den ersten Wochen nach dem Tod des Mannes zu tun. Das war gruselig. Nicht alles, was KI ermöglicht, ist positiv.
ask – art & science krems: Schon lange wird darüber debattiert, ob KI kreativ sein kann. Wie sehen Sie das?
Aygüler: Es ist interessant, dass die Frage nicht lautet: Macht der Gebrauch von KI kreativ, sondern: Ist sie selbst kreativ? In Kunst und Design fanden mit der generativen KI unglaublich viele Möglichkeiten Eingang. Wir können mit Modellen fotografische Bilder und Videos herstellen. Nie in der Vergangenheit waren die Überschneidungen der Medien Text und Bild so eng: Man promptet und bekommt ein Bild. Bei der Herstellung dieser Prompts kommt Kreativität zum Tragen.

ask – art & science krems: Aber kann auch die KI selbst kreativ sein?
Aygüler: Diese Frage führt uns zurück zu Alan Turing, der vor 75 Jahren erstmals die Frage aufwarf, ob Maschinen denken können. Sein Aufsatz legte den Grundstein für die Diskussion, ob Maschinen menschliche Intelligenz nachahmen können. Turing warnt vor den Gefahren der Frage, ob Maschinen denken können. Er argumentiert, dass wir zunächst definieren müssen, was „Intelligenz“ und was „Maschine“ ist. In diesem Fall müssen wir verstehen, was Kreativität ist. KI kann überraschende und kreative Ergebnisse hervorbringen – ihre „Kreativität“ ist in ihrer Programmierung und den Daten, mit denen sie trainiert wird, verwurzelt und nicht in einem menschenähnlichen Prozess. KI kann möglicherweise kreative Handlungen nachahmen, aber ist das Nachahmen von Kreativität gleichbedeutend mit Kreativität? Eine schwierige Frage.
Gabriel: Wenn Large Language Models Romane schreiben, ist das Massenproduktion und nicht kreativ. Die Zukunft wird vielleicht in der Co-Kreation liegen. Was Sie, Funda Zeynep Aygüler, in der Kunst machen, haben wir bei akademischen Papers. Sollen wir ein Large Language Model zur Hilfe ziehen, wenn wir ein Abstract erstellen? In zehn Jahren wird darüber wahrscheinlich niemand mehr diskutieren. Aber was die Kreativität betrifft: Ich glaube nicht, dass KI etwas völlig Neues schaffen kann. Die Modelle sind mit Daten aus der Vergangenheit trainiert. In der Forschung ist es toll, wenn sie innerhalb weniger Minuten Ergebnisse erzeugen – aber es ist noch immer am Menschen, Verbindungen zu schaffen und neue Ideen zu haben.
Aygüler: Apropos Romane: Vor einigen Monaten arbeitete ich einem KI-Mensch-Interface, um spekulative futuristische Kurzgeschichten zu erstellen. Die KI ist sehr gut darin, aussagekräftige Texte zu schreiben, aber eine Geschichte braucht mehr – Struktur, narrative Kohärenz, Zeitgefühl, Originalität in Thema und Inhalt. Auch die Tiefe und Komplexität der Charaktere, die Verwendung von Redewendungen und Metaphern, ein unverwechselbarer Schreibstil sind für die KI eine Herausforderung. Aber das wird sich in Zukunft ändern, da die Modelle immer ausgefeilter werden.
ask – art & science krems: Wenn wir KI kreativ nutzen wollen: Wie sind die Voraussetzungen im Bildungs- und Universitätssystem dafür, also gibt es die nötige Infrastruktur?
Gabriel: Meiner Meinung nach geht es nicht um die Infrastruktur. Fast alle Kinder besitzen ab der Mittelschule Smartphones. Wenn es um KI-Kompetenz geht, dann braucht man den Computer gar nicht so sehr. In der Volksschule arbeitet man eher mit Material, das ohne Geräte benutzt werden kann. Damit kann beispielsweise besprochen werden, wie ein KI-Modell trainiert wird, oder wie eine KI eine Katze von einem Hund unterscheidet.
Aygüler: In meinen Lehrgängen ist das anders. Da sind gut ausgerüstete Computer und spezialisiertes Equipment nötig. Das ist sehr teuer, und der Erwerb stellt Unis häufig vor Schwierigkeiten.
ask – art & science krems: Die Rechenkapazitäten für KI verschlingen Ressourcen. Müssen wir darüber nachdenken, in welchen Bereichen wir sie benutzen und wo nicht – und wird über diese Fragen in Ihren Bereichen diskutiert?
Aygüler: Nein. Es gibt in der Kunst schon ökologische Debatten. Aber meines Wissens wurde dieses Thema im Zusammenhang mit KI noch nicht intensiv diskutiert. Künstler*innen sind sensibel beim Thema Energieverbrauch, und es gibt viele wichtige Werke, die sich kritisch damit auseinandersetzen. Wenn wir jedoch das Gesamtbild betrachten, sehe ich keine konkreten Bemühungen, den Einsatz von KI in verschiedenen Bereichen einzuschränken.
Gabriel: Das Gute ist, dass sich das ändert – der Energieaufwand wird weniger. Wir diskutieren aber zu wenig darüber, ebenso wie über die Arbeitsbedingungen: Wie werden jene behandelt, die KIs trainieren? Das sind häufig moderne Sklav*innen, die wie in Sweatshops arbeiten. Wir müssen stärkeres Augenmerk auf die Ausbeutung der Menschen durch KI-Training legen.

ask – art & science krems: Da sprechen Sie schon unsere letzte Frage an: Welche Grenzen sollten für die KI gelten?
Aygüler: Schwer zu sagen. Wir wissen nicht, was als nächstes kommt, und alles ändert sich schnell. Yesterday is history, tomorrow is mystery.
Gabriel: In Europa setzt glücklicherweise der AI-Act Grenzen: Wir werden beispielsweise kein Social Scoring System haben wie in China. Doch es braucht mehr offene und öffentliche Debatte darüber, wer und was hinter Large Language Models steckt. Nicht nur das chinesische DeepSeek, auch amerikanische Modelle haben Ideologie eingebaut. Wenn ein Large Language Model umfassend benützt wird, dann werden die dahinterstehenden Unternehmen sehr mächtig. Grenzen zu setzen, das mag gut und wichtig sein. Aber wer setzt sie und warum? Auch darüber müssen wir sprechen.

ask – art & science krems Redakteurinnen Nina Schedlmayer und Astrid Kuffner