„Queering AI“ – lässt sich künstliche Intelligenz queerer machen?
Was wäre, wenn KI nicht länger Vorurteile reproduziert, sondern Vielfalt stärkt? SIEGESSÄULE-Autorin Laura Brauer hat sich mit dem neuen Forschungsfeld „Queering AI“ auseinandergesetzt
Stellen wir uns vor, sprachgesteuerte Assistenzsysteme sprechen nicht länger automatisch mit einer weiblichen sondern mit genderneutralen Stimme. Was wäre wenn Algorithmen, die in Bewerbungs- und Einstellungsverfahren eingesetzt werden, menschliche Vorurteile ausgleichen statt sie zu reproduzieren? Oder, wenn Apps wie Lex, Everywhere Is Queer und Refuge Restrooms in Schule, Gesundheitsversorgung und auf Reisen dazu beitrügen, dass Vielfalt, queere Perspektiven und gemeinschaftliche Vernetzung zur Selbstverständlichkeit des Alltags werden?
Mit Fragen dieser Art beschäftigt sich ein aufstrebendes Forschungsfeld, das unter dem Schlagwort „Queering AI“ diskutiert wird. Es bindet Wissen aus der Queer-Forschung, in der gesellschaftliche Normen rund um Geschlecht, Sexualität und Identität kritisch hinterfragt werden, ein. Dies meint sowohl auf theoretischer Ebene, etwa in den Medien- und Kulturwissenschaften, als auch in unmittelbarer Praxis, etwa in Tech-Unternehmen oder im Bildungs- und Gesundheitswesen.
Künstliche Intelligenz ist heute ein kaum zu überblickendes Forschungs- und Anwendungsfeld. Sie durchdringt unseren Alltag: auf Social-Media-Plattformen, in Messenger-Apps, Chatbots und digitalen Assistenzsystemen etwa im Kundenservice, in Sprachassistenten oder auch in Videospielen zur Erstellung von Avataren, im Verkehr oder in der Medizin. Kurz gesagt: überall dort, wo große Mengen an Daten und Informationen analysiert und verarbeitet werden.
Brisanz für die LGBTQ*-Community
Die Brisanz falsch oder unzureichend trainierter KI-Systeme für die LGBTQ*-Community wurde in den letzten Jahren immer wieder deutlich: So blockierten und demonetarisierten große Social-Media- und Video-Plattformen LGBTQ*-Content oder Verschlagwortungen zu Themen wie „Coming Out“, „Transgender“ oder „Chosen Family“. Ein anderes markantes Beispiel liegt im Einsatz algorithmischer Gesichtserkennungs- oder Geschlechtszuordnungssysteme: So zeigen aktuelle Studien, dass KI-generierte Gesichter Geschlechterstereotype verstärken und ethnische Diversität unsichtbar machen. Dies sind nur wenige Beispiele, die verdeutlichen, wie KI bestehende gesellschaftliche Normen und Vorurteile reproduzieren kann. Gleichzeitig eröffnen KI-Systeme aber auch Chancen für queere Communitys: Genau hier setzt „Queering AI“ an.
Künstliche Intelligenzen spiegeln unweigerlich die sozialen, kulturellen, gesellschaftlichen Prägungen ihrer Entwickler*innen wider.
Um zu verstehen, was queere KI und der Ansatz des Queering theoretisch bedeuten könnten, lohnt ein Blick auf die Arbeiten von Raj Korpan, PhD, Assistant Professor of Computer Science am Hunter College der City University of New York, an. Im Interview mit SIEGESSÄULE beschreibt Korpan Queering AI als kritisches Hinterfragen der Annahmen, die technologischen Systemen zugrunde liegen – insbesondere hinsichtlich Identität, Normativität und der Zielgruppen, für die diese Technologien entwickelt werden. Ziel sei es, KI so zu gestalten, dass sie die Vielfalt und Wandelbarkeit menschlicher Erfahrungen widerspiegelt. Queere KI macht also starre Kategorien, binäres Denken und normative Annahmen sichtbar, die in Entwicklung, „Training“ und Bewertung von KI-Systemen einfließen.
Schließlich spiegeln Künstliche Intelligenzen unweigerlich die sozialen, kulturellen, gesellschaftlichen Prägungen ihrer Entwickler*innen wider. Diese Übertragung analoger – menschlicher – Vorannahmen in digitale Systeme zeigt sich im Bereich generativer KI, wie beim Training großer Sprachmodelle (LLMs), bei dem Homogenisierung, also der Verlust von Diversität durch „Glattbügeln“ geschlechtlicher oder ethnischer Unterschiede, entsteht.
Mythen über KI: Mehr Zeit dank ChatGPT?
Eine speziellere Perspektive auf das Queering von KI, insbesondere mit Blick auf die von Macht- und Gewaltstrukturen durchzogene, westliche Geschichte algorithmischer Systeme, eröffnet die Kunst- und Medienwissenschaftlerin Katrin Köppert, die derzeit die Professur für Medientheorie am Institut für Musik- und Medienwissenschaft (HU Berlin) vertritt. In ihrem Beitrag „Queersplaining AI“ aus dem Jahr 2024 stellt sie ein gleichnamiges Konzept vor, das an das Phänomen des Mansplaining, also das herablassende, bevormundenden Erklären „der Welt“ durch Männer an Frauen, angelehnt ist und als kritische Reaktion auf aktuelle Debatten über Explainability und Transparenz in der KI-Entwicklung verstanden werden kann. Diese Debatten entstanden vor allem im Kontext von Leitfäden für eine verantwortungsvolle Entwicklung von KI-Systemen.
Im Gespräch mit SIEGESSÄULE argumentiert Köppert, dass der Versuch, sogenannte Black-Box-Algorithmen – also Algorithmen, deren interne Funktionsweise verborgen bleibt und bei denen nur das Ergebnis, wie etwa ein Musikvorschlag auf Spotify, sichtbar ist – durch mehr Transparenz allein zu erklären, kaum etwas an den Mythen und fantastischen Vorstellungen ändert, die sich rund um KI gebildet haben.
Selbst wenn Nutzer*innen nachvollziehen könnten, wie Datenpunkte miteinander korrelieren, würden die grundlegenden Zuschreibungen und Illusionen über KI kaum infrage gestellt. Dazu gehören etwa die Vorstellung, KI werde unser Arbeitsleben grundsätzlich verbessern, weil uns Tools wie ChatGPT mehr Zeit für kreative Tätigkeiten verschaffen, Bürokratie könne effizienter gemacht werden und sogar Kriege könnten präziser und effizienter geführt werden. Köppert ergänzt: „Die Forderung nach Transparenz ist historisch betrachtet keineswegs neu, sondern knüpft an die aufklärerische Idee des 'gläsernen Menschen' an – eine Vorstellung, die selbst von gesellschaftlichen Machtverhältnissen und Vorannahmen geprägt ist.“
„Es ist die Aufgabe von Wissenschaft, die Komplexität unserer technologischen Gegenwart sichtbar zu machen, ohne sofort einfache Rezepte für politische oder technische Lösungen bereitzustellen.“
Auch Raj Korpan unterstreicht die historische Dimension der Erklärung: Technologische Systeme spiegeln oft rassistische, misogynistische, trans- wie klimafeindliche Strukturen wider. Sei es in Bewerbungs-KI, die Frauen in technischen Berufen schlechter bewertet oder Lieferketten-Optimierungen, die ökologische Nachhaltigkeit vernachlässigen. Diese Strukturen lassen sich nicht allein durch mehr Transparenz auflösen.
Queersplaining sei, so Köppert, ein „unverschämter“ Wunsch. Unverschämt deshalb, weil er sich nicht mit dem kleinstmöglichen Nenner zufrieden gibt, also mit der bloßen Forderung nach Explainability. Und, sie unterstreicht: „Das ist auch gut so. Schließlich ist es Aufgabe wie Privileg von Wissenschaft, die Komplexität unserer technologischen Gegenwart sichtbar zu machen, ohne sofort einfache Rezepte für politische oder technische Lösungen bereitzustellen.“
Technologie für marginalisierte Gruppen?
Doch wie sieht nun die praktische Anwendung von queer orientierter KI gegenwärtig eigentlich aus? Wenn man einen Blick auf aktuelle und zukünftige Anwendungen queerer KI wirft, zeigen sich mehrere zentrale Akteure und Ansätze. So bringen Organisationen wie Queer in AI und Queer in Robotics Forschende aus Fachbereichen der Mathematik, Informatik, Design, aber auch Rechts- und Sozialwissenschaften zusammen, um inklusive, queere Perspektiven in maschinelles Lernen, Robotik und die Mensch-KI-Interaktion zu integrieren.
Dabei geht es nicht primär darum, Technologien für marginalisierte Gruppen zu entwickeln, sondern vielmehr mit queeren und trans* Communitys zu erarbeiten. So fördert und organisiert etwa die Gruppe Queer in AI Konferenzen, Workshops und Vortragsreihen, bei denen beispielsweise partizipative Datensatzentwicklung oder spekulatives Design von Benutzer*innenoberflächen gemeinsam erlernt und erprobt werden. Besonderes Augenmerk liegt darin, verschiedenste Bereiche, in denen KI eingesetzt wird, durch und für queere und trans* Communitys zugleich sicherer als auch selbstbestimmter zu gestalten.
Auch Raj Korpan, selbst Mitglied bei Queer in AI, ordnet die praktischen Anwendungen von Queering als breites Spektrum ein: „Sie ziehen sich durch den gesamten Entwicklungsprozess von KI, vom Interface-Design und der Datensatz-Erstellung über Evaluation, Governance bis hin zu politischen Fragestellungen.“ Und Korpan ergänzt im Interview: „Durch solche Interventionen wird KI nicht mehr als neutrale Technologie verstanden, sondern als ein System, das von Machtverhältnissen, sozialer Gerechtigkeit und Gleichstellung geprägt ist.“
„Durch solche Interventionen wird KI nicht mehr als neutrale Technologie verstanden, sondern als ein System, das von Machtverhältnissen, sozialer Gerechtigkeit und Gleichstellung geprägt ist.“
Während Korpan die Potenziale queerer KI eher positiv sieht, ist Köppert skeptisch. Sie betont, dass bestehende Ansätze des Queering auch gegenüber faschistischen Tendenzen verteidigt werden müssen. Das bedeutet, queeres KI-Wissen bereits gegenwärtig zu archivieren und sichtbar zu erhalten und erinnerbar zu machen.
Auch wenn die Diskussion über KI oft abstrakt erscheint, begegnet sie uns im Alltag jeden Tag: intuitiv, selbstverständlich, fast unsichtbar. Von der Nutzung von Streamingdiensten, Dating-Apps oder Reiseplanern bis hin zu öffentlichen und professionellen Anwendungen in Medizin, Bildung, Verkehr oder Verwaltung prägt KI zunehmend unser Handeln und unsere Entscheidungen. Und gerade hier eröffnet sich ein Spannungsfeld: Einerseits liegt es an uns, KI informiert sowie verantwortungsvoll zu nutzen; andererseits darf die allgegenwärtige KI-Infrastruktur nicht die letztliche Verantwortung auf einzelne Endnutzer*innen verschieben, während die Strukturen, die KI formen, von übermächtigen Tech- und Investment-Akteur*innen und gesellschaftlichen Normen geprägt sind.
Folge uns auf Instagram
#AI#Forschung#KI#Künstliche Intelligenz#Queer in Robotics#Queering AI#Queersplaining#Technologie#Wissenschaft