8. April 2026

KI, Ethik und Bias – anwendungsorientierte Perspektiven

 

KI ist nicht neutral: Wie sie lernt, welche Daten sie nutzt und welche Annahmen ihr zugrunde liegen, hat direkte Auswirkungen auf ihre Ergebnisse. Die Campus Lecture „Einen Kaffee auf dem Mond trinken: KI, Ethik und Bias – anwendungsorientierte Perspektiven“ zeigte, warum ein kritischer Blick auf Bias, Machtverhältnisse und ethische Fragen im Umgang mit KI unerlässlich ist.

Drei Personen sitzen auf einer Bühne an einem Tisch und diskutieren vor Publikum. Im Hintergrund ist eine Präsentationsfolie des Forschungszentrums AI, Software and IT-Security zu sehen.

Wie lernt KI? Welche Daten, Modelle und Annahmen prägen ihre Funktionsweise und damit ihre Resultate? Inwiefern reproduziert KI bestehende Machtverhältnisse, und welche demokratischen, ethischen und machtkritischen Fragen stellen sich dadurch? Diesen Fragen widmete sich die Campus Lecture. Organisiert vom Forschungszentrum AI, Software and IT-Security und der Abteilung Gender & Diversity Management, bot die Veranstaltung Raum für einen reflektierten und kritischen Umgang mit KI im Hochschulkontext.

KI (re)produziert Biases

„Die KI gibt es nicht“, hält Assistant Prof. Dr.x techn. Katta Spiel, BSc B.A. MSc an der TU Wien zu Beginn des eigenen Vortrags fest. Vielmehr handelt es sich um unterschiedliche statistische Modelle und Verfahren, die bereits seit den 1950er-Jahren von Wissenschaftler*innen beforscht werden. Moderne Systeme basieren unter anderem auf konnektionistischen Ansätzen: Wörter werden zu Vektoren, und auf Basis von Kontexten wird berechnet, welches Wort mit welcher Wahrscheinlichkeit darauf folgt.
Diese Modelle werden mit unterschiedlichen Texten trainiert, wie Websites, Konversationen, Büchern, Nachrichten und wissenschaftlichen Daten. Je nachdem, welche Informationen als Grundlage genutzt wurden, werden aus diesen Mustern gelernt und reproduziert. So führt die Aufforderung an eine bildgenerierende KI, einen CEO darzustellen, dazu, dass überwiegend weiße, als Männer gelesene Personen gezeigt werden, während der Prompt, eine Pflegekraft darzustellen, überwiegend weiße, als Frauen gelesene Personen zeigt.
Bestehende Ungleichheiten und Stereotype werden durch die KI jedoch nicht nur reproduziert, sondern weiter verstärkt und verzerrt. Dieses Phänomen kann sich mit der Zeit selbst verstärken: Je mehr Texte im Netz KI-generiert sind, desto mehr lernt die KI von sich selbst. Dadurch entsteht die Gefahr, dass sich Stereotype und Biases weiter verfestigen und Diversität reduziert wird.

Machtkritische Zugänge als demokratiepolitische Aufgabe

Algorithmische Systeme werden zunehmend auch in sensiblen und persönlichen Bereichen eingesetzt, etwa in der Pflege oder im Gesundheitskontext. Gerade hier ist ein personenzentrierter Umgang wichtig. Gleichzeitig werden zunehmend algorithmische Anwendungen eingesetzt, beispielsweise zur Unterstützung bei der Überwachung von Körperfunktionen von Bewohner*innen oder auch zur Kontrolle und Organisation von Pflegekräften.
„Während in demokratischen Gesellschaften die Rechte und Bedürfnisse von Individuen in den Fokus rücken, vereinheitlichen und standardisieren KI-Systeme“, betont Katta Spiel. Es wird deutlich, dass der moralische und ethische Fortschritt, wie so oft, dem technischen hinterherhinkt, hält Mugdim Bublin, Stiftungsprofessor für Artificial Intelligence, ebenso fest.
Eine machtkritische Auseinandersetzung mit KI stellt daher nicht nur eine technische, sondern auch eine gesellschaftliche und demokratiepolitische Aufgabe dar. Sie erfordert Kompetenzen, die in technischen Ausbildungen häufig wenig verankert sind und auch am Arbeitsmarkt selten gefordert werden, obwohl gerade diese relevant für eine verantwortungsvolle Gestaltung und den Einsatz von KI-Systemen sind.

Forschungszentrum AI, Software and IT-Security
Digital Innovation, Engineering, and AI