In den letzten Tagen habe ich viel darüber nachgedacht, was es eigentlich konkret bedeutet, KI zu entwickeln. Nicht im abstrakten Sinn globaler Technologiedebatten, sondern in unserem ganz normalen Arbeitsalltag. Wir sprechen viel über Modelle, Leistungsfähigkeit, Anwendungsfälle und Effizienz. Deutlich seltener sprechen wir darüber, welche Annahmen, welche impliziten Vorentscheidungen und welche Perspektiven in diese Systeme einfließen. Spätestens wenn wir eine RAG Wissensbasis strukturieren, werden diese stillen Vorentscheidungen jedoch sichtbar.
Große Sprachmodelle sind technisch beeindruckend. Gleichzeitig sind sie Produkte ihrer Trainingsdaten – und damit auch Produkte gesellschaftlicher Realitäten. Historische Schieflagen, dominante Diskurse, blinde Flecken: All das verschwindet nicht, nur weil es mathematisch repräsentiert wird. Es wirkt weiter, oft subtil und nicht sofort sichtbar.
Wir können das Basismodell nicht neu trainieren. Aber wir können beeinflussen, wie wir es einsetzen.
RAG Wissensbasis strukturieren: Warum Struktur kein Detail ist
In unserem Team arbeiten wir mit einem RAG-Modell, also mit einer Architektur, bei der das Sprachmodell zusätzlich auf eine von uns kuratierte Wissensbasis zugreift. Das klingt zunächst wie eine technische Entscheidung. Für mich ist es jedoch vor allem eine Frage der Verantwortung. Denn damit entscheiden wir aktiv, welche Quellen, welche Stimmen und welche Perspektiven in die Antworten einfließen.
Mir ist in diesem Zusammenhang noch einmal bewusst geworden, wie entscheidend es ist, wer diese Auswahl trifft. In unserem Team kommen unterschiedliche fachliche Hintergründe, Denkstile und Lebenserfahrungen zusammen. Genau darin liegt eine große Stärke: Annahmen werden hinterfragt, Begriffe präzisiert, Selbstverständlichkeiten geprüft. Manchmal macht erst eine andere Sichtweise deutlich, wo unsere Wissensbasis noch Lücken hat oder wo wir stillschweigend etwas voraussetzen.
Das hat nichts mit Symbolpolitik zu tun. Es ist eine Frage der Systemqualität.
Bias entsteht im System – nicht im Vorsatz
Bias entsteht selten aus bewusster Absicht. Er entsteht dort, wo Homogenität nicht bemerkt wird – wo ähnliche Lebensläufe, ähnliche Ausbildungen und ähnliche Erfahrungsräume zu ähnlichen Annahmen führen. Je ähnlicher ein Team denkt, desto größer ist die Wahrscheinlichkeit, dass bestimmte Aspekte gar nicht erst in den Blick geraten.
Ein RAG-Modell gibt uns zumindest die Möglichkeit, genauer hinzusehen. Wir können prüfen, welche Dokumente wir hinterlegen. Wir können abwägen, welche Perspektiven vertreten sind. Wir können bewusst ergänzen, wo wir einseitige Gewichtungen erkennen. Das ersetzt keine gesellschaftliche Debatte und löst keine strukturellen Probleme. Aber es verschiebt die Haltung: weg von „Das Modell ist eben so“ hin zu „Wir tragen Mitverantwortung für das, was es ausgibt.“
Für mich ist genau das ein zentraler Aspekt, wenn ich über Frauen und KI nachdenke – oder allgemeiner über unterschiedliche Perspektiven in technologischen Entwicklungen. Es geht nicht darum, Technik zu moralisieren. Es geht darum, anzuerkennen, dass technische Systeme immer auch Entscheidungen transportieren. Vielleicht verändert ein einzelnes Projekt nicht die Welt. Aber es verändert die Art und Weise, wie wir arbeiten und wie wir Verantwortung verstehen. Und das ist ein Anfang.






