Fachausschüsse des BayLFR zu KI

Fachausschuss Medienpolitik:

Künstliche Intelligenz verändert die Medienlandschaft, von der Produktion redaktioneller Inhalte bis zur Steuerung von Empfehlungsalgorithmen. Diese Veränderung beeinflusst die Sichtbarkeit von Frauen, Darstellung von Genderrollen und somit die Rollenvorstellungen in der Öffentlichkeit. Der medienpolitische Ausschuss beschäftigt sich mit der Frage, welche Verantwortung Medienunternehmen im Umgang mit KI tragen, um Gender Bias zu vermeiden und Gendervielfalt abzubilden – und wie Einzelpersonen zu einem gendergerechteren Medienalltag beitragen können.

Medienunternehmen verfügen über mehrere Möglichkeiten, KI als Instrument für Vielfalt und Gerechtigkeit einzusetzen:

  • Standards und Selbstverpflichtungen in der Branche – etwa in Form von Leitlinien oder Gütesiegeln –, die verbindliche Kriterien für Gendergerechtigkeit, Anti-Bias (damit ist eine bewusste, aktive Haltung und Praxis gegen Vorurteile, Diskriminierung und stereotype Denkmuster gemeint) und den verantwortlichen Umgang mit KI in Redaktionen, Plattformgestaltung und Distribution festlegen.
  • Diversität sollte in Entwicklungs-, Daten- und Entscheidungsteams erhöht werden: Mehr Frauen sowie queere und intersektional-diverse Perspektiven senken die Gefahr algorithmischer Einseitigkeit – insbesondere in Konzeptions- sowie Test- und Validierungsphasen.
  • Ergänzend sollten Ethik-Boards und Diversity-Kommissionen mit Gender-Expertise eingerichtet werden, die Richtlinien mitentwickeln und deren Einhaltung prüfen.

Essenziell ist ein strategischer und organisatorischer Rahmen in Form einer Daten-Governance, die verlangt, dass Trainings- und Auswahldaten vielfältig, nachvollziehbar und qualitätsgesichert sind. Unternehmen sollten ganz selbstverständlich offenlegen, auf welchen Datengrundlagen ihre KI-gestützten Systeme arbeiten. Im Design und Betrieb von KI-Systemen braucht es Prozesse, die algorithmische Verzerrungen erkennen, bewerten und beheben; zugleich ist die transparente Kennzeichnung von KI-bearbeiteten oder generierten Inhalten nötig – insbesondere bei Deepfakes oder redaktionellen Texten. Schließlich sollte KI bewusst auch proaktiv für Sichtbarkeit eingesetzt werden: etwa durch Bild- und Empfehlungslogiken, die vielfältige Körper, Lebensmodelle, Gender und Herkunft sichtbar machen, statt Normbilder zu reproduzieren und zu verfestigen. So verstanden kann KI ein Hebel für eine inklusivere Medienordnung sein – wenn sie konsequent reguliert, kontrolliert und gestalterisch genutzt wird.

Selbst ist die Frau: KI-kompetent werden

Für Nutzerinnen beginnt gendergerechter KI-Einsatz mit einem kritischen Bewusstsein: Wer erkennt, wo Inhalte von KI ausgewählt oder verändert werden in Feeds, Werbung oder Sprachassistentinnen, kann ihren Einfluss auf Wahrnehmung, Urteile und Selbstbilder besser einordnen. Um algorithmischen Echokammern (gemeint sind algorithmisch verstärkte Informationsräume, die bestehende Überzeugungen bestätigen und Gegenperspektiven unsichtbar machen) entgegenzuwirken, hilft es, bewusst verschiedene Quellen zu nutzen, Gegenmeinungen einzuholen und die eigene Perspektive selbst zu bestimmen. Bei der Auswahl von KI-Tools lohnt es sich, Anwendungen zu bevorzugen, die Diversität und Inklusion fördern – was aufgrund geringer Transparenz vieler Tech-Firmen und der fortwährenden Veränderung und Entwicklung der Systeme anspruchsvoll ist! Dranbleiben durch regelmäßige Nutzung verschiedener KI-Tools empfiehlt sich deshalb. 

Ein zentrales Schutzprinzip ist die Selbstbestimmung über Daten: Datenschutz- und Tracking-Einstellungen sollten aktiv gesetzt werden, um algorithmische Profilbildung zu begrenzen – sowohl in Social-Media-Plattformen als auch bei der Nutzung großer Sprachmodelle (z.B. ChatGPT). Nutzerinnen können selbst zu digitalen Fairness-Akteurinnen werden, indem sie Deepfakes, Hassrede, sexualisierte Gewalt oder diskriminierende Inhalte melden und Rückmeldefunktionen von KI-Systemen nutzen. Langfristig stärkt digitale Weiterbildung – z. B. über Frauenverbände, NGOs oder öffentliche Bildungsangebote – das Verständnis für Funktionsweisen und Risiken von KI. Wer KI versteht, kann sie umsichtig nutzen und auch strategisch zur Verbesserung eigener Skills und für Empowerment verwenden: für Sichtbarkeit, Gegenrede und Selbstermächtigung in digitalen Räumen.

 

Fachausschuss Bildungspolitik:

Wie wir lernen, lehren und Wissen weitergeben, verändert sich durch KI. Neue Chancen für individualisiertes Lernen und flexible Bildungswege tun sich auf – gleichzeitig entstehen aber auch neue Herausforderungen für Schulen, Lehrkräfte und Lernende. Der bildungspolitische Ausschuss möchte wissen, welche Kompetenzen Lehrkräfte und Lernende benötigen, um KI verantwortungsvoll und wirkungsvoll einzusetzen. Hinzu kommt die Frage, wie KI das lebenslange Lernen unterstützen und Bildung stärker an unterschiedliche Lebens- und Berufsrealitäten anpassen kann – für mehr Chancengerechtigkeit und Teilhabe in einer digitalen Gesellschaft.

Lehrkräfte wie Lernende benötigen neue, fachübergreifende Kompetenzen, um KI verantwortungsvoll einsetzen zu können. Eine kritische KI-Grundbildung ist erforderlich:

  • Lehrkräfte müssen verstehen, wie KI-Systeme arbeiten, welche Verzerrungen auftreten und wo die Grenzen dieser Systeme liegen.
  • Sie müssen datenschutzrechtlich sicher handeln können – etwa wissen, dass Prüfungsleistungen wie Seminararbeiten in der Regel nicht ohne Weiteres in externe KI-Systeme hochgeladen werden dürfen.
  • Sie müssen befähigt werden, KI-Ergebnisse kritisch zu prüfen, zu kennzeichnen und transparent zu machen.

Entscheidend ist außerdem die Integration von KI als Werkzeug im Unterricht, das Lernprozesse unterstützt. Lehrkräfte sollten KI einsetzen, um Reflexion, Urteilskraft und eigenständiges Denken zu fördern. Dazu gehört eine reflexive Medienkompetenz: Lernende sollen unterscheiden können, was menschengemacht ist und was eine Maschine produziert hat; sie sollen korrekt einordnen und sprachlich artikulieren, dass KI weder fühlt noch denkt und dass Ergebnisse stets kontextabhängig zu prüfen sind.

Neue Unterrichtsformate mit co-kreativem KI-Einsatz eröffnen Chancen, beispielsweise durch individualisiertes Feedback oder adaptive Lernsysteme, die gerade für weniger privilegierte oder sprachlich benachteiligte Gruppen Unterstützung bieten können. Gleichzeitig müssen Lehrkräfte sicherstellen, dass grundlegende Kompetenzen – etwa Sprachkompetenz – nicht an KI delegiert werden, damit alle Lernenden langfristig in der Lage sind, auch ohne KI Aufgabenstellungen zu lösen sowie KI-Ergebnisse zu verstehen, zu korrigieren und kritisch zu hinterfragen. Kompetenter KI-Einsatz bedeutet auch, zu wissen, wann und wofür KI genutzt werden darf, wie deren Einsatz deklariert wird und wie qualitativ bessere Ergebnisse durch reflektiertes Prompting erzielt werden.

Schließlich muss KI-Bildung gender- und diversitätssensibel angelegt sein. KI wirkt nicht neutral: Sie trifft Frauen, marginalisierte Gruppen oder Menschen mit geringen Ressourcen – insbesondere bei intersektionaler Überlappung dieser Merkmale – anders als privilegierte Bevölkerungsgruppen. Lehrkräfte sollen diese Perspektive verstehen und Lernende befähigen, selbst gestaltend, kritisch und inklusiv an dieser Technologie mitzuwirken — ohne dass hierfür ein Informatikstudium nötig ist. Damit dieser Kompetenzaufbau gelingt, braucht es fortlaufende Weiterbildung, schulische und hochschulische Supportstrukturen sowie eine verbindliche Verankerung kritischer KI-Kompetenz in allen Fächern und Bildungsstufen sowie Fortbildungen für Lehrende.

LLL – wie KI Lebenslanges Lernen unterstützen kann

Künstliche Intelligenz kann das lebenslange Lernen potenziell auf vielfältige Weise flexibilisieren und individualisieren, indem sie Lernprozesse an persönliche Voraussetzungen, Ziele und Lebensphasen anpasst. Adaptive Lernplattformen und KI-gestützte Assistentinnen ermöglichen etwa personalisierte Lernpfade, die Inhalte dynamisch an Vorwissen, Lerntempo und Interessen koppeln; auch große Sprachmodelle können hier unterstützend wirken. Zudem kann KI zur Verringerung von Barrieren eingesetzt werden, etwa indem sie Übersetzungen, Untertitel, Spracherkennung oder Textvereinfachung bereitstellt und damit den Zugang zu Bildung für verschiedene Altersgruppen und Fähigkeiten erleichtert. Dabei sollten bestehende technische Verzerrungen wie die schlechtere Erkennung von weiblichen Stimmen (z.B. durch Systeme wie Alexa) oder die geringe Abdeckung kleiner Sprachgemeinschaften (z.B. durch Große Sprachmodelle wie ChatGPT) berücksichtigt werden.

KI bietet über Lebensphasen hinweg das Potenzial, Qualifizierungsangebote auf Grundlage individueller Kompetenzen und aktueller Arbeitsmarktbedarfe vorzuschlagen: Das kann Frauen beim Wiedereinstieg nach Familienzeiten unterstützen. Gleichzeitig könnte KI berufliche Aufstiegsmöglichkeiten sichtbar machen, die typischerweise weniger oft mit Frauen besetzt werden. Genau hier liegen aber auch Risiken für algorithmische Verzerrungen: Aufgrund der Trainingsdaten würde ein herkömmliches KI-System wohl das genaue Gegenteil tun.

KI hat das Potenzial, selbstbestimmtes Lernen zu fördern, indem Lernende eigene Ziele setzen, Lernprozesse steuern und Feedback in Echtzeit erhalten können. Menschliche Interaktion, pädagogische Methoden und dialogische Lernkultur kann KI im Sinne von Assistenz und Zugang unterstützen. Ob KI Chancen für Teilhabe und Gerechtigkeit eröffnet oder bestehende Ungerechtigkeiten verstärkt, hängt nicht allein von der Technologie ab, sondern vor allem von uns Menschen und dem Zweck, den wir diesen Systemen geben. KI ist zutiefst sozio-technisch.

 

Fachausschuss Sozial- und Beschäftigungspolitik:

Von der Gesundheitsversorgung bis zur digitalen Kommunikation verändert KI immer auch den sozialen Alltag. Für ältere Menschen kann sie Unterstützung und Teilhabe ermöglichen, birgt zugleich aber auch die Gefahr neuer Formen von Ausgrenzung und Abhängigkeit. Der sozial- und beschäftigungspolitische Ausschuss fragt daher, in welchen Situationen KI ältere Frauen stärkt – und wann sie Barrieren vertieft. Daran angeschlossen leiten sich Handlungsanregungen für Politik, Frauenverbände und Bildungseinrichtungen ab, um digitale Selbstbestimmung im Alter zu fördern und Diskriminierung, Bevormundung oder digitaler Ausgrenzung wirksam entgegenzuwirken.

KI kann im Alltag von Seniorinnen entlasten oder neue Formen der Ausgrenzung erzeugen. Die Wirkung hängt von der Ausgestaltung, dem Kontext und der Zugänglichkeit ab:

  • Unterstützend kann KI etwa im Bereich Gesundheit und Prävention wirken, wenn sie bei Früherkennung, Medikamentenmanagement oder Telemedizin hilft und damit Autonomie sichert.
  • Mobilität und Sicherheit können ebenfalls gestärkt werden – sei es durch Assistenzsysteme in Smart Homes, Navigationstools oder biometrisches Entsperren, was den Zugang zu Geräten ohne Passworteingabe erleichtert.
  • Auch für Kommunikation und soziale Teilhabe kann KI wichtig sein, etwa durch Übersetzungen, Untertitel oder Sprachassistenz.
  • Hinzu kommen Wissen, Lernen und Kultur, wo KI Zugänge zu Lernplattformen, virtuellen Museen oder erklärenden Texten eröffnen und damit kognitive Selbstständigkeit stärken kann.

Gleichzeitig birgt KI erhebliche Risiken: Digitale Überforderung durch komplexe Bedienoberflächen, fehlende Erklärbarkeit oder mangelnde Schulung kann zu Ausschluss führen. Auch Aspekte wie Datenschutz und Überwachung sind besonders sensibel, da Gesundheits-, Bewegungs- oder Kommunikationsdaten ohne ausreichende Kontrolle verarbeitet werden können und damit Missbrauch, Täuschung und Vertrauensverlust drohen. Automatisierte Entscheidungen in Pflege, Versicherung oder Kreditvergabe können ältere Frauen systematisch benachteiligen, wenn alters- oder genderbezogene Verzerrungen in Daten reproduziert werden. Schließlich besteht die Gefahr, dass KI menschliche Beziehungen ersetzt statt ergänzt und dadurch soziale Isolation verstärkt.

Die Wirkung von KI im Leben älterer Frauen ist abhängig davon, ob KI-Systeme inklusiv gestaltet, verständlich vermittelt, rechtlich reguliert und sozial eingebettet werden. KI kann ein Instrument der Selbstbestimmung oder ein neues Exklusionsrisiko sein – entscheidend ist der Zweck und die Art ihres Einsatzes.

KI-fit im Alter: Handlungsanweisungen für Gesellschaft und Politik

Digitale Selbstbestimmung im Alter ist keine Frage individuellen Könnens, sondern eine Frage der Strukturen – und damit eine politische Aufgabe. Frauenverbände, Bildungseinrichtungen und Politik müssen gemeinsam dafür sorgen, dass Seniorinnen als Subjekte der digitalen Transformation mit eigener und wertvoller Erfahrung, Stimme und Gestaltungspotenzial angesprochen werden. Dazu braucht es einen grundlegenden Perspektivwechsel von Fürsorge zu Empowerment: Seniorinnen sind als aktive Gestalterinnen digitaler Räume ernst zu nehmen – über Wissen, Lebensleistung und als relevante Nutzerinnen und Inputgeberinnen für neue Technologien. Feministische Digitalpolitik muss Selbstbestimmung als Ziel digitaler Inklusion definieren.

Frauenverbände wie der Bayerische Landesfrauenrat haben hierbei eine Schlüsselfunktion als Übersetzerinnen zwischen Lebensrealität und Politik. Sie können Erfahrungswissen bündeln, Bedarfe sichtbar machen und lokale Mentoring- und Tandemformate zwischen Seniorinnen untereinander oder zwischen Generationen aufbauen. Bildungseinrichtungen wiederum können digitale Grund- und KI-Kompetenz im Alter systematisch verankern – in Volkshochschulen, Seniorinnenakademien und kirchlichen Bildungshäusern. Entscheidend sind die technische Bedienfähigkeit und ein Basis-Verständnis dafür, wie KI funktioniert, wessen Interessen sie abbildet, wo Bias entsteht und wie ältere Frauen selbst eingreifen können. Lernangebote sollten niedrigschwellig, spielerisch, mehrsprachig und unterschiedssensibel gestaltet sein.

Die Politik ist gefordert, diese Prozesse strukturell zu finanzieren – etwa über einen Digitalen Frauenfonds für alters- und gendergerechte Empowerment-Projekte. Digitale Selbstbestimmung muss als Teil moderner Gleichstellungspolitik anerkannt werden: mit einem Recht auf digitalen Zugang, Bildung, Sicherheit und Datenschutz; mit Integration in Gleichstellungs- und KI-Strategien; und mit der rechtlichen Absicherung eines digitalen Existenzminimums (Geräte, Netzzugang, Dienste).

Parallel braucht es feministische Digitalbildung, die Nutzung fokussiert und Machtverhältnisse sichtbar macht: Wer profitiert? Wen benachteiligt KI? Welche Rechte habe ich? Sie muss Themen wie algorithmische Diskriminierung, Datenhoheit und digitalen Selbstschutz umfassen. Zugleich braucht es gezielte Angebote für Seniorinnen in Armut, mit Migrationsgeschichte, Behinderung oder in ländlichen Regionen – niedrigschwellig und intersektional.

Zur materiellen Absicherung digitaler Teilhabe zählen außerdem sichere digitale Räume und offene, barrierefreie Plattformen für Seniorinnen sowie transparente Gütesiegel für vertrauenswürdige KI-Dienste in sensiblen Bereichen wie Telemedizin, Banking oder Smart Home. Schließlich muss feministische Partizipation in KI-Entwicklungs- und Einführungsprozessen verbindlich verankert werden – etwa durch ein interdisziplinär besetztes Gremium auf Landesebene, verpflichtende Gender- und Alters-Audits in KI-Systemen sowie Pilotprojekte, in denen Seniorinnen als Co-Designerinnen, Testnutzerinnen und Ethikberaterinnen beteiligt sind.

 

Fachausschuss Familienpolitik und Familienrecht:

Textgenerierende KI wirkt sich auch darauf aus, wie in unserer Gesellschaft über Familie, Elternschaft und Geschlechterrollen gedacht, gesprochen und entschieden wird. Technologien formen Meinungsbilder – oft auf Basis von Daten, die bestehende Ungerechtigkeiten widerspiegeln. Der familienpolitische und -rechtliche Ausschuss nimmt dies zum Anlass, kritisch zu prüfen, welche Frauen- und Familienbilder durch KI vermittelt werden und wie Politik und Gesellschaft darauf reagieren sollten, um Gleichstellung und Vielfalt zu sichern.

Textgenerierende KI-Systeme wie ChatGPT erzeugen überwiegend Familien- und Frauenbilder, die einem westlich-konservativen Durchschnittsmodell entsprechen:

  • In der Regel werden heterosexuelle Ehepaare mit Kindern, deutschsprachig, weiß, christlich geprägt, vorrangig gezeigt.
  • Alternative Familienformen wie Patchwork, queere Konstellationen, Alleinerziehende, Wahlverwandtschaften oder Mehrgenerationenhaushalte werden seltener oder klischeehaft dargestellt.
  • Auch genderspezifische Rollenzuschreibungen werden reproduziert: Frauen werden vorrangig in Kontexten von Beziehung, Fürsorge, Pflege und Familie gezeigt, Männer stärker in Verbindung mit Erwerbsarbeit, Technik, Sport oder Entscheidungspositionen.
  • KI stabilisiert das traditionelle Bild der „fürsorgenden Frau“ und des „ernährenden Mannes“, sofern keine korrigierenden Eingriffe erfolgen.

Diese Verzerrungen sind strukturell bedingt:

  1. Sie spiegeln reale Ungerechtigkeiten: Gesellschaftliche Stereotype existieren fort und mächtige Gruppen profitieren von ihrer Reproduktion.
  2. Es fehlt in der KI-Entwicklung an Diversität: Entscheidungs- und Entwicklungsstrukturen sind mehrheitlich männlich, weiß und technikorientiert geprägt. Das kann dazu führen, dass „weiblich“ konnotierte Themen wie Care-Arbeit oder Vereinbarkeit unterkomplex oder wertend abgebildet werden.
  3. KI-Modelle basieren auf großen Internetdatensätzen, die vergangene Machtverhältnisse festschreiben und nie die gesamte Vielfalt der Realität zeigen.
  4. Algorithmische Optimierungslogiken verstärken dominante Narrative: KI gibt das wieder, was häufig vorkommt, und macht es dadurch noch sichtbarer.

Ein Ausweg aus der Stereotypen-Welt

Eine feministische Antwort darauf muss auf drei Ebenen ansetzen:

  • durch Medienbildung, die Nutzerinnen befähigt, KI-Ergebnisse kritisch zu hinterfragen
  • durch neue und divers zusammengesetzte Trainingsdaten mit informierter Zustimmung und ausdrücklicher Repräsentation vielfältiger Lebensrealitäten
  • durch regulatorische und finanzielle Steuerung – etwa Förderung von Tools zur Bias-Erkennung, öffentliche KI-Systeme mit explizit emanzipatorischem Zweck sowie eine konsequente Umsetzung und Verschärfung der europäischen KI-Regulierung einschließlich externer feministischer Überprüfung und Bewertung

KI ist ein Verstärker kulturell stark vertretener (teils schon veralteter) Narrative. Ohne bewusste Gestaltung reproduziert KI stereotype Rollenbilder von Frauen und Familien – mit der Gefahr, Ungerechtigkeiten weiter zu normalisieren und zu verfestigen. Eine feministische Familienpolitik muss daher sicherstellen, dass KI Vielfalt und Machtasymmetrien sichtbar macht.

 

Fachausschuss Gesundheitspolitik:

KI findet zunehmend Anwendung im Gesundheitswesen – von Diagnoseunterstützung bis zur personalisierten Beratung. Möglicherweise werden dabei bestehende Geschlechter- und Gendervorurteile und strukturelle Ungerechtigkeiten reproduziert oder sogar verstärkt. Der gesundheitspolitische Ausschuss fragt daher, inwiefern KI-Systeme bestehende Gender Bias im Gesundheitswesen aufrechterhalten oder verschärfen. Zugleich geht es darum, wie KI dazu beitragen kann, die spezifischen Gesundheitsbedürfnisse von Frauen zu berücksichtigen und deren Versorgung gerechter und effektiver zu gestalten.

KI-Systeme halten bestehende Ungerechtigkeiten im Gesundheitswesen aufrecht und verstärken sie sogar, wenn diese strukturell verankert sind. Da KI Muster aus vorhandenen Daten lernt, reproduziert sie auch jene Verzerrungen, die Frauen seit Jahrzehnten in der medizinischen Praxis betreffen:

  • Schmerzäußerungen von Frauen werden häufig unterschätzt
  • Behandlungen erfolgen häufig später oder falsch, und frauenspezifische Erkrankungen wie Endometriose sind wenig erforscht
  • Medikamentenstudien beruhen überwiegend auf männlichen Probanden
  • In der medizinischen Ausbildung gilt der männliche Körper noch immer als implizite (oder sogar explizite) Norm.

Unter diesen Voraussetzungen ist es wahrscheinlich, dass KI diese Ungerechtigkeiten als scheinbar „objektive“ Muster übernimmt und durch algorithmische Skalierung weiter verfestigt. Die Gründe liegen vor allem in den historischen Daten, die mehrheitlich männlich, weiß und nicht-repräsentativ erhoben wurden, sowie in der fehlenden Diversität in Forschung, Entwicklung und Management, die entscheidet, welche Daten überhaupt gesammelt, gewichtet und genutzt werden. Solange Datensätze nicht aktiv korrigiert oder diversifiziert werden, reproduziert KI strukturelle Diskriminierung z. B. in kardiologischer Diagnostik, Schmerzbewertung oder psychischer Gesundheit. Um diese Muster zu durchbrechen, braucht es verbindliche Vorgaben für Datengerechtigkeit, also repräsentative, geschlechts- sowie genderspezifisch und intersektional differenzierte Datensätze sowie Transparenz über bestehende Lücken in Daten und KI-Systemen. Ergänzend sind Bias-Audits und Zertifizierungen durch unabhängige Stellen notwendig, um KI-Systeme vor ihrem Einsatz in sensiblen Bereichen zu prüfen.

Eine feministische Perspektive macht deutlich: Bias entsteht nicht zufällig, sondern ist Ausdruck von ungerechten Machtverhältnissen im Gesundheitssystem. Mehr Frauen sowie andere marginalisierte Gruppen in Forschung, Ethikgremien und KI-Entwicklung können weiße Flecken reduzieren – allerdings nur dann, wenn sie reale Entscheidungsmacht besitzen und nicht als symbolische „Diversitätsfiguren“ ohne Einfluss eingesetzt werden. Es sind strukturelle Veränderungen auf Daten-, Macht- und Regulierungsebene nötig, damit KI Ungerechtigkeit abbaut.

Mehr Geschlechtergerechtigkeit in der Medizin durch KI

KI geht derzeit nur eingeschränkt auf spezifische Gesundheitsbedürfnisse von Frauen ein, weil diese in den zugrunde liegenden Daten und Forschungstraditionen kaum sichtbar sind. Da medizinische Datensätze historisch überwiegend an männlichen Probanden erhoben wurden, werden Erkrankungen, Symptome und Verläufe, die Frauen (oder andere Gender) betreffen oder sich bei ihnen anders äußern – etwa Herzinfarkt, Autoimmunerkrankungen, Wechseljahre, Endometriose oder Depressionen – schlechter erkannt, fehlinterpretiert oder zu spät diagnostiziert. Frauen gelten in der Medizin oft als „Abweichung“ von einer impliziten männlichen Norm. KI verstärkt diese Schieflage, wenn sie auf denselben unvollständigen Daten und Annahmen trainiert wird.

Damit KI zur Gendermedizin beitragen kann, braucht es systematische Veränderungen am System. Geschlechterspezifische und intersektionale Unterschiede müssen verpflichtend in Datensätze, Forschung und Modellierung aufgenommen werden – mit Angaben zu Geschlecht, Gender, Alter, Hormonstatus, reproduktiver Lebensphase, Lebensrealitäten, Herkunft sowie zu Subgruppen, die besonders unterrepräsentiert oder mehrfach diskriminiert sind. Die Forschung zu frauenspezifischen Erkrankungen muss massiv ausgebaut werden: Angesichts über 5.000 Medizinprofessuren in Deutschland existiert kaum eine Handvoll Professuren zur Gendermedizin – ein Missverhältnis, das sich unmittelbar in den Datengrundlagen künftiger KI-Systeme und den Entscheidungen über die Gesundheit und das Leben von Frauen niederschlägt.

Feministisch verstandene KI in der Medizin müsste Gesundheit ganzheitlich denken: unter Berücksichtigung von Pflegebelastung, mentaler Gesundheit, hormonellen Dynamiken und sozialer Lebenslagen. Das Potenzial ist enorm: personalisierte Medikamentendosierungen jenseits männlicher Referenzkörper, zyklusbasierte Prävention, Frühwarnsysteme für postpartale Depressionen oder wirksame Risikomarker. Zugleich braucht es rechtliche und ethische Leitplanken: Datenschutz, Transparenz über Trainingsdaten, verpflichtende Gender-Impact-Assessments, öffentliche Fördergelder geknüpft an Diversitätsstandards und unabhängige Bias-Audits vor dem Einsatz in sensiblen Bereichen.

Intersektionalität muss ein Grundprinzip sein: Auch trans*, inter- und nicht-binäre Personen brauchen medizinische Abbildung jenseits binärer Kategorien. Geschlechtergerechte bzw. gendergerechte KI in der Medizin muss in puncto Versorgungsgerechtigkeit in einer Demokratie selbstverständlich sein. KI kann die (Gender-) Medizin entscheidend voranbringen, wenn weibliche und diverse Körper nicht als Ausnahme, sondern als Norm in Daten, Standards und Entscheidungen mitgedacht werden.

 

Weiterführende Informationen:

1. Hintergründe: Diskriminierende KI, Daten und Machtstrukturen

  • Streidl, Barbara: Feminismus. (2025)
  • Zykunov, Alexandra: Was wollt ihr denn noch alles? (2024)
  • Buolamwini, J. (2023): Unmasking AI.
  • Wie diskriminierend Algorithmen sind I Digital Empire (2022), ZDFzoom.
  • Crawford, K. (2021): Atlas der KI: Die materielle Wahrheit hinter den neuen Datenimperien.
  • Benjamin, R. (2020): Race after Technology.
  • Criado-Perez, C. (2019): Unsichtbare Frauen – Wie eine von Daten beherrschte Welt die Hälfte der Bevölkerung ignoriert.
  • Chang, E. (2018): Brotopia – Der Sexismus der Silicon-Valley-Tech-Elite.
  • Noble, S. U. (2018): Algorithms of Oppression.

2. Veränderung anstoßen: Feministische Perspektiven auf KI

3. Ergänzende Publikationen der Autorinnen dieses Beitrags