KI und diversitätssensible Lehre

Das Bild zeigt einen modernen Hörsaal an einer Universität, in dem ein Seminar zum Thema Geschlechter- und Diversitätsbewusstsein in Technologiebereichen mithilfe eines KI-gesteuerten virtuellen Assistenten stattfindet. Der Raum ist gefüllt mit unterschiedlichen Studierenden. Der virtuelle Assistent wird auf einem großen Bildschirm dargestellt und nutzt interaktive Medien, um die Bedeutung von Inklusivität in der Entwicklung von KI zu veranschaulichen. Die Studierenden sind aktiv beteiligt; einige nutzen Laptops und Tablets, andere machen sich Notizen. Sie sind umgeben von Bildungspostern und digitalen Anzeigen, die wichtige Persönlichkeiten und Meilensteine der Diversität in der Technik hervorheben.

Spätestens durch ChatGPT ist greifbar geworden, dass Künstliche Intelligenz (KI) die nächste Welle der digitalen Transformation prägen wird. Der Chatbot ist ein Multifunktionswerkzeug, das Nutzende auffordert, kreativ zu werden. Mit Prompts wie zum Beispiel „Gib mir Tipps für gender- und diversitätsbewusste Lehre!“ lässt sich testen, was generative KI kann.

Autorin: Kathrin Ganz

KI in der Uni: Reine Betrugsmasche?

Es ist beeindruckend, wozu Anwendungen wie ChatGPT und die dahinterstehenden großen Sprachmodelle in der Lage sind: Sie interpretieren unsere Wünsche, spinnen Ideen weiter, erzeugen nach Belieben Texte, können Bilder generieren und sich in gesprochener Sprache mit uns unterhalten. Besonders gut ist ChatGPT in der Nachahmung kultureller Formen. Ob Einkaufsliste, Shakespeare-Sonnet oder Vereinssatzung: ChatGPT weiß, unsere kulturelle Mustererkennung zu überzeugen, auch wenn die Informationen und Ergebnisse, die es liefert, nicht immer korrekt sind. Generative KIs wie die GPT-Sprachmodelle werden mit riesigen Datenmengen trainiert, um Sprache je nach Kontext überzeugend einzusetzen. Wenn ChatGPT uns antwortet, laufen im Hintergrund viele komplexe statistische Prozesse, die darüber entscheiden, welche Wörter, Phrasen und Sätze in welcher Reihenfolge ausgegeben werden, so dass die Antwort für uns in der Regel passend, korrekt und relevant erscheint. Es liegt also nahe, ChatGPT auch für das Verfassen – oder: Nachnahmen – akademischer Formate wie Referate, Hausarbeiten oder Forschungsskizzen zu nutzen.

Die Erkenntnis, dass im Bereich der Hochschullehre Handlungsbedarf besteht, hat sich schnell durchgesetzt. Klar ist auch, dass Verbote und – noch nicht funktionierende – KI-Detektoren diese Herausforderung nicht lösen werden. Und auch wenn an der einen oder anderen Stelle darüber nachgedacht wird, verstärkt auf mündliche Prüfungen zu setzen, reicht es nicht aus, das Thema KI auf die Gestaltung von Prüfungen zu beschränken. Im Kern geht es um die Frage, wie ein sinnvoller Umgang mit KI-Werkzeugen im Sinne guter wissenschaftlicher Praxis vermittelt werden kann. Wie kann uns KI dabei helfen, wissenschaftliche Kompetenzen kompetent, kreativ und interaktiv zu vermitteln? Wie können Studierende dazu befähigt werden, KI zu nutzen, um ihre Fach-, Methoden- und Vermittlungskompetenzen zu erweitern? Und welche institutionellen Rahmenbedingungen sind notwendig, um diesen Wandel zu begleiten? Mit diesen Fragen beschäftigen sich derzeit zahlreiche Forschungsprojekte, E-Learning-Stellen und Schreibzentren, die Workshops anbieten, Handreichungen erstellen und Leitfäden entwickeln.

Einsatzszenarien in der gender- und diversitätsbewussten Lehre

KI kann in der Lehre vielfältig eingesetzt werden, z.B. zur Strukturierung von Lehrplänen, zur Klärung von Lehr- und Lernzielen, zur Planung einzelner Lehrveranstaltungen und zur Erstellung von Materialien für die Lehre. Aber auch für die Lehre mit KI gilt die Losung der Toolbox: „Gute Lehre ist gender- und diversitätsbewusst!“ Einige Einsatzszenarien sind in Hinblick auf eine gender- und diversitätssensible Lehre besonders interessant. Beispielsweise können KI-Tools dabei helfen, Materialien durch Bildbeschreibungen und Untertitel barrierefrei zugänglich zu machen und Sprachbarrieren zu überwinden. Sie können aber auch kreativ eingesetzt werden, um Seminarinhalte anhand neuen, vielfältiger Beispiele und Bilder zu vermitteln.

Studierende können KI-Systeme nutzen, um Nachteile auszugleichen, die sie zum Beispiel als Nicht-Muttersprachler*innen oder aufgrund von Sinneseinschränkung oder einer Lese-Rechtschreibschwäche haben. In Hinblick auf soziale Ungleichheiten sind die Auswirkungen von KI-Werkzeugen jedoch ambivalent zu bewerten. Es besteht die Gefahr, dass die Verantwortung für den Abbau von Barrieren auf die Betroffenen abgewälzt wird. Hinzu kommt, dass die neusten KI-Tools, insbesondere wenn es sich um spezialisierte Anwendungen z.B. für wissenschaftliche Literaturrecherche handelt, Geld kosten. Es besteht daher die Gefahr, dass Studierende mit finanziellen Ressourcen KI eher zu ihrem Vorteil nutzen können, während andere außen vor bleiben. Um KI-Werkzeuge allen zugänglich zu machen, bietet die Hochschule München bereits eine hochschulweite Lizenz für ChatGPT an. Angesichts der Kosten und der Abhängigkeit von proprietärer Software und den dahinterstehenden Technologiekonzernen ist dieser Weg jedoch nicht unumstritten.

KI-Kompetenz vermitteln heißt Gender- und Diversity-Kompetenz vermitteln

Unabhängig vom konkreten Einsatzszenario müssen Anwender*innen in der Lage sein, zu bewerten, ob die mit KI erzeugten Ergebnisse verlässlich, korrekt und hilfreich sind. Wer beurteilen will, ob und warum ein mithilfe des Github-Copilot programmiertes Softwareskript funktioniert, ob und warum eine mit ChatGPT erstellte Vertragsklausel rechtssicher ist, braucht ein hohes Maß an IT- bzw. juristischer Fachkompetenz. Um sich diese zu erarbeiten, müssen Studierende daher in die Lage versetzt werden, KI als Begleitung auf ihrem Weg zum Kompetenzerwerb zu nutzen – und nicht als Abkürzung zu einem Ergebnis, das die Prüfenden überzeugt.

Gleichzeitig müssen Lehrende und Studierende ein Grundverständnis dafür entwickeln, wie diese Werkzeuge funktionieren. Dies gelingt am besten, wenn sie gemeinsam damit arbeiten. Gender- und diversitätssensible Fragestellungen eignen sich gut, um über KI und maschinelles Lernen ins Gespräch zu kommen. Denn anhand von Problemfällen wie der Reproduktion von Stereotypen und Diskriminierung lässt sich gut nachvollziehen, wie KI-Systeme funktionieren. KI-generierte Materialien können also nicht nur den Unterricht abwechslungsreicher gestalten, sondern eine kritische Diskussion über den Einfluss intersektionaler Machtverhältnissen auf Kultur, Sprache und Repräsentation anregen. Ein Beispiel dafür ist das Titelbild dieses Beitrags, das mit dem Prompt „Generiere ein Bild zum Thema KI in der gender- und diversitätssensiblen Lehre in der Universität im Format 3:2“ von Dall-E erstellt wurde.

Insbesondere relevante Fälle von Algorithmic Bias helfen zu verstehen, mit welchen Trainingsdaten KI-Modelle entwickelt werden und welche gesellschaftlichen Risiken mit KI verbunden sind. Da Technologien Produkte der Gesellschaft sind, sind sie mit Machverhältnissen verwoben. Daher sind Gender- und Diversitätsperspektiven auch für das Thema KI mehr als ein „ad on“. KI-Kompetenz und Gender- und Diversitykompetenzen gehen Hand in Hand.

Dr. Kathrin Ganz ist wissenschaftliche Mitarbeiterin am Margherita-von-Brentano-Zentrum mit dem Schwerpunkt Open-Access-Publishing und hat an der Universität Hamburg zu den Auswirkungen von KI auf die Arbeitswelt aus Genderperspektiven geforscht.

Glossar

  • ChatGPT und Dall-E sind Anwendungen des US-Unternehmens OpenAI. Sie gehören zu den aktuell bekanntesten generativen KI-Systemen. Ihre aktuellen Versionen basieren auf dem Large Language Modell GPT-4 (Generative Pre-Trained Transformer).
  • Große Sprachmodelle (engl. large language modells) sind KI-Systeme, die durch maschinelles Lernen mit großen Datenmengen darauf trainiert werden, menschliche Sprache verstehen und zu generieren. Sie basieren auf Programmen, die von Gehirnstrukturen inspiriert sind und als künstliche neuronale Netzwerke bezeichnet werden.
  • Maschinelles Lernen (engl. machine learning) ist ein Teilbereich der Informatik, der sich mit der Entwicklung von Algorithmen beschäftigt, durch die Computer Muster erkennen, Objekte klassifizieren, Vorhersagen treffen und Entscheidungen treffen können.
  • Algorithmic bias ist eine systematische Verzerrung, die bei KI-Systemen auftreten und zu unfairen Entscheidungen führt. Ursachen können in fehlerhaften Modellen, nicht-repräsentativen Trainingsdaten liegen. Oftmals werden aber auch Verzerrungen aus der „realen Welt“ aufgegriffen und reproduziert.

Weiterführende Links:

Weiterführende Literatur:

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Captcha
Refresh
Hilfe
Hinweis / Hint
Das Captcha kann Kleinbuchstaben, Ziffern und die Sonderzeichzeichen »?!#%&« enthalten.
The captcha could contain lower case, numeric characters and special characters as »!#%&«.