Learning Analytics und KI in der Hochschulbildung. Ein ethischer Exkurs

Künstliche Intelligenz (KI) als Oberbegriff für eine gewisse Art von technischen Entwicklungen ist in den letzten Jahren in aller Munde. Von Suchmaschinen im Internet und sozialen Medien bis hin zu selbstfahrenden Autos, diversen Chatbots oder persönlichen Assistenzsystemen à la Siri oder Alexa durchdringen KI-Technologien immer mehr unseren Alltag. Wenig überraschend ist es deshalb, dass auch im Bereich der Hochschulbildung bzw. -lehre über die Frage nachgedacht wird, inwiefern KI zur Verbesserung des Studiums und der Lehre beitragen kann. Im Rahmen des landesgeförderten Projekts KI:edu.nrw an der Ruhr-Universität Bochum (RUB) in Kooperation mit der RWTH Aachen erkunden und erproben wir Möglichkeiten und Bedingungen eines potenziellen Einsatzes von Learning Analytics und KI an der RUB. Um ein holistisches Bild der Thematik zu schaffen, bedarf es einer multi- bzw. interdisziplinären Perspektive, zu denen die Ethik als Querschnittsthema gehört. Dieser Beitrag soll Denkanstöße sowie Einblicke in die Praxis der ethischen Arbeit bieten.

 

Warum ist Ethik hierbei überhaupt relevant? Eine mögliche Antwort lautet: Technik ist von Menschen geschaffen und wirkt sich auf Menschen und die Welt aus. Somit wird sie automatisch zum Gegenstand der Ethik. Die Ethik, also die Wissenschaft der Moral ist nicht als moralische Instanz zu verstehen, sondern bietet uns Werkzeuge, um moralisches Handeln und Verhalten systematisch zu reflektieren. Welche Handlung oder welches Verhalten ist moralisch richtig und aus welchen Gründen? Im Kontext von Learning Analytics und KI in der Hochschulbildung stellen wir uns u. a. die Frage, wie solche Technologien ethisch begründbar gestaltet und eingesetzt werden sollen. Damit hängt unmittelbar zusammen, welche Werte und Normen auf dem Spiel stehen, etwa Privatsphäre, Autonomie, Fairness oder Diversität: Wie weit darf eine KI in die Privatsphäre eingreifen, um personalisiertes Lernfeedback zu erzeugen? Wie soll eine KI gestaltet und eingesetzt werden, um Bias und Diskriminierung zu vermeiden? Welche Ziele des Einsatzes einer KI sind ethisch legitim? Wie könnte eine KI-gestützte Hochschulbildung in 50 Jahren aussehen und wäre sie wünschenswert?

 

Im Folgenden möchte ich eine dieser Fragen herausgreifen und beispielhaft erläutern, wie man diese aus ethischer Perspektive reflektieren könnte. Die Themen Bias, also systematische Wahrnehmungs- und Klassifizierungsverzerrungen, und Diskriminierung, also ungleiche Behandlung auf Basis von Bias, im Kontext von KI gewinnen in den letzten Jahren immer mehr an Bedeutung. Durch eine Reihe von Enthüllungen wurde eine Debatte ausgelöst, die diskriminierende Praktiken unterschiedlicher KI-Systeme ans Licht gebracht hat. Als prominente Beispiele gelten das Amazon-Recruiting-Tool, das beim Einstellungsprozess systematisch Frauen diskriminiert, oder Gesichtserkennungssoftwares, die systematische Verzerrungen auf Basis von Gender und Hautfarbe hervorgebracht haben (vgl. Gebru 2020). Auf den ersten Blick benötigt es keine ethische Ausbildung, um solche Diskriminierungspraktiken als moralisch problematisch zu beurteilen. Wie genau dieser moralische Beurteilungsprozess funktionieren kann, ist allerdings nicht so offensichtlich. Typischerweise beginnt er mit der Anerkennung eines moralischen Wertes. Ausgehend vom moralischen Wert der Gleichheit zwischen Gendern und Menschen mit unterschiedlicher Hautfarbe, lässt sich die Norm ableiten, dass man auf Basis von Gender oder Hautfarbe nicht diskriminieren soll.

 

Bias und Diskriminierung stellen im zuvor beschriebenen Kontext demnach ein ethisches Problem dar, weil dadurch (mindestens) ein moralischer Wert verletzt wird. Um Lösungsansätze formulieren zu können, muss zuerst das Problem spezifiziert werden. Beispielsweise müsste zwischen absichtlichen oder unbeabsichtigten, zufälligen oder systemischen Diskriminierungspraktiken unterschieden und die Ursachen analysiert werden, um jeweils angemessene Lösungsansätze entwickeln zu können. In der einschlägigen Debatte entwickelte sich zuerst der verbreitete Ansatz, dass Bias und Diskriminierung im Kontext von KI ein technisches Problem sind. Das Problem liegt, so die These, am schlechten Programmieren und an problematischen Datensätze (vgl. Mehrabi et al. 2021). Diese Ansicht geht von einer engen Definition von Bias aus, nach der diskriminierende Praktiken von KI-Anwendungen auf statistische Verzerrungen zurückzuführen sind. Seit kurzer Zeit werden allerdings immer mehr Ansätze vorgebracht, die eine breitere soziotechnische Perspektive in den Fokus nehmen (vgl. Ferrer et al. 2021). Demnach werden Bias und Diskriminierung in KI nicht ausschließlich als ein technisches Problem aufgefasst, sondern KI reproduziert und verschärft existierende soziale Ungleichheiten zwischen Gendern, Menschen mit unterschiedlicher Hautfarbe oder weiteren marginalisierten Gruppen (vgl. z. B. Noble 2018, D’Iganzio & Klein 2020, Crawford 2021).

 

Die Diskussion bisher mag den Eindruck erwecken, dass wir vom Thema „KI in der Hochschulbildung“ abgekommen sind. Jedoch erweisen sich solche Exkurse als wichtig, weil dadurch implizite Annahmen und weniger offenkundige Zusammenhänge beleuchtet werden können. Anhand einer kurzen Behandlung der Debatte um Bias und Diskriminierung im Kontext von KI wurde gezeigt, dass eine ethische Analyse u. a. einer nuancierten Präzisierung von Begriffen, einer systematischen Konzeptualisierung und Abwägung von moralischen und ethischen Werten und Normen bedarf. Im konkreten Kontext des Projekts KI:edu.nrw reflektiert und diskutiert die Projektgruppe solche Themen: z. B. über die Frage, welche algorithmische Verfahren eingesetzt werden sollen, die eine geringere Bias-Anfälligkeit aufweisen, oder wie die Themen Bias und Diskriminierung an Stakeholder herangetragen werden sollen (Data Literacy). Die Ergebnisse dieser ethischen Reflexion fließen dann in die konkreten Designs der Learning Analytics-Konzepte und Prototypen der verschiedenen Fakultätsprojekten ein.

 

Literatur

Crawford, K. (2021). The Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press. D’Ignazio, C., & Klein, L. F. (2020). Data Feminism. MIT Press. Ferrer, X., Nuenen, T. van, Such, J. M., Cote, M., & Criado, N. (2021). Bias and Discrimination in AI: A Cross-Disciplinary Perspective. IEEE Technology and Society Magazine, 40(2), 72–80. https://doi.org/10.1109/MTS.2021.3056293 Gebru, T. (2020). Race and gender. In M. Dubber, F. Pasquale, & S. Das (Eds.), The Oxford handbook of Ethics of AI (pp. 251–269). Oxford University Press. Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., & Galstyan, A. (2021). A Survey on Bias and Fairness in Machine Learning. ACM Computing Surveys, 54(6), 1–35. https://doi.org/10.1145/3457607 Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press.