Schlagwortarchiv für: Zukunft der Hochschullehre

Kompetent im Umgang mit Daten – eine Publikation des Stifterverbands zu Data Literacy Education

Daten prägen unsere Welt. Die fortschreitende Digitalisierung von Arbeits- und Lebenswelt führt zu einer zunehmenden Datafizierung öffentlicher und privater Bereiche, durch die große Mengen an digitalen Daten produziert, erfasst, gespeichert und ausgewertet werden. Darüber hinaus finden Daten Eingang in Statistiken oder Grafiken in unterschiedlichen Medien. Daten – ob versteckt oder offen gesammelt bzw. genutzt – beeinflussen Entscheidungs- und Meinungsbildungsprozesse, sodass sie einen bedeutenden gesamtgesellschaftlichen Faktor darstellen. Daher erfordert der souveräne, verantwortliche und zielgerichtete Umgang mit ihnen entsprechende Kompetenzen, die unter dem Begriff „Data Literacy“ zusammengefasst werden. Er bezeichnet die Fähigkeit, „Daten auf kritische Art und Weise zu sammeln, zu managen, zu bewerten und anzuwenden“ (vgl. Ridsdale et al., 2015). Hinzu kommt die Datenethik und die mit ihr verbundene Frage, auf welchen Motiven und Werten die Erhebung sowie Nutzung von Daten, deren Analyse und die daraus gezogenen Schlüsse beruhen.

In der Förderung der benötigten Datenkompetenzen kommt den Hochschulen eine tragende Rolle zu, insofern sie ihre Studierenden angemessen auf die Bedarfe und Herausforderungen in Gegenwart und Zukunft ausbilden sowie Teilhabe ermöglichen sollen. Damit stellt sich ihnen die Aufgabe, Data Literacy als Schlüsselkompetenz fachübergreifend und interdisziplinär zu etablieren. Hierbei unterstützt der Stifterverband gemeinsam mit der Heinz Nixdorf Stiftung, dem Ministerium für Kultur und Wissenschaft des Landes Nordrhein-Westfalen und der DATEV-Stiftung Zukunft die Hochschulen u. a. mit dem Förderprogramm Data Literacy Education, in dem auch zehn Hochschulen aus Nordrhein-Westfalen vertreten sind.

Als „Werkstattbericht und wissenschaftliche Reflexion“ liegt zu dem Thema die Publikation „Kompetenzerwerb im kritischen Umgang mit Daten“ des Stifterverbands vor, deren Beiträge dem bundesweiten Data Literacy Education-Netzwerk entstammen. Dabei wird in der Veröffentlichung ein weiter thematischer Bogen gespannt: von den organisatorischen Rahmenbedingungen und Fragen curricularer Integration über Gestaltungsmerkmale von Lehr-/Lernszenarien, hochschuldidaktischer Potenziale digitaler Lehre und der Qualifizierung von Lehrenden bis hin zur Bedeutung außerhochschulischer Kooperationen und der Datenethik als wesentlichem Bestandteil von Data Literacy Education. Den Abschluss der Publikation bildet die „Data-Literacy-Charta“, mit deren Leitprinzipien „ein gemeinsames Verständnis von Datenkompetenzen und deren Bedeutung für Bildungsprozesse formuliert“ wird und zu deren Unterzeichner*innen Personen aus Politik, Wirtschaft sowie Wissenschaft zählen.

Unter Berücksichtigung unterschiedlicher Handlungsfelder und -ebenen umfasst die Publikation somit praxisorientierte Ansätze, Ideen und Konzepte von Data Literacy Education und bezeugt damit den Beitrag der Hochschulen auf dem Weg zu einer datenliteraten Gesellschaft.

 

Bibliographische Angabe:

Johanna Ebeling, Henning Koch, Alexander Roth-Grigori (Hrsg.):

Kompetenzerwerb im kritischen Umgang mit Daten Data Literacy Education an deutschen Hochschulen

Edition Stifterverband. Essen 2021.

ISBN: 978-3-922275-98-5

108 Seiten

Hier geht es zur Publikation:

https://www.stifterverband.org/medien/kompetenzerwerb-im-kritischen-umgang-mit-daten

 

Zur Person:

Frank Wistuba leitet an der FernUniversität in Hagen das Projekt bne:digital.nrw, in dem das Zusammendenken von Nachhaltigkeits- und Digitalkompetenzen einen Schwerpunkt bildet.

ChatGPT ist erst der Anfang

Strenggenommen ist ChatGPT – eine künstliche Intelligenz, die auf Aufforderungen Texte generiert – nicht einmal der Anfang, sondern lediglich Zwischenstation in einem seit etwa 10 Jahren zu beobachtenden Entwicklungsprozess des Natural Language Processing (NLP). ChatGPT kann auch nichts grundlegend Neues, was vorherige Tools nicht konnten. Es unterscheidet sich lediglich in der Qualität des generierten Outputs, der Fokussierung auf die Interaktivität (Eingabe von Fragen und KI-generierte Antworten) und vor allem in seiner bestechenden Einfachheit: Eine URL, eine Registrierung, ein einziges simples leeres Textfeld und schon steht einem die Unendlichkeit der Textgenerierung offen, die zudem (je nach Frage meistens) Sinnhaftes und Fundiertes von sich gibt, da sie auf einen Korpus von ca. 1 Billion Wörtern (aus 6 Millionen Wikipedia-Artikeln und Millionen von Büchern und Websites) zugreift. Zu beachten ist, dass diese Trainingsbasis fast ausschließlich aus englischsprachigen Texten besteht, bei der Kommunikation mit Anwender:innen aber zusätzlich eine KI-gestützte Übersetzung greift. Diese integrierte Übersetzung führt mitunter zu tragischen Missverständnissen in der Kommunikation. Trotz aller Kinderkrankheiten sind die Ergebnisse beeindruckend, verstörend und beeindruckend verstörend. Die gesamte akademische Welt von der Grundschule bis zur Exzellenzuniversität gerät in Aufregung, die einen aus dystopischer Panik, die anderen aus utopischer Naivität. Beide Positionen sind im höchsten Maße verständlich. Für alle Leser*innen, denen ChatGPT noch nichts sagt, haben wir ChatGPT gebeten, sich selbst kurz vorzustellen:  

ChatGPT, kannst Du Dich kurz vorstellen?

Ich bin ein Assistent, ein großes Sprachmodell, das von OpenAI trainiert wurde. Ich bin in der Lage, auf Fragen und Anfragen in verschiedenen Sprachen zu antworten und Informationen bereitzustellen. Ich kann auch in der Lage sein, kleine Unterhaltungen zu führen und menschenähnliche Antworten zu geben. Ich bin jedoch keine echte Person und habe keine persönlichen Erfahrungen oder Meinungen. Mein Wissensstand ist auf das Jahr 2021 beschränkt und ich habe keine Möglichkeit, aktuelle Ereignisse zu verfolgen oder neue Informationen zu erhalten. Ich bin lediglich ein Computerprogramm, das darauf ausgelegt ist, Informationen bereitzustellen und zu versuchen, auf Fragen und Anfragen so gut wie möglich zu antworten.

Welches disruptive Potenzial hat ChatGPT in Bezug auf akademische Schreibprozesse?

ChatGPT ist ein Chatbot, der mit maschinellem Lernen trainiert wurde, um menschenähnliche Unterhaltungen zu führen. Es wurde entwickelt, um Schülern, Studenten und akademischen Fachleuten dabei zu helfen, ihre Schreibprozesse zu unterstützen und zu verbessern. Eines der disruptive Potenziale von ChatGPT in Bezug auf akademische Schreibprozesse ist, dass es Schülern und Studenten dabei helfen kann, ihre Ideen und Gedanken zu strukturieren und zu formulieren. ChatGPT kann auch als „intelligenter“ Schreibassistent fungieren, indem es Benutzern Vorschläge für mögliche Änderungen oder Verbesserungen an ihrem Schreibstil oder ihrer Grammatik macht. Darüber hinaus bietet ChatGPT die Möglichkeit, dass Benutzer ihre Schreibprozesse mit anderen teilen und gemeinsam an Projekten arbeiten können. Dies kann besonders für Studierende von Vorteil sein, die an kooperativen Projekten oder gemeinsamen Schreibprozessen teilnehmen. Insgesamt bietet ChatGPT die Möglichkeit, akademische Schreibprozesse zu vereinfachen und zu verbessern, indem es Benutzern dabei hilft, ihre Ideen zu strukturieren und zu formulieren, Vorschläge für mögliche Änderungen macht und die Möglichkeit bietet, gemeinsam an Projekten zu arbeiten.

Und wie sieht es andererseits mit den Gefahren aus?

Es gibt einige mögliche Gefahren im Zusammenhang mit der Verwendung von ChatGPT oder anderen Chatbots, die für akademische Schreibprozesse entwickelt wurden. Eine der Hauptbedenken ist, dass Chatbots nicht in der Lage sind, die tiefgreifenden analytischen Fähigkeiten und das kritische Denkvermögen von Menschen zu replizieren. Chatbots können zwar Vorschläge für mögliche Verbesserungen oder Änderungen an Schreibstil oder Grammatik machen, sie können jedoch keine tiefgreifenden Analysen oder kritische Reflexion durchführen, die für akademische Arbeiten oft erforderlich sind. Ein weiteres Bedenken ist, dass Chatbots möglicherweise nicht in der Lage sind, die kulturelle und sprachliche Vielfalt von Menschen zu berücksichtigen. Es ist wichtig, dass Schüler und Studenten lernen, ihre Gedanken und Ideen in ihrer eigenen Sprache und ihrem eigenen Stil auszudrücken, und Chatbots können diese Fähigkeit möglicherweise nicht unterstützen. Es ist auch wichtig zu beachten, dass Chatbots möglicherweise nicht in der Lage sind, die komplexen Anforderungen und Standards von akademischen Arbeiten zu berücksichtigen. Sie können zwar dabei helfen, Schreibprozesse zu vereinfachen und zu verbessern, aber sie können kein Ersatz für gründliche Recherche, tiefgreifende Analyse und kritische Reflexion darstellen. Schließlich gibt es auch Bedenken hinsichtlich der Datenschutz- und Sicherheitsaspekte von Chatbots. Es ist wichtig, dass Schüler und Studenten darüber informiert sind, wie ihre Daten von Chatbots verwendet werden und dass sie verstehen, dass Chatbots möglicherweise nicht in der Lage sind, die gleiche Vertraulichkeit und Sicherheit wie menschliche Schreibberater zu gewährleisten. Insgesamt gibt es einige mögliche Gefahren im Zusammenhang mit der Verwendung von Chatbots wie ChatGPT in akademischen Schreibprozessen. Es ist wichtig, dass Schüler und Studenten diese Bedenken berücksichtigen und verstehen, dass Chatbots kein Ersatz für gründliche Recherche, tiefgreifende Analyse und kritische Reflexion darstellen können.

Vielen Dank! Das hilft mir sehr.

Gern geschehen! Ich hoffe, dass meine Antworten Ihnen geholfen haben, das disruptive Potenzial von ChatGPT in Bezug auf akademische Schreibprozesse besser zu verstehen und auch die möglichen Gefahren im Zusammenhang mit seiner Verwendung zu berücksichtigen. Wenn Sie weitere Fragen haben oder weitere Informationen benötigen, zögern Sie nicht, mich zu kontaktieren. Ich bin hier, um Ihnen zu helfen!  

 

Dieser Dialog ist binnen weniger Sekunden entstanden und ohne jegliche Nachbearbeitung. Mit etwas mehr Mühe hätte man noch sehr viel bessere Ergebnisse erzeugen können, aber selbst das Ergebnis dieser unbedarften Eingabe reicht aus, um den Turing-Test zu bestehen. Die seit dem 30. November 2022 mit der kostenfreien Veröffentlichung von ChatGPT angeheizte Diskussion darüber, wie (Hoch-)Schulen darauf zu reagieren haben, schlägt dabei in den meisten Fällen fehl, denn Hochschulpolitik ist in der Regel – und aus gutem Grund – träge. Die Entwicklung der Tools ist daher den hochschulpolitischen Diskussionen in der Regel mehr als nur einen Schritt voraus. So wird in vielen Hochschulgremien immer noch über die systematische Einführung von Plagiatserkennungssoftware diskutiert, obwohl zwischenzeitlich Plagiate immer weniger eine Rolle spielen, weil KI-Tools vollständige Arbeiten neu kreieren können, die faktisch und juristisch keine Plagiate sind. Eine Ausnahme stellen Strukturplagiate dar, bei denen vorhandene Texte mit KI-gestützten Paraphrasierungswerkzeugen, auch Rewriting-Tools genannt, bewusst verfremdet werden, um die Quelle vor der Enttarnung durch Plagiatserkennungs-Softwarelösungen zu verbergen. Die Fragen, die es also unserer Meinung nach in (Hoch-)Schulen zu stellen und auszuhandeln gilt, sind nicht, wie man auf dieses oder jenes Tool, diese oder jene Entwicklung reagieren soll, sondern vielmehr: Welche fundamentalen qualitativen Änderungen in Bezug auf wissenschaftliches Arbeiten sind durch die zukünftige, unsere (akademische) Alltagspraxis bestimmende Kollaboration von menschlicher und künstlicher Intelligenz zu erwarten? Wie wollen wir im Rahmen der (Aus-)Bildung damit umgehen? Um diese Fragen beantworten zu können, bedarf es eines historischen Bewusstseins mit Blick in die Zukunft.  

Die Zukunft generativer KI-Sprachmodelle

Dass die Entwicklung großer KI-Sprachmodelle („Large Language Model“ – kurz: LLM) rasant verläuft, zeigt die folgende Grafik. Im Fokus steht der Indikator Parameteranzahl, der mit der Leistungsstärke von LLM positiv korreliert, hier dargestellt in der Entwicklung von 2019 bis 2021:

Abbildung 1: KI-Sprachmodelle und Parameteranzahl, Quelle: https://www.iwkoeln.de/studien/hans-peter-kloes-grosse-ki-modelle-als-basis-fuer-forschung-und-wirtschaftliche-entwicklung.html
Abbildung 1: KI-Sprachmodelle und Parameteranzahl, Quelle: https://www.iwkoeln.de/studien/hans-peter-kloes-grosse-ki-modelle-als-basis-fuer-forschung-und-wirtschaftliche-entwicklung.html

Die bisherige Entwicklung der großen KI-Sprachmodelle deutet somit auf eine exponentielle Leistungssteigerung hin. Die Grafik spiegelt aber auch die amerikanische und chinesische Vorreiterrolle wider (siehe das deutsche Start-up Aleph Alpha im Vergleich ganz rechts in der Grafik). Jörg Bienert, in seiner Rolle als Vorstandsvorsitzender des KI-Bundesverbands, hat in einem Gastbeitrag im Handelsblatt im Juni 2022 explizit die hohe strategische Relevanz generativer KI-Sprachmodelle für die deutsche und europäische Wirtschaft und damit einhergehend das Zukunftspotenzial von KI-Sprachmodellen betont. Der KI Bundesverband hat bereits 2021 seine Initiative LEAM (Kurzform für „Large European AI Models“) ins Leben gerufen, um die Entwicklung großer KI-Modelle in Europa zu fördern und eine Abhängigkeit von Lösungen außerhalb der EU zu vermeiden. Unterstützt von renommierten Forschungseinrichtungen, Unternehmen, Verbänden und Start-ups soll LEAM ein europäisches KI-Leuchtturmprojekt sein.

Der weitere Blick in die Zukunft fällt schwer, weil kein Ende der Entwicklung erkennbar ist. Das aktuell am häufigsten thematisierte Manko von KI-Sprachmodellen ist der fiktionale Charakter der generierten Texte (man spricht von „halluzinierenden“ Systemen), aber auch dieses Problem dürfte bereits in Kürze gelöst sein. DeepMind bietet mit dem Sprachmodell Retro ein Modell mit Datenbankrecherche für einen Faktencheck an. OpenAI arbeitet am Forschungsprototypen WebGPT, der als Erweiterung zu GPT-3 bzw. GPT-3,5 eine zusätzliche Internetsuche mit abdecken soll, um faktuale Texte generieren zu können. Als Alternative zu ChatGPT von OpenAI stellt sich bereits der Anbieter Writesonic mit Chatsonic auf und verspricht eine Lösung für die Probleme mit fiktionalen Texten: „Write factual content including real-time topics“. Weitere Anbieter folgen bereits mit ähnlichen Ankündigungen.

Die nächste Modellversion GPT-4 von OpenAI soll in wenigen Monaten erscheinen und wird vermutlich einen weiteren Quantensprung darstellen, wie bereits der Versionsprung von GPT-2 zu GPT-3 Mitte 2020. Weitere Fortschritte bahnen sich zudem im Zusammenspiel von Mensch und Maschine im eigentlichen Schreibprozess an. Erst im August 2022 hat Meta den Schreibbot PEER angekündigt, der als kollaboratives Sprachmodell für die Unterstützung während des gesamten Schreibprozesses sorgen soll. PEER soll wie ein „Tausendsassa“ für schnelle Entwürfe sorgen, Vorschläge hinzufügen, Bearbeitungen vorschlagen und seine Handlungen auch erklären können (https://arxiv.org/abs/2208.11663). Und wie bereits erwähnt ist das zweifelsohne erst der Anfang. Mit ihrem Gesetzesentwurf zum AI Act will die EU-Kommission umfassend die Auswirkungen von Künstlicher Intelligenz regulieren. Abhängig von der Risikoklassifikation des EU AI Act ergeben sich daraus bestimmte Verpflichtungen, KI-Strategien, dokumentierte und kommunizierte KI-Leitlinien für Unternehmen als Anbieter und Nutzer von KI-Systemen. Wo verlaufen hier die Grenzlinien zum Bildungsbereich? Lassen sich diese überhaupt identifizieren oder fließen sie vielmehr ineinander?  

Der Einsatz generativer KI-Sprachmodelle für Bildungsprozesse

Die Fokusfrage, die im Bildungskontext durchaus kontrovers diskutiert wird, lautet: Sollten KI-gestützte Schreibwerkzeuge proaktiv im Sinne von Generatoren von Textentwürfen in der Lehre eingesetzt werden, um über die automatisierte Produktion von ersten Textentwürfen und die nachfolgende ‚manuelle‘ Optimierung der Texte letztlich qualitativ hochwertigere Arbeiten zu generieren? Aus unserer Sicht lautet die Antwort: Ja. Oder besser: Ja, aber. Das Rad lässt sich nicht zurückdrehen. KI-Sprachmodelle und -systeme sind ein Faktum im Bereich der Wissensarbeit. (Hoch-)Schulseitige Vogel-Strauß-Taktik ist daher fehl am Platz. Wenn es aber nicht mehr um das ‚Ob‘ der Verwendung von KI-Tools geht, dann muss die Frage lauten: Wie soll der Einsatz künftig gestaltet werden? Welches Wissen, welche Kompetenzen benötigen Studierende (Lehrende, Schüler:innen) zwingend hierfür? Zu nennen wären hier z. B. die Fähigkeit zum wissenschaftlichen Arbeiten, Textmusterwissen etc., insbesondere aber analytisches und kritisches Denken, um automatisierte Produkte zu bewerten und ihre Nutzung zu steuern. Die weitaus schwierigere Frage rankt sich derzeit um die Bewertungsproblematik dieser studentischen Leistungen, die entstanden sind in der Koproduktion von Mensch und Maschine. Wenn schriftliche Haus- und Abschlussarbeiten auch zukünftig als relevante Prüfungsformen gelten sollen, setzt unser Lösungsvorschlag bei der Analogie zur Bewertung der Produktqualität an: Wir sollten zukünftig nicht nur das Endergebnis bewerten, sondern auch die Qualität des Designs, das zu diesem fertigen Elaborat geführt hat. Hierfür sind zwei Dimensionen relevant: das methodisch/fachliche Design (im Sinne eines Forschungsdesigns) und das damit in Verbindung stehende technische Tool-Design unter Berücksichtigung klassischer SW-Lösungen (z. B. Textverarbeitungs-, Literaturverwaltungs-, Statistikprogramme) wie auch moderner KI-gestützter Werkzeuge. Realistisch betrachtet, ist aber auch dieser Lösungsvorschlag nur als Übergangslösung tauglich. Zwei Gründe (aus der Sicht Dezember 2022) sind hierfür maßgeblich:

1. Schon heute bieten uns KI-gestützte Digital Research Assistant Tools wie elicit.org einen Method Deviser (https://ide.elicit.org/run/wtp6SbYgoPYPL5usB), der uns abhängig von unserer Forschungsfrage per Knopfdruck eine Fülle von wissenschaftlichen Vorgehensweisen beschert. Diese Entwicklung befindet sich noch im Beta-Stadium, aber sie darf als wegweisend bewertet werden. Daher könnte dieser Ansatz zu einem methodisch-fachlichen Design per Knopfdruck führen, bei dem die menschliche Leistung immer mehr in den Hintergrund tritt.

2. Wir dürfen zudem erwarten, dass die eingesetzten KI-Tools exponentiell leistungsstärker werden. Das wiederum bedeutet, dass die ersten Entwürfe kontinuierlich eine immer höhere Qualität aufweisen werden, die eine menschliche Nachbearbeitung zunehmend überflüssiger werden lässt.

Unsere Schlussfolgerung lautet daher:

Wir benötigen „grundsanierte“ neue Lehr- und Lernsettings und müssen insbesondere unsere Lehr-, Lern- und Prüfungskultur an deutschen Schulen wie auch Hochschulen überdenken. Nun sind wir als Hochschulvertreter:innen und Lehrende mit unserer menschlichen Kreativität und kritischer Urteilskraft in einem ganz besonderen Maße gefordert, dürfen und müssen uns beweisen. Wir stehen erst am Anfang – und leider oder gottseidank nicht am Ende! Sollten KI-gestützte Schreibwerkzeuge proaktiv im Sinne von Generatoren von Textentwürfen in der Lehre eingesetzt werden? Was braucht es dazu? Was sind nötige Leitlinien? Was müssen Lehrende und Lernende künftig mehr und anders wissen oder können? Was sind Ihre Erkenntnisse und Erfahrungen dazu? Um wirkmächtige KI-Modelle und Systeme im Bereich der Wissensarbeit verantwortlich einzusetzen, braucht es den Diskurs. Das Virtuelle Kompetenzzentrum „Schreiben Lehren und Lernen mit KI“ lädt dazu zur Gründungstagung am 23. März 2023 ein: https://www.ki-schreiben-lehren-lernen.de/events-und-calls/

 

Die Autor*innen

Prof. Dr. Doris Weßels ist Professorin für Wirtschaftsinformatik an der Fachhochschule Kiel sowie Initiatorin und Leiterin der Fachgruppe „KI und Academic Writing“ beim KI-ExpertLab Hochschullehre.

Margret Mundorf lehrt, berät und forscht selbstständig als Linguistin, zertifizierte Schreibberaterin/Schreibtrainerin und Lehrbeauftragte zu Sprache und Wissensvermittlung; Fachkommunikation in Wirtschaft und Recht; Schreiben, Digitalität und künstliche Intelligenz. Sie ist Mitglied des Vorstands der Gesellschaft für Schreibdidaktik und Schreibforschung (gefsus) e. V., Mitglied des Instituts für Schreibwissenschaft (ISW) und des Heidelberger Arbeitskreises für Rechtslinguistik sowie Herausgeberin der Reihe „Theorie und Praxis der Schreibwissenschaft“ des wbv Media.

Nicolaus Wilder studierte Pädagogik an der Christian-Albrechts-Universität zu Kiel. Er arbeitet als wissenschaftlicher Mitarbeiter am Institut für Pädagogik der CAU in der Abteilung für Allgemeine Pädagogik. Seine Forschungsschwerpunkte sind Theorien und Grundbegriffe der (Allgemeinen) Pädagogik sowie deren philosophische (insb. wissenschaftstheoretische und ethische) Grundlagen und Bezüge. Ganz nebenbei geht er davon aus, dass künstliche Intelligenzen einen fundamentalen Einfluss auf die Transformation wissenschaftlicher Lehr-Lern- sowie Arbeitsprozesse haben und haben werden und deswegen auch aus pädagogischer Perspektive reflexionsbedürftig sind.

CC-BY-SA Dieser Text steht unter der Lizenz Creative Commons Namensnennung – Weitergabe unter gleichen Bedingungen 4.0 International – CC BY-SA 4.0.  Quelle: Hochschulforum Digitalisierung.

Das Praxisprojekt KI:edu.nrw: Künstliche Intelligenz und Learning Analytics in der Hochschulbildung

Das vom nordrhein-westfälischen Ministerium für Kultur und Wissenschaft geförderte Projekt KI:edu.nrw beschäftigt sich mit dem Einsatz von Learning Analytics und Künstlicher Intelligenz (KI) zur Verbesserung von Studium und Lehre. Das Kooperationsprojekt der Ruhr-Universität Bochum und der RWTH Aachen nimmt dabei einen ganzheitlichen Blick auf das System Hochschule ein und fragt danach, wie sich Hochschulen auf unterschiedlichen Ebenen für den erfolgreichen Einsatz von Learning Analytics und KI vorbereiten müssen.

Die inhaltliche und methodische Integration von Learning Analytics in die Hochschulbildung sowie die stetig wachsende Zahl frei verfügbarer KI-Software fordern die Lehre an Hochschulen in vielfältiger Weise heraus. So ergeben sich einerseits Potenziale zur Steigerung der Lehrqualität, insbesondere durch neue Möglichkeiten der individuellen Förderung von Studierenden. Andererseits stehen Lehrende vor neuen Herausforderungen hinsichtlich der im Studium zu vermittelnden Kompetenzen. Diese Potenziale und Herausforderungen werden im Projekt KI:edu.nrw – Didaktik, Ethik und Technik von Learning Analytics und KI in der Hochschulbildung anhand der praktischen Anwendung von Learning Analytics und ausgewählter KI-Tools eruiert.

 

Ein Blick in die Theorie: Themenfelder und Ebenen von Learning Analytics und KI

Nach Gaaw und Stützer (2017) oder Greller und Drachsler (2012) betrifft der Einsatz von Learning Analytics und KI in der Hochschulbildung diverse Themenfelder: Neben der erforderlichen technischen Infrastruktur sind kulturelle Voraussetzungen für eine erfolgreiche Umsetzung zu berücksichtigen. Entsprechende Einflüsse müssen gemeinsam mit verschiedenen Stakeholdern identifiziert und bearbeitet werden, um eine positive Grundhaltung gegenüber den neuen Technologien zu ermöglichen. Neben rechtlichen sind auch ethische Fragen über den Einsatz von Learning Analytics zu diskutieren. Der so ge-schaffene Rahmen bleibt methodisch und didaktisch zu reflektieren, um die technologischen Potenziale in Bezug auf den Lernzuwachs der Studierenden bestmöglich ausschöpfen zu können.

Der Einsatz von Learning Analytics in der Hochschulbildung lässt sich auf der Mikro-, Meso- und der Makroebene betrachten (.vgl Knight/Buckingham 2017; Ifenthaler/Drachsler 2020): Die Mikroebene beschreibt Lerndatenanalysen in Lehrveranstaltungen und schließt insbesondere die individuellen Analysen von und für Studierende und Lehrende mit ein. Hier werden Lerndaten aus den jeweiligen Lehrveranstaltungen verwendet. Learning Analytics über mehrere Kurse oder ganze Studiengänge werden auf der Mesoebene angestrebt. Auf dieser Ebene werden auch Studienverlaufsdaten eingeschlossen. Auf der Makroebene werden Analysen über eine ganze oder mehrere Organisationen durchgeführt. Der Einsatz von KI an Hochschulen beeinflusst ebenfalls die zuvor beschriebenen Ebenen. Dabei können Learning Analytics und KI unabhängig voneinander oder verzahnt eingesetzt werden. Ein verzahnter Einsatz kann z. B. so aussehen, dass Learning Analytics-Systeme Analyseverfahren auf Basis künstlicher Intelligenz enthalten.

 

Ein Blick in das Praxisprojekt KI:edu.nrw

Diese Vielschichtigkeit wird im Projekt KI:edu.nrw berücksichtigt und mit entsprechender Expertise aus unterschiedlichen Fach- und Zuständigkeitsbereichen in Teilprojekten bearbeitet. Es ist so angelegt, dass Themenfelder auf der Mikro-, Meso- und Makroebene betrachtet werden. Ein Beispiel: Das Querschnittsthema Ethik handelt ethische Bewertungen für die Lerndatenauswertung auf Lehrveranstaltungsebene (Mikroebene), für Fakultätsprojekte zur Studiengangsanalyse und -entwicklung (Mesoebene) sowie für den institutionenweiten Ansatz an Learning Analytics (Makroebene) aus. Erfahrungen auf den Ebenen werden sowohl im Kontext fachspezifischer Lehre als auch durch die Bearbeitung darauf bezogener Querschnittsthemen gesammelt.

 

Die drei Arbeitsfelder von KI:edu.nrw

KI:edu.nrw gliedert sich in drei Arbeitsfelder: Fakultätsprojekte, Querschnittsthemen und einen Dialogprozess. Aktuell werden fünf Fakultätsprojekte umgesetzt, und zwar in den Erziehungswissenschaften, der Medizin, der Mathematik, der Angewandten Informatik und dem Maschinenbau. Die Teilprojekte unterscheiden sich in der thematischen Schwerpunktsetzung. So legen die Mathematik und Medizin einen stärkeren Fokus auf den Lernprozess innerhalb einzelner Lehrveranstaltungen und den Einsatz adaptiver Lehrmethoden. Das Teilprojekt in den Erziehungswissenschaften sammelt praktische Erfahrungen an der Schnittstelle zwischen Lehrveranstaltungen und zugehörigen Studiengängen, indem selbstregulative Fähigkeiten durch Learning Analytics-Systeme gefördert werden sollen. In der Angewandten Informatik und im Maschinenbau werden reale Studienverläufe mittels Lerndatenanalysen untersucht und die Bedeutung der Ergebnisse für die Studiengänge reflektiert. Zukünftig ergänzen die Sportwissenschaften die Fakultätsprojekte, wobei das psychomotorische Lernen durch Learning Analytics-Systeme unterstützt werden soll.

Die Querschnittsthemen umfassen die Bereiche IT-Infrastruktur, Datenschutz, Ethik, Didaktik, Studienberatung, Data Literacy, KI-Schreibtools und Fremdsprachenlehre. Die Themen werden sowohl in eigenen Teilprojekten als auch miteinander verknüpft bearbeitet. Dies bedeutet, dass beispielsweise die IT-Infrastruktur nicht nur von der entsprechenden Betriebseinheit umgesetzt wird, sondern dass auch die mit der Technikgestaltung verbundenen ethischen und didaktischen Fragestellungen, sowie die fakultätsspezifischen Bedarfe, bearbeitet werden.

Für den Dialog mit den Stakeholdern werden im Projekt verschiedene Maßnahmen, wie beispielsweise eine Studierenden- und Lehrendenbefragung, Fokusgruppengespräche und ein universitätsinterner Dialogtag, initiiert. Auf Grundlage der im Dialog gesammelten Wünsche, Ideen, aber auch Vorbehalte gegenüber dem Einsatz von Learning Analytics wird eine institutionsspezifische Policy erarbeitet. Diese soll die Ergebnisse des Dialogprozesses festhalten und transparent verankern. Zudem wird u. a. durch die Learning-AID-Konferenz der Austausch über Learning Analytics und die Verwendung von KI für Lehrzwecke zwischen den Hochschulen in Nordrhein-Westfalen befördert.

 

Ein Blick in die Zukunft

Nachdem in der ersten Projekthälfte wertvolle Erfahrungen im Rahmen der Entwicklung von Praxiskonzepten gemacht und z. B. eine modulare IT-Infrastruktur entwickelt wurden, werden in der zweiten Projekthälfte diese Konzepte praktisch umgesetzt und hinsichtlich didaktischer und ethischer Erfordernisse spezifiziert. Die Projekterfahrungen werden durch verschiedene Konferenzaktivitäten und den direkten Austausch zwischen interessierten Personen und Hochschulen zugänglich gemacht – wie z. B. auf der zweiten Learning AID am 28. und 29. August 2023 in Bochum.

 

 

Literatur:

Gaaw, S.; Stützer, C. M.: Learning und Academic Analytics in Lernmanagementsystemen (LMS): Herausforderungen und Handlungsfelder im nationalen Hochschulkontext. In (Köhler, T., Schoop, E., Kahnwald, N., Hrsg.): Wissensgemeinschaften in Wirtschaft, Wissenschaft und öffentlicher Verwaltung. TUDpress, Dresden, S. 145-161, 2017.

Greller, W.; Drachsler, H.: Translating Learning into Numbers: A Generic Framework for Learning Analytics. Journal of Educational Technology & Society, 15/3, S. 42-57, 2012.

Ifenthaler, D.; Drachsler, H.: Learning Analytics: Spezielle Forschungsmethoden in der Bildungstechnologie. In (Niegemann, H., Weinberger, A., Hrsg.): Handbuch Bildungstechnologie: Konzeption und Einsatz digitaler Lernumgebungen. Springer, Berlin, Heidelberg, S. 515-534, 2020. Knight, S.; Buckingham Shum, S.: Theory and Learning Analytics. In (Lang, C., Siemens, G., Wise, A., Gasevic, D., Hrsg.): Handbook of Learning Analytics. Society for Learning Analytics Research (SoLAR), S. 17-22, 2017.

Knight, S.; Buckingham Shum, S.: Theory and Learning Analytics. In (Lang, C., Siemens, G., Wise, A., Gasevic, D., Hrsg.): Handbook of Learning Analytics.

„Man muss versuchen, weiterzudenken: Was kann man alles als OER zur Verfügung stellen?“

Wie fängt man am besten an, wenn man OER erstellen will? Und warum lohnt sich der Einsatz von OER? Fakt ist: Es lohnt sich, weil alle profitieren. Im Interview mit PD. Dr. Klaus Schaper und Ann-Kathrin Mertineit von der Heinrich-Heine-Universität Düsseldorf konnten wir erfahren, wie beide zum Thema OER kamen, was sie anderen zum Einstieg in das Thema OER raten und warum Kreativität beim Format von OER Material erwünscht ist.

 

ORCA.nrw: Herr Schaper, was war Ihr Einstieg in das Thema OER?

Schaper: Mein Einstieg war die Mediathek meiner Hochschule. Die Heinrich-Heine-Universität Düsseldorf hat eine eigene Mediathek. Dort veröffentliche ich seit 2013 Videos, inzwischen über 500 Stück. Die ersten Videos waren Vorlesungsaufzeichnungen. Wenn man dort ein Video öffentlich zur Verfügung stellt, wird es automatisch als OER deklariert. Dadurch war ich dann sozusagen gezwungen, mich mit dem OER-Gedanken zu befassen. Das war der allererste Einstieg. Dann hatte ich 2016 ein Projekt im Rahmen des Fellowship für Innovation in der Digitalen Hochschullehre NRW. Im Rahmen der Förderung hat man sich verpflichtet, die Inhalte als OER zur Verfügung zu stellen. Aus dem Anlass habe ich mich intensiv mit dem Thema OER befasst. Seitdem ist meine selbst betriebene Lernplattform scheLM, spezielle chemische eLearning Module, auch als OER deklariert. Das heißt, alle Inhalte können beliebig weitergenutzt werden. Das ist aber natürlich bei einer Lernplattform etwas schwierig. Um hier den OER-Gedanken vollends zu erfüllen, müsste man eigentlich auch den Quellcode teilen. Diesen Schritt möchte ich in Zukunft gehen.

 

ORCA.nrw: Frau Mertineit, wie sind Sie zum Thema OER gekommen?

Mertineit: Auf zwei verschiedenen Wegen: Einerseits natürlich durch OER.DigiChem.NRW, unser OERContent.nrw Projekt, welches ich koordiniere. Bevor ich die Koordination übernommen habe, war ich sozusagen entgegengesetzt zu OER tätig, im Bereich bezahlte Bildung. In meinem Studium gab es im Fach Pädagogik aber immer wieder Berührungspunkte mit dem Thema OER. Insbesondere in meinem nebenberuflichen Psychologiestudium bemerke ich in den letzten Jahren immer stärker, wie die Open Access Bewegung größer wird und beispielsweise Studien-Fragebögen geteilt werden. Studierende oder auch Schüler*innen auf diesem Weg zu unterstützen, finde ich sehr gut. Ich empfinde es als für unser OERContent.nrw Projekt sehr gewinnbringend, dass ich diesen theoretischen Weg selbst in einem anderen Fachbereich miterlebe und ihn nun in unserem Projekt direkt praktizieren kann. Ich habe mich bewusst für OER entschieden, weil ich den Grundgedanken – Bildung sollte für alle möglich sein und alle erreichen – sehr gut finde. Ich kenne es aus der Studierendenperspektive noch sehr gut, dass es nicht immer möglich war, alles Material zu bekommen oder zu nutzen, weil es einfach keine offenen Angebote gab. Ich bin daher mit ganzem Herzen dabei und freue mich sehr über die Angebote, die mit der OERContent.nrw Förderlinie geschaffen werden.

 

ORCA.nrw: Worum geht es in Ihrem OERContent.nrw Projekt?

Schaper: Wir erstellen in unserem OERContent.nrw Projekt Lehrvideos – für das Fach Chemie und darüber hinaus. Unsere Lehrvideos sollen helfen, Kompetenzen bei der Nutzung von digitalen Werkzeugen zu entwickeln. Lehrvideos sind ein Kerngebiet des OER. Erklärvideos zu Word, PowerPoint, Excel – wenn man einen Lernraum auf Ilias oder Moodle bereitstellt, der zehn Videos enthält und dann nutzt ihn jemand weiter und sagt sich „Zwei der Videos passen für meine Studierenden nicht, die mache ich neu“ und nutzt die anderen acht – dann hat man den OER-Gedanken umgesetzt. Ich habe das Projekt gemeinsam mit Bert Zulauf von der Heinrich-Heine Universität Düsselorf, Dirk Burdinski und Matthias Hochgürtel von der TH Köln, sowie Claudia Bohrmann-Linde und Frank von Danwitz von der Bergischen Universität Wuppertal beantragt. Wir kennen uns schon länger. Unsere Projektidee kam sozusagen von den Studierenden. Meine Studierenden habe mich angesprochen, alle würden davon ausgehen, sie wären Digital Natives und brauchen deshalb keine Erklärungen, aber in Wirklichkeit haben sie Probleme mit der Software. Man muss wissen, wie geht man beispielsweise mit Formatierungen in Word um, damit am Ende ein gutes Inhaltsverzeichnis von Word erstellt werden kann. Wir haben also gesagt, wir wollen Lehrvideos drehen zum Thema Softwarenutzung, weil es da großen Bedarf gibt – hochschulübergreifend. Chemiespezifische Software – wie zeichne ich chemische Strukturen und werte Daten aus? – aber auch Literaturverwaltungssoftware, Fotografiesoftware – wie erzeuge ich gute Abbildungen im Labor? Daraus entstand unser Antrag. Wir haben ein didaktisches Konzept erstellt, weil wir natürlich viel mehr bieten wollen als noch ein Erklärvideo. Das sind ja teilweise auch Themen, zu denen es viele Erklärvideos im Internet gibt. Wir wollen mit unserem Projekt auch Awareness für Probleme schaffen. Niemand recherchiert „Wie strukturiere ich eine Bachelorarbeit?“, wenn der Person nicht bewusst ist, dass es zu Problemen führt, wenn man sich darüber nicht vorab Gedanken macht. Daher kam die Idee, wir produzieren Kurse durch die man sich durchklicken kann: Video für Video.

Ann-Kathrin Mertineit im Aufnahmestudio vor einem Greenscreen. ©Jennifer Kremper

Ann-Kathrin Mertineit vor dem Greenscreen im Studio. © Jennifer Kremper

 

ORCA.nrw: Frau Mertineit koordiniert das Projekt – wer ist noch in Ihrem Team und aus welchen Bereichen stammen die Mitarbeitenden? Woran arbeiten Sie momentan?

Schaper: Ursprünglich wollten wir das Projekt mit Hilfskräften abwickeln, wir haben uns dann aber für eine Koordination entschieden, weil man die umfangreiche Betreuung neben dem Tagesgeschäft nicht leisten kann.

Mertineit: Wir haben an unserem Standort an der HHU zehn studentische sowie wissenschaftliche Hilfskräfte. Wir legen sehr großen Wert auf Interdisziplinarität. Ich bin selbst auch keine Chemikerin, was für das Projekt ein Gewinn ist. Wir waren schon auf einigen Fachtagungen vertreten. Der Forschungsprozess ist natürlich ein großer Teil der Arbeit. Wir haben eine pre-Evaluation durchgeführt um zu schauen, wie bereiten wir den Lernraum am besten auf. Was sind Elemente in unseren Videos? Wie ist der Lerneffekt? Wir haben dafür eine Mixed Methode gewählt, also eine Kombination von Fragebogen und Interviews. Die Post–Evaluation werten wir gerade final aus.

 

ORCA.nrw: Was würden Sie beide Lehrenden raten, gibt es einen einfachen Weg in die Produktion von OER einzusteigen? Wie fängt man an?

Schaper: Die negative Botschaft, aber auch die ehrliche Botschaft, ist: Es gibt leider keinen einfachen Einstieg. Wenn man OER konzipiert, ist man gewissen Beschränkungen ausgesetzt, die man sonst nicht hat. Es gibt z. B. die 20%-Regel. Man darf unter bestimmten Voraussetzungen bis zu 20% einer Vorlesung aus einem Lehrbuch kopieren oder bis zu 20% der Abbildungen nutzen. In dem Augenblick, in dem ich in die volle Öffentlichkeit gehe – was man mit OER macht, man konzipiert sie nicht nur für die eigene Vorlesung – ist es schwieriger. Es ist Mehrarbeit, ich muss beispielsweise Abbildungen selbst erstellen, weil ich nicht auf die Abbildung aus dem Lehrbuch zurückgreifen kann. Man sollte sich also zunächst Gedanken machen, welche Materialien man verwendet, woher die Materialien stammen. Es gibt selbstverständlich auch OER-Abbildungen, die sind aber für sehr fachspezifische Themen nicht immer leicht auffindbar. Für eine Vorlesung OER zu konzipieren ist auf jeden Fall leichter, bei einem Seminar muss man auch noch das Recht am eigenen Bild aller Teilnehmenden bedenken. Eine Seminar-Diskussion lässt sich aus diesem Grund schwierig nachhaltig als OER aufbereiten. Aber ich möchte an dieser Stelle gar nicht so negativ auftreten: Für klassische Frontallehre kann man hervorragend OER erstellen. Im Zweifelsfall macht das vielleicht nicht mal Mehrarbeit, sondern Mehrkosten, weil man vielleicht zehn Abbildungen benötigt, die bestimmte Arbeitsschritte oder Aspekte zeigen. Wenn einem dann die Abbildungen aus der Literatur nicht gefallen, kann man in meinem Fach beispielsweise auch gut Mitarbeitende beauftragen, entsprechende Fotos oder Darstellungen zu erstellen – und Mitarbeitenden müssen natürlich bezahlt werden.

Mertineit: Der Mehraufwand ist insbesondere nicht so groß, wenn man bedenkt, dass man bei der erstmaligen Durchführung einer neuen Vorlesung, eines Seminars oder Workshop sowieso Vorbereitungsaufwand hat. Mit OER unterstützt man andere dabei, bei genau diesem Schritt weniger Aufwand zu haben, in dem sie auf vorhandenes Material aufbauen können. Für Studierende ist die OER-Bewegung auch eine tolle Chance: Sie können Arbeitserfahrung sammeln, herausfinden, wie es ist an der Hochschule zu arbeiten. Eine Chance für die Lehre, den Wissenschaftsprozess – Erkenntnisfortschritt für alle.

Schaper: Ich glaube, dass gerade Projekte wie die OERContent.nrw Projekte über die fachlichen Bezüge für Studierende unglaublich wertvoll sind. Es ist eine tolle Chance, einfach mal in die Welt der Hochschule hineingucken zu können.

Mertineit: Herausfordernd ist sicherlich auch noch die technische Ebene. Da hat aber schon die Pandemie gezeigt, wie viel mit kleinen Mitteln bereits möglich ist. Ich kann auch nur empfehlen, sich nicht zu scheuen, zu netzwerken und sich interdisziplinär auszutauschen.

 

ORCA.nrw: Was zeichnet den OER-Gedanken aus?

Schaper: Viele setzen OER damit gleich: Ein Video ist öffentlich verfügbar, zum Beispiel auf YouTube. Aber OER ist viel mehr. Wir erlauben bei CC-BY SA dem Nachnutzer, es anzupassen, zu modifizieren. Der Nachnutzer ist also eine Lehrperson, die sagt „Ja, das Video gefällt mir, aber ich muss es für meine Bedürfnisse anpassen“. Wenn man diesen Schritt mitdenkt, bedeutet das eigentlich, dass man nicht nur die Videos auf der Mediathek öffentlich zur Verfügung stellt, sondern auch die Drehbücher zur Verfügung stellen sollte – im Idealfall die rohen Schnittmaterialien. Das gehört zum OER-Gedanken. Anderes Beispiel: Ich kann meinen Kolleginnen und Kollegen die PowerPoint-Datei zur Verfügung stellen. Oder ich stelle die Datei zur Verfügung und alle genutzten Dateien separat, damit man sie anpassen kann. Das ist ein großer Schritt, weil ich nicht nur meinen Ordner mit den Dateien teilen sollte, sondern auch dazu sagen muss, welche Datei auf welcher PowerPoint Folie verwendet wurde. Und das ist Mehraufwand – aber das ist der wahre OER-Gedanke und nicht nur „ich mache das Material öffentlich“ oder „Ich veröffentliche ein Video“. OER werden oft mit Videos gleichgesetzt. Aber man muss versuchen, weiterzudenken: Was kann man alles als OER zur Verfügung stellen? Gerade wenn man an moderne Lehre denkt, kommt immer wieder das Stichwort Video, Video, Video. Es muss kein Video sein, es kann auch ein Lernmodul in ILIAS oder Moodle sein, es kann ein Online-Test sein, alles das wäre auch als OER möglich. Wenn beispielsweise in einer Sprachwissenschaft eine Textanalyse gemacht werden soll, in der Studierende Stilmittel identifizieren sollen, könnte man dazu doch den Studierenden eine Liste mit Stichpunkten zur Verfügung stellen, auf die sie achten sollen. Die Kolleginnen und Kollegen an anderen Hochschulen können diese Liste auch gebrauchen, also teilt man sie als OER. Dann kann jede Kollegin, jeder Kollege die Liste runterladen und bearbeiten. Damit hat man den wahren OER-Gedanken viel mehr erfüllt, als mit einer Vorlesungsaufzeichnung. Die Vorlesungsaufzeichnung stellt man nur öffentlich zur Verfügung, sie wird aber nie nachbearbeitet.

 

ORCA.nrw: Warum lohnt es sich, OER zu erstellen und sich den Herausforderungen zu stellen?

Schaper: OER lohnen sich insbesondere, wenn man sie für große Gruppen erstellt. Wenn viele Kolleginnen und Kollegen OER erstellen, nimmt man sich Arbeit ab. Wenn es einen Materialpool gibt, auf den man zurückgreifen kann, dann ist man nicht mehr darauf angewiesen, irgendetwas aus einem Lehrbuch zu nehmen. Stattdessen kann man auf gutes Material von Kolleginnen und Kollegen zurückgreifen und kann auch mit viel Freiheit darüber verfügen. Man kann die Materialien frei anpassen und weiterentwickeln. Wenn die OER– Bewegung ein bisschen wächst, ist das also ein Vorteil für alle. Im Moment ist es oft noch schwer, wirklich gutes Material zu finden. Das schwankt aber auch von Fach zu Fach, in den Bildungswissenschaften findet man schon jetzt eher OER als in den Naturwissenschaften. Ich finde, die Arbeit sollte sich lohnen: Warum sollte ich etwas nur für meine Studierenden machen, wenn es auch andere Studierende nutzen können? Das habe ich mir schon vor über 10 Jahren bei meiner selbst programmierten Lernplattform scheLM [spezielle chemische eLearning Module, verlinken] gedacht: Warum sollten nicht auch Studierende anderer Hochschulen sie nutzen dürfen?

Mertineit: Je mehr OERContent.nrw Projekte wir haben, umso mehr professionelles Material gibt es. Ich sehe es als Herausforderung, das Mindset zu ändern. Unabhängig von technischen oder didaktischen Voraussetzungen muss das Mindset da sein: Nur, weil ich etwas erstellt habe, muss es nicht nur für mich und meine Studierenden sein, sondern ich teile mein Material ganz bewusst – weil das Vorteile für alle hat.

Klaus Schaper vor einem Lightboard, auf welches er Begriffe notiert (z. B. OER).

Klaus Schaper vor einem Lightboard. © Peter Bernardi

 

ORCA.nrw: Gibt es vielleicht eine Fächerkultur, die sich besonders für OER eignet oder besonders schwierig ist? Gibt es aus Ihrer Sicht ein Fach, das besonders umtriebig im Bereich OER ist?

Schaper: Wenn ich die Kolleginnen und Kollegen aus der Hochschuldidaktik frage, ist die klassische Frontalvorlesung völlig out, obwohl ich glaube, dass sich alle Naturwissenschaftler einig sind, dass die Naturwissenschaften in vielen Bereichen durchaus die Berechtigung haben. Wenn ich als einfachstes OER-Medium die Vorlesungsaufzeichnung nehme, dann ist die Vorlesungsaufzeichnung einfach – eine Seminaraufzeichnung als OER zu veröffentlich ist fast unmöglich. Daher glaube ich, dass die Naturwissenschaften, die immer noch zu Frontalvorlesungen neigen – und ich glaube auch an vielen Stellen aus guten Gründen dazu neigen – dafür prädestiniert sind. In Fächern, die viel handwerklich arbeiten – Chemie, Biologie, Pharmazie, Physik, Teile der Medizin um einige zu nennen – bieten sich Lehrvideos zu handwerklichen Tätigkeiten an. Hier kann der OER-Gedanke kultiviert werden. Diese Themen sind so allgemein, dass es sich absolut anbietet, die Videos als OER zu produzieren und zur Verfügung zu stellen. Wie benutze ich dieses Gerät? Wie funktioniert jene Tätigkeit? Aber es kommt auch auf den Studienabschnitt an. Gerade in den Naturwissenschaften unterrichten wir auch Nebenfächer – erstes Semester Chemie für Medizinier, erstes Semester Chemie für Biologen. Dafür benötigen wir Übungsaufgaben. Etwas vorrechnen ist viel besser, als nur einen Lösungszettel zur Verfügung zu stellen. Ich kann beispielsweise einen Aufgabenzettel mit 20 Aufgaben erstellen, zu jeder der 20 Aufgaben stelle ich ein Lösungsvideo bereit, dann stelle ich den Zettel und die 20 Lösungsvideos zur Verfügung und jeder kann damit weiterarbeiten. Noch ein Video dazu drehen, den Aufgabenzettel für die eigenen Studierenden anpassen usw.. Ich glaube, die Geisteswissenschaften haben es da teilweise schwieriger. Die Juristen sind nach meinem Eindruck auch eher OER-freundlich.

Mertineit: Mein Eindruck ist, in den Bildungswissenschaften oder Geisteswissenschaften gibt es auch gute Möglichkeiten, OER zu produzieren und zu nutzen. Aber auf eine andere Weise, denn dort arbeitet natürlich niemand im Labor mit Chemikalien und muss dann praktisch irgendwas tätigen, woraus man ein Lehrvideo machen kann. Aber wenn ich beispielsweise an Statistik denke – für Statistiksoftware kann man doch tolle OER Videos produzieren. Der Grundgedanke funktioniert über alle Fächer hinweg – mit unterschiedlichen Schwerpunkten. Man kann auch fächerübergreifend voneinander lernen. Übungszettel bieten sich in vielen Fächern an, Programme werden ebenso interdisziplinär genutzt.

 

ORCA.nrw: Wir haben vorhin schon über das Thema Urheberrecht gesprochen. Wie sieht es denn damit bei Erklärvideos aus, die die Nutzung einer Software erklären?

Schaper: Man muss sich den Dreh natürlich genehmigen lassen. Microsoft Office genehmigt Erklärvideos beispielsweise pauschal, solange man die Software nicht verändert. Die Reaktionen der Softwarehersteller waren aber sehr unterschiedlich. Manche waren sehr verwundert über unsere Anfrage, weil sie noch nie jemand vorher gefragt hat. Ein anderer Hersteller hat uns zu einem zweistündigen Workshop eingeladen, weil der Hersteller annahm, wir können noch gar nicht alle Tricks und Kniffe kennen.

 

ORCA.nrw: Was wünschen Sie sich von und für ORCA.nrw?

Schaper: Ich wünsche ORCA.nrw eine erfolgreiche Aufbauphase.

Mertineit: Da schließe ich mich an. Außerdem wünsche ich ORCA.nrw eine hohe Sichtbarkeit. Die Dozierenden, die Studierenden, die Schülerinnen und Schüler müssen von ORCA.nrw erfahren. Über das Netzwerk Landesportal ORCA.nrw, über die Geschäftsstelle, über die Hochschulleitungen….

 

ORCA.nrw: Vielen Dank für das Gespräch!

 

 

Die Interviewpartner*innen

PD Dr. Klaus Schaper ist Arbeitsgruppenleiter am Institut für Organische Chemie I an der Heinrich-Heine-Universität Düsseldorf. Er engagiert sich seit Jahren im Bereich digitale Lehre. Die von ihm produzierten Videos sind unter CC BY lizensiert und können in der Mediathek der HHU eingesehen werden. Außerdem hat er eine E-Learning Plattform aufgebaut, die spezielle Fragestellungen, Bedürfnisse und Aufgabentypen in der Chemie adressiert. Die Plattform ist öffentlich zugänglich und die Inhalte sind CC BY-SA lizensiert. Für sein Engagement wurde er u. a mit dem Fellowship Innovation in der digitalen Hochschullehre ausgezeichnet.

Ann-Kathrin Mertineit koordiniert das OERContent.nrw Projekt OER.DigiChem.NRW und kümmert sich um die quantitative und qualitative Forschung im Projekt. Mediendidaktik sowie quantitative und qualitative Forschung waren auch die Schwerpunkte Ihres Masterstudiums der Erwachsenen- und Weiterbildung. Bevor sie zu OER.DigiChem.NRW kam, hat sie in der Weiterbildungsbranche E-Learning Projekte begleitet. Sie hat schon im Rahmen ihres Studiums vielfältige Projekte umgesetzt, beispielsweise die Planung, Entwicklung, Umsetzung und Evaluierung einer Erste Hilfe App. In Anstellungen als studentische und wissenschaftliche Hilfskraft in den Bereichen Mediendidaktik, betrieblich-berufliche Weiterbildung und empirische Sozialforschung hat sie mediengestützte Lernangebote entwickelt.

Staatssekretär Dr. Dirk Günnewig zu Gast in der Geschäftsstelle von ORCA.nrw

Dr. Dirk Günnewig, seit 28. Oktober 2021 Staatssekretär im Ministerium für Kultur und Wissenschaft in Düsseldorf, hat am Freitag, 4. Februar, 2022 die Geschäftsstelle von ORCA.nrw besucht. Der Politiker war für einen Tag zu Gast an der Ruhr-Universität Bochum (RUB). In Begleitung von Dr. Stefan Drees (Leiter Referat 214 – Informationsinfrastrukturen, Informationssicherheit, Digitalisierung in Studium und Lehre, Ressort-CISO (Informations­sicherheits­beauftragter des MKW) machte er Station im O-Werk, dem Sitz der Geschäftsstelle von ORCA.nrw. Am Gespräch nahmen auch Professor Berthold Stegemerten, Sprecher des Lenkungskreises des Landesportals ORCA.nrw, RUB-Rektor Professor Martin Paul und RUB-Kanzlerin Dr. Christina Reinhardt teil.

Staatssekretär Dr. Günnewig informierte sich im Gespräch mit ORCA.nrw Geschäftsführer Dr. Markus Deimann über den Aufbau und die Funktionalitäten von ORCA.nrw sowie den Service, den das Landesportal Lehrenden und Studierenden bei der Erstellung und Nutzung frei lizenzierter Bildungsressourcen bietet. Im Gespräch ging es um den Mehrwert von offenen und freien Bildungsmaterialien als auch um nächste Schritte bei der Bekanntmachung von ORCA.nrw. Der Staatssekretär interessierte sich dabei auch dafür, wie die Geschäftsstelle ihre vielfältigen Zielgruppen – von den Lehrenden der unterschiedlichsten Fächer bis zu den Studierenden – erreichen möchte. „Es braucht Unterstützung von vielen Seiten um ORCA.nrw mit Leben zu füllen“, so Markus Deimann. Die Teilnehmenden waren sich einig, dass die Pandemie eine gewisse temporäre Dynamik in der digitalen Lehre entstehen lassen hat, der Weg zu einem nachhaltigen Kulturwandel aber lang ist. Das erklärte Ziel für die nächsten Monate ist es daher, so Markus Deimann, den Service von ORCA.nrw an den Hochschulen in NRW noch bekannter zu machen, damit ein nachhaltiger Kulturwandel hin zu mehr offenen Lehr-Lern-Materialien im digital gestützten Studium und der Lehre angestoßen werden kann.

Neue Wege in der NRW-Lehrer*innenbildung mit dem Forschungsprojekt „InDigO“

Um die Integration der Inhalte von ORCA.nrw in die bildungswissenschaftliche Lehre zu untersuchen, ist an der Universität Paderborn das Kooperationsprojekt „Inklusion und Digitalisierung im OER-Format lernen, weiterentwickeln und verbreiten“ (InDigO) gestartet, welches neue Wege in der Lehrer*innenbildung beschreitet. Das Ministerium für Kultur und Wissenschaft des Landes Nordrhein-Westfalen (MKW NRW) fördert das Initiativvorhaben von Prof. Dr. Petra Büker vom Paderborner Institut für Erziehungswissenschaft, Prof. Dr. Gudrun Oevel aus dem Paderborner Zentrum für Informations- und Medientechnologien (IMT) und Prof. Dr. Anna-Maria Kamin, Bildungswissenschaftlerin an der Universität Bielefeld, für die nächsten zwei Jahre mit rund einer Million Euro.

In Kooperation mit sieben lehrerbildenden Hochschulen des Landes NRW und unter Konsortialführung der Universität Paderborn soll beispielhaft gezeigt werden, wie und unter welchen Voraussetzungen Lehrende in den Studiengängen Grundschulpädagogik, Sonderpädagogische Förderung sowie Lehramt für Haupt-, Real-, Sekundar- und Gesamtschulen die über ORCA.nrw frei zugänglichen Ressourcen zu den Themen Inklusion und inklusive Medienbildung in ihre Lehre einbinden können. Beteiligt sind neben Paderborn und Bielefeld auch Bildungswissenschaftler*innen der Universitäten aus Dortmund, Duisburg-Essen, Köln, Siegen und Wuppertal sowie die ORCA.nrw-Geschäftsstelle an der Ruhr-Universität Bochum.

Weiteres zum Kooperationsprojekt: https://www.uni-paderborn.de/nachricht/97179

ORCA.nrw geht an den Start

Geschafft! Was im Herbst 2018 mit zwei konzeptionellen Vorprojekten begann, ist nun sichtbar: Seit heute steht den nordrhein-westfälischen Hochschulen der „Open Resources Campus NRW“ (ORCA.nrw) zur Verfügung. Das Portal bündelt die vielfältigen Aktivitäten des digital gestützten Lehrens und Lernens in Nordrhein-Westfalen, macht diese niedrigschwellig nutzbar und fördert den hochschulübergreifenden Austausch. Bedeutsam hierfür ist, dass Hochschullehrende aus NRW Bildungsmaterialien über das Portal hochladen und so mit anderen teilen sowie gemeinsam weiterentwickeln können. Diese Materialien können wiederum kostenfrei genutzt und bei Bedarf auch an individuelle Bedürfnisse angepasst werden. Die Auffindbarkeit dieser Materialien wird durch die Einbindung des Open Educational Resources Search Index (OERSI) gewährleistet, der die Suche nach frei lizenzierten Bildungsmaterialien ermöglicht. Darüber hinaus bietet das Portal u. a. studienrelevante Inhalte für das Selbstlernen.

Mit dem heutigen Tag hört die Arbeit aber nicht auf: Das Portal wird kontinuierlich weiterentwickelt und an zukünftige Bedarfe der Hochschulen angepasst. Wir freuen uns auf die Zusammenarbeit!