© Universität Bielefeld

inno.teach

inno.teach

Ein Raum der vielen Möglichkeiten – Ein Gespräch über den Flex-Seminarraum

Veröffentlicht am 30. März 2023
Ein Beitrag von Birte Stiebing

Seit dem Wintersemester 2022/23 gibt es im X-Gebäude den Flex-Seminarraum (X-E1-203) und er wurde schon rege genutzt! Im Gespräch mit den Projektverantwortlichen Melanie Fröhlich und Dr. Fabian Schumacher aus dem Zentrum für Lehren und Lernen erfahren wir wie es überhaupt zu dem Projekt kam und wie die Pläne für die Zukunft aussehen.

Fabian Schumacher und Melanie Fröhlich. Foto: Universität Bielefeld

Fabian Schumacher & Melanie Fröhlich. Foto: Universität Bielefeld

 

Birte Stiebing: Hallo zusammen! Wie seid ihr überhaupt auf das Projekt „Flex-Seminarraum“ gekommen? Was hat euch dazu bewogen, das Projekt anzugehen?

Melanie Fröhlich: Wir beschäftigen uns schon länger mit der Gestaltung von Lehr- und Lernräumen und der Auswirkung auf Lehr- und Lernformate. Aus Gesprächen mit Lehrenden und Student*innen wussten wir auch, dass flexiblere Arrangements benötigt werden und gewünscht sind. Den Ausgangspunkt für das Projekt und die Flexibilisierung eines Lehrraums bildete jedoch eine Ausschreibung des Stifterverbands und er Schwarz Stiftung unter dem Titel „Raumlabore“ Anfang 2022. Die Hochschulleitung hat angeregt, dass wir uns seitens der Universität Bielefeld mit einem Projekt bewerben.

Fabian Schumacher: Und so fing das Ganze an.. Wir haben uns dann hingesetzt und zusammen den Antrag geschrieben und mit der Unterstützung der Hochschulleitung konnten wir auch mit der Projektplanung beginnen.

MF: Der Flex-Seminarraum bot zudem auch eine sinnvolle Ergänzung zu einem anderen Projekt mit dem wir als ZLL beauftragt sind und sich mit Zukunftsfähigen Lehr- und Lernräumen mit Fokus auf den laufenden Umbau der Universität beschäftigt und vom Kanzler angestoßen wurde. Wir haben so schon mal einen Raum als Pilotprojekt, in dem wir neue Konzepte ausprobieren können und gemeinsam mit Lehrenden und Studierenden experimentieren. Die gewonnenen Erfahrungen können wir auswerten und dann in die weiteren Überlegungen zur Raumentwicklung einfließen lassen.

FS: Und mit dem Flex-Seminarraum können wir auch schauen, wie im Bestand schon was geändert werden kann, weil wir auf die neuen Flächen ja noch ein bisschen warten müssen.

BS: Was zeichnet denn den Raum besonders aus?

MF: Wir haben auf Tische gesetzt, die klapp- und rollbar sind, also leicht weggeräumt werden können, um auch den ganzen Raum als große Fläche nutzen zu können. Außerdem sind sie elektrisch höhenverstellbar, man kann daran stehen oder sitzen. Dazu haben wir modulare Sitzwürfel angeschafft, so dass man verschiedene Settings bauen kann. Natürlich gibt es auch weiterhin die ganz klassischen Seminarstühle.

FS: Durch das flexible Mobiliar sind die Nutzungsmöglichkeiten sehr breit. Und was den Raum auch besonders macht sind die vielen Flächen, die bereitstehen, um Visualisierungen zu ermöglichen.

BS: Was für Flächen sind das?

MF: Das sind großflächige Whiteboards, die einmal fest verbaut an der Wand sind und mobile Whiteboards, die gleichzeitig als Raumtrenner dienen. Dann natürlich die Tafelfläche und digital steht uns noch das DTEN zur Verfügung, das nicht nur für Zoom genutzt werden kann, sondern auch als digitales Whiteboard.

FS: Und für bestimmte Settings, bei denen man eine zusätzliche externe Kamera braucht, haben wir noch eine Raumkamera, die man ergänzend nutzen kann.

"Das Ziel für den Raum war und ist, möglichst unterschiedliche Szenarien abzubilden, von klassischen Seminaren hin zu informellen Settings."

BS: Wie seid ihr eigentlich die Planung angegangen? Wie seid ihr beispielsweise auf den Raum gekommen?

FS: Das lief tatsächlich recht standardmäßig über die zentrale Raumvergabe der Universität. Das Facility Management hat uns da unterstützt und wir haben geguckt, welcher Raum sich dafür anbietet. Da wir das Ganze langfristig denken, sollte es ein Raum sein, der nicht bald von Baumaßnahmen betroffen ist, so kamen wir schnell auf das X-Gebäude.

MF: Das ist auch einer der Räume, die generell sehr beliebt sind, auch für Tagungs-Settings außerhalb der Vorlesungszeit. Das wird gerne im Aquarium gemacht.

FS: Aquarium? Das habe ich ja noch nie gehört. (lacht)

MF: Nicht? Ich kenne die vier Räume in dem Flur unter dem Namen (Anm. d. Redaktion: Gemeint sind die Räume X-E1-203, X-E1-202, X-E1-201 und X-E1-200). Durch die Verglasung können sie super zusammen genutzt werden.

BS: Bis auf Mobiliar wie Tische, Stühle und Whiteboards, was wurden noch für Anschaffungen gemacht?

FS: Das Ziel für den Raum war und ist, möglichst unterschiedliche Szenarien abzubilden, von klassischen Seminaren hin zu informellen Settings. Dafür haben wir also auch Sessel besorgt und Schränke, die gleichzeitig den Raum aufteilen können und zum Verstauen super sind. Um es dann noch wohnlicher zu machen stehen auch Pflanzen im Raum.

MF: Wichtig war uns bei jeder Anschaffung, dass wir möglichst flexibel und dabei auch kosteneffizient bleiben, damit wir die Erfahrungen, die wir jetzt hier machen, skalierbar zu machen. Nach ziemlich langer Recherche, haben wir dieses Mobiliar gefunden, was unsere Ansprüche sehr gut erfüllt.

BS: Wie sah die Recherche aus?

[Weiterlesen]

Workshop-Rückschau - Distant Reading in Literary Studies. An Introduction to Tools for Data Literacy. Bielefeld, 7. Dezember 2022

Veröffentlicht am 21. März 2023

Ein Beitrag von Robin-M. Aust

›Das Digitale ist aus den Literatur-, Kultur- und Geisteswissenschaften inzwischen nicht mehr wegzudenken.‹ Auch, wenn dieser Satz gleichermaßen phrasenhaft daherkommt wie der Begriff des ›Digitalen‹ unbestimmt ist, haftet ihm viel Wahres an. Das lässt sich leicht an der Vielzahl von digital generierten Kunstwerken und der momentanen Popularität von Text-KIs wie ChatGPT belegen – ebenso aber auch an Tagungen zu Aspekten der Netzkultur, Einführungsbänden zu Methoden der Digital Humanities oder dem vermeintlichen ›Revival‹ der empirischen, diesmal digital gestützten Literaturwissenschaft. Kurzum: Kunst, Öffentlichkeit und Forschung haben neuerdings ein unbändiges Interesse am Digitalen, seinen Erzeugnissen und seinen Potenzialen. Um direkt ein – zum Thema passendes – textstatistisches, wenngleich nicht repräsentatives Beispiel zur Untermauerung dieser These zu liefern: Im Gesamtprogramm des Germanistentages 2022 findet sich der Begriff ›hermeneut*‹ 37 mal, ›gegenwart*‹ 45 mal, ›mittelalter*‹ 60 mal, ›diskurs*‹ 84 und ›digital*‹ 85 mal.

In der universitären Lehre hält diese frische Entwicklung ebenfalls, wenn auch zögerlich Einzug – das Digitale wird als Thema unterrichtet, aber noch selten als Methode. Ein Grund hierfür liegt ironischerweise gerade in der ›Frische‹ der Entwicklung: viele Lehrende wurden mit den Methoden, die sie unterrichten und den Studierenden näherbringen möchten, während ihrer eigenen Ausbildung schlichtweg selbst nie konfrontiert. Dies gilt insbesondere für die Methoden der digital humanities, die Methoden aus u.a. Statistik und Informatik mit denen der Geisteswissenschaften zusammenbringen – und damit zwei traditionell eher disparate Disziplinen miteinander vereinen, mit denen sich Forschende des jeweils anderen Fachgebiets eher selten beruflich beschäftigen (müssen).

Abhilfe schaffen konnte hier der Workshop ›Distant Reading in Literary Studies. An Introduction to Tools for Data Literacy‹, der am 7. Dezember in Bielefeld stattfand. Organisiert wurde der Workshop von den BiLinked Communities of Practice »Data Literacy« sowie »Public Humanities«, Prof. Dr. Berenike Herrmann, Dr. Matthias Buschmeier sowie Dr. Alan van Beek von Dr. Giulia Grisot und Dr. Simone Rebora. Auch wenn die Grippewelle weder vor Teilnehmer*innen noch vor den Workshopleiter*innen Halt gemacht hat und krankheitsbedingt Giulia Grisot und Simone Rebora die Leitung des Workshops alleine übernehmen mussten, fanden sich an jenem Wintermorgen eine Gruppe interessierter Wissenschaftler*innen ein, um in grundlegende Perspektiven, Praktiken und Programme der digitalen Literaturwissenschaften und des Distant Readings eingeführt zu werden.

›Distant reading‹ also. Der Begriff mag vermutlich der*dem einen oder anderen Literaturwissenschaftler*in als in eine fesche Wortschöpfung verpackten Affront gegen eine sorgfältige Textlektüre und -Interpretation daherkommen und die Zornesfalte in die Stirn graben, umschreibt aber einen äußerst gewinnbringenden Komplex aus quantitativen Analysemethoden auf große Textkorpora. Die Methoden und Zugriffe, die unter dem Begriff ›distant reading‹ zusammengefasst werden, sind dabei ebenso vielfältig wie die Fragestellungen, die sie beantworten können.

Der Workshop nun sollte dabei eine erste Orientierung sowohl innerhalb der möglichen Forschungsfragen als auch der dazu passenden Analysemethode bieten. Nach einer Einführung in die Fragestellungen und Perspektiven des Distant Readings folgt schließlich direkt der erste von vier zentralen Themenblöcken: Dr. Grisot und Dr. Rebora zeigen den Workshopteilnehmer*innen zunächst, wie Worthäufigkeiten innerhalb eines ausgewählten Korpus visualisiert werden können. Mit den im weiteren Verlauf der Session erstellten Word Clouds wurden die meisten Teilnehmer*innen sicherlich bereits konfrontiert – seltener jedoch mit den Programmen und Verfahren, diese auch selbst herzustellen.

Wordcloud

  Auf dem Programm stand folglich zuerst eine Einführung in die Statistikprogrammiersprache R und die Benutzung der dazugehörigen Entwicklungsumgebung RStudio. Auch wenn das Programm auf dem ersten Blick wenig anfänger*innenfreundlich daherkommt, waren alle Teilnehmer*innen nach der Anleitung von Dr. Rebora und Dr. Grisot doch bald mit der Benutzung vertraut, sodass sie bereits eigene Word Clouds erstellen und die Parameter der dazugehörigen Skripte nach Bedarf verändern konnten. Besonders teilnehmer*innenfreundlich war auch die Entscheidung der Workshopleiter*innen, auf eine eigens erstellte Cloud-Variante von RStudio zu setzen. So stand für jede*n Teilnehmer*in eine vorkonfigurierte Umgebung inklusive vorbereiteter Korpora bereit, die lediglich nur noch im Browser aufgerufen werden musste – ohne dabei die sonst eher leidige, im Workshopkontext zeitaufwändige Installation (inkl. aller Abhängigkeiten) durchziehen zu müssen.

Einblick in RStudio

Mit den ersten Schritten in RStudio vertraut und den ersten Wordcloud-Ausgaben ausgestattet ging es direkt an den nächsten Programmpunkt: Keyword (oder Keyness) Analysis mit R und Quanteda. Erneut ging es hier um Worthäufigkeiten – diesmal aber in einer komplexeren Art und Weise: Keyness Analysis vergleicht die Worthäufigkeiten in einem Text (oder Subkorpus) mit der eines größeren oder übergeordneten Referenzkorpus. So können stilistische, thematische, inhaltliche, etc. Eigenheiten und Gemeinsamkeiten auf der Wortebene identifiziert, visualisiert und interpretiert werden.

Stilistische Eigenheiten standen auch nach der Mittagspause im Fokus des dritten Themenblocks: Wie auch die Literaturwissenschaften im Allgemeinen beschäftigt sich auch die digitale Literaturwissenschaft zentral mit Autorschaft und Autorstil. Erneut bilden hier Worthäufigkeiten die Grundlage der Analyse, die weiterverarbeitet Aufschluss über die stilistische Ähnlichkeit von Texten geben können: einer der vorgestellten Zugriffe ist die Errechnung des sogenannten Burrows-Delta, das die relative ›Entfernung‹ von Texten auf Basis diskreter Funktionsworte zueinander ausgibt. Auch hier bietet RStudio mit dem Stylo-Paket erneut eine benutzerfreundliche Möglichkeit, Texte innerhalb eines Korpus zu vergleichen und ihre relative Nähe zueinander in Dendrogrammen direkt auszugeben, ohne dass die so errechneten, für die meisten Anwender*innen eher abstrakten Datensätze selbst weiterverarbeiten zu müssen.

Einblick in RStudio; Stylometry

 

›Datensätze‹, ›Dendrogramme‹ und ›Delta‹ klingen nun allesamt nicht nach dem Methodenrepertoire der Geistes- oder Literaturwissenschaften. Dass diese digitalen Zugriffe nicht nur ihre Berechtigung, sondern auch einen unzweifelhaften Nutzen bei der Beantwortung diverser Forschungsfragen haben, zeigen die von Dr. Rebora und Dr. Grisot angeführten Anwendungsbeispiele und Fallstudien.

Autorenschaft

Autorenschaft

Der Anwendungsbezug wurde aber nicht nur durch Beispiele hergestellt. Insbesondere Informatiker*innen wissen: Trockenübungen sind schön und gut, learning funktioniert im Falle von Code am besten by doing. So war auch in diesem Workshop natürlich Zeit, die einzelnen Methoden und Programme selbst hands on auszuprobieren und die Parameter oder Primärtexte auf eigene Fragestellungen hin anzupassen.

Der vierte Programmpunkt beschäftigte sich letztlich mit der Sentiment Analysis, also der Quantifizierung (und natürlich erneut: Visualisierung) von Emotionen in Texten oder Textabschnitten in R und RStudio. Auch in diesem Falle blieb Zeit für Fragen und die Diskussion von Potenzialen und Grenzen des Zugriffs: thematisiert wurde unter anderem der dem jeweils verwendeten Sentiment-Wortschatz inhärente Bias und das Problem der ›klassischen‹ Sentiment-Analyse, indirekt oder ironisch formulierte Meinungen zu identifizieren.

Autorenschaft

 

Apropos Stimmung: Die Teilnehmer*innen dieses Workshops können durchaus zufrieden sein, ist es Rebora und Grisot doch gelungen, in einem sehr begrenzten Zeitraum ein breites Panorama digitaler Analysemethoden zu präsentieren und in einem forschungspraktischen Kontext zu verorten. Eine möglicherweise vorher vorhandene Skepsis gegenüber abstrakt oder rein informatisch erscheinenden Verfahren konnte hier ebenso ausgeräumt werden wie die durchaus verständliche Überforderung, die hierfür nötigen Programme auch anzuwenden und die dazugehörigen Skripte auf eigene Fragestellungen hin anzupassen. Nicht nur der souveräne, sondern auch der kreative Umgang mit digitalen Tools im Bereich der Geisteswissenschaften bietet schließlich viel Potenzial, durch andere Methoden gar nicht erst effizient zu bearbeitende Fragen zu beantworten oder explorativ Muster und Phänomene zu identifizieren, die anderweitig gar nicht erst sichtbar würden. Kompetenz und Begeisterung für digitale Methoden in Forschung und Lehre sind natürlich auch hier die Katalysatoren weiterer Entwicklungen, derer sich auch die Geistes- und Literaturwissenschaften nicht verschließen sollten. Wer sich daher selbst informieren und das eine oder andere ausprobieren möchte, findet die Ressourcen zum Workshop nach wie vor auf der dazugehörigen Homepage.

[Weiterlesen]

ChatGPT in der Hochschullehre - Lehrbar Spezial 27.02.23

Veröffentlicht am 16. März 2023

Ein Beitrag von Laura Käppele

 

Eine KI schreibt einen Text. Foto: Midjourney

KIs können nicht nur Texte schreiben, sondern auch Bilder generieren. Foto: Midjourney

Chat GPT, auch bekannt als Generative Pre-training Transformer, ist eine neue Technologie, die es ermöglicht, natürlichsprachige Texte automatisch zu generieren. Es hat das Potenzial, die Hochschullehre zu revolutionieren, indem es Lehrenden und Lernenden eine Vielzahl von Möglichkeiten bietet, die Kommunikation und den Austausch von Informationen zu verbessern. Einige Anwendungen sind die Automatisierung von Feedback-Berichten und Prüfungen, sowie die Verbesserung der Kommunikation zwischen Lehrenden und Schülerinnen und Schülern. Es kann auch den Einsatz von künstlicher Intelligenz in der Bildung fördern.

So würde sich ChatGPT zumindest selbst vorstellen (mit dem Prompt „Schreibe einen Blogartikel zu ChatGPT und was es für die Hochschullehre bedeutet. 100 Wörter“). Seit einigen Monaten schon gibt es eine Debatte darum, welche Änderungen die Entwicklung von textgenerierenden KIs für die Hochschullehre mit sich bringen wird. Viele Lehrende befürchten, dass Betrugsversuche durch Studierende nun zunehmen werden und diese nicht einmal gut nachgewiesen werden können. Auf der anderen Seite könnte die neue Technologie aber auch Chancen für das Forschen und Schreiben mit sich bringen.

Um dieses Themenfeld auszuloten, veranstaltete das Hochschuldidaktikteam des Zentrums für Lehren und Lernen (ZLL) am 27.02.23 eine Lehrbar Spezial zu ChatGPT. Dass dieses Thema als äußerst relevant erachtet wird, wird auch am hohen Zuspruch mit 160 Teilnehmenden deutlich. Als Referentin eingeladen war Nadine Lordick vom Schreibzentrum der Ruhr Universität Bochum. Sie ist Mitarbeiterin im Projekt KI:edu.nrw, einem Kooperationsprojekt der Ruhr Universität Bochum und der RWTH Aachen, und erklärte in ihrem Vortrag, wie ChatGPT funktioniert und welche Einflüsse dieses KI-basierte Tool auf die Lehre haben könnte. Da die Entwicklung noch so neu ist, betonte sie jedoch, dass es aktuell noch mehr Fragen als klare Antworten darauf gibt, welche Einflüsse die Technologie haben wird.

ChatGPT funktioniert aufgrund von Stochastik. Das Programm berechnet, wie wahrscheinlich es ist, dass ein bestimmtes Wort auf das vorherige folgt. Durch Zufallsvariablen wird dabei immer wieder ein neuer Output forciert, wodurch der geschriebene Text plagiatsicher ist. Es gibt zwar Versuche, durch Programme zu erkennen, ob ein Text von einer textgenerierenden KI geschrieben wurde, bisher erreichen diese jedoch noch nicht einmal eine Sicherheit von 30%.

Die Gefahr, dass Studierende dies zum Betrügen ausnutzen könnten, scheint also tatsächlich zu existieren. Gerade weil das Vermitteln und Prüfen von Schreibkompetenzen einen so hohen Stellenwert in der wissenschaftlichen Bildung hat, sind viele Lehrende darüber sehr besorgt und es gibt viele Überlegungen, wie damit umgegangen werden sollte. So gibt es etwa Ansätze, verstärkt Reflexionsaufgaben einzubringen, also etwa eine Hausarbeit mit einer mündlichen Prüfung zu kombinieren, oder aber eine stärkere Lernbegleitung durchzuführen. Dennoch sollte man sich bewusst machen, dass ChatGPT nicht der Anlass einer Täuschung ist, sondern nur die Möglichkeit. Auch heute bestehen bereits diverse Möglichkeiten, bei einer Prüfung zu betrügen, und auch wenn es immer Menschen gibt, die diese ergreifen, so tut dies der größte Teil der Studierenden nicht.

In ihrem Vortrag erläuterte Frau Nordick, dass die potenziellen Täuschungsversuche durch Studierende eher als kurzfristiges Thema zu sehen sind. Langfristig wird viel eher interessant sein, wie textproduzierende KIs die wissenschaftliche Praxis und die Didaktik als Ganzes verändern werden. Ähnlich wie bei der Erfindung des Taschenrechners könnten es diese Tools nämlich erreichen, dass durch Auslagerung kognitiver Prozesse eine Verschiebung oder Veränderung von benötigten Kompetenzen geschieht. Vielleicht könnte ChatGPT in der Zukunft also etwa dabei helfen, Anträge zu schreiben oder Paper zu überprüfen, wodurch mehr Zeit für die eigentliche Wissenschaft bliebe.

Im Vortrag ging es auch um verschiedene Ansätze, wie in der Lehre auf ChatGPT reagiert werden könnte. Natürlich kann das Thema einfach ignoriert und die Verwendung verboten werden – doch könnte es nicht auch sinnvoll sein, Studierenden von Anfang an Kompetenzen in diesem neuen Feld zu vermitteln? Eine gezielte Verwendung unter Anleitung könnte für manche Fächer und Seminare vielleicht sogar bereichernd sein. Dabei sollten Lehrende reflektieren, welche Kompetenzen Studierende brauchen, um sich in einem Fach zu professionalisieren und welche Rolle dabei das wissenschaftliche Schreiben spielt. Wie bei allen anderen Entscheidungen in der Didaktik auch, sollte die Frage zentral sein, warum diese neue Technologie eingesetzt oder eben nicht eingesetzt werden sollte. Egal, wie sich Lehrende entscheiden, mit dieser neuen Technologie umzugehen - wie bei allen Entscheidungen in der Didaktik sollte die Frage zentral sein, warum sie eingesetzt oder nicht eingesetzt werden sollte. Diese bewusste Frage ermöglicht es Lehrenden, eine Entscheidung nicht aufgrund von Befürchtungen, sondern durch didaktische Maßnahmen gestützt zu treffen.

In der anschließenden Diskussion wurde ebenfalls deutlich, dass viele rechtliche Fragen erst noch geklärt werden müssen, u.a. hinsichtlich des Prüfungsrechts, Urheberrechts und Datenschutzes. Hier bewegen sich sowohl ChatGPT selbst als auch Nutzer*innen innerhalb einer Grauzone. Die Ruhr Universität Bochum hat dazu nun ein rechtliches Gutachten herausgegeben, welches Lehrenden und Studierenden eine erste Hilfestellung an die Hand geben kann.

Auch wenn noch viele Fragen offen sind und dies natürlich verunsichern kann, ist es doch sinnvoll, zunächst einmal aufgeschlossen für diese neue Technologie zu sein. Jetzt, wo sie existiert, wird sie so schnell nicht wieder verschwinden und es ist wichtig, dass wir – Lehrende wie auch Studierende – uns bei dem Prozess, neue Konventionen auszubilden, nicht von Befürchtungen leiten lassen. Ein guter Ansatzpunkt ist es, einmal selbst zu versuchen, mit ChatGPT zu arbeiten, um herauszufinden, was die KI bereits kann und was noch außerhalb der Möglichkeiten liegt. Auf der Webseite vom Schreiblabor sind zu diesem Zweck auch einige Ressourcen zusammengefügt. Wir haben hier die Möglichkeit, mit einer jungen Technologie zu wachsen und die Konventionen darum mitzuformen – machen wir das Beste daraus.

[Weiterlesen]
Gesendet von LKäppele in New Teaching & Learning

OER: Kultur des Teilens im Video

Veröffentlicht am 2. März 2023
Von Frank Homp

Open Educational Resources (OER) stehen mittlerweile auf vielen Agenden und in vielen strategischen Papieren. Doch auch wenn diese Gründe, z.B. der UN, der UNESCO, der HRK, des BMBF oder des Wissenschaftsrats oder aber der eigenen Hochschule allesamt als vollkommen legitim erscheinen und die dargestellten Ziele, die mit OER erreicht werden können allesamt als hehre Ziele betrachtet werden können: Es kann hilfreich sein, sich nicht nur mit den wirtschaftlichen, wissenschaftlichen oder politischen Perspektiven auseinanderzusetzen, sondern auch mit den individuellen, persönlichen Ansichten und Gründen, warum Menschen trotz Hindernissen an einer Kultur des Teilens festhalten.

OER sind immerhin nur so gut, wie die Menschen, die ihre Community bilden, es ermöglichen. Ein paar dieser Menschen und deren Perspektiven werden in einem kürzlich vom OERcamp produzierten und geposteten Video dargestellt.

[Weiterlesen]
Gesendet von BStiebing in New Teaching & Learning

Kalender

« März 2023 »
MoDiMiDoFrSaSo
  
1
3
4
5
6
7
8
9
10
11
12
13
14
15
17
18
19
20
22
23
24
25
26
27
28
29
31
  
       
Heute