Ob neue Öffnungszeiten, ein verändertes Veranstaltungsformat oder eine interne Umstrukturierung – im Hochschul- und Bibliothekskontext steht häufig die Frage im Raum: Sind die beobachteten Veränderung real oder zufällig?
Medienlogistik & Bestandsmanagement
- Frage: Wurden bestimmte Buchformate (z.B. eBooks vs. Print) seit dem Umbau des Lesesaals häufiger genutzt? → t-Test oder Chi²-Test auf Nutzungszahlen vor/nach Maßnahme
- Text: Welche Begriffe werden in Bestellkommentaren oder Erwerbungsnotizen am häufigsten verwendet? → Tokenisierung & Wortfrequenz
Formularbearbeitung / Antragsbearbeitung
- Frage: Haben sich die Bearbeitungszeiten für Mittelanforderungen nach Einführung eines digitalen Workflows statistisch verändert? → Mittelwertvergleich (vor/nach)
- Text: Welche Anliegen dominieren in den Freitextfeldern von Mittelanforderungen? → Themenclustering, Keyword-Extraktion
Dieser Aufbaukurs vertieft den Einsatz von R und RStudio für fortgeschrittene Auswertungen quantitativer und qualitativer Daten. Neben einem praxisnahen Einstieg in Signifikanztests wird das Textanalysepaket tidytext eingeführt, mit dem Freitextantworten systematisch analysiert, visualisiert und thematisch ausgewertet werden können.
Die Arbeit erfolgt primär lokal mit R und RStudio, um den datenschutzkonformen Umgang mit sensiblen Verwaltungsdaten zu gewährleisten. Ergänzend wird die Nutzung KI-basierter Werkzeuge über die Academic Cloud API vorgestellt, um Sentimentanalysen und Zusammenfassungen automatisiert zu unterstützen – dabei bleiben alle Daten in der Hochschulinfrastruktur. Für einen unterbrechungsfreien Workshopverlauf werden anlassbezogen Backup-Systeme verwendet, die auch nach Kursende ausschließlich mit anonymisierten Übungsdaten genutzt werden sollten.
Die verwendeten Werkzeuge sind:
- tidytext, eine R-Bibliothek zur strukturierten Textanalyse, die Freitexte in auswertbare Datenformate überführt
- Academic Cloud API ermöglicht datenschutzkonforme KI-Analysen – alle Daten bleiben in der Hochschulinfrastruktur
Zielgruppe Beschäftigte aus wissenschaftsunterstützenden Bereichen, Verwaltung, Bibliothek, IT, Controlling, Qualitätsentwicklung, Wissenschaftsmanagement und Forschung, die fundierte Aussagen auf Basis quantitativer und qualitativer Daten treffen möchten – insbesondere bei Evaluationen, Befragungen oder Entscheidungsvorlagen Voraussetzungen - Teilnahme an Statistik verstehen und visualisieren mit R – für Nicht-Statistiker*innen (Basiskurs) oder vergleichbare Vorkenntnisse
- Primärsystem (Pflicht): R + R-Studio (lokal installiert)
- Backup-System (Pflicht - nur für Übungsdaten): Posit Cloud Account (kostenlos), Hinweis: ausschließlich für technische Ausweichszenarien
- API-Zugang (Pflicht - beide für Redundanz): Academic Cloud (Chat AI, API-Zugang) + Google-Account (Gemini, Gemini API)
- Optional:
- Claude.ai
- Open AI (GPT)
- Hugging Face Account (KI API-Zugang)
Ziele
Nach dem Workshop sind die Teilnehmenden in der Lage,
- mit R grundlegende Signifikanztests durchzuführen und korrekt zu interpretieren,
- kategoriale Daten statistisch auszuwerten und anschaulich darzustellen,
- Freitexte systematisch zu analysieren und zu visualisieren,
- KI-gestützte Auswertungstools zur Unterstützung von Textanalysen einzusetzen,
- managementtaugliche Zusammenfassungen auf Basis von Datenanalysen zu erstellen.
Inhalte
- Signifikanztests verstehen: (Beispiel: Sind Besucherzahlen nach Umbau signifikant gestiegen?) Vorher-Nachher-Vergleiche, t.test(), p-Werte und Effektstärken
- Kreuztabellen und Kategorien: (Beispiel: Nutzen bestimmte Fachbereiche Services häufiger?) chisq.test() anwenden und grafisch darstellen
- Textanalyse mit tidytext: Freitext-Kommentare strukturieren, Sentiment erkennen, Hauptbegriffe visualisieren
- Themen erkennen mit Topic Modeling: LDA anwenden, Themen gruppieren, Word Clouds gezielt einsetzen
- KI-gestützte Analyse: Academic Cloud API für Sentiment, Kategorien und Zusammenfassungen nutzen
- Ergebnisse überzeugend präsentieren: Konfidenzintervalle visualisieren, Handlungsempfehlungen ableiten
Methoden
Live-Demonstrationen, Übungen mit Beispielmaterialien (z.B. Evaluationsergebnisse), angeleitete Textanalyse mit echten Kommentaren, moderierter Austausch zu eigenen Anwendungsszenarien Hinweise
Teilnehmende erhalten vorbereitende Hinweise zur API-Nutzung. Die Beispiele orientieren sich an typischen Fragestellungen aus Hochschulverwaltung und -bibliothek.