Benjamin Möbus, ein Erziehungswissenschaftler an der Universität Vechta, hat als erster Wissenschaftler im Rahmen des Programms „Meet a Scientist“ die Cäcilienschule Oldenburg besucht. Am 30. April 2026 erörterte er mit einer 10. Klasse das Thema Künstliche Intelligenz (KI) und deren Einfluss auf das Denken der Schüler. Diese Veranstaltung ermöglicht es, Wissenschaftler in Schulen zu integrieren und den Schülern Einblicke in aktuelle Forschung zu geben.
Ein zentrales Thema der Diskussion war die Frage, wann KI das Denken der Schüler schärft und wann sie möglicherweise zu einem Ersatz wird. Die Schüler brachten eigene Überlegungen in die Debatte ein, insbesondere zu den vorurteilsbelasteten Trainingsdaten von KI-Systemen. Möbus stellte die Kernfrage: Unterstützt KI Lernprozesse oder untergräbt sie sie? Das Programm „Meet a Scientist“ fördert solch einen Austausch und bringt Schüler und Experten zusammen, um komplexe Themen zu ergründen.
Kritische Reflexion über KI
Die Klasse hatte bereits intensiv über Bias in KI-Systemen nachgedacht, was Möbus sehr positiv überraschte. Er stellte die Nutzung von KI als dialogischen Lernpartner für Prüfungen und Textentwicklung vor. Hierbei wurden Grenzen der KI thematisiert, darunter inhaltliche Unzuverlässigkeit und die Tendenz zur Reproduktion von Stereotypen.
Dr. Maleika Gralher-Krengel, eine Lehrerin an der Cäcilienschule, initiiert solche Besuche und betonte die Wichtigkeit der Zusammenarbeit mit externen Experten. Sie hob hervor, dass kostenfreie Angebote während der regulären Unterrichtszeit die Nutzung solcher Programme erleichtern. Eine Schülerin bemerkte, dass Möbus für das Thema brenne, was das Zuhören und die Teilnahme der Schüler erleichterte.
Die Herausforderung der Vorurteile in der KI
Die Thematik der Bias in KI ist jedoch nicht nur auf das Klassenzimmer beschränkt. Laut einem Bericht von BSI ist das Erkennen und Beseitigen von Vorurteilen in der KI eine Herausforderung, die umfassende Kenntnisse in Data-Science-Techniken und ein Verständnis der sozialen Dynamiken erfordert. Diskriminierende Algorithmen und fehlerhafte Trainingsdaten führen zu systematischer Voreingenommenheit in KI-Modellen, was sich negativ auf die Teilhabe an Wirtschaft und Gesellschaft auswirken kann.
| Beispiele für KI-Verzerrungen |
|---|
| Gesundheitswesen: Unterrepräsentation von Frauen und Minderheiten. |
| Bewerber-Tracking-Systeme: Verzerrte Algorithmen benachteiligen qualifizierte Bewerber. |
| Online-Werbung: Geschlechtsspezifische Verzerrungen bei Stellenanzeigen. |
| Predictive-Policing-Tools: Verstärkung von Racial Profiling. |
Gemäß IBM ist es entscheidend, dass Unternehmen aktiv KI-Governance implementieren, um Verzerrungen zu identifizieren und zu bekämpfen. Gute Praktiken in der KI-Governance sollten Transparenz, Fairness, und menschliche Kontrolle beinhalten, während der Datenschutz in allen Entwicklungsphasen gewährleistet sein muss.
Zusammenfassend lässt sich sagen, dass Ereignisse wie die Veranstaltung an der Cäcilienschule Oldenburg einen wertvollen Beitrag leisten, um Schüler für die Herausforderungen der KI zu sensibilisieren und sie zu kritischen Denkern in einer zunehmend digitalisierten Welt zu formen.