KI in der Kinder- und Jugendarbeit

KI in der Kinder- und Jugendarbeit

KI in der Kinder- und Jugendarbeit

Themen rund um die Entwicklungen der Künstlichen Intelligenz nehmen immer mehr an Fahrt auf. Anfragen zu Workshops und Infoveranstaltungen gehen nahezu täglich bei der Fachstelle Medienbildung ein.

Neben der kreativen Möglichkeiten und den positiven Entwicklungen der KI-Tools in der Kinder- und Jugendarbeit, drängen nun auch die negativen Möglichkeiten und Auswirkungen ins Rampenlicht und schlagen regelmäßig bei der Fachstelle Medienbildung und dem Jugendmedienschutz auf.

Vor allem bei den Themen Fake News und Deep Fakes laufen viele Kinder und Jugendliche Gefahr, den Überblick zu verlieren und manipuliert zu werden. Das heißt nicht, dass die Erwachsenen davon verschont bleiben, was regelmäßig in den Sozialen Netzwerken zu beobachten ist. Dabei sollen doch die Erwachsenen als kompetente Multiplikator*innen für unsere Zielgruppen Kinder und Jugendliche dienen. Und an dieser Stelle zeigt sich schon das erste Problem. Die Technologien entwickeln sich so rasant, dass kaum noch jemand mitkommt. Der Begriff vom „Lebenslangen Lernen“ hat eine ganz neue Bedeutung erhalten. Und so wie es aussieht, wird die außerschulische Kinder- und Jugendarbeit aus dem „Lebenslangen Lernen“ gar nicht mehr rauskommen, geschweige denn, sich mal eine Auszeit nehmen. Momentan fühlt es sich eher an wie „Tägliches Lernen“ und das lebenslang oder zumindest bis zur Rente.

Aktuell ist der Workshop „Fake News, Deep Fakes, Hate Speech … Ist die Demokratie in Gefahr?“ das am meisten angefragte Angebot der Fachstelle Medienbildung, für Jugendliche und Multiplikator*innen.

Zur Erklärung: Deep Fakes sind künstlich erzeugte oder manipulierte Medieninhalte, die mit bloßem Auge kaum von echten Aufnahmen zu unterscheiden sind. Sie nutzen künstliche Intelligenz, um Gesichter, Stimmen oder ganze Szenarien täuschend echt nachzubilden. Bekannte Beispiele für Deep Fakes sind Videos von Prominenten oder Politikern, die potentielle Wähler*innen manipulieren sollen oder gleich ganz von der Wahl abhalten sollen. Oder es werden massenhaft KI generierte Nachrichten gestreut, um demokratische Gesellschaften zu destabilisieren. Natürlich müssen Kinder, Jugendliche und Erwachsene kompetent gemacht werden, um diese Angriffe zu erkennen und abwehren zu können. Anleitungen dazu gibt es genug, nur mit der Umsetzung geht es nicht schnell genug voran.

Eine ganz andere Form der negativen KI, ist das verstärkte Aufkommen von Inhalten, die als digitale sexualisierte Gewalt einzuordnen sind und dazu genutzt werden, Personen zu belästigen, zu mobben oder gar zu erpressen. Kinder und Jugendliche sind besonders gefährdet, Opfer von Sextortion zu werden. Sie können leicht in die Falle tappen, intime Bilder oder Videos zu teilen, die dann zur Erpressung genutzt werden. Erwachsene sind ebenfalls nicht immun gegen diese Bedrohung, wie zahlreiche Fälle zeigen.

Das alleine ist schon schlimm genug, jetzt aber hilft die KI dabei, einfacher und schneller zu Erpressungsmaterial zu kommen. Mittlerweile benötigt man nicht mal mehr ein intimes Foto oder einen intimen Videoclip um Personen zu erpressen. Sextortion nimmt durch die einfache Erstellung von Deep Fakes neue Dimensionen an. Täter (in der Regel sind diese männlich) nutzen KI-Tools, um aus harmlosen Fotos sexuell explizite Inhalte zu erstellen, um ihre Opfer im Anschluss zu erpressen. Dabei geht es nicht unbedingt um Geld. Da geht es manchmal auch darum, dass die Beziehung aufrecht erhalten werden soll oder dass es noch einmal zum Sex kommen soll oder einfach aus Rache. Tools, mit denen solche Bilder und Videos erstellt werden können, werden immer besser, einfacher zu bedienen und günstiger bzw. kostenlos.

Um den Gefahren zu begegnen, läuft es wie so oft auf die schulische und außerschulische Prävention hinaus. Dabei ist die Vermittlung von Medienkompetenz entscheidend:

1. Kritisches Denken fördern: Menschen aller Altersgruppen sollten lernen, Informationen zu hinterfragen und Quellen zu überprüfen.

2. Technologieverständnis vertiefen: Aufklärung über die Funktionsweise von KI und Deep Fakes kann helfen, Manipulationen zu erkennen.

3. Sicherheit im Netz: Vermittlung von Strategien zum Schutz persönlicher Daten und zur sicheren Nutzung sozialer Medien.

4. Ethische Diskussionen anregen: Gespräche über die moralischen Implikationen von KI und Datenschutz fördern verantwortungsbewusstes Handeln.

Mit einer Linkliste hat die Fachstelle Medienbildung eine Auswahl kompetenter Angebote mit Informationen rund um die Mediennutzung zusammengestellt. Unter der Überschrift Was tun wenn’s brennt? enthält die Linkliste auch Empfehlungen zu Anlaufstellen, wenn schnell konkrete Hilfsangebote gefragt sind. Neben den überregionalen Angeboten werden auch Mannheimer Hilfsangebote aufgeführt.

Neben der aufklärerischen Arbeit zur Gefahrenvermeidung darf aber nicht aus den Augen gelassen werden, dass die Entwicklungen der KI trotz der Risiken auch positive und kreative Möglichkeiten in der Kinder- und Jugendarbeit bieten:

1. Bildungsprojekte: Nutzung von KI-Tools wie Scratch zur Erstellung interaktiver Lernspiele.

2. Kreatives Storytelling: Beispielsweise Kombination von ChatGPT für Dialoge und DALL-E für Illustrationen zur Erstellung einzigartiger Geschichten.

3. Sprachlernen: Einsatz von KI-gestützten Übersetzungstools für mehrsprachige Projekte.

4. Wissenschaftliche Exploration: Teilnahme an KI-unterstützten Citizen-Science-Projekten zur Förderung des Forschungsinteresses.

Durch die Förderung von Medienkompetenz und den kreativen Einsatz von KI können Menschen aller Altersgruppen befähigt werden, die Chancen der digitalen Welt zu nutzen und gleichzeitig ihre Risiken zu minimieren. Dabei ist es wichtig, dass Eltern, Pädagogen und Multiplikator:innen gemeinsam daran arbeiten, ein sicheres und verantwortungsvolles digitales Umfeld zu schaffen.

Ob dabei, wie aktuell von Initiativen gefordert, ein Social Media Verbot bis 16 Jahren und Smartphones erst ab 14 helfen können, ist schwierig zu bewerten. Schreiben Sie uns Ihre Meinung an medienbildung@majo.de.

Schreibe einen Kommentar