Methode: Warum sehe ich das?
Algorithmen, Filterblasen und Sogeffekte verstehen
Soziale Medien wie TikTok, Instagram oder YouTube prägen den Alltag vieler Jugendlicher. Die Inhalte, die dort angezeigt werden, erscheinen oft zufällig oder sind „einfach da“. Tatsächlich basieren diese Beiträge auf algorithmischen Auswahlprozessen, die das Nutzungsverhalten analysieren und darauf reagieren.
Unsere Methode ermöglicht es Jugendlichen, die Mechanismen besser zu verstehen und ihre eigene Mediennutzung kritisch zu reflektieren – ohne sie zu bewerten oder zu problematisieren.
Info
In der Praxis haben sich Einrichtungsaccounts bewährt, um die Daten und die Persönlichkeitsrechte der Jugendlichen zu schützen. Es kann auch sinnvoll sein, technische Geräte (Smartphones/Tablets) der Einrichtung zu nutzen und einen Beamer zu verwenden. Natürlich können auch die Endgeräte der Teilnehmenden genutzt werden, wenn alle einverstanden sind und es sinnvoll erscheint.
Organisatorische Infos
Die Methode unterstützt die Teilnehmenden dabei:
- zu verstehen, dass Social-Media-Feeds keine neutralen Abbildungen der Realität sind
- grundlegende Funktionsweisen algorithmischer Empfehlungssysteme kennenzulernen
- eigene Mediengewohnheiten bewusster wahrzunehmen
- Filterblasen und thematische Verdichtungen einordnen zu können
Jugendliche, unabhängig von Vorwissen oder Intensität der Social-Media-Nutzung
- Dauer: 60–90 Minuten
- Gruppengröße: 6–20 Teilnehmende
- Setting: Gruppenraum mit WLAN
- Technik: Beamer/Whiteboard, optional: Smartphones/Tablets der Einrichtung sowie Einrichtungsaccounts
- Material: Moderationskarten, Stifte, ggf. Ausdrucke von neutralen Beispielansichten von Social-Media-Oberflächen (z. B. schematische Feeds ohne reale Inhalte)
- Die Fachkraft macht sich mit den grundlegenden Begriffen wie Algorithmus, Feed, Interaktion, Watchtime, Filterblase sowie der Möglichkeit des Zurücksetzens personalisierter Empfehlungen vertraut.
- Optional: neutrale Beispiel-Screenshots von Social-Media-Oberflächen bereitlegen.
Info:
In dieser Methode werden keine realen extremistischen Inhalte verwendet oder gezeigt. Die Auseinandersetzung erfolgt ausschließlich auf struktureller Ebene zur Reflexion eigener Wahrnehmungen von Social-Media-Feeds.
Ablauf der Methode
Die Teilnehmenden werden eingeladen, über ihre alltägliche Social-Media-Nutzung zu sprechen. Im Mittelpunkt steht die subjektive Wahrnehmung des eigenen Feeds.
Mögliche Impulsfragen:
- Wie fühlt sich das Scrollen durch den Feed an?
- Kommen bestimmte Themen oder Inhalte immer wieder vor?
- Gibt es Inhalte, die überraschend selten oder gar nicht erscheinen
Die Antworten werden gesammelt, ohne sie zu bewerten oder einzuordnen.
Gemeinsam wird in vereinfachter Form erarbeitet, wie algorithmische Empfehlungssysteme funktionieren. Dabei stehen Fragen im Mittelpunkt wie:
- Was passiert, wenn ich ein Video lange anschaue?
- Welche Rolle spielen Likes, Kommentare oder das Teilen?
- Warum tauchen bestimmte Themen immer wieder auf?
Die Teilnehmenden ordnen beispielhafte Aktivitäten möglichen Folgen im Feed zu. Dabei geht es nicht um technische Details, sondern um Grundprinzipien:
- Inhalte werden auf Basis vorheriger Interaktionen ausgewählt.
- Likes, Kommentare, Verweildauer und Abbrüche spielen eine Rolle.
- Der Feed reagiert auf das Nutzungsverhalten –oft sehr schnell.
Ziel dieses Schrittes ist es, ein grundlegendes Verständnis dafür zu entwickeln, dass der Feed kein Zufall ist, sondern Ergebnis bestimmter Auswahlprozesse.
Im nächsten Schritt wird der Blick auf die eigene Handlungsmöglichkeit im Umgang mit algorithmischen Empfehlungssystemen gelenkt.
Zunächst wird anhand eines Einrichtungsaccounts exemplarisch gezeigt, wie auf einer Plattform (z. B. TikTok) Funktionen genutzt werden können, um den personalisierten Feed zurückzusetzen oder neu auszurichten (z. B. Interessen löschen, Empfehlungen neu starten).
Anschließend erhalten die Teilnehmenden die Möglichkeit, diese Einstellungen im eigenen Account vorzunehmen, sofern sie dies möchten.
Dabei wird betont:
- Die Nutzung erfolgt freiwillig.
- Es besteht kein Zwang, den eigenen Account zu verwenden.
- Alternativ können Beobachtungsaufgabenübernommen werden.
Nach dem Zurücksetzen wird kurz gemeinsam betrachtet:
- Welche Inhalte werden nun angezeigt?
- Wirken die Vorschläge allgemeiner oder weniger zugeschnitten?
- Was unterscheidet sich vom vorherigen Feed?
In der gemeinsamen Reflexion werden die gemachten Erfahrungen eingeordnet. Mögliche Leitfragen:
- Was hat sich nach dem Zurücksetzen verändert?
- Wie schnell reagieren die Plattformen auf mein Verhalten?
- Wie fühlt sich der neue Feed an? Neutraler, besser oder eher ungewohnt?
- Was bedeutet das für die bewusste Nutzung von Social Media?
Dabei wird deutlich gemacht: Algorithmen lassen sich bis zu einem gewissen Grad beeinflussen, jedoch nicht vollständig steuern.
Reflexionsfragen (Beispiele)
- Welche Themen sehe ich besonders häufig in meinem Feed?
- Gibt es Inhalte, die ich kaum oder gar nicht sehe?
- Wie fühlt es sich an, wenn mir immer wieder Ähnliches angezeigt wird?
- Was bedeutet das für meine Sicht auf die Welt?
- Wie bewusst gehe ich mit meinem eigenen Scroll-Verhalten um?
- Welche Rolle spielen meine eigenen Entscheidungen im Feed?
- Was nehme ich aus dieser Erfahrung für meinen Alltag mit?
- Ein Video anzuschauen oder Inhalte zu liken, ist nicht immer eine vollständige Zustimmung.
- Jugendliche sollen nicht für ihre Mediennutzung bewertet werden.
- Ziel ist Verstehen, nicht Kontrolle.
- Unterschiedliche Nutzungsgewohnheiten sind normal.
- Ziel ist es nicht, Inhalte zu vermeiden, sondern sie bewusster wahrzunehmen und zu reflektieren.
- Fachkräfte sollten eigene Annahmen über „problematische Nutzung“ reflektieren.
- Praxistipps für die Medienarbeit mit jungen Geflüchteten finden sich unter: www.medienarbeit-nrw.de/praxistipps
Fazit
Unsere Methode ermöglicht Jugendlichen einen reflektierten Blick auf ihre Social-Media-Nutzung. Indem algorithmische Prozesse verständlich gemacht werden, wird Medienkompetenz gestärkt und die eigene Wahrnehmung und Handlungsfähigkeit in Bezug auf digitale Inhalte werden differenziert. So entsteht ein wichtiger Ausgangspunkt für weitere Gespräche über Inhalte, Wirkung und Verantwortung im Netz, mit präventiven Effekten.
Mehmet Koç,
B.A. Soziale Arbeit und Islamische Studien, sowie M.A. Forschung in der Sozialen Arbeit. Er entwickelt und erprobt innovative Ansätze digitaler Präventionsarbeit auf Social Media, u.a. zur Dekonstruktion von ‚islamistischen Narrativen‘ – und bringt seine Perspektiven in den fachlichen und gesellschaftlichen Diskurs ein.
Aktuell (2025) ist er unabhängiges Mitglied im Expertenbeirat von KN:IX connect | Verbund Islamismusprävention und Demokratieförderung.
Inklusiv gedacht
Damit auch Jugendliche mit einer Behinderung teilhaben können, haben wir hier einige Tipps zusammengestellt:
- Informationen in verschiedenen Formaten anbieten, z. B. Verwendung von Einfacher Sprache, visuelle Symbole / Piktogramme und Hilfsmittel, Gebärdensprache.
- Medieninhalte barrierefrei gestalten, z. B. durch Untertitel und Audiodeskription. Dabei darauf achten, dass Untertitel und Hintergrund genug Kontrast haben, damit die Untertitel deutlich zu lesen sind.
- Weitere Informationen und Hinweise für die inklusive Gestaltung von Medienprojekten:
- Netzwerk Inklusion mit Medien (nimm!): www.inklusive-medienarbeit.de
- nimm!-Akademie: www.nimm-akademie.nrw
- Tool-Tipps bei Instagram unter @deinnimm