Sind TikTok, Instagram und Co. schädlich für Kinder? Auch ich muss eindeutig, fast schon zwanghaft, mit „Ja“ antworten. Ist aber ein Social-Media-Verbot für Kinder die richtige Lösung? Da fällt die Antwort aus mehreren Gründen schon schwerer. Es gibt Argumente für dieses Verbot und welche dagegen. Ich will hier meine eigenen vorbringen und lasse auch gern deren Entkräftung durch sinnvolle Kommentare zu.
Australien als Vorreiter
Australien hat als erstes Land dieses Verbot eingeführt und durchgesetzt. Lassen wir eine Meldung von tagesschau.de auf uns wirken: „Australien hatte als erstes Land weltweit eine Altersbeschränkung für die Nutzung von Social-Media-Portalen eingeführt. Und schon die ersten Wochen zeigen: Die Betreiber halten sich an das Verbot und haben Millionen Accounts deaktiviert.“
Wichtig hierbei ist, dass die Plattformbetreiber schnell in der Lage waren, die Konten von Kindern zu identifizieren und zu sperren. Die im Artikel genannten Plattformen Instagram, TikTok, Snapchat, Facebook, YouTube, X, Reddit und Twitch unternehmen laut der zuständigen Behörde „ernsthafte Anstrengungen“, um Minderjährigen den Zugang zu verwehren.
Das lassen wir mal im Raum stehen, eine Ergänzung ist aber wichtig: Es bleibt den Plattformen überlassen, wie die Altersverifikation durchgeführt wird.
Springen wir an dieser Stelle nach Deutschland.
Die SPD hat einen Vorschlag
„Für Kinder bis 14 Jahre soll demnach ein vollständiges Verbot von Social-Media-Plattformen gelten. Die Anbieter sollen verpflichtet werden, den Zugang ‚technisch wirksam‘ zu unterbieten. Verstöße sollen bestraft werden“, schreibt tagesschau.de und beruft sich auf ein Positionspapier der SPD, welches ihnen vorliegt.
Selbstverständlich überlässt man auch hier den Plattformen, wie sie das Verbot „technisch wirksam“ durchsetzen. Im zweiten Teil, des beschränkten Zugangs für Jugendliche zwischen 14 und 16 Jahren, hat sich die SPD die EUDI-Wallet der Erziehungsberechtigten als Verifikationsmethode festgelegt. Für diese Alterskohorte solle es dann eine Jugendversion geben.
„Diese Jugendversion soll bestimmte Anforderungen erfüllen. Algorithmisch gesteuerte Feeds und Empfehlungssysteme solle es für diese Altersgruppe nicht geben und auch keine personalisierte Inhalteausspielung. Zudem sollen suchtverstärkende Funktionen wie Endlos-Scrollen, automatisches Abspielen von Inhalten, Push-Benachrichtigungen, Gamifizierung oder Belohnungssysteme auf Grundlage intensiver oder dauerhafter Nutzung unterbunden werden.“
Eine Zwischenüberschrift im Artikel lautet „Mehr Verantwortung für Plattformen“, ich würde das anders nennen.
Mehr Rechte und Daten für die Plattformen
Wenn wir den Kinder- und Jugendschutz in den sozialen Medien, der dringend erforderlich ist, den Plattformen überlassen, dann geben wir ihnen die große Chance, noch mehr Daten zu sammeln.
Momentan haben diese zumindest eine mobile Rufnummer, eine E-Mail-Adresse und ein Geburtsdatum. Wenn man letzteres ändern will, muss man sich, beispielsweise bei Instagram, schon jetzt mit einem Personaldokument verifizieren. Das reichte wohl in Australien, um Accounts von Kindern zu sperren.
Wie setzt man am effektivsten den Ausschluss von Kindern und Jugendlichen durch? Man verlangt von allen Nutzern eine Verifikation!
Das ist am deutlichsten bei der Jugendversion zu sehen: Der Plattformbetreiber erhält nicht nur die Daten des Jugendlichen, sondern auch die der Erziehungsberechtigten, auch von denen, die diese Plattform nicht nutzen. Wie erkennt der Plattformbetreiber, ob der Erwachsene, der die Verifikation vornimmt, auch Erziehungsberechtigter ist? Müssen in der EUDI-Wallet die Geburtsurkunden der Kinder hinterlegt sein?
Moment, das reicht ja nicht, vielleicht gab es eine Scheidung und eine Festlegung des Sorgerechts auf ein Elternteil. Vielleicht genügt am Ende auch die Verifikation durch den großen Bruder oder die Großeltern, wenn diese der KI plausibel erscheint. Oder meinen die Protagonisten des Verbots, die Prüfung würde händisch durchgeführt?
Was wäre die Alternative zum Verbot?
Wenn man die Plattformen verpflichten kann, dass es für Jugendliche algorithmisch gesteuerten Feeds und Empfehlungssysteme, personalisierte Inhalteausspielung, suchtverstärkende Funktionen wie Endlos-Scrollen, automatisches Abspielen von Inhalten, Push-Benachrichtigungen, Gamifizierung oder Belohnungssysteme auf Grundlage intensiver oder dauerhafter Nutzung geben darf, warum nicht gleich für alle Nutzer?
Warum nicht Plattformen unterstützen, die schon jetzt so vorgehen? Ist es die Angst vor den Plattformen aus den USA und China, deren Geschäftsmodelle dadurch ins Wanken gerieten?
Fazit: Wenn es, wie in Australien, möglich ist, die Kinder zu identifizieren und auszusperren, wenn es möglich sein soll, eine „Jugendversion“ ohne toxische Funktionen zu bauen, warum erscheint es dann unmöglich, die sozialen Medien generell umzubauen?
Ist es die einzige Möglichkeit, unsere Kinder zu schützen, deren Ausschluss, verbunden mit weiteren Möglichkeiten zum Sammeln unserer Daten für die Plattformen, die wir eigentlich regulieren müssen?Vielleicht ist es aber auch nur die Gelegenheit, ganz ohne Klarnamenpflicht, die Plattformbetreiber zu zwingen, alle Nutzer eindeutig identifizierbar zu machen?
Die Frage aus der Überschrift „Social-Media-Verbot für Kinder: Ist das gut, oder kann das weg?“ beantworte ich für mich mit „kann weg!“
Empfohlen auf LZ
So können Sie die Berichterstattung der Leipziger Zeitung unterstützen:











Keine Kommentare bisher