Millionen Menschen in Deutschland nutzen Messenger-Dienste, wie WhatsApp, für ihre Kommunikation und gern für das Versenden von Bildern und Videos an Freunde und Bekannte. Es lässt sich trefflich über Sinn und Unsinn der Nutzung, besonders der Meta-Dienste, streiten, aber es ist nun mal so. Erstaunlich ist, dass die Pläne der EU-Kommission zu Chatkontrolle ein so geringes Interesse bei diesen Menschen finden.

Ein etwas hinkender Vergleich

Trotz ständiger Rückgänge im privaten Briefverkehr, würde wohl ein Gesetzentwurf, der das Öffnen aller Briefe, in denen scheinbar Fotografien versendet werden, und deren Kontrolle durch Postbedienstete einen kollektiven Aufschrei erzeugen. „Rettet das Briefgeheimnis“ oder „Keine Stasi-Methoden“ wären Schlagzeilen von BILD und anderen Medien. Aber es geht ja scheinbar nur um Kommunikation in „diesem Internet“ und außerdem macht die Kontrolle ja eine „künstliche Intelligenz“ und kein Mensch.

Schließlich soll die Chatkontrolle ja unsere Kinder vor Missbrauch schützen und CSMA (child sexual abuse material“, also Aufnahmen sexualisierter Gewalt an Minderjährigen auffinden.

Kann künstliche Intelligenz (KI) das?

Glaubt man der EU-Kommission, dann kann sie das mit einer Fehlerquote von 10 %. Klingt nicht viel, aber wenn man als Nutzer Urlaubsfotos mit seinen Kindern vom FKK-Strand versendet, dann wird statistisch jedes zehnte Bild als Kinderpornografie erkannt. Die EU-Kommission findet das nicht schlimm, die eventuell falsch-positiven Bilder werden ja dann durch Menschen geprüft.

Damit wären wir dann wieder beim oben beschriebenen Problem: Menschen schauen Deine privaten Bilder an, die Du im Vertrauen auf die End-to-End-Verschlüsselung (E2E-Encryption) von WhatsApp (die ausdrücklich verspricht, dass nur Sender und Empfänger diese sehen können) an Deine Familie geschickt hast.

E2E-Encryption

Die End-to-End-Verschlüsselung ist den Sicherheitsbehörden ein Dorn im Auge, wie schon 2020 in der Vorlage des „Digital Services Act“, mit dem vorgeblich weitere Beschlüsse zur Verbesserung der inneren und äußeren Sicherheit erreicht werden sollten, zu sehen war. Auch hier ging es um das Aushebeln der Verschlüsselung zwischen den Nutzern, durch die Strafverfolgungsbehörden.

Ein Problem bei diesem Ansatz ist: Wenn die Strafverfolgungsbehörden die Verschlüsselung „knacken“ können, dann können das auch andere, selbst wenn die Behörden alle erdenklichen Schutzmaßnahmen treffen.

Ich habe das damals in Form eines Gleichnisses beschrieben: „Sie bauen ein Haus und sichern es bestmöglich mit baulichen und technischen Mitteln gegen Einbrecher. Nun verlangt aber plötzlich die Polizei, dass Sie zur Erhöhung der allgemeinen Sicherheit entweder eine einfache Brettertür am Hintereingang anbringen, damit, im Falle Sie werden straffällig, die Polizei sich nicht von der gesicherten Vordertür beim Eindringen aufhalten lassen muss. Oder Sie müssen der Polizei, aus gleichem Grund, einen Generalschlüssel für Ihr Haus und Ihren Tresor geben. Diese werden dann in einem Blechkasten an der Außenwand des Polizeireviers aufbewahrt. Die genaue Lage der Hintertür und des Schlüsselkastens unterliegen selbstverständlich strikter Geheimhaltung.“

Da fühlt man sich doch gleich sicher, oder?

Einige für mich große Probleme

1. Die Chatkontrolle stellt ausnahmslos alle Menschen, die von ihr betroffene Messenger nutzen, unter Generalverdacht und überwacht sie. Das ist grundrechtswidrig.
2. Die Aushebelung der End-to-End-Verschlüsselung und der KI-basierten Auswertung lässt technisch zu, dass in kurzer Zeit auf andere Inhalte gescannt wird. Also wie in China, wo bei WeChat Inhalte mit Stichwort „Tiananmen-Massaker“ gemeldet und gelöscht werden.
3. Die Chatkontrolle hebelt auch das Anwaltsgeheimnis, das Presserecht und das Arztgeheimnis aus. Wenn Ihr Telefon überwacht wird, dann müssen die Ermittler „auflegen“, wenn Sie mit dem Anwalt, dem Arzt oder einem Journalisten sprechen. Die KI legt nicht auf und die Chatkontrolle gilt, früher oder später, nicht nur für WhatsApp, sondern auch für vermeintlich sichere Messenger.
4. Die vermeintlich geringe Fehlerquote lässt für Nutzer dramatische Konsequenzen befürchten. Das zeigen zwei Beispiele aus den USA.
5. Eine anlasslose Überwachung aller Menschen, mit einer Fehlerquote von 10 %, bei Zerstörung der sicheren Kommunikation ist unverhältnismäßig.

Was tun gegen Kindesmissbrauch?

Meiner Meinung nach gilt es, die normale Arbeit der Sicherheits- und Strafverfolgungsbehörden zu stärken. Ein großer Erfolg dieser, mit regulären Mitteln erreicht, war ja die Zerschlagung der Plattform „boystown“ im Darknet. Hier gilt es trotzdem einige Regeln zu verschärfen. So wurden, trotz Stilllegung der Plattform, die kinderpornografischen Inhalte erst nach fast einem Jahr gelöscht. Diese waren über Direkt-Links weiter erreichbar und zogen wahrscheinlich auf andere Darknet-Plattformen um. Das darf nicht wieder passieren.

Was will ich mit diesem Artikel erreichen?

Wahrscheinlich werden mir Insider Verkürzungen und Simplifizierungen des Problems vorwerfen, das nehme ich gern in Kauf. Ich möchte die „normalen“ Messenger-nutzenden-Menschen auf die Gefahren der Chatkontrolle hinweisen. Ich möchte, dass eine breite Masse sich mit diesem Thema beschäftigt. Kurz gesagt: Ich wollte es Euch gesagt haben, damit ihr keine Ausrede mehr habt.

Empfohlen auf LZ

So können Sie die Berichterstattung der Leipziger Zeitung unterstützen:

Redaktion über einen freien Förderbetrag senden.
oder

Keine Kommentare bisher

Schreiben Sie einen Kommentar