Kategorien
Interwebs InTheNews

„Chatkontrolle“: Nancy Faeser lehnt anlasslose Kontrolle privater Kommunikation ab – EU-Kommission schafft Tatsachen (Update 22:57 Uhr)

Die Bundesinnenministerin will den Kampf gegen Kinderpornografie verstärken. Den Vorschlag der EU-Kommission zur anlasslosen Totalüberwachung privater und verschlüsselter Kommunikation lehnt sie ab. Derweil schafft die EU-Kommission Tatsachen.

„Jede private Nachricht anlasslos zu kontrollieren, halte ich nicht für vereinbar mit unseren Freiheitsrechten“, sagte Bundesinnenministerin Nancy Faeser der Bild am Sonntag.

Missbrauchsbilder würden vor allem in Foren und auf Darknet-Plattformen geteilt und vermarktet. „Genau diese müssen wir konsequent im Blick haben, die Täter überführen und die Plattformen abschalten. Wird dort Material entdeckt, muss der Anbieter sofort die Ermittlungsbehörden informieren, damit die umgehend tätig werden können.“

Damit reiht sich Faeser nach anfänglicher Euphorie ob des Entwurfs ein in die Reihe derjeniger Politiker, die den Entwurf der EU-Kommission kritisch sehen. Darunter Digitalminister Wissing und zuletzt Justizminister Buschmann.

Quelle: Zeit

Derweil berichtet der österreichische ORF-Sender FM4, die Plane seien schon weiter gediehen, als es der Entwurf der Verordnung vermuten lasse. Die vorgesehene neue EU-Behörde in Den Haag mit etwa 100 Mitarbeitern namens „EU Centre“ solle ein neues Datennetz mit Knoten in allen Mitgliedsstaaten aufbauen und betreiben. Dieser Prozess sei bereits angelaufen, denn die Kommission habe einen Fonds zum Netzaufbau in den Mitgliedsstaaten eingerichtet. Dieses Netz von Datenknoten stelle die Hashes bereit, die von den Providern verplichtend genutzt werden müssen.

Mit diesem Netz werden vollendete Tatsachen gesetzt, obwohl der Text im EU-Parlament noch nicht einmal vorliegt. Der Aufbau sei schon jetzt notwendig, da diese Datenbanken ja fertig sein müssten, sobald die Verordnung in Kraft trete, wird argumentiert. Dieser nonchalante Umgang der Kommission mit der eigenen Gesetzgebung zieht sich wie ein roter Faden durch den Text. „Das EU-Zentrum wird Datenbanken mit Indikatoren von sexuellem Missbrauch an Kindern einrichten und betreiben, die alle Provider verpflichtend nützen müssen, um einem Durchsuchungsbefehl Folge zu leisten“, heißt es da.

Darüber hinaus sei auch die KI bereits seit langer Zeit in Arbeit, mit der die Provider nach Kinderpornographie und Grooming fanden sollen. Bei FM4 heißt es dazu:

An diesen nationalen Kontaktstellen landet das gesamte Material, das von den Providern über das Netz abgeliefert wird, sie müssen ebenfalls über die nötigen Softwaretools verfügen, wie auch Hardware und vor allem technisches Personal. Die Gelder dafür kommen aus einem anderen Topf, nämlich der Forschungsförderung der Kommission. In den vergangen Jahren wurden etwa ein Dutzend KI-Forschungsprojekte für Strafverfolger mit mehr 100 Millionen Euro gefördert.

Dazu zählten Tools wie „Infinity“ und „Aida“, letzteres ein „integriertes, modulares und flexibles Framework“, das „Cybercrime und terroristische Aktivitäten identifiziert, analysiert, bekämpft und verhindert“.

Aktuell werden im Rahmen eines Pilotprojekts in mindestens zwei Innenministerien des EU-Raums solche Analyse-Tool auf „echte, großdimensionierte Datensätze“ losgelassen, um die Algorithmen zu trainieren. Mit diesen Projekten wurden von der Kommission also ebenfalls vollendete Tatsachen geschaffen und das seit Jahren. Diese Verordnung wurde nämlich seit Langem sorgfältig geplant.

https://fm4.orf.at/stories/3024478/

Wem das zu technisch war:

Es geht bei der Überwachung der Kommunikation darum, Bilder und andere Inhalte ausfindig zu machen, die Kinderpornografie enthalten. Solche Inhalte bestehen aus Dateien oder im Falle von Grooming aus Text.

Die Dateien werden in eine eindeutige Zeichenkette umgewandelt, einen Hash, der in einer Datenbank gespeichert wird. Über das geplante Netzwerk greifen die Provider auf ebendiese Datenbank zu, die Überwachungssoftware erstellt aus Bildern und Videos im Chat nach demselben Verfahren eine eindeutige Zeichenkette und gleicht ab, ob der Hash mit einem in der Datenbank übereinstimmt. Wenn ja, schlägt sie Alarm.

Einige Dienste im Internet machen dies bereits auf freiwilliger Basis.

Das Hauptproblem hier besteht zum einen darin, dass es mit der Freiwilligkeit vorbei ist, andererseits darin, dass eine künstliche Intelligenz (KI), im Grunde eine Software, selbstständig neue Bilder und Inhalte dieser Art erkennen und als Hash in der Datenbank speichern soll. Dadurch kann es vermehrt zu Fehlalarmen kommen, da die KI auch falsch liegen kann, das wäre dann eine falsch-positive Meldung, die dennoch ggf. automatisiert zur Anzeige gebracht würde.

Um nicht eindeutige Fälle zu prüfen müssen Mitarbeiter beim Provider den Fall sogar manuell überprüfen, bekommen also die Bilder und Inhalte zu sehen. Auch die Urlaubsbilder vom Strand.

Ein weiteres Problem ist, dass für diesen Vorgang entweder die Verschlüsselung aufgehoben oder aber vor der Verschlüsselung gescannt werden muss. Auch für die Erkennung von Grooming, von sexuellen Anbandelungen mit Minderjährigen per Chat, muss die Software den unverschlusselten Text scannen können und ggf. ein Mitarbeiter ihn lesen in Zweifelsfällen.

Diese Mitarbeiter sind keine Polizisten oder Staatsanwälte. Im Zweifel werden hier also ggf. strafrechtliche Bewertungen in die Hände juristischer Laien gelegt. Die endgültige Abwägung geschieht zwar vor Gericht, jedoch ist dann der Schaden ggf. schon angerichtet.

Obwohl dies alles bisher nur als Entwurf exisitiert und noch nicht mal Gesetz oder Verordnung ist, hat die EU-Kommission damit begonnen, die Datenbank und die Anbindung daran aufzubauen sowie die notwendige Software zu erstellen. Und es steht zu erwarten, dass es nicht beim Kampf gegen Kindesmissbrauch bleibt. Diese Überwachungsinfrastruktur kann – ggf. sogar ohne demokratische Legitimation – für weitere Verfahren eingesetzt werden, Terrorismus, aber auch für politisch oder ideologisch unliebsame Äußerungen, was ein Kennzeichen jeden totalitären Staatensystems ist.