Blogs

Große Resonanz: Mehr als 100.000 Menschen haben Petition gegen Chatkontrolle unterschrieben

netzpolitik.org - vor 2 Stunden 21 Minuten
(Symbolbild) – Alle Rechte vorbehalten IMAGO / Panthermedia

Die von der EU-Kommission vorgestellten Pläne zur Bekämpfung von Kindesmissbrauch sorgen in Deutschland für Widerspruch. Eine von mehreren Bürgerrechtsinitiativen zusammen mit Campact initiierte Petition hat innerhalb eines Tages mehr als 100.000 Unterschriften bekommen.

Die Pläne der EU-Kommission sehen vor, dass Behörden die Anbieter von Diensten wie WhatsApp oder Signal künftig zum Durchleuchten von privaten Nachrichten auf verdächtige Texte, Bilder oder Videos verpflichten können. Das Vorhaben der EU-Kommission stellt aus Sicht von Kritiker:innen einen massiven Eingriff in die Privatsphäre dar und bedrohe Grundrechte. Es wird als „Chatkontrolle“ bezeichnet. Auch Mitglieder der Bundesregierung äußern sich kritisch gegenüber den EU-Plänen.

Durch ihren Vorschlag will die EU-Kommission ein neues „EU-Zentrum gegen Kindesmissbrauch“ in Den Haag schaffen. Onlinedienste dürfen gezwungen werden, die Kommunikation ihrer Nutzer:innen zu scannen, wenn sie eine entsprechende Anordnung der Behörden bekommen haben. Finden sie verdächtige Aufnahmen oder Texte, müssen sie die Inhalte an das EU-Zentrum weiterleiten.

Das kann auch verschlüsselte Messenger betreffen. Die EU-Kommission will Anbieter nicht nur dazu zwingen können, bereits bekannte Bilder oder Videos zu erkennen. Suchen sollen sie auch nach neuen, verdächtigen Aufnahmen und nach „Cybergrooming“. So nennt man es, wenn Erwachsene sexuellen Kontakt zu Minderjährigen anbahnen. In der Praxis heißt das, dass Anbieter praktisch die gesamte Kommunikation ihrer Nutzer:innen auswerten müssten.

„440 Millionen EU-Bürger*innen unter Generalverdacht“

Die Unterschriftensammlung richtet sich an Bundesinnenministerin Nancy Faeser (SPD), die sich bislang nicht ablehnend gegenüber dem Gesetzespaket geäußert hat. In der Petition heißt es:

Das Kinderschutzpaket der EU-Kommission stellt über 440 Millionen EU-Bürger*innen unter Generalverdacht. Statt die Verbreitung illegaler Inhalte zu unterbinden, setzt es das Recht auf Privatsphäre außer Kraft. Treten Sie im Ministerrat für den Schutz unserer Grundrechte, sichere Kommunikation und effektive Mittel zum Schutz von Kindern ein. Sorgen Sie dafür, dass…  

… private Kommunikation in Chats und Messenger-Diensten in der EU nicht anlasslos und automatisiert überwacht wird. Dienstanbieter dürfen nicht dazu befugt und schon gar nicht dazu verpflichtet werden, private Kommunikation ihrer Nutzer*innen zu scannen.

… ein Recht auf Verschlüsselung EU-weit eingeführt wird. Überwachungstechniken, wie Client Side Scanning (CSS), die die Ende-zu-Ende-Verschlüsselung unterlaufen, müssen ausgeschlossen werden.

… gemeldete Inhalte gezielt verfolgt und gelöscht werden.

Der Petition gehen erste Proteste gegen das Vorhaben voraus. Am vergangenen Mittwoch hatten erstmals auch Menschen auf der Straße gegen die Kommissionspläne demonstriert.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Massenüberwachung: Digitalminister Wissing: Chatkontrolle „nicht hinnehmbar“

netzpolitik.org - vor 4 Stunden 39 Minuten
Volker Wissing (FDP): „Recht auf Verschlüsselung“ (Symbolbild) – Wissing: IMAGO / Political-MomentsSmartphone: IMAGO / YAY Images, Montage: netzpolitik.org

Nachdem die EU-Kommission vergangene Woche ihren Entwurf zur sogenannten Chatkontrolle vorgelegt hat, gibt es weitere Kritik an dem Vorhaben. Verkehrs- und Digitalminister Volker Wissing (FDP) schreibt heute in einem Statement: „Allgemeine Chatkontrollen sind nicht hinnehmbar“. Es gebe ein Recht auf Verschlüsselung.

Die EU-Kommission verlangt in ihrem Entwurf, dass einige Online-Anbieter auch private Chats durchleuchten müssen, um Aufnahmen sexualisierter Gewalt gegen Kinder zu suchen. Verdächtige Inhalte würden an Behörden weitergeleitet. Auf den Vorstoß gab es scharfe Kritik aus Zivilgesellschaft und Politik.

„Einige der Vorschläge der Kommission beunruhigen mich, weil sie einen Eingriff in den geschützten Raum der Vertraulichkeit der Kommunikation darstellen könnten“, schreibt nun Digitalminister Wissing. Der Schutz dieser Vertraulichkeit sei ein Grundrecht. Auch das Berufsgeheimnis sei betroffen. Konkret nennt Wissing Anwält:innen, Ärzt:innen und Opferberatungsstellen – also Menschen, die besonders vertrauliche Inhalte mit teils vulnerablen Personen austauschen.

Wissing: Unbescholtene Bürger:innen nicht verdächtigen

Es sei zudem eine offene Frage, wie man mit falschen Verdachtsmeldungen umgehe, so Wissing weiter. Der Hintergrund: Wenn Anbieter Abermillionen Nachrichten automatisch scannen müssen, dann bedeuten selbst geringe Fehlerraten zahlreiche falsche Verdächtigungen. „Es darf nicht passieren, dass unbescholtene Bürgerinnen und Bürger unbegründet des Kindesmissbrauchs verdächtigt werden“, schreibt Wissing.

Kritisch geäußert hat sich auch der Bundestagsabgeordnete Jens Zimmermann, digitalpolitischer Sprecher der SPD. Vergangene Woche schrieb er, bei den kommenden Verhandlungen sei der Koalitionsvertrag die Maßgabe. Dort hätten die Ampelparteien „allgemeine Überwachungspflichten und Maßnahmen zum Scannen privater Kommunikation ausdrücklich ausgeschlossen“ und „ein Recht auf Verschlüsselung vereinbart“.

Auch im EU-Parlament gibt es scharfe Kritik. Der innenpolitische Sprecher der FDP im Parlament, Moritz Körner, warnte vor dem Tod des digitalen Briefgeheimnisses und schrieb: „Diese Stasi 2.0 ist abzulehnen.“ Stattdessen fordert er mehr Investitionen in die Ausstattung der Polizei, die Europäische Polizeibehörde Europol und die Zusammenarbeit der Behörden. „Auch Jugendämter müssen effektiver zusammenarbeiten und konsequenter bei wirklichen Verdachtsfällen vorgehen.“

Missbrauchsbeauftragte: stärkerer Fokus auf Prävention Kerstin Claus: „nicht immer jedem einzelnen Bild hinterherlaufen“ - IMAGO / Reiner Zensen

Am heutigen Dienstag hat sich auch die neue Missbrauchsbeauftragte der Bundesregierung, Kerstin Claus, zum Entwurf der EU-Kommission geäußert. Die unabhängige Beauftragte wird von der Bundesregierung berufen. Sie kritisierte den Schwerpunkt des EU-Vorhabens. „Wir hätten uns gewünscht, dass es noch einen stärkeren Fokus auf präventive Maßnahmen auch bei einem EU-Ansatz gibt“, sagte sie in einer Pressekonferenz.

Claus kommentierte auch Ermittlungen wegen Aufnahmen sexualisierter Gewalt. Bei Behörden gebe es „Berge an Datenträgern.“ Um das Problem effektiv zu bekämpfen, müsse es um die Netzwerke dahinter gehen. Claus würde sich wünschen, dass Ermittler:innen „nicht immer jedem einzelnen Bild hinterherlaufen“, sondern auf Knotenpunkte schauen. Mehr über die Fülle an Hinweisen, die etwa das BKA erreichen, haben wir hier berichtet.

Die Missbrauchsbeauftragte bedauerte, dass sich die bisherige Berichterstattung auf das Gegeneinander von Datenschutz und Kinderschutz fokussiere. Es sei gut, einen gemeinsamen Rechtsrahmen zu schaffen. „Natürlich braucht es einen europäischen Ansatz zum Schutz von Kindern“. Sie werde mit dem Datenschutzbeauftragten der Bundesregierung in Austausch treten.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Hinhaltetaktik bei iPhone-Ladebuchsen: Apples ganz schön freches Zugeständnis

netzpolitik.org - 16 Mai, 2022 - 15:03
Ein Bouquet an Ladegeräten: Die EU will Standards setzen – Gemeinfrei-ähnlich freigegeben durch unsplash.com Lucian Alexe

Es ist ein Thema, das Apple-Führungskräfte ziemlich wütend macht. Vor Jahren stellte ich bei einem Hintergrundgespräch mit einer Produktmanager:in aus der Apple-Zentrale in Kalifornien eine ziemlich simple Frage. Apple verbaut sein einem Jahrzehnt in jedes Handy eine eigene Ladebuchse, einen Anschluss namens Lightning. Über eine Milliarde Geräte mit dem Anschluss hat der Konzern verkauft. Wer ein iPhone laden will, braucht daher einen eigenen Stecker.

Ich fragte nun etwas frech, ob Apple mit seiner Entscheidung gegen einheitliche USB-Buchsen in seinen Handys wirklich seinen eigenen vollmundigen Umweltschutzversprechen entspricht („The products you love also love the planet„). Denn wer für ein neues iPhone eigene Stecker braucht, wirft das alte USB-Ladegerät oft weg oder lässt es in der Schublade verstauben. Die EU-Kommission schätzte vor einigen Jahren, dass Apples Alleingang bei Ladeanschlüssen wesentlich zu zehntausenden Tonnen an Elektromüll aus alten Handyladegeräten beiträgt.

Die Europäische Union hat das Thema einheitliche Standards bei Ladegeräten seit mehr als einem Jahrzehnt am Schirm. Schon 2009 brachte die EU-Kommission die größten Handyhersteller gemeinsam an den Verhandlungstisch. Damals gab es noch dutzende verschiedene Stecker. Ein Agreement zwischen den Konzernen machte dem ein Ende, fast alle verbauen seither einheitliche USB-Stecker: Zunächst vor allem Micro-USB, heute ist USB-C der De-facto-Standard.

2009 versprach EU-Kommissar Günter Verheugen ein einheitliches Ladegerät - Alle Rechte vorbehalten European Union

Der einzige Konzern, der nicht mitzog, war Apple. Statt USB verbaut der Konzern bis heute Lightning. Und das, obwohl Apple in seinen Tablets und Laptops selbst USB-C verwendet. Grund für das Festhalten am eigenen Anschluss dürfte sein, dass Apple Lightning patentiert hat – Hersteller etwa aus Asien, die Lightning-Ladegeräte produzieren, müssen Apple dafür Lizenzgebühren zahlen.

Obwohl dies in Europa immer wieder heftig kritisiert wurde, verhinderte Apple mit Hinhaltetaktiken lange Jahre erfolgreich ein gesetzliches Vorgehen der EU. (Wie das Lobbying funktioniert, habe ich vor ein paar Jahren in einer ausführlichen Investigativrecherche beschrieben.) Apple argumentiert bis heute, einheitliche Ladeanschlüsse seien ein Innovationshemmnis

Apple will frühestens 2023 umstellen

Erst im Vorjahr schlug die Kommission schließlich vor, durch ein neues Gesetz ein einheitliches Ladegerät zu schaffen. Das soll auch gleich für Tablets, Smartwatches und viele andere elektronische Geräte gelten – noch wird über die konkrete Ausgestaltung verhandelt.

Der Druck der EU dürfte aber bereits wirken: Laut Branchenanalysten testet Apple inzwischen iPhones mit USB-C-Ladebuchsen. Allerdings will der Konzern im neuesten Modell, das dieses Jahr vorgestellt wird, weiterhin Lightning verbauen. Frühestens nächstes Jahr will Apple umstellen, berichtet Bloomberg.

Die Umstellung ergibt technisch Sinn, da Apple bereits in anderen Geräten USB-C verbaut. Der USB-Stecker erlaubt schnellere Datentransfers und raschere Akkuladung als Lightning. Der Schritt Apples ist also eine Win-Win-Situation für Nutzer:innen und die Umwelt. Er wirft aber auch die Frage auf: Warum erst jetzt? Mit seiner rund 13 Jahre andauernden Hinhaltekampagne hat Apple viel Zeit verschwendet und seine eigene Glaubwürdigkeit bei Umweltversprechen aufs Spiel gesetzt.

Wofür? Für ein paar Millionen Euro aus Lizenzgebühren? Um die angeblich überlegenen Eigenentwicklungen zu demonstrieren? Die Saga vom einheitlichen Ladegerät ist ein Beispiel für die Überheblichkeit eines großen Technologiekonzerns, der sich lange Zeit selbst die Regeln schrieb. Und zugleich ein Beispiel dafür, wie die EU endlich Gesetze schafft, um technische Entwicklung ökologisch nachhaltiger zu gestalten. Mehr davon!

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Verfassungsschutzbericht: Immer mehr Rechtsextreme in Sicherheitsbehörden

netzpolitik.org - 16 Mai, 2022 - 13:10
Die Sicherheitsbehörden haben ein Rechtsextremismusproblem – Gemeinfrei-ähnlich freigegeben durch unsplash.com Mike Powell

Der Inlandsgeheimdienst Bundesamt für Verfassungsschutz (BfV) hat am vergangenen Freitag den aktuellen Lagebericht Rechtsextremisten, „Reichsbürger“ und „Selbstverwalter“ in Sicherheitsbehörden vorgestellt. Laut dem Bericht hätten sich bei 327 Personen in deutschen Sicherheitsbehörden „tatsächliche Anhaltspunkte für Bestrebungen gegen die freiheitliche demokratische Grundordnung“ ergeben. Sie hatten laut Verfassungsschutz entweder Bezug zu Rechtsextremismus oder dem sogenannten Reichsbürgertum. Im ersten Lagebericht aus dem Jahr 2020 waren es noch 34 Fälle.

Die Zahl hat sich damit seit 2020 fast verzehnfacht. Wie viele Personen tatsächlich entsprechendes Gedankengut hegen, ist nicht bekannt. Aufgeführt sind diejenigen Fälle, die den Landes- und Bundesverfassungsschutzämtern bekannt wurden und die diese auch als problematisch einstuften. Häufig fielen Personen durch die Mitgliedschaft in entsprechenden Chatgruppen auf.

„Reichsbürger und Selbstverwalter“

Der nun veröffentlichte Bericht des Verfassungsschutzes ist eine Fortschreibung des bereits bestehenden Berichtes aus dem Jahr 2020, er erfasst die bekannten Vorfälle aus dem Zeitraum von Juli 2018 bis zum 30. Juni 2021. Im Dezember 2020 hatte die Innenministerkonferenz (IMK) beschlossen, den Lagebericht weiterzuführen. Für das Dokument hat das Bundesamt für Verfassungsschutz erstmalig auch die Phänomene „Reichsbürger“ und „Selbstverwalter“ betrachtet. Dafür wurden allen Behörden, etwa Landespolizeien, Zoll oder Bundeswehr, Fragebögen übermittelt, die ausgefüllt an den Verfassungsschutz zurückgeschickt werden sollten. Unabhängig ist der Bericht daher nicht.

In der Vergangenheit hatten Journalist:innen mehrfach rechte Verbindungen in den Sicherheitsbehörden aufgedeckt. Die Gefahr, die von Verfassungsfeinden in den Sicherheitsbehörden ausgeht, wird als besonders groß erachtet. Denn Personen, die dort arbeiten, haben oftmals Zugang zu persönlichen Daten vieler Menschen oder eine Waffenausbildung.

Chatgruppen als Netzwerke

Besonders in den Ländern spielt laut dem Bericht die Mitgliedschaft in Chatgruppen eine große Rolle. Solche Fälle wurden zuvor immer wieder aufgedeckt und machen laut dem Bericht mehr als 30 Prozent der „extremistischen Aktivitäten“ aus. In diesen Gruppen seien „unter anderem Bilder mit Kennzeichen verfassungswidriger Organisationen oder antisemitische Nachrichten verschickt“ worden.

Bei insgesamt 44 Beschäftigten auf Landes- und Bundesebene sei bekannt geworden, dass sie Mitglied einer „verfassungsschutzrelevanten“ Chatgruppe waren. Insgesamt 50 Gruppen seien dabei aufgefallen. Zudem geht der Bericht darauf ein, wie solche Netzwerke zur Gefahr werden. Die Gruppierung „Nordkreuz“ beispielsweise bildete sich aus der Chatgruppe Nord des rechtsextremen Vereins Uniter. Darin waren Angehörige der Bundeswehr und Polizei vertreten.

2018 etwa wurden im Rahmen interner Ermittlungen in der hessischen Polizei mehrere extremistische Chatgruppen aufgeflogen. Anlass dafür waren Drohschreiben mit dem Kürzel „NSU 2.0“ an Personen des öffentlichen Lebens. In den Chats leugneten die Beamt:innen nicht nur den Holocaust und hetzten gegen Minderheiten, sondern teilten auch rechtsextreme Inhalte wie Nazi-Symbole. Alle arbeiteten in einem Polizeirevier in Frankfurt am Main und wurden nach der Aufdeckung der Chatgruppe suspendiert. Die Staatsanwaltschaft erhob erst kürzlich Anklage gegen die Polizist:innen. Übersichten zeigen, dass diese Vorfälle nicht, wie ursprünglich von der Politik angenommen, Einzelfälle sind. Der Lagebericht des Verfassungsschutzes scheint dies nun zu bestätigen.

Bereits seit mehreren Jahren gibt es Kritik am Umgang der Behörden mit Verfassungsfeinden in den eigenen Reihen. Der ehemalige Bundesminister des Innern, für Bau und Heimat, Horst Seehofer hatte im Jahr 2020 jedoch eine Untersuchung zu Rassismus und Rechtsextremismus bei der Polizei verhindert. Die nun drastisch gestiegenen Zahlen sind laut Verfassungsschutz auf die „weitere Aufhellung des Dunkelfeldes extremistischer Sachverhalte im öffentlichen Dienst zurückzuführen sein“. Wissenschaftler:innen und Politiker:innen befürchten generell eine hohe Dunkelziffer von rechtsradikalen Vorfällen in den Sicherheitsbehörden.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Internet und Zivilgesellschaft: Der digitale Raum wird enger

netzpolitik.org - 16 Mai, 2022 - 11:02
Black Lives Matter ist ein Beispiel für die emanzipatorische Kraft des Netzes: Aus einem Hashtag ist eine Bewegung geworden – Gemeinfrei-ähnlich freigegeben durch unsplash.com Nicole Baster

Dieser Beitrag erschien erstmals im aktuellen „Atlas der Zivilgesellschaft“. Der Bericht zur weltweiten Lage der Grundrechte wird jährlich von Brot für die Welt veröffentlicht und beschäftigt sich dieses Jahr mit der Frage, welche Rolle Digitalisierung bei der Sicherung oder Einschränkung dieser Freiheiten spielt.

Es gibt eine alte Erzählung, die sagt: Das Internet ist unzensierbar. Die dezentrale Organisation der Infrastruktur mache sie immun gegen Kontrolle, glaubten viele. Die globale ­Vielfalt der Stimmen werde fast von allein für Demokratie sorgen, die Körperlosigkeit der Begegnungen für ein Ende von Diskriminierung. „Wir erschaffen eine Welt, in der jede:r Einzelne an jedem Ort die eigenen Überzeugungen zum Ausdruck ­bringen kann, ohne Angst, zum Schweigen oder zur Konformität ­gezwungen zu werden“, schrieb der US-Bürgerrechtler John Perry Barlow 1996 in seiner „Unabhängigkeitserklärung des Cyberspace“.

Als 15 Jahre später der Arabische Frühling anbrach, schien es, als werde diese Utopie wahr. Durch die Straßen Nordafrikas und der Arabischen Halbinsel zogen damals nicht nur Zehntausende Demonstrant:innen und der ­Geruch von Tränengas, sondern auch die Idee dezentraler und vernetzter Massenproteste. Immer mehr Menschen taten im Netz ihren Unmut über repressive Politik und die katastrophale wirtschaftliche Lage kund, verabredeten sich zu Demonstrationen und ­teilten ­Bilder davon, die die staatlichen Medien ­zurückhielten.

Für einen ­Moment sah es so aus, als würde die arabische Welt mit Hilfe digitaler Medien alle autokratischen Herrscher abschütteln.

Immer weniger Internetfreiheit

Aus heutiger Sicht weiß man: Die Hoffnung, dass die ­Aufstände die politische Struktur der Region nachhaltig demokratisieren könnten, hat sich kaum erfüllt. Aktivist:innen aus der Region wurde zudem schnell deutlich, wie euro­zentrisch die westliche Rede von „Facebook- und Twitter-­Revolutionen“ war. Soziale Medien mögen als Verstärker des Protests gewirkt haben, doch das Rückgrat der Aufstände waren lokale Strukturen und oftmals ganz analoge Netzwerke des Widerstands.

Vor allem aber wirkten die Aufstände als Weckruf für die Diktatoren dieser Welt, ihre Regime digital aufzurüsten: Sie installierten Netzsperren und bemächtigten sich der digitalen Infrastruktur, erließen Zensurgesetze und kauften im Westen Überwachungstechnologie. Wo dies schon vorher geschehen war, wurden digitale Protestposts schnell zu Beweismitteln: Unzählige Blogger:innen und Online-Aktivist:innen ­landeten im letzten Jahrzehnt im Gefängnis. Zum zwölften Mal in Folge konstatierte die NGO Freedomhouse 2021, dass die Internetfreiheit gegenüber dem Vorjahr kleiner geworden ist.

Heute wissen wir, dass das Internet beides zugleich ist: Ein Medium der Freiheit und ein Medium der Kontrolle – je nachdem, wie es technisch, sozial und politisch gestaltet wird. In vielen demokratischen Staaten etwa hat das Internet zu einer weiteren Demokratisierung der Öffentlichkeit beigetragen. So viele Menschen wie noch nie haben heute einfachen Zugang zu Wissen, Kultur und Diskursen. Damit haben sich auch die Spielräume zivilgesellschaftlicher Akteur:innen für Organisation und Mobilisierung erweitert, konnten marginalisierte Gruppen sich Gehör verschaffen.

Internet: Sowohl Hilfe als auch Gefahr

Durch das ­Hashtag-Prinzip von Social-­Media-Plattformen wie Twitter konnten beispielsweise die vielen Einzelstimmen Schwarzer US-Amerikaner:innen zu einer politischen Bewegung werden. Vernetzt durch das Schlagwort #BlackLivesMatter waren sie ein mächtiger Chor, der Alltagsrassismus und Polizeigewalt anklagt. Ein anderes Beispiel für kollektive Kraft der Hashtags sind feministische Initiativen wie #Aufschrei in Deutschland, #ShutItAllDown in Namibia  oder #MeToo weltweit. Auch wenn sich dadurch ­allein noch nicht Verhältnisse ändern: Nie zuvor konnten Menschen ihren alltäglichen Erfahrungen mit ­sexualisierter Gewalt und Diskriminierung so erfolgreich Gehör verschaffen wie heute.

Doch auch rechtspopulistische und rechtsextreme Akteur:innen wissen die neuen Möglichkeiten zu nutzen ‒ oft mit dem Ziel, jene Marginalisierten zum Schweigen zu bringen, die sich gerade erst ermächtigt sahen. Studien zeigen, dass im Netz insbesondere Frauen, queere Menschen und solche mit Migrationshintergrund angefeindet werden und sich immer öfter aus der digitalen Öffentlichkeit zurückziehen. Derweil hat wohl kein Politiker so sehr von den Sozialen Medien profitiert wie Ex-Präsident Donald Trump. Die Targeting-Werkzeuge der Plattformen halfen seinem Wahlkampf 2016, ­gezielt Schwarze US-Bürger:innen zu demobilisieren, Facebooks Algorithmen belohnten seine polarisierende Rhetorik und blanke Desin­formation mit unglaublicher Reichweite.

Dass im Ringen um die demokratische Öffentlichkeit am Ende nicht diejenigen Akteur:innen die Oberhand behalten, die die Demokratisierung am liebsten rückgängig machen würden, ist keineswegs ausgemacht. Die Situation wird dadurch erschwert, dass mit den Sozialen Medien die wichtigsten Arenen der Netzöffentlichkeit von wenigen hyperkapitalistischen Konzernen betrieben werden. Sie haben Diskurse lange Zeit nur nach eigenem Gutdünken moderiert, geleitet allein von Profitstreben. Seit Jahren ringt die Politik deshalb darum, wie Plattformkonzerne und mit ihnen die digitale Öffentlichkeit zu regulieren sind.

Nicht selten schießen sie dabei mit hehren Absichten über das Ziel hinaus. Deutschland etwa erhöht über das Netzwerkdurchsetzungsgesetz seit 2017 den Druck auf Facebook und Co., rechtswidrige Inhalte schnell zu löschen. Doch welche ­Äußerungen verboten sind und welche nicht, ist oft diffizil. Das abzuwägen, bleiben den Klickarbeiter:innen der Plattformen oft nur wenige Sekunden, im Zweifelsfall löschen sie lieber zu viel. Erst 2021 verpflichtete eine Reform des Gesetzes die Unternehmen, ihren Nutzer:innen geordnete Widerspruchsverfahren zu ermöglichen und zu Unrecht gelöschte Inhalte wiederherzustellen.

Unterdessen werden Innenminister:innen auch in Demokratien nicht müde, die staatliche Überwachung digitaler Räume auszubauen. Sie wollen Zugang zu verschlüsselten E-Mails und Messengern, verpflichten Telefon- und Internetanbieter zur anlasslosen Vorratsdatenspeicherung von Nutzungsdaten und versuchen, mit Gesichtserkennung und biometrischer Überwachung auch die analoge Welt noch besser im Blick zu haben.

Digitaler Aufruf, analoger Protest

Diesem wachsenden Kontrolldruck zum Trotz überwiegt in vielen liberalen Demokratien die emanzipatorische Wirkung des Internets. Bürger:innen dokumentieren mit Smartphones Polizeigewalt und rassistische Übergriffe, Aktivist:innen zwingen den Staat zu Transparenz und Blogger:innen schaffen ­zivilgesellschaftliche Gegenöffentlichkeiten.

Auch die Erfolge von globalen Umweltbewegungen wie ­Fridays for Future oder Extinction Rebellion wären ohne digitale Hilfsmittel kaum denkbar. Für die Planung von Aktionen, die Organisation von Ortsgruppen und die Koordination von Forderungen sind Messenger und kollaborative Online-Tools unersetzlich. Zudem verstehen die jungen ­Klimaaktivist:innen wie kaum jemand vor ihnen, analogen Protest und Aktionen des zivilen Ungehorsams mit digitalen Medien zu verbinden.

Auch in Ländern wie Uganda und Indien streiken junge Menschen für das Klima, auch dort bedienen sie sich geschickt der Sozialen Medien. Doch während die Aktivist:innen mit Fakten überzeugen wollen, sind die Sozialen Medien in vielen Ländern des Globalen Südens zur Brutstätte von Desinformation, Hass und Gewalt geworden. Denn dort gehen die Plattformen noch weniger effektiv dagegen vor als in den USA und in Europa.

Die Facebook Papers zeigten 2021 etwa, wie der Konzern in Indien oder Äthiopien versagt, irreführende Posts und Aufrufe zu Gewalt zu unterbinden. Das Unternehmen gibt schlicht nicht genug Geld für Faktenprüfer:innen, Moderator:innen und ­algorithmische Erkennungssysteme mit den richtigen Sprachkenntnissen aus. Weil ihre sortierenden Algorithmen Inhalte belohnen, die besonders emotional und polarisierend sind, wirken sie oft wie ein Brandbeschleuniger.

Nichtsdestotrotz finden Menschen in repressiveren Staaten immer wieder Wege, die Sozialen Medien auch für ihren Wider­stand zu nutzen. Im Iran etwa, wo Frauen auf ­Instagram Fotos und Videos von sich beim Tanzen und ohne Kopftuch posteten, um gegen die sexistische Moralpolitik des Mullah-Regimes zu protestieren. Oder in Nigeria, wo sich 2020 vor allem junge Menschen unter dem Hashtag #EndSARS auf Twitter zusammenschlossen, um auf Gewalt durch die Polizei­einheit Special Anti-Robbery Squad (SARS) aufmerksam zu machen und Proteste zu organisieren.

Die Reaktion der Regierenden auf solche Aktionen ist häufig gleich: Sie nutzen ihre Macht über die Telekommunikationsinfrastruktur und lassen den Zugang zu den Diensten sperren. Im Iran sind Facebook und Twitter seit langem nicht zu erreichen, auch Instagram war zwischendurch blockiert. In Nigeria ließ Präsident Muhammadu Buhari als Reaktion auf den Protest Twitter für einige Zeit sperren, in der Türkei war ­Wikipedia über Jahre unzugänglich. Einigen Menschen gelingt es, die Sperren mit Verschlüsselungs- und Anonymisierungswerkzeugen zu umgehen, doch gegen digitalen Massenprotest sind die Netzsperren oft ein wirksames Mittel.

Technisches Katz-und-Maus-Spiel

Immer wieder greifen Regierungen zu noch drastischeren Maßnahmen und lassen das Internet im Land oder einigen Regionen gleich ganz abschalten. 155 Shutdowns dieser Art zählte die NGO Access Now allein in 2020, von Belarus über Myanmar bis nach Indien, das die Liste mit 109 Internet­abschaltungen anführt. Insgesamt summierten sich die ­Shutdowns in dem Jahr auf mehr als 3.000 Tage ‒ insbesondere vor Wahlen oder während Protesten.

Kaum maßvoller sind die in vielen Staaten erlassenen Zensurgesetze für Soziale Medien und andere digitale Räume. Diese werden zwar häufig als Maßnahmen gegen Terrorpropaganda, Cyberkriminalität oder Fake News getarnt. Doch sie zielen mit schwammig formulierten Vorgaben und drastischen Sanktionsmöglichkeiten fast immer darauf ab, den Diskurs im Netz zu kontrollieren, ohne die Dienste gleich ganz sperren zu müssen. Nicht selten berufen sich Machthaber wie der russische Präsident Vladimir Putin oder der türkische Regierungschef Recep Tayyip Erdoğan dabei explizit auf Deutschland und das Netzwerkdurchsetzungsgesetz als Vorbild. Allzu häufig fügen sich die US-Plattformkonzerne, weil sie nicht den Zugang zu lukrativen Märkten verlieren wollen.

Vervollständigt wird der Instrumentenkoffer der staatlichen Kontrolle digitaler Räume schließlich durch Überwachung. Etwa in Hongkong, wo die Demokratiebewegung ihre Proteste über verschlüsselte Messenger und Bluetooth-Kommunikation organisierte und die Geräte verhafteter ­Oppositioneller zur Analyse nach China geschickt wurden. Oder in Mexiko, wo mit dem Pegasus-Trojaner Oppositionelle, Journalist:innen und Geistliche überwacht wurden. Nicht erst seit diesem Skandal ist klar: Oft sind es Firmen aus dem Westen, auch aus Deutschland, die den Überwachungsstaat im Globalen Süden mit hochrüsten.

Die Verantwortung des Westens

Ein gutes Jahrzehnt nach dem Arabischen Frühling ist klar: Derlei vernetzte Massenproteste sind heute vielerorts kaum noch möglich. Zu fest haben die Autokraten das Internet im Griff, zu gut lassen sich digitale Technologien zur Kontrolle nutzen. Und doch blitzt das emanzipatorische Potenzial als Freiheitsmedium immer wieder auf. Viele Aktivist:innen ­liefern sich heute ein technisches Katz-und-Maus-Spiel mit den Behörden, umgehen Zensur mit Anonymisierungsdiensten und setzen auf verschlüsselte Messenger.

Dass emanzipatorische Möglichkeiten des Netzes ausgebaut werden, ist deshalb auch eine Aufgabe westlicher Staaten. Zu selten haben sie im Blick, dass sich die eigenen Regulierungsentscheidungen auf die digitalen Räume in weniger demokratischen Staaten auswirken.

Wenn etwa deutsche Behörden das Wissen über Schwachstellen in weit verbreiteten IT-Systemen horten, statt diese Sicherheitslücken zu schließen, weil sie sie für digitale Waffen benötigen, dann macht das auch Geräte von Oppositionellen in autoritären Systemen angreifbar. Wenn die Forderung europäischer Innenminister:innen nach Hintertüren zu verschlüsselten Messengern und E-Mails umgesetzt wird, dann gefährdet das auch die Kommunikationsfreiheit von Journalist:innen in repressiven Staaten. Und wenn die EU Plattformen verpflichtet, automatische Upload-Filter gegen Urheberrechtsverletzungen einzurichten, dann freuen sich illiberale Machthaber über die Etablierung einer Infrastruktur, die sich leicht für Zensur missbrauchen lässt.

Regierungen und Unternehmen in Europa und den USA tragen eine große Verantwortung für die digitalen Infrastrukturen weltweit. Wenn das Internet sein emanzipatorisches Versprechen weltweit einlösen soll, sind wir alle gefragt.

(Abdruck mit freundlicher Genehmigung von Brot für die Welt. Alle Rechte vorbehalten.)

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Neues aus dem Fernsehrat (87): Wie entwickelt das ZDF Empfehlungsalgorithmen?

netzpolitik.org - 15 Mai, 2022 - 17:46
Algorithmus. (Symbolbild) – Gemeinfrei-ähnlich freigegeben durch unsplash.com Ali Shah Lakhani

Von Juli 2016 bis Juni 2022 durfte ich den Bereich „Internet“ im ZDF-Fernsehrat vertreten, ab Juli 2022 werde ich als Mitglied des ZDF-Verwaltungsrats weiterhin mehr oder weniger regelmäßig Neues aus dem Fernsehrat berichten. Eine Serie.

Die öffentlich-rechtlichen Mediatheken verzeichnen seit Jahren kontinuierlich wachsende Zuschauerzahlen und ein immer größerer Teil von ihnen loggt sich dazu ein. Das ZDF verzeichnet inzwischen über 3 Millionen registrierte Nutzer:innen, von denen sich rund 800.000 pro Monat mindestens einmal anmelden und Inhalte nutzen. Wer sich einloggt und einen Altersnachweis erbracht hat, kann dann rund um die Uhr altersbeschränkte Inhalte konsumieren. Unabhängig von einem Altersnachweis können eingeloggte Nutzer:innen eine am Desktop begonnene Sendung am Smartphone fortsetzen und erhalten, sofern sie das möchten, personalisierte Empfehlungen.

In der ZDF-Mediathek werden Empfehlungen sowohl redaktionell als auch algorithmisch erstellt. In beiden Fällen stellt sich die Frage, wie solche Empfehlungssysteme gestaltet werden sollen, um dem demokratischen, vielfaltsfördernden Auftrag öffentlich-rechtlicher Medien gerecht zu werden. Im Rahmen dieser Reihe habe ich bereits vor drei Jahren einmal mit Charlotte Echterhoff über das Thema derart „demokratischer Algorithmen“ gesprochen.

Andreas Grün, Leiter Technologie in der ZDF Hauptredaktion Digitale Medien - Alle Rechte vorbehalten ZDF

Seit damals ist viel passiert und ich habe nach einer Präsentation im Fernsehrat-Ausschuss Telemedien Andreas Grün um ein Interview über den aktuellen Entwicklungsstand in Sachen Empfehlungsalgorithmen gebeten. Grün kam 2008 zum ZDF, nach einem Studium der Wirtschaftsinformatik an der TU Darmstadt und mehrjähriger Selbständigkeit im eigenen Start-up. Nach Tätigkeiten als Planungsingenieur in der Produktionsdirektion und als Chef vom Dienst Technik in der Hauptredaktion Digitale Medien, fungiert er dort aktuell als Leiter der Abteilung Technologie. Schwerpunkt seiner Arbeit ist die Weiterentwicklung der ZDF-Mediathek mit dem Fokus auf Architektur, Metadaten und Personalisierung.

In dem Maße, in dem Mediatheken wichtiger für die Nutzung öffentlich-rechtlicher Angebote werden, steigt auch die Bedeutung von (personalisierten) Empfehlungsalgorithmen. In welchen Bereichen arbeitet das ZDF heute schon mit solchen Empfehlungen?

Grün: Wir haben den Prozess in den vergangenen Jahren sehr ambitioniert vorangetrieben. Die ZDF-Mediathek ist heute bereits ein vielfach personalisiertes Angebot. Auf der Startseite haben wir personalisierte Empfehlungen unter „Das könnte Dich interessieren“ und „Weil Du … geschaut hast“ für alle Nutzer*innen. In der Mediathek empfehlen wir außerdem automatisiert beliebte Videos, die schon vor einer TV-Ausstrahlung verfügbar sind und weisen auf Sendungen hin, die nur noch kurz online sind. Eingeloggte Nutzer*innen haben zusätzliche Einstiege unter „Mein Programm“, hier finden sich Inhalte zum Weiterschauen oder Sendungen abonnierter Bereiche.

Um Nutzer*innen möglichst passende weitere Videos vorzuschlagen, wenn sie einen Beitrag geschaut haben, bieten wir automatisiert Empfehlungen und Folge-Videos an. Teilweise wird hier noch redaktionell kuratiert. Daneben sind Übersichtsseiten wie zdfinfo.de stark automatisiert mit algorithmischen Empfehlungen unter „Neu verfügbar bei ZDFinfo“ und „Derzeit beliebte Dokus“ sowie personalisierten Empfehlungen unter „Das könnte Dich interessieren,“ jeweils für alle Nutzer*innen. Empfehlungen sind insgesamt ein integraler Bestandteil der Mediathek und gerade über die Startseite und den Video-Player sehr präsent. Aber: Nutzer*innen, die keine Personalisierung wünschen, können sie in unserer Consent Management Platform natürlich komplett für sich abschalten.

Wie wirksam bzw. relevant für die Mediathek-Nutzung sind diese bereits etablierten Empfehlungssysteme?

Grün: Für die Mediathek ist das sogenannte Sehvolumen, also die Zeit, die Nutzer*innen bei uns verbringen, eine ganz entscheidende Währung. Gemessen daran haben die automatisierten Empfehlungen über die Jahre stark in ihrer Bedeutung zugenommen. Gerade in den nativen Apps auf Mobile und SmartTV sowie HbbTV nutzen viele Nutzer*innen den Weg über „Das könnte Dich interessieren.“ Auf diesen Plattformen kommen bis zu 50 Prozent des Sehvolumens über Empfehlungen auf der Startseite zustande.

Automatisierte Empfehlungen sind auch deshalb wirksam und relevant, weil sie mehr und breiter Inhalte kuratieren, als es manuell möglich wäre. Pro Tag erreichen rund 20 Prozent aller in der Mediathek verfügbaren Inhalte über eine automatisierte Empfehlung ihre Nutzer*innen, innerhalb von zwei Wochen nahezu die Hälfte. Das stützt unsere Annahme, dass unser Regelwerk Pluralität und Diversität der Nutzung stärkt.

Mediatheken von ARD, ZDF & Co müssen sich – auch auf netzpolitik.org – regelmäßig den Vergleich mit großen privaten Angeboten wie Netflix oder YouTube gefallen lassen. Inwieweit ähneln die Empfehlungsalgorithmen der ZDF-Mediatheken jener der privaten Konkurrenz?

Grün: Die genannten großen Anbieter lassen sich nicht vollständig in die Karten schauen, aber: Netflix, Google, Amazon Web Services (AWS) oder Meta veröffentlichen dazu auf eigenen Blogs und vor allem auf großen Fachkonferenzen, wie etwa der ACM RecSys. Das sind auch für uns sehr wichtige und wertvolle Informationsquellen. Wir nutzen ähnliche Konzepte und Algorithmen etwa in den Bereichen Natural Language Processing, session/sequenz-basierten Empfehlungen, Reinforcement Learning oder Wissensgraphen.

Mit Google oder auch AWS tauschen wir uns auch aktiv zu Algorithmen aus. Wir haben hier keine Berührungsängste, aber klare Leitlinien: Wir schreiben unsere Algorithmen selbst und nutzen nur quelloffen verfügbare Bibliotheken als Bausteine. Es gibt also keine Blackboxes oder Abhängigkeiten zu diesen Unternehmen bei den produktiv verwendeten Algorithmen.

Insgesamt können wir bei der Adaption neuer Verfahren unserer Auffassung nach nur so vorgehen, dass wir ihnen auf Basis eines tiefen Verständnisses eine klare öffentlich-rechtlich Prägung geben. So sind dann manche Verfahren bei uns erst mit einem gut begründeten Verzug im Vergleich zu den kommerziellen Anbietern im Einsatz – oder eben nicht.

Wo unterscheiden sich die ZDF-Algorithmen? Was macht für Sie einen öffentlich-rechtlichen Empfehlungsalgorithmus aus?

Grün: Wie erwähnt kennen wir die Details der Algorithmen der großen kommerziellen Anbieter nicht, daher kann ich nur über uns sprechen. Unsere Zielsetzungen leiten sich direkt aus unserem öffentlich-rechtlichen Auftrag ab. Die Grundlagen unserer Arbeit sind für die Mediathek die gleichen wie für lineares Fernsehen. Algorithmen übersetzen sie in ein entsprechendes Angebot. Ich nenne an dieser Stelle Relevanz und Vielfalt. Damit sind wir sicher an vielen Stellen nicht deckungsgleich mit einem Anbieter wie beispielsweise YouTube.

Der Bogen von unserem Auftrag bis hin zu Daten-Pipelines und den Algorithmen ist semantisch und ganz praktisch sehr weit gespannt. Wir denken, dass uns neben dem direkten Austausch mit unseren Nutzer*innen dabei spezifische Metriken helfen, öffentlich-rechtliche Werte messbar zu machen. Da geht es dann neben Reichweite und Sehvolumen vor allem um inhaltliche Diversität, aber auch, auf Ebene der einzelnen Nutzer*innen, um Größen wie Serendipität, also die Möglichkeit, algorithmisch unterstützt Nutzer*innen neue Themen und Bereiche zu eröffnen.

Das macht für mich öffentlich-rechtliche Algorithmik aus: Nutzer*innen in ihren Nutzungsbedürfnissen und persönlichen Interessen ernst nehmen, Vielfalt anbieten, anregend sein und neue Themen eröffnen.

Wenn die Förderung von Vielfalt so ein zentrales Kriterium für einen öffentlich-rechtlichen Algorithmus ist, welche Strategien werden hierfür verwendet, damit nicht immer nur mehr vom immer gleichen vorgeschlagen wird?

Grün: Generell werden alle Inhalte über Algorithmen empfohlen. Wie erwähnt sehen wir im Ergebnis einen sehr starken positiven Effekt der Algorithmen auf die aggregierte Vielfalt, also über alle Nutzer*innen hinweg. Konkret nutzen wir verschiedene Wege, um für mehr Vielfalt zu sorgen. Einmal limitieren wir die Anzahl sehr ähnlicher Inhalte in Empfehlungen, sodass nicht nur Videos einer oder weniger Sendungen angeboten werden. Dann nutzen wir beim Trainieren der Empfehlungsmodelle zunehmend längere Zeiträume und Samplings bei den Nutzungsdaten, um hier Recency Bias und Popularity Bias (es werden nur Inhalte gelernt und empfohlen, die ohnehin und vor allem in jüngster Zeit populär sind) gegenzusteuern, weil diese auch abträglich sind für die Vielfalt.

Außerdem arbeiten wir seit Anfang des Jahres auch mit Verfahren des Reinforcement Learning, bei denen wir explizit “neuere” oder eben bisher nicht oder wenig genutzte Inhalte empfehlen lassen. Es ist eine Vielzahl an einzelnen Bausteinen, aber sicher haben wir hier noch viel Luft nach oben für Verbesserungen.

Für personalisierte Empfehlungssysteme müssen natürlich zunächst Daten gesammelt werden. Manche sind hier skeptisch, weil sie in öffentlich-rechtlichen Angeboten ja gerade eine Alternative zu den kommerziellen Datenkraken sehen. Wie transparent ist das ZDF hier, was die Sammlung und Nutzung von Userdaten betrifft?

Grün: Über die technische Umsetzung der datenschutzrechtlichen Vorschriften, unsere Datenschutzerklärung und vor allem auch über unser im Dezember eingeführtes Consent Management System sind wir gut aufgestellt. Natürlich finden wir manchmal selbst und vor allem auch über Hinweise aufmerksamer Nutzer*innen immer wieder Dinge, die wir verbessern können und müssen, etwa wenn Abschnitte in der Datenschutzerklärung unverständlich oder unvollständig sind. Wir sind hier unseren Nutzer*innen sehr, sehr dankbar für diese Hinweise!

Und zuletzt: Mit Einführung der Personalisierung hat sich das ZDF in der Geschäftsleitung und auch gegenüber dem Fernsehrat klar committed: Jeder Inhalt in der Mediathek ist frei verfügbar, d.h. ohne Algorithmen, Datensammlung oder verpflichtendem Login.

Eine andere Transparenz-Baustelle betrifft die verwendete Software. Welche Rolle spielt hier Open-Source-Software und stellt das ZDF selbst auch Software unter offenen Lizenzen zur Verfügung im Bereich Empfehlungssysteme?

Grün: Wir nutzen grundsätzlich freie Software als Basis für unsere Empfehlungssysteme, bspw. die Implicit Library oder die bekannten Deep-Learning-Bibliotheken wie PyTorch oder Tensorflow. Wir planen, Teile unserer Algorithmik zu veröffentlichen. Vorbereitend werden wir dazu zunächst Model Cards veröffentlichen, die den konkreten Anwendungsfall und dazu die Verarbeitung der Daten während des Modell-Trainings und der Generierung der eigentlichen Empfehlungen sowie den Algorithmus beschreiben. Wir sind überzeugt, dass das wichtig ist, um eben nicht nur algorithmische Details bewertbar zu machen, sondern auch die journalistisch/publizistischen Überlegungen und die Umsetzung dahinter.

Generell glaube ich, dass in der öffentlichen Diskussion häufig auf Algorithmen und Software und zu wenig auf die Prozessierung der Daten fokussiert wird. Gerade hier entstehen aber leicht Probleme mit systematischen Verzerrungen, die in den Daten stecken. Das ist ein Thema, dass auch wir gerade im Fokus unserer Weiterentwicklung haben und konkret mit der Universität Mainz untersuchen.

Zum Abschluss, was sind die größten Herausforderungen für die Verbesserung öffentlich-rechtlicher Empfehlungssysteme?

Grün: Ich sehe hier drei Herausforderungen: Erstens, die konzise Übersetzung des öffentlich-rechtlichen Auftrags in Metriken und Algorithmen, in Abstimmung mit allen Gremien und Stakeholdern. Zweitens, die optimale Verbindung von redaktioneller, algorithmischer und nutzer-gesteuerter Kuration. Denn Algorithmen sind immer nur ein Teil, ein Werkzeug in der Distribution. Drittens, die Versorgung der Algorithmen mit den notwendigen Metadaten, etwa zu Geschlechterverteilung bei Mitwirkenden etc.

Vielen Dank für die Einblicke und die Zeit!

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Rasterfahndung: US-Einwanderungsbehörde errichtet beispielloses Überwachungssystem

netzpolitik.org - 14 Mai, 2022 - 17:51
2018 forderten Migrations-Aktivist:innen landesweit die Abschaffung der ICE. Die Behörde spioniert auch US-Bürger:innen aus. – CC-BY-NC-SA 4.0 Matthias Monroy

Die US-amerikanische Einwanderungs- und Zollbehörde (ICE) hat ein umfassendes Überwachungsnetzwerk errichtet. Damit sollen angeblich ausreisepflichtige Migrant:innen aufgespürt und festgenommen werden. Unter anderem kauft die Behörde dazu umfangreiche Datensätze von privaten Firmen. Das berichtet das an der Universität Georgetown ansässige Center on Privacy & Technology in seiner neu erschienenen Studie „American Dragnet“. Mit Hunderten von Anfragen nach dem Freedom of Information Act haben die Forscher:innen diese Verträge erhalten und ausgewertet.

Zwischen 2008 und 2021 gab die ICE demnach umgerechnet rund 2,7 Milliarden Euro für die Aquise, Speicherung und Verarbeitung von Daten aus. Der in Washington ansässigen Denkfabrik zufolge entstand auf diese Weise ein System, mit dem ICE in nahezu völliger Geheimhaltung auch US-Staatsangehörige ausforschen kann. Für die Autor:innen der Studie sei der Umfang des Netzwerks ein Schock gewesen.

Drei Viertel aller Erwachsenen mit Versorgungsdaten lokalisiert

In den USA dürfen Migrant:innen in einigen Bundesstaaten auch ohne Aufenthaltsgenehmigung eine Wohnung anmieten und Verträge mit Versorgungsfirmen abschließen. Auf diese Informationen von über 80 nationalen und regionalen Gas-, Strom- und Wasserunternehmen hat es die ICE abgesehen. Denn sobald eine neue Wohnung an Infrastruktur angeschlossen wird, wird dies der Behörde bekannt.

Für ihre Rasterfahndung kauft die ICE außerdem Datensätze von Firmen, die Kredite vergeben oder Kabel- und Internetverträge verkaufen. Laut dem Bericht kann die Behörde mit diesen Informationen drei Viertel aller im Land lebenden Erwachsenen anhand ihrer Versorgungsdaten lokalisieren. Ihre Sammlung und Verarbeitung erfolgt anlasslos und ohne richterliche Anordnung.

Außerdem hat die Einwanderungs- und Zollbehörde in 47 Bundesstaaten Zugang zur automatischen Nummernschilderkennung von Mautstraßen, Parkplätzen und Garagen. Allein für diese und andere Geolokalisierungsdienste gab ICE rund 1,25 Milliarden Euro aus.

Bekanntgewordene Ausgaben der ICE, aufgeschlüsselt nach Bereichen. - Alle Rechte vorbehalten Center on Privacy & Technology at Georgetown Law Gesichtserkennung in Führerscheindaten

Laut dem Bericht hat die ICE Zugriff auf die Führerscheindaten von drei Vierteln aller in den USA lebenden Erwachsenen. Hierzu gehört auch der Zugang zu Lichtbildern, die mit Gesichtserkennungstechnologie gescannt werden können. Über eine Arbeitsvereinbarung mit einer Behörde, die im Gesundheitsministerium eigentlich für den Schutz von unbegleiteten, geflüchteten Kindern zuständig ist, kommt die ICE außerdem an Gesundheitsdaten.

Hauptauftragnehmer für die von der ICE angeforderten Dienste war bis 2021 die Firma Thomson Reuters, die unter dem Namen CLEAR eine Datenbank für die Personensuche anbietet. Eine eigens für Strafverfolgungsbehörden erstellte Version von CLEAR enthält Daten aus einer Vielzahl unterschiedlicher Quellen, darunter Fahrzeugregistrierungen, Finanzinformationen, Telefonnummern oder Daten von Meldebehörden. Auch Beiträge in sozialen Medien fließen in die Rasterfahndung ein.

Laut der Studie von Center on Privacy & Technology könnte die ICE die Daten zukünftig von der Firma LexisNexis beziehen, die ähnliche Datenbanken anbietet.

Datenschutzgesetze in Bundesstaaten umgangen

Die Einwanderungs- und Zollbehörde wurde nach den Anschlägen vom 11. September als eine der neuen Maßnahmen zur Terrorismusbekämpfung gegründet. Neben den Informationen von privaten Firmen und aus behördlichen Regierungsdatenbanken verfügt die ICE deshalb auch über das bei Polizeien übliche Repertoire von Überwachungstechnologien. Hierzu gehören IMSI-Catcher, GPS-Ortungsgeräte, Videoüberwachung und elektronische Fußfesseln. Außerdem sammelt und verarbeitet die ICE biometrische Daten.

Einige US-Bundesstaaten räumen ihrer Polizei weniger restriktive Befugnisse ein oder haben robustere Datenschutzgesetze erlassen. Bekannt dafür ist etwa Kalifornien, das 2020 eigens ein Gesetz erließ, um Führerscheindaten oder Informationen zu Versorgungskunden vor der Weitergabe an die Einwanderungsbehörden zu schützen.

Trotzdem gelangen viele dort liegende Daten zum ICE-Überwachungsnetzwerk. Laut dem Georgetown-Bericht hat die Behörde immer noch Zugang zu mehr als der Hälfte der Versorgungsdaten der Einwohner:innen Kaliforniens. In Oregon, wo ein Gesetz den Zugriff des ICE auf Führerscheindaten verhindern sollte, landen diese über private Datenhändler schließlich doch bei der Behörde.

Behörde soll alle Rasterfahndungsprogramme beenden

Dass neue Techniken und Fähigkeiten zur Überwachung zuerst an Migrant:innen und Geflüchteten ausprobiert werden, ist auch in Europa nicht ungewöhnlich. Meist erfolgt dies ohne größeres Aufsehen und wird erst dann zum Politikum, wenn auch Staatsangehörige des entsprechenden Landes betroffen sind.

Deshalb könnten die Enthüllungen über das ICE-Programm nun für größere Aufmerksamkeit sorgen. Denn tatsächlich geht die Behörde weit über ihr Mandat zur Durchsetzung der Einwanderungsbestimmungen hinaus, schreibt das Center on Privacy & Technology.

Der Bericht endet deshalb mit einer Reihe von Forderungen. So soll die ICE alle Rasterfahndungsprogramme sofort beenden und auch keine Daten mehr von privaten Firmen ankaufen. Der US-Kongress wird aufgerufen, die Privatsphäre der Menschen, die der Regierung ihre Daten anvertrauen, besser zu schützen und die Maßnahmen der ICE „aggressiv zu überwachen“. Schließlich soll der Kongress die Einwanderungsgesetze derart reformieren, dass die Zahl der abzuschiebenden Menschen reduziert wird.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

KW 19: Die Woche, als die EU-Kommission die Chatkontrolle vorstellte

netzpolitik.org - 13 Mai, 2022 - 18:13
– Fraktal, generiert mit MandelBrowser von Tomasz Śmigielski

Liebe Leser:innen,

es kam nicht plötzlich und auch nicht überraschend. Seit Monaten haben wir über die Chatkontrolle berichtet, ohne genau zu wissen, was uns erwartet. Immer wieder wurde die Präsentation der „größten europäischen Datenüberwachung aller Zeiten“ verschoben. Jetzt ist der Vorschlag der EU-Kommission da, und auch wir in der Redaktion waren von der Vehemenz der vernichtenden Kritik erstaunt.

Bei netzpolitik.org sehen wir uns ja als Frühwarnsystem, das schon über Vorgänge in der EU berichtet, wenn andere es noch nicht tun. Und im Verlauf dieser Berichterstattung habe ich mich immer wieder gefragt: „Warum entsteht hier nicht mehr Protest?“. Denn die Chatkontrolle ist ein autoritärer Überwachungsalptraum: Der Staat soll Anbieter zwingen dürfen, Inhalte entweder auf dem Gerät der Bürger:innen zu durchsuchen – oder deren verschlüsselte Kommunikation zu brechen, um das zu tun. Wenn dieses Projekt durchkommt, gibt es keine vertrauliche Kommunikation mehr. Es wäre eine vollkommen neue Dimension der Überwachung. Vergleiche mit China und Russland, die sonst auch mal vorschnell gezogen werden, sind hier angebracht.

Nun mögen Befürworter:innen sagen: „Hey, es geht doch nur darum, Bilder und Videos von sexueller Gewalt gegen Kinder zu finden. Wer nichts zu verbergen hat, der hat doch nichts zu befürchten.“ Wir alle wollen, dass sexuelle Gewalt gegen Kinder hart bekämpft wird, dass Handlungsoptionen ausgeschöpft werden. Doch das Instrument der Chatkontrolle ist falsch. Wenn dieses Gesetzespaket durchkommt, dann ist die Vertraulichkeit dahin, dann gibt es diese mächtige Überwachungsinfrastruktur, dann ist es zu spät. 

Noch ist es aber nicht zu spät. Denn das Gesetzespaket kann immer noch komplett abgelehnt oder zumindest abgeschwächt werden. Dafür braucht es jetzt öffentlichen Druck: von der Online-Petition über Anrufe bei Politiker:innen bis hin zum tausendfachen Protest auf der Straße. Die Erfahrungen mit der Urheberrechtsreform und den Uploadfilter-Protesten von 2019 zeigen: Es reicht nicht, Menschen nur in Deutschland auf die Straße zu bekommen. Proteste gegen eine EU-Gesetzgebung müssen so international sein wie die EU selbst, damit sie wirklich gehört werden.

In diesem Sinne: Klärt eure Freund:innen, Familien und Arbeitskolleg:innen auf, was sie bei der Chatkontrolle erwartet. Werdet aktiv, verbündet Euch über Grenzen hinweg und tragt Euren kleinen oder großen Teil zum Protest bei. Demokratie bedeutet, dass wir etwas verändern können.

Unsere Aufgabe hier bei netzpolitik.org wird sein, dass wir in den kommenden Monaten über alle Aspekte der Chatkontrolle journalistisch berichten, Analysen, Expertise und Einblicke liefern, und im besten Sinne zur Aufklärung und Information der Öffentlichkeit beitragen. Natürlich aus Perspektive der Grund- und Freiheitsrechte.

Bleibt stark und mutig

Markus Reuter

Ermittlungen zum Ukraine-Krieg: Neue Eurojust-Verordnung im Eilverfahren

Die EU-Justizagentur soll personenbezogene und biometrische Daten speichern und verarbeiten dürfen. Auch die Analyse digitaler Beweismittel soll erlaubt sein, hierzu hat Eurojust aber eigentlich kein Mandat. Hintergrund sind mutmaßliche russische Verbrechen gegen die Menschlichkeit. Von Matthias Monroy.

US-Abtreibungsrecht: Gefährliche Datenspuren von Schwangerschaftsabbrüchen

In den USA soll offenbar das bundesweite Abtreibungsrecht kippen. Dann werden voraussichtlich in vielen US-Bundesstaaten Schwangerschaftsabbrüche verboten sein. Das bringt ungewollt Schwangere in Gefahr, auch aufgrund ihrer digitalen Spuren. Von Rahel Lang.

Corona-Kommunikation: Berlins Gesundheitsämter haben über 4.000 E-Mail-Adressen regelwidrig veröffentlicht

Wenn Gesundheitsämter sehr viele Menschen per E-Mail anschreiben, kommt es gelegentlich zu Datenschutzpannen, bei denen die E-Mail-Adressen der Angeschriebenen offengelegt werden. In Berlin wurden seit Januar 2021 acht solcher Fälle mit je zwischen 45 und 3.100 Betroffenen gemeldet. Von Gastbeitrag.

Britische Nichtregierungsorganisation: 26 Länder haben bewaffnete Drohnen

Jährlich zählt Drone Wars UK Staaten, die über Kampfdrohnen mittlerer Höhe und langer Flugdauer verfügen. Weitere sechs Regierungen haben die Beschaffung in die Wege geleitet, darunter Deutschland, die Niederlande und Polen. Einige von ihnen nutzen sie indes gar nicht. Von Matthias Monroy.

Datendiskriminierung: Wenn Maschinen über Menschen entscheiden

In Österreich werden Arbeitslose automatisch in Kategorien sortiert, in den Niederlanden suchten Gemeinden automatisiert nach Sozialbetrüger:innen. Was macht es mit der Zivilgesellschaft, wenn Staaten High-Tech-Tools gegen ihr Volk richten? Von Chris Köver.

Blackbox Genf VI: Wikimedia Deutschland muss leider draußen bleiben

China will nicht, dass Wikimedia-Organisationen dabei sind, wenn internationale Regeln im Urheberrecht diskutiert werden. Erneut gab es ein Veto, das China mit vermeintlicher Desinformation begründet. Von Gastbeitrag.

Staatstrojaner: 8 Punkte, die wir aus der Pegasus-Anhörung gelernt haben

Noch läuft sich der Untersuchungsausschuss im EU-Parlament zum Pegasus-Abhörskandal warm. In der heutigen Sitzung ging es vor allem um die technischen Hintergründe. Die wichtigsten Erkenntnisse. Von Chris Köver.

„Absolut inakzeptabel“ : Erstmals Straßenprotest gegen Chatkontrolle angekündigt

Der Protest gegen eine Durchleuchtung der Kommunikation aller Bürger:innen erreicht nun die Straße. In Berlin ruft die Kampagne „Chatkontrolle stoppen“ am Mittwoch zu einer Aktion vor der Vertretung der EU-Kommission auf. Von Markus Reuter.

Gesetz gegen Kindesmissbrauch: EU-Kommission will private Nachrichten durchleuchten

Laut einem geleakten Gesetzesentwurf, den wir veröffentlichen, könnte die EU bald das Scannen von Millionen Nachrichten auf Anzeichen von Kindesmissbrauch vorschreiben. Abgeordnete warnen vor massiver Überwachung. Von Alexander Fanta.

Chatkontrolle: Wie ein Hollywoodstar für mehr Überwachung wirbt

Das neue Überwachungsgesetz der EU zur Durchleuchtung privater Chats verdanken wir Ursula von der Leyen. Neben vielen Kritikerinnen hat es es prominente Freunde. Neue Dokumente zeigen, wie der Schauspieler Ashton Kutcher mit seiner Organisation in Brüssel für Überwachungstechnologie lobbyierte – offenbar erfolgreich. Von Alexander Fanta.

„Menstruation“ verboten: OnlyFans zensiert mindestens 149 Wörter

OnlyFans will unerwünschte Inhalte mit Blocklisten bekämpfen. Mindestens 149 Begriffe sind auf der Bezahlseite für teils erotische Inhalte tabu. Es ist ein drastisches Beispiel für Overblocking – sogar die Zahl „zwölf“ ist verboten. Von Sebastian Meineck.

Chatkontrolle: Das EU-Überwachungsmonster kommt wirklich, wenn wir nichts dagegen tun

Jetzt ist es raus: Die EU-Kommission will die Chatkontrolle einführen – und damit das größte Projekt zur anlasslosen Massenüberwachung seit Langem. Es braucht schnell Protest, damit das Vorhaben noch verhindert wird. Ein Kommentar. Von Markus Reuter.

Richtlinie für Plattformarbeit: Unerwartete Verbündete im Kampf gegen Scheinselbstständigkeit

Sie schreiben selbst, dass es eine unerwartete Partnerschaft ist: Europas größte Fluglinien unterstützen den Entwurf der EU-Kommission für eine Richtlinie zur Plattformarbeit. Grund ist, dass Scheinselbstständigkeit auch im Flugsektor immer mehr vorkommt. Von Maximilian Henning.

Dude, where’s my privacy?: How a Hollywood star lobbies the EU for more surveillance

The European Union debates a new law that could force platforms to scan all private messages for signs of child abuse. Its most prominent advocate is the actor Ashton Kutcher. Von Alexander Fanta.

Protest: So war die erste Demo gegen die Chatkontrolle

In Berlin haben Kritiker:innen der geplanten Chatkontrolle am Mittwoch vor die Vertretung der EU-Kommission mobilisiert. Wir haben mit Teilnehmenden gesprochen, warum sie auf die Straße gehen. Von Alexandra Conrad.

Massenüberwachung: Vernichtende Kritik für die Chatkontrolle aus Verbänden und Politik

Die Pläne der EU-Kommission zur Einführung einer so genannten „Chatkontrolle“ haben breite Empörung in Verbänden, Presse und Politik ausgelöst. Das Vorhaben sei „nicht vereinbar mit europäischen Werten“ ist dabei noch eine der netteren Reaktionen.
Von Markus Reuter.

Series on digital colonialism: Western tech companies saving billions in taxes in the global south

Unfair tax laws help Facebook, Google and Microsoft save billions in taxes in the global south – enough to employ 1.7 million nurses in 20 countries within three years. Part 3 of our series on digital colonialism. Von Satyajeet Malik.

Reihe über digitalen Kolonialismus: Westliche Tech-Konzerne sparen Milliarden im globalen Süden

Durch unfaire Gesetze sparen Facebook, Google und Microsoft im globalen Süden massenhaft Steuern. Mit dem Geld ließen sich innerhalb von drei Jahren 1,7 Millionen Krankenpfleger:innen in 20 Ländern beschäftigen. Teil 3 unserer Serie über digitalen Kolonialismus. Von Satyajeet Malik.

Strafrecht: Die meisten Tatverdächtigen bei „Kinderpornografie“ sind minderjährig

Sexuelle Gewalt und „Kinderpornografie“ sind schreckliche Straftaten. Doch die meisten Tatverdächtigen sind Kinder und Jugendliche. Das sagt der leitende Cyberkriminologe einer Polizeihochschule. Ein Interview über veraltete Gesetze, problematische Begriffe und wirkungslose Chatkontrolle. Von Andre Meister.

EU-Pläne einfach erklärt : Warum die Chatkontrolle Grundrechte bedroht

Online-Anbieter sollen unter anderem Chats durchleuchten, um sexuelle Gewalt gegen Kinder zu finden. Verdächtige Inhalte sollen sie Behörden melden müssen. Liest bald die Polizei auf WhatsApp mit? Die wichtigsten Antworten. Von Chris Köver.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

EU-Pläne einfach erklärt: Warum die Chatkontrolle Grundrechte bedroht

netzpolitik.org - 13 Mai, 2022 - 17:34
Chatkontrolle heißt: Jedes Handy ist verdächtig (Symbolbild) – Alle Rechte vorbehalten Polizist: Imago/ YAY Images, Smartphone: Pixabay, Montage: netzpolitik.org

Hinter dem Vorhaben der EU-Kommission zur Chatkontrolle steht ein über 130-seitiger Gesetzentwurf. Wir haben uns durchgearbeitet und Antworten auf die wichtigsten Fragen gesammelt.

Was will die EU mit meinem Handy machen?

Die EU-Kommission will Handys in Alarmanlagen für Darstellungen sexueller Gewalt verwandeln. Das gilt auch für Laptops und andere Geräte. Geplant ist ein System der Kontrolle und Durchsuchung von Kommunikationsinhalten. Das ist mit „Chatkontrolle“ gemeint. Außerdem will die EU-Kommission ein neues „EU-Zentrum gegen Kindesmissbrauch“ in Den Haag schaffen. Mit der geplanten Regulierung sollen Onlinedienste gezwungen werden können, die Kommunikation ihrer Nutzer:innen zu scannen, wenn sie eine entsprechende Anordnung bekommen haben. Finden sie verdächtige Aufnahmen oder Texte, müssen sie die Inhalte an das EU-Zentrum weiterleiten.

Für das eigene Handy bedeutet das: Kommunikation wäre in Zukunft nicht mehr vertraulich. Das kann auch verschlüsselte Messenger betreffen. Die EU-Kommission will Anbieter nicht nur dazu zwingen können, bereits bekannte Bilder oder Videos zu erkennen. Suchen sollen sie auch nach neuen, verdächtigen Aufnahmen und nach „Cybergrooming“. So nennt man es, wenn Erwachsene sexuellen Kontakt zu Minderjährigen anbahnen. In der Praxis heißt das, dass Anbieter unsere Kommunikation auswerten müssten.

Messenger wie WhatsApp und Signal sind Ende-zu-Ende-verschlüsselt. Da kann doch niemand mitlesen?

Die Antwortet laut: Ja, aber. Es stimmt, Ende-zu-Ende-Verschlüsselung soll verhindern, dass jemand außer Sender:in und Empfänger:in eine Nachricht mitlesen kann. Alle anderen Stationen im Internet dazwischen sehen nur Zeichensalat, aber nicht die Inhalte. Diese Verschlüsselung ist wichtig, damit weder kriminelle Hacker:innen noch Staaten unsere private Kommunikation lesen können. Auf den ersten Blick lässt sich eine Chatkontrolle also nicht mit Ende-zu-Ende-Verschlüsselung vereinbaren. Aber die Regulierung würde Unternehmen verpflichten, Inhalte trotzdem irgendwie zu scannen. Die EU-Kommission lässt offen, wie das technisch gehen soll.

Generell sollen die betroffenen Anbieter laut EU-Kommission zwar „vermeiden, die Sicherheit und Vertraulichkeit der Kommunikation von Nutzern zu unterminieren“. Doch das ist die Quadratur des Kreises: Entweder werden vertrauliche Inhalte automatisch überprüft und Treffer an Dritte weitergeleitet – oder nicht. Niemand kann garantieren, dass dabei keine Fehler passieren oder die Kontrolle nicht missbraucht und ausgeweitet wird.

Wie könnte die Chatkontrolle technisch aussehen?

Vorstellbar sind derzeit vor allem zwei Varianten, um etwa Bilder und Videos zu durchleuchten: Die erste nennt sich Client-Side-Scanning. Dabei werden auf dem Endgerät, also dem Handy, Tablet oder Computer, die privaten Nachrichten und Dateien schon vor dem Verschicken per E-Mail oder Messenger durchsucht. Die EU-Kommissarin Ylva Johansson bezeichnete das in einem Interview mit dem Spiegel als „eine Möglichkeit unter mehreren“.

Die zweite Variante wäre ein Bruch der Ende-zu-Ende-Verschlüsselung. Wenn Anbieter die Inhalte nicht auf dem Gerät selbst scannen wollen, müssten sie sie entschlüsseln können – anders geht es nicht. In beiden Fällen gilt: Die Vertraulichkeit der Kommunikation wäre ausgehebelt.

Um Kontaktanbahnungen (Cybergrooming) zu erkennen, sind andere Maßnahmen denkbar. Dafür bräuchte es etwa eine Software, die verschickte Textnachrichten untersucht. Das kann zum Beispiel eine inhaltliche Suche nach Schlagworten bedeuten. Die Anbieter könnten alternativ nach auffälligen Mustern suchen, etwa wenn ein Erwachsener oft Kinder anchattet. Große Plattformen wie Microsoft arbeiten bereits mit solchen Systemen. Doch bisher hat es keines der Unternehmen geschafft, ein zuverlässig funktionierendes Verfahren zu entwickeln.

Wie kann man überhaupt erkennen, ob ein Bild sexuelle Gewalt gegen Kinder darstellt?

Dafür gibt es bereits Verfahren wie das sogenannte Hashing. Ein Hash ist ein digitaler Fingerabdruck. Er lässt sich einfach aus einer illegalen Aufnahme berechnen – danach kann die Datei gelöscht werden. Diese Hashes kommen dann in eine Datenbank. Neu verschickte Dateien werden damit abgeglichen. So lassen sich bekannte Aufnahmen sexueller Gewalt gegen Kinder wiedererkennen.

Die Kommission will aber Anbieter nicht nur auffordern, nach bereits bekannten Aufnahmen zu suchen. Sie sollen auch neue Aufnahmen ausfindig machen. Hashes helfen da nicht weiter. Es braucht automatische Bilderkennung. Eine Software müsste abschätzen, was in einem Bild zu sehen ist: etwa Nacktheit oder mutmaßlich Minderjährige. Die Software müsste zudem legale Nacktbilder von illegalen Gewaltdarstellungen unterscheiden. Wenn ein Mensch eine 17-jährige Person nicht zuverlässig von einer 18-jährigen unterscheiden kann, dann kann das auch eine Software nicht.

Im Entwurf steht ausdrücklich, „Zweifel am Alter des potenziellen Opfers“ sollen die Anbieter nicht daran hindern, Inhalte zu melden. Alle bekannten Systeme weisen Fehlerquoten auf. Man muss also davon ausgehen, das bei der schieren Masse der überwachten Kommunikation viele fälschlicherweise gemeldeten Inhalte bei den Anbietern und Ermittler:innen landen werden.

Wie ein Hollywoodstar für mehr Überwachung wirbt

WhatsApp, Gmail, TikTok, Instagram – wer muss da alles mitmachen?

Im schlimmsten Fall alle. Die EU-Komission schreibt: „Anbieter von Hosting- oder interpersonellen Kommunikationsdiensten“. Darunter fallen etwa Messenger wie WhatsApp, Signal und Telegram sowie E-Mail-Dienste. Aber im Entwurf heißt es, die Vorschriften sollen auch für Dienste gelten, bei denen die direkte persönliche Kommunikation nur eine Nebenfunktion ist. Also soziale Medien wie Instagram und TikTok oder die Chats beliebiger Quiz-Apps.

Auch Online-Speicherdienste wie etwa Google wären betroffen. Mitmachen bei der angeordneten Suche nach Hinweisen müsste ein Anbieter, wenn bei ihm etwa Darstellungen sexueller Gewalt gegen Kinder in „nennenswertem Umfang“ kursieren oder es „wahrscheinlich“ ist. Zuvor muss der Anbieter Gegenmaßnahmen treffen. Schon heute scannen Cloud-Anbieter wie Google automatisch hochgeladene, private Dateien. Falls die Gegenmaßnahmen nicht ausreichen, könnte eine Chatkontrolle angeordnet werden.

Warum ist die Chatkontrolle ein Problem, wenn es wirklich nur um sexuelle Gewalt gegen Kinder geht?

Es lässt sich unmöglich sicherstellen, dass Anbieter allein sexuelle Gewalt gegen Kinder aufspüren. Fachleute für Verschlüsselung betonen seit jeher: Technisch ist es unmöglich, solche Hintertüren so zu bauen, dass sie nur einzelne Verdächtige betreffen oder nur für einen bestimmten Zweck genutzt werden können. Hat ein Unternehmen einmal einen Weg geschaffen, um die Verschlüsselung zu umgehen und die Kommunikation seiner Nutzer:innen zu überwachen, dann schwächt das die Privatsphäre aller für immer. Dazu zählen auch jene Menschen, die besonders auf vertrauliche Kommunikation angewiesen sind: Whistleblower:innen, politische Dissident:innen, kritische Journalist:innen und verfolgte Minderheiten.

Eine weitere Gefahr sind falschpositive Treffer, also Fälle, in denen die Software ein legales Bild oder einen legalen Flirt für verdächtig hält. Alle Nutzer:innen müssten permament befürchten, dass ihre private Kommunikation bei einer Behörde landen könnte. Eigentlich sollen Nutzer:innen darüber informiert werden. Es gibt aber eine Ausnahme: Behörden dürfen Betroffene im Unklaren lassen, wenn das Ermittlungen gefährden könnte. Worst Case: Ein legaler Flirt oder ein Austausch von Fotos im Familienchat endet mit einer Hausdurchsuchung.

Wir werden doch eh ständig überwacht. Was soll an der Chatkontrolle so schlimm sein?

Die Chatkontrolle hebt die Überwachung auf eine neue, noch nie dagewesene Stufe. Mit der Chatkontrolle würden weite Teile der digitalen Kommunikation aller Bürger:innen überwacht, unabhängig von einem Anlass oder Verdacht. Das ist ein krasser und weitreichender Eingriff in die Privatsphäre. „Die ausgeklügelteste Massenüberwachungs-Maschinerie, die je außerhalb Chinas und der UdSSR ausgerollt wurde“, schreibt der US-Forscher Matthew Green und fügt hinzu: „Keine Übertreibung“.

Kann man mit der Chatkontrolle auch andere Inhalte finden?

Die EU-Kommission betont, das solle nicht passieren. Aber technisch geht das. Ist diese Technologie einmal flächendeckend eingeführt, könnte sie nach allen möglichen Dingen suchen. Die Technologien sind nicht beschränkt darauf, nach Darstellungen von sexueller Gewalt zu suchen – oder nach Fotos von Drogen oder Demonstrationen.

Die Chatkontrolle könnte für autoritäre Staaten ein Vorbild sein, um Anbieter auch auf die Suche nach anderen Inhalten zu schicken. Etwa um Andersdenkende noch effektiver zu jagen. Die Technologie ist da vollkommen neutral – und das macht es so gefährlich.

Könnte die Panik vor der Chatkontrolle einfach übertrieben sein und alles ist nicht so gemeint?

Nein, der Vorschlag liegt jetzt so in all seiner Gefährlichkeit auf dem Tisch und die Kritik daran ist sehr breit, einhellig und vernichtend. Der Entwurf muss aber noch durch das EU-Parlament und den Rat gehen. Es wäre nicht das erste Mal, dass ein Vorstoß der EU-Kommission auf dem Weg deutlich verändert wird. Das passiert aber nicht von allein. Reaktionen der Öffentlichkeit, Proteste und konstruktive Vorschläge haben einen entscheidenden Einfluss darauf, was aus der Chatkontrolle wird.

Kann man sich gegen die Chatkontrolle wehren?

Ja. Noch ist alles möglich, sogar eine komplette Rücknahme des Entwurfs. Doch dafür braucht es viel Öffentlichkeit und Widerspruch in verschiedenen europäischen Ländern. Ein erster Schritt ist Aufklärung: Alle können dazu beitragen, ihr direktes Umfeld über die Gefahren einer Chatkontrolle zu informieren. Wer alles nochmal genau nachlesen möchte, findet den Vorschlag der EU-Kommission hier. Schon jetzt gibt es ein Bündnis namens „Chatkontrolle stoppen“, das auf Twitter und Mastodon vetreten ist. Denkbar sind weitere Bündnisse, Online-Petitionen, Proteste und Aktionen.

Sollte man nicht so viel wie möglich unternehmen, um Kinder zu schützen?

Dass sexuelle Gewalt gegen Kinder und die Verbreitung dieser Bilder im Netz bekämpft werden müssen, ist unumstritten. Uneinigkeit besteht in der Frage der Mittel. Selbst der Kinderschutzbund bezeichnet die Pläne zur Chatkontrolle als „weder verhältnismäßig noch zielführend“. Das heißt, es gibt auch Zweifel daran, ob die invasive Maßnahme überhaupt helfen würde.

Sogar die EU-Kommission schreibt in ihrem Entwurf, dass neben dem Schutz von Kindern auch die Grundrechte von Nutzer:innen beachtet werden müssten. „Keines dieser Rechte ist absolut, und sie müssen im Zusammenhang mit ihrer Funktion in der Gesellschaft betrachtet werden“. Kritiker:innen zufolge ist der EU-Kommission diese Abwägung offenkundig misslungen.

Hat irgendjemand einen besseren Vorschlag als Chatkontrolle?

Es gibt viele Mittel gegen die Verbreitung von Darstellungen sexueller Gewalt. Schon heute identifizieren die Ermittler:innen mehr Kriminelle in diesem Feld als je zuvor. Software zur automatischen Erkennung auf öffentlich zugänglichen Servern gibt Ermittler:innen schon heute so viele Hinweise, dass sie vor allem darauf reagieren. Sie haben kaum noch Zeit, darüber hinaus eigene Ermittlungen anzustrengen.

Sehr viel Luft nach oben gibt es auch beim Umgang mit bereits entdeckten Aufnahmen. Das Bundeskriminalamt (BKA) konzentriert sich auf die Verfolgung der Täter:innen und lässt viele Aufnahmen online. Es fordert Anbieter nicht strukturiert auf, das Material von ihren Severn zu löschen. Dabei löschen viele Anbieter gemeldete Inhalte innerhalb von Stunden von ihren Servern, und das weltweit. 

Ein großer Teil der verdächtigen illegalen Darstellungen werden von Minderjährigen selbst produziert – und gelangen dann vielleicht in die Hände Krimineller. Hier kann nur Bildung ansetzen. Digitale Kompetenz entsteht nicht durch Chatkontrolle, sondern in Schulen, Bildungseinrichtungen und mithilfe der Eltern.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Strafrecht: Die meisten Tatverdächtigen bei „Kinderpornografie“ sind minderjährig

netzpolitik.org - 13 Mai, 2022 - 12:32
Polizei ermittelt gegen Jugendliche. – Alle Rechte vorbehalten Polizeiliche Kriminalprävention

Dr. Thomas-Gabriel Rüdiger ist Leiter des Instituts für Cyberkriminologie an der Hochschule der Polizei des Landes Brandenburg. Er forscht und arbeitet zu digitalen Formen der Polizeiarbeit und digitalen Straftaten (Cyberkriminologie).

netzpolitik.org: Sexualisierte Gewalt an Kindern und Darstellungen dieser Taten zählen zu den schlimmsten und geächtetsten Straftaten. Der klassische und juristische Begriff dafür ist „Kinderpornografie“. Viele kritisieren diesen Begriff als problematisch. Warum?

Rüdiger: Der Begriff als solches ist durchaus problematisch und er wird aus meiner Sicht zu Recht regelmäßig kritisiert. Mit „Pornografie“ assoziieren viele Menschen professionelle oder amateurhafte Videoaufnahmen von sexuellen, prinzipiell gleichberechtigten Handlungen zwischen Erwachsenen. Bereits hieraus erkennt man, dass der Begriff völlig falsch angebracht ist bei schwersten sexuellen Gewalthandlungen an Kindern.

netzpolitik.org: Das EU-Parlament forderte 2017, statt „Kinderpornografie“ den Begriff „Darstellungen von sexuellem Missbrauch von Kindern“ zu verwenden. Er betont die Perspektive der Opfer. Ist dieser Begriff ein guter Ersatz?

Rüdiger: Der Begriff ist ähnlich diskutabel wie der artverwandte Begriff „kinderpornografische Inhalte“. Er assoziiert, dass man Kinder im Umkehrschluss „gebrauchen“ könnte.

netzpolitik.org: Die Begriffe „Kinderpornografie“ und „Sexueller Missbrauch von Kindern“ sind also schlecht. Warum werden sie dann verwendet?

Rüdiger: Beide Begriffe sind zumindest im deutschen Strafrecht in der jeweiligen Form verankert. Das führt dazu, dass man in der kriminalpolitischen und juristischen Diskussion auch diese Begriffe nutzen muss, da die Gesetze diese festschreiben.

netzpolitik.org: Andere schlagen einen dritten Begriff vor: „Darstellungen sexualisierter Gewalt an Kindern“. Der nennt Gewalt als erste Straftat und betont ebenfalls die Perspektive der Opfer. Ist dieser Begriff ein guter Ersatz?

Rüdiger: Es fehlt einfach an wirklich passenden Begrifflichkeiten. Persönlich finde ich den Begriff der „sexualisierten Gewalt an Kindern“ noch am besten, auch wenn dieser wiederum formal-juristische Probleme auslöst.

Alle Begriffe problematisch

netzpolitik.org: Welche Probleme?

Rüdiger: Dieser Begriff spiegelt nicht die ganze Bandbreite der kriminologischen Phänomene in diesem Zusammenhang hinreichend wider. Der Gedanke hinter den relevanten Tatbeständen wie dem Paragraf für „kinderpornografische Inhalte“ ist ja, dass es sich um schwere Machtgefälle und schwerste Gewalthandlungen an den Wehrlosesten einer Gesellschaft handelt. Mittlerweile gibt es aber Entwicklungen, dass Kinder mit annähernd Gleichaltrigen beispielsweise sogenanntes „Sexting“ betreiben, als Form der eigenen ersten sexuellen Erfahrungen.

netzpolitik.org: Wikipedia schreibt zu „Sexting“: „Im Deutschen wird das Wort hauptsächlich für das Versenden von erotischen Selbstaufnahmen per Smartphone oder Internet verwendet.“ Und weiter: „In Deutschland kann Sexting bei Minderjährigen eine Strafbarkeit bis zu einer mehrjährigen Freiheitsstrafe […] begründen.“

Rüdiger: Wenn ein 13-jähriges Mädchen an ihren 14-jährigen Freund ein entsprechendes Nacktbild von sich sendet, dann kann hier ein „kinderpornographischer Inhalt“ entstehen, ohne dass man automatisch von „Gewalt“ oder einem „Machtgefälle“ sprechen kann. Diese Tatsache spiegelt sich aber noch nicht hinreichend in der kriminalpolitischen Diskussion wider.

netzpolitik.org: Letztes Jahr hat der Bundestag ein neues Gesetzespaket zur Bekämpfung sexualisierter Gewalt gegen Kinder beschlossen. Ging es dabei auch um dieses Problem?

Rüdiger: Der Gesetzgeber hat hierbei im Paragraf „Sexueller Missbrauch von Kindern“ eine Öffnungsklausel integriert. Damit kann ein Gericht von Strafe bei „sexuellem Kindesmissbrauch“ absehen, wenn der Alters- und Reifeunterschied zwischen Kind und Täter:in gering ist und die Handlungen freiwillig und einvernehmlich erfolgen. Diese Regel soll also unerwünschte Kriminalisierungstendenzen im Rahmen der sexuellen Erfahrungen zwischen Minderjährigen vermeiden. Bei digitalen Delikten wie „Cybergrooming“ und auch bei „kinderpornografischen Inhalten“ gibt es eine solche Regel aber nicht.

netzpolitik.org: Warum nicht?

Rüdiger: Das kann ich so nicht klar beantworten. Meine Vermutung ist, dass diese Auswirkungen offenbar schlicht nicht hinreichend klar skizziert wurden in der politischen Debatte oder argumentativ nicht durchgedrungen sind.

„Kinderpornografie“ im Internet

netzpolitik.org: Wie hat sich die Verbreitung „kinderpornografischer“ Inhalte in den letzten Jahren entwickelt?

Rüdiger: Zunächst kann man das nie mit Bestimmtheit sagen, schlicht weil man dafür eigentlich einen Überblick haben müsste, was wirklich stattgefunden hat. Das würde regelmäßige, im Prinzip weltweite Dunkelfeldstudien erfordern. Und selbst dabei würde immer noch eine Form des absoluten Dunkelfelds existieren, das man nicht erhellen kann.

netzpolitik.org: Das BKA veröffentlicht jedes Jahr die Polizeiliche Kriminalstatistik, zuletzt vor einem Monat.

Rüdiger: Auch das polizeiliche Hellfeld, das sich in Form der Polizeilichen Kriminalstatistik zeigt, hat seine bekannten Schwächen. Jedoch kann man hier zumindest Trends ablesen, wie sich bei der Polizei angezeigte Sachverhalte, die dann auch an die Staatsanwaltschaft abgegeben werden, entwickelt haben.

netzpolitik.org: Und was sind die Trends?

Rüdiger: In der Polizeilichen Kriminalstatistik kann man, grob gesagt, zwei Entwicklungen herauslesen. Zunächst haben digitale Deliktsformen eine durchaus massive Zunahme zu verzeichnen, darunter auch „Verbreitung, Erwerb und Besitz kinderpornografischer Inhalte“. Gleichzeitig haben sich die festgestellten Tatverdächtigen signifikant verjüngt.

netzpolitik.org: Was bedeutet das?

Rüdiger: Bei der Zunahme der Delikte muss man in der Polizeilichen Kriminalstatistik zwei Felder unterscheiden. Einmal alle begangenen Delikte, also kinderpornografische Straftaten, die sowohl analog als auch digital begangen werden. Und einmal eine Eingrenzung auf Delikte, die über das Tatmittel Internet begangen werden. Dies ist wichtig für die Entwicklung der minderjährigen Tatverdächtigen.

netzpolitik.org: Wie ist die Entwicklung im Internet?

Rüdiger: Noch 2018 wurden „nur“ 5.199 Fälle über das Tatmittel Internet registriert, 2021 sind es nun 31.383 Fälle.

Tatverdächtige Kinder und Jugendliche

netzpolitik.org: Welche Rolle spielen minderjährige Tatverdächtige?

Rüdiger: Der Anteil der minderjährigen Tatverdächtigen kann bei einer Eingrenzung über das Tatmittel Internet nur durch eine spezielle Auswertung der Kriminalstatistik erfolgen. Diese hat die polizeiliche Kriminalprävention vorgelegt. Demnach sind von 28.661 Tatverdächtigen insgesamt 13.125 erwachsen, aber 15.536 minderjährig. Das heißt, 54 Prozent der Tatverdächtigen, also die Mehrheit, sind selbst Kinder und Jugendliche.

netzpolitik.org: Warum ist das so?

Rüdiger: Auch hier müssen wir differenzieren. Vereinfacht dargestellt sind drei phänomenologische Ausprägungen denkbar. Es kann sich um Minderjährige handeln, die tatsächlich beispielhaft im Darknet kinderpornografische Inhalte herunterladen, teilen oder gar bewusst anfertigen. Diese Variante halte ich persönlich für die seltenste.

Dann kann es sich um Minderjährige handeln, die in Chatgruppen aktiv sind. Wenn hier irgendjemand kinderpornografische Sticker, GIFs oder andere Medien postet, kann der Anfangsverdacht des Besitzes faktisch für alle Teilnehmer dieser Gruppe bestehen. Hintergrund ist hier unter anderem die selten ausgeschaltete automatische Downloadfunktion für Medien. Damit hat man die Medien direkt auf dem Smartphone. Das scheint aktuell mit das häufigste Problem zu sein, so gibt es Berichterstattungen darüber, dass alleine in Dortmund gegen 400 Schüler:innen wegen Chatdelikten Ermittlungen laufen.

Die letzte Möglichkeit ist die bereits beschriebene im Rahmen von Sexting-Handlungen zwischen Minderjährigen. Ich persönlich halte die Entwicklungen des Austauschs über Chatgruppen für die relevanteste, da so gegen viele Nutzer:innen auf einmal Ermittlungsmaßnahmen eingeleitet werden.

Gesetzgeber muss handeln

netzpolitik.org: Wie könnte man dieser Entwicklung effektiv begegnen?

Rüdiger: Ich glaube, wir müssen den Umgang mit diesem Phänomen kriminalpolitisch neu denken. Strafverschärfungen, wie in der Vergangenheit, bringen hier nichts und sind im Zweifel sogar kontraproduktiv. Hier müsste man zudem eher über Anpassungen im strafprozessualen Bereich nachdenken, beispielhaft beim Legalitätsprinzip.

netzpolitik.org: Nach dem Legalitätsprinzip sind Strafverfolgungsbehörden verpflichtet, ein Ermittlungsverfahren zu eröffnen, wenn sie Kenntnis von einer möglichen Straftat erlangen.

Rüdiger: Man stelle sich vor, Schüler:innen eines Chats, in dem kinderpornografische Inhalte gepostet werden, möchten dies zur Anzeige bringen. Was werden die Kinder oder auch ihre Eltern vermutlich im ersten Moment machen? Screenshots vom Chat und den Bildern anfertigen. Oder die Schüler leiten das ihren Eltern oder Lehrer:innen sogar weiter. Dann kann hier zunächst auch gegen alle Beteiligten – Schüler:innen, Lehrer:innen oder auch Eltern – der Anfangsverdacht des Besitzes, Anfertigens oder auch des Verbreitens von kinderpornografischen Inhalten bestehen. Die Polizei wird dann im Zweifel gegen alle Beteiligten Ermittlungsverfahren einleiten müssen. Durch das „Legalitätsprinzip“ ist sie faktisch dazu verpflichtet und hat keinerlei Spielraum.

netzpolitik.org: Was sollte man stattdessen tun, um sich nicht strafbar zu machen?

Rüdiger: Richtig wäre, erst die Polizei zu informieren und dann den Anweisungen zu folgen. Hintergrund ist, dass ja erst ermittelt werden muss, ob die Aussagen überhaupt stimmen und um Schutzbehauptungen ausschließen zu können.

Auf eigentliche Täter konzentrieren

netzpolitik.org: Sollte der Gesetzgeber das Gesetz ändern?

Rüdiger: Ich glaube tatsächlich, dass der gesamte Tatbestand an diese Entwicklung angepasst werden müsste. Vielleicht müsste das Gesetz sogar gänzlich neu strukturiert werden, damit nur die Tätergruppierungen erfasst werden, um die es geht. Minderjährige im Rahmen ihrer gleichberechtigten sexuellen Entwicklung untereinander sollten nicht vom Strafrecht erfasst werden.

netzpolitik.org: Hat die Änderung des Gesetzes letztes Jahr etwas verbessert?

Rüdiger: Es hat die Situation meiner Einschätzung nach eher verschärft. Ein besonderes Problem stellt die Erhöhung des Paragrafen zu kinderpornographischen Inhalten vom Vergehen zum Verbrechen. Dadurch haben all die beschriebenen Konstellationen Mindeststrafen von einem Jahr Freiheitsstrafe. Das grenzt die Handlungsspielräume ein. Wie das aufgelöst wird, ist mir noch nicht ganz klar.

Teilweise wird bei Minderjährigen darauf hingewiesen, dass das über das Konstrukt des Diversionsverfahrens im Jugendstrafrecht gelöst werden kann. Dass sie also keine entsprechenden Strafen erwarten müssen.

netzpolitik.org: Aber das ist ja nicht nur ein juristisches Problem?

Rüdiger: Ja. Was hierbei aus meiner Sicht viel zu wenig bedacht wird: Was macht es mit Minderjährigen, wenn sie mit einem der schwersten Vorwürfe konfrontiert werden, die das Strafrecht im Prinzip kennt? Allein dafür, dass sie in einem Chat waren, in dem jemand anderes das gepostet hat? Oder dafür, dass sie gleichberechtigtes Sexting betrieben haben?

Das Ergebnis kann auch sein, dass die Polizei ihre Smartphones beschlagnahmt oder sicherstellt, im ungünstigsten Fall sind auch Hausdurchsuchungen denkbar. Was alleine der Vorwurf für Auswirkungen auch auf die Eltern und das soziale Umfeld haben kann, müsste jedem eigentlich klar sein. Eine Kampagne der Polizeilichen Kriminalprävention zeigt diese Auswirkungen in mehreren Videoclips sehr eindrücklich.

Medienkompetenz und Bildung

netzpolitik.org: Was sollte getan werden, um die Situation zu verbessern?

Rüdiger: Für mich ist neben einer Änderung des Rechtsrahmens, der gegenwärtig wichtigste Weg die frühzeitige Vermittlung von Medienkompetenz, nicht nur, aber vor allem an Kinder und Jugendliche. Dazu gehört dann auch die Aufklärung über solche Zusammenhänge. Genauso wichtig erscheint mir aber auch, dass der Gesetzgeber solche Fragen angeht und Lösungen präsentiert und nicht einfach nur jedes Mal am Strafrahmen dreht.

netzpolitik.org: Welche Lösungen wären aus ihrer Sicht sinnvoll und schnell umzusetzen?

Rüdiger: Endlich Medienkompetenz ab der ersten Klasse an jeder Schule, in diesem Rahmen sollten solche Themen angesprochen werden. Ich könnte mir auch die Übertragung der Öffnungsklausel aus dem Paragraf für Sexuellen Missbrauch von Kindern für freiwillige Handlungen zwischen annähernd gleichaltrigen Minderjährigen auf alle digitalen Sexualdelikte vorstellen. Das müssten aber dann spezialisierte Jurist:innen in Abstimmung mit der kriminalpolitischen Praxis durchdenken und entsprechend formulieren.

Aufklärung und Chatkonrolle

netzpolitik.org: Wie viele Fälle von „Kinderpornografie“ werden aufgeklärt?

Rüdiger: Die Aufklärungsquote bei kinderpornografischen Delikten liegt bei 92,5 Prozent. Unter Beachtung der hohen Zahlen minderjähriger Tatverdächtige wäre meine These: Minderjährige wissen nicht, dass sie sich strafbar machen, sind entsprechend leicht ermittelbar. Wirkliche „Täter:innen“ betreiben tendenziell mehr Aufwand, um ihre Identität zu verschleiern und die Delikte sind entsprechend schwerer aufzuklären. Die Tätergruppierungen, um die es einer Gesellschaft eher gehen sollte, sind schwerer zu identifizieren als der 14-jährige Schüler im Klassenchat.

netzpolitik.org: Am Mittwoch hat die EU-Kommission einen Gesetzesvorschlag zum Schutz von Kindern präsentiert. Danach sollen Anbieter von Internet-Diensten Kommunikation wie Chats nach „Kinderpornografie“ durchsuchen. Was halten Sie von diesem Vorschlag?

Rüdiger: Ich sehe hierbei die Gefahr, dass auch bei solchen vollautomatisierten Kontrollen am ehesten die erwischt werden, die sich im Zweifel der Strafbarkeit gar nicht bewusst sind – die Minderjährigen. Die Tätergruppierungen, um die es der Gesellschaft geht, werden vermutlich sehr schnell auf andere Mechanismen umsteigen.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Reihe über digitalen Kolonialismus: Westliche Tech-Konzerne sparen Milliarden im globalen Süden

netzpolitik.org - 13 Mai, 2022 - 07:00
Tech-Konzerne sparen Milliarden im globalen Süden (Symbolbild) – Rahel Lang

Link zur englischen Version. Link zur Serie.

20 Länder des globalen Südens könnten allein von Facebook, Google und Microsoft fast 2,8 Milliarden US-Dollar an Steuereinnahmen verlieren – umgerechnet rund 2,7 Milliarden Euro. Das geht aus einer von ActionAid im Jahr 2020 durchgeführten Untersuchung hervor. Grund sind unfaire globale Steuervorschriften.

Die besagten 2,8 Milliarden US-Dollar an Steuern reichen aus, um in diesen 20 Ländern innerhalb von drei Jahren 1,7 Millionen Krankenpfleger:innen zu beschäftigen. Damit würde ein von der Weltgesundheitsorganisation (WHO) benanntes Ziel von 40 Krankenpfleger:innen pro 10.000 Einwohner:innen in diesen Ländern erreicht. Unter anderem Indien, Bangladesch, Kenia, Südafrika sind einige der Länder, die in der ActionAid-Studie genannt werden.

Die Untersuchung zeigte, dass Facebook (heute: Meta), Google und Microsoft die Steuerschlupflöcher in den ärmsten Ländern ausnutzen, um Steuern zu vermeiden. Demnach würden allein diese drei Konzerne im Fall einer gerechteren Steuerregelung 2,8 Milliarden US-Dollar mehr zahlen müssen. ActionAid wurde 1972 gegründet und ist eine „globale Vereinigung, die sich für eine Welt ohne Armut und Ungerechtigkeit einsetzt“.

ActionAid: „Nur die Spitze des Eisbergs“

Als der Bericht erschien, zeigte gerade die Covid-19-Pandemie, dass Gesundheitssysteme auf der ganzen Welt mehr Mittel benötigen. Die Pandemie habe die dringende Notwendigkeit gezeigt, Steuersysteme zu reformieren, sagte Alex Cobham, CEO des Tax Justice Network, in einer Erklärung an das Organized Crime and Corruption Reporting Project (OCCRP). Er reagierte damit auf den von ActionAid veröffentlichten Bericht. Während die Covid-Pandemie zur Schließung lokaler Unternehmen und zum Verlust der Existenzgrundlage in der ganzen Welt geführt hat, verzeichnen die Tech-Giganten steigende Einnahmen. Berichten zufolge erwirtschafteten Facebook, Google, Apple, Microsoft und Amazon im Jahr 2021 bei einem Umsatz von 1,4 Billionen US-Dollar zusammen mehr als 320 Milliarden US-Dollar Gewinn.

Der Umfang der von diesen Unternehmen im globalen Süden erwirtschafteten Einnahmen spiegelt sich jedoch nicht in der Höhe der Steuern wider. Die besagten 2,8 Milliarden US-Dollar sind laut ActionAid „nur die Spitze des Eisbergs“. Einem anderen Bericht von ActionAid zufolge, der 2021 veröffentlicht wurde, könnten Indien, Brasilien und Indonesien mehr als die 3,8 Milliarden US-Dollar jährlich an Steuerausfällen verlieren, wenn man Alphabet, Amazon, Facebook, Microsoft und Apple betrachtet.

Größte Lücken unter anderem in Indien, Indonesien, Brasilien

Die Zahlen im ActionAid-Bericht 2020 beruhen auf Modellrechnungen und Schätzungen. Derzeit sind die multinationalen Unternehmen gesetzlich nicht verpflichtet, öffentlich darzulegen, wie viele Steuern sie in einigen Entwicklungsländern zahlen. Die Methode zur Berechnung der Steuerlücke in Höhe von 2,8 Mrd. US-Dollar basierte auf dem Anteil der weltweiten Gewinne der drei Tech-Giganten im Verhältnis zu ihrer Nutzendenzahl. Sie wurde entsprechend dem Pro-Kopf-BIP (Bruttoinlandsprodukt) der 20 in dem Bericht untersuchten Länder angepasst. Nach Angaben von ActionAid sind Indien, Indonesien, Brasilien, Nigeria und Bangladesch die Länder mit der höchsten Steuerlücke.

ActionAid behauptet, dass mit den 2,8 Milliarden US-Dollar in den 20 untersuchten Ländern Asiens, Afrikas und Südamerikas 770.649 Hebammen, 729.010 Krankenschwestern oder 879.899 Schullehrer bezahlt werden könnten – und zwar jährlich. Wären die Steuern weltweit fairer gestaltet, könnten laut ActionAid allein von Alphabet genug Gelder eingenommen werden, um in diesen 20 Ländern 244.360 Krankenpfleger:innen zu beschäftigen, was die öffentliche Gesundheitsfürsorge für Covid-19 verändern würde.

Bedarf an globalen Reformen

Bei der Besteuerung der digitalen Wirtschaft gibt es mehrere Herausforderungen. Laut David Archer, einem Sprecher von ActionAid, seien die Steuersysteme in den Ländern des globalen Südens veraltet. So könnten die großen Tech-Konzerne ihre Gewinne in Steueroasen verschieben. Eine weitere große Herausforderung bei der Besteuerung der digitalen Wirtschaft bestehe darin, „genau festzustellen, wo die Gewinne gemacht werden.“ Unternehmen wie Google oder Facebook-Mutter Meta könnten zum Beispiel Einnahmen von indischen Nutzer:innen generieren könnten, ohne physisch vor Ort zu sein. Auf diese Weise könnten die Konzerne leicht gegen die Zahlung von Unternehmenssteuern in diesen Ländern argumentieren.

Auch in den sogenannten westlichen Ländern wird viel über die Notwendigkeit einer besseren Steuerregelung diskutiert, um Steuerhinterziehung durch Tech-Giganten zu bekämpfen. Im ActionAid-Bericht aus dem Jahr 2021 heißt es, dass den OECD-, G7- und EU-Ländern jährlich 27,97 Milliarden US-Dollar, 20,77 Milliarden US-Dollar beziehungsweise 7,92 Milliarden US-Dollar entgehen. In der Folge haben Länder wie Großbritannien, Italien und Frankreich auf ihrer jeweiligen nationalen Ebene digitale Steuergesetze eingeführt. Diese Länder sind erfolgreicher darin, Tech-Konzerne zur Zahlung höherer Steuern zu bewegen.

So haben beispielsweise Unternehmen wie Facebook, Google, Amazon und Apple ihre Steuerstreitigkeiten mit den französischen Steuerbehörden beigelegt. Google hat Berichten zufolge 1 Milliarde Euro an die französischen Behörden gezahlt, um eine Steuerprüfung zu beenden. Facebook erklärte sich bereit, 106 Millionen Euro als Steuernachzahlung an Frankreich zu leisten. Die Länder des globalen Südens hinken jedoch weit hinterher, wenn es darum geht, die Tech-Giganten zu zwingen, ihren Anteil an den Steuern zu zahlen.

Auf dem Spiel stünden Milliarden

Nach den geltenden Gesetzen in mehreren Ländern des Globalen Südens müssen die Technologieunternehmen nicht offenlegen, wie viel Steuern sie zahlen, daher ist in dieser Hinsicht sehr wenig bekannt. Laut Archer könnten „Milliarden auf dem Spiel stehen“.

Einzelne Länder haben ihrerseits versucht, gegen Steuervermeidung durch die großen Tech-Konzerne vorzugehen. Nigeria zum Beispiel versucht es auf zwei Arten. Erstens wird auf jede digitale Dienstleistung eine indirekte Mehrwertsteuer (VAT) erhoben. Diese ist seit 2019 Teil des nigerianischen Finanzgesetzes. Der zweite Ansatz besteht darin, diese Unternehmen auf den von ihnen erwirtschafteten Gewinn zu besteuern. Beide Ansätze haben jedoch ihre Probleme.

Laut Mustapha Ndajiwo, Gründer des African Centre for Tax and Governance (ACTG) in Nigeria, sind diese komplexen Vorschriften nicht einfach umzusetzen. Zum Ansatz der indirekten Steuern sagt er: „Die Unternehmen können die Steuern sofort auf den Verbraucher:innen abwälzen.“ Ndajiwo bezeichnete jedoch die Besteuerung von Gewinnen als das „Hauptproblem“, da dieser Ansatz noch immer nicht das Problem der Gewinnverlagerung in Steueroasen angeht.

Indien führte 2020 eine „Google-Steuer“ ein

Indien ist mit einem ähnlichen Problem konfrontiert. Indien führte im April 2020 eine Ausgleichsabgabe ein, die vereinfachend „Google-Steuer“ bezeichnet wird. Im Rahmen dieser Steuer müssen Werbetreibende, die auf Plattformen wie Google und Facebook tätig sind, eine Abgabe von 6 Prozent abführen, bevor sie Zahlungen an diese Plattformen leisten. Die besagte Abgabe wird auch dann erhoben, wenn sowohl der Werbetreibende als auch die Plattform ihren Sitz nicht in Indien haben. Entscheidend ist allein, dass die Werbung in Indien sichtbar ist.

Es gab jedoch Befürchtungen, dass diese Plattformen „die Kosten auf die Kund:innen abwälzen könnten“, so Neeru Ahuja, Partner bei Deloitte India. Und es überrascht nicht, dass Google angekündigt hat, im Jahr 2021 die Last der besagten Abgabe auf die Kund:innen abzuwälzen, die ihre in Indien sichtbaren Anzeigen bei Google schalten.

Befürchtung von Vergeltungszöllen der USA

Das African Tax Administration Forum (ATAF) mit Sitz in Südafrika arbeitet an der Einführung einer Digitalsteuer. Bislang hat es fast 38 Länder in Afrika in Steuerfragen unterstützt. Das ATAF arbeitet auch mit der Afrikanischen Union zusammen.

„Aus Gesprächen mit unseren Mitgliedern wissen wir, dass einige andere afrikanische Länder die Einführung einer Steuer auf digitale Dienstleistungen erwägen“, sagt Logan Wort, Geschäftsführer der ATAF. Da die Länder jedoch die Einführung der Digitalsteuer in Erwägung ziehen, befürchten sie, dass die USA Vergeltungsmaßnahmen ergreifen könnten. „Einige Mitglieder sind jedoch besorgt über mögliche Vergeltungsmaßnahmen der USA gegen sie“, so Logan Wort gegenüber der Deutschen Welle. „Das könnte zur Verhängung von Zöllen auf Exporte aus diesen Ländern in die USA führen.“

Diese Befürchtungen sind berechtigt. Nachdem Frankreich 2019 die Einführung einer Digitalsteuer in Erwägung gezogen hatte, kündigten die USA eine Strafsteuer dagegen an. Die neue US-Regierung unter Joe Biden hat sich jedoch kürzlich darauf geeinigt, dass Tech-Unternehmen einen größeren Anteil ihrer Einnahmen in den Ländern zahlen sollten, in denen sie tätig sind.

OECD – ein „Club der reichen Nationen“

David Archer betonte die Bedeutung eines globalen Steuersystems, als er den im Jahr 2020 veröffentlichten Bericht von Action Aid kommentierte. Er behauptete jedoch, dass die OECD-Länder das größte Hindernis auf dem Weg zu diesem Ziel darstellen. „Es ist ein Club reicher Nationen, die sich nicht so sehr um die Bedürfnisse der Entwicklungsländer kümmern“. 

Im Oktober 2021 schloss die OECD nach jahrelangen Verhandlungen ein Abkommen zur Reform der internationalen Steuervorschriften ab. Dem Abkommen haben 136 Länder und Gerichtsbarkeiten weltweit zugestimmt, die mehr als 90 Prozent des globalen BIP repräsentieren. Laut der OECD-Website würden die eingeführten Reformen „sicherstellen, dass multinationale Unternehmen (MNU) ab 2023 einem Mindeststeuersatz von 15 Prozent unterliegen“.

Das besagte Abkommen sieht außerdem ein Reformpaket mit zwei Säulen vor. Die erste Säule soll eine gerechtere Verteilung der Besteuerungsrechte für Gewinne in Höhe von mehr als 125 Milliarden US-Dollar gewährleisten. Das soll funktionieren, indem die Besteuerungsrechte auf die Länder mit den größten multinationalen Unternehmen (MNU) verteilt werden. Nach diesen Reformen würden die Besteuerungsrechte in den Ländern entstehen, in denen die Einkünfte erwirtschaftet werden – auch wenn ein multinationales Unternehmen in diesem Land keine physische Präsenz hat. Im Rahmen der zweiten Säule wird ein globaler Mindestkörperschaftssteuersatz von 15 Prozent für Unternehmen mit einem Umsatz von über 750 Millionen Euro eingeführt.

ActionAid: „Mindeststeuersatz zwischen 25 und 30 Prozent“

Das Abkommen wurde jedoch von ActionAid heftig kritisiert. Im Jahr 2021 unterstützte ActionAid Nigeria die Entscheidung der nigerianischen Regierung, das besagte Abkommen nicht zu unterzeichnen. Sie kritisierte den Steuersatz von 15 Prozent im Rahmen des neuen Abkommens als zu niedrig. In einer von ActionAid Nigeria im Juli 2021 veröffentlichten Erklärung hieß es: „Nigeria hat Regeln und Vorschriften mit einer Körperschaftssteuer von 30 Prozent für große und multinationale Unternehmen aufgestellt. Der durchschnittliche Körperschaftssteuersatz für afrikanische Länder liegt bei 28 Prozent. Der Mindestkörperschaftssteuersatz von 15 Prozent ist jedoch zu niedrig und daher unzureichend, um den Wettlauf nach unten zu stoppen.“

ActionAid sagte: „Um einen moderaten Stand zu erreichen, braucht Nigeria, wie die meisten anderen afrikanischen Länder, einen globalen Mindeststeuersatz von 25 bis 30 Prozent.“

ActionAid kritisierte auch „Verhandlungen, die von reichen Ländern zu ihrem Vorteil geführt werden“. Es kritisierte die Aufforderung des besagten OECD-Deals an alle Länder, die einseitigen oder nationalen Steuergesetze zur Besteuerung der digitalen Wirtschaft abzuschaffen oder zurückzunehmen. „Es ist grundlegend unfair, von den Ländern des globalen Südens zu verlangen, dass sie ihre einseitige Besteuerung der digitalen Wirtschaft aufgeben, um ein Abkommen umzusetzen, das sie nicht mit ausgehandelt haben, zumal sie davon nur am Rande profitieren werden.“

Picketty: „ein riesiger Betrug“

ActionAid kritisierte auch, dass das Abkommen frühestens 2023 in Kraft treten würde und dass die erste Überprüfung der Regeln im Rahmen des Abkommens erst 2030 stattfinden könnte. In der Erklärung wird auf die Dringlichkeit des Bedarfs an Mitteln für bessere Gesundheitssysteme auf der ganzen Welt hingewiesen: „Die Einnahmen werden im globalen Süden dringend benötigt, um die Herausforderungen durch die Covid-19-Pandemie zu bewältigen und Armut und Ungleichheit zu bekämpfen.“ Unternehmen, die in der digitalen Wirtschaft tätig sind, müssten gezwungen werden, ihren fairen Anteil an Steuern zu zahlen.

Auch der Ökonom Dr. Thomas Picketty, Autor des Buches „Capital“ und Mitglied der ICRICT (Independent Commission for the Reform of International Corporate Taxation), kritisierte bereits 2019 die damals laufenden globalen Steuerverhandlungen. Er bezeichnete den neuen Plan für ein globales Steuersystem als „enormen Betrug“ und forderte einen Mindestkörperschaftssteuersatz von 25 Prozent.

Entgegen der landläufigen Meinung ist der globale Mindeststeuersatz von 15 Prozent ein großer Rückschritt. Bis 1980 betrugen die „Körperschaftssteuersätze weltweit im Durchschnitt 40,11 Prozent„. Bis 1990 lagen die weltweiten Körperschaftssteuersätze für Länder mit niedrigem, hohem und mittlerem Einkommen fast durchgängig zwischen 39 Prozent und 45 Prozent. Seitdem sind die Sätze drastisch und kontinuierlich gesunken. Im Jahr 2018 lag der Steuersatz für Länder mit hohem Einkommen bei fast 22 Prozent, für Länder mit mittlerem Einkommen bei 24 Prozent und für Länder mit niedrigem Einkommen bei 29 Prozent. Der Steuersatz von 15 Prozent im Rahmen des neuen Abkommens setzt den globalen Unternehmenssteuersatz gefährlich niedrig an, insbesondere für Länder mit niedrigem Einkommen, die die höchsten Steuern zahlen müssen.

Kolonialismus gestern und heute

In der heutigen digitalen Wirtschaft erzielen multinationale Unternehmen immense Einnahmen aus dem globalen Süden. Diese Unternehmen tun dies jedoch, ohne den ihnen zustehenden Anteil an Steuern an die Länder zu zahlen. Das führt zu enormen Einkommensverlusten. Durch Steuervermeidung wird den Ländern des globalen Südens Reichtum entzogen, während sie gleichzeitig die Ressourcen dieser Länder aufbrauchen und ausbeuten. Diese Art der Ausbeutung erinnert an die Kolonialzeit, als der Reichtum in ähnlicher Weise direkt ausgebeutet wurde und die kolonisierten Länder arm gemacht hat.

Die besagten 2,8 Milliarden US-Dollar Verlust aufgrund von Steuervermeidung durch die Tech-Konzerne sind nur ein sehr kleiner Teil der Gesamtverluste. Nach Angaben der OECD beläuft sich der Wert der jährlichen Steuervermeidungsverluste in Afrika auf 50 bis 80 Milliarden US-Dollar. Dieser Betrag übersteigt sogar den Wert der Entwicklungshilfe, die Afrika jährlich erhält.

Im Jahr 2019 belief sich die Hilfe für Afrika aus den Ländern des Entwicklungshilfeausschusses (DAC) auf insgesamt fast 49 Milliarden US-Dollar. Das DAC ist ein internationales Komitee, das unter der Schirmherrschaft der OECD steht und sich aus den USA und den meisten Ländern der Europäischen Union zusammensetzt. Nach Angaben der Wirtschaftskommission der Vereinten Nationen für Afrika (UNECA) ist der Wert der durch Steuerhinterziehung in Afrika verursachten Verluste mit rund 89 Mrd. US-Dollar sogar noch höher.

Aufruf zu einer Änderung des globalen Steuersystems

ActionAid bezeichnete das neue OECD-Abkommen als „enttäuschend“ und forderte „umfassendere Reformen der internationalen Steuerpraktiken und -verträge“. Laut ActionAid würden nur solche Reformen den Ländern des globalen Südens eine gleichberechtigte Stimme am Verhandlungstisch mit den reicheren Ländern geben.

In einer Erklärung, die nach dem 2020-Bericht veröffentlicht wurde, heißt es weiter, dass die Regierungen im globalen Süden dieses Geld dringend benötigen, um öffentliche Dienstleistungen wie Gesundheitsversorgung und sozialen Schutz für die Milliarden von Menschen zu finanzieren, die von der Covid-19-Pandemie betroffen sind.

Weiter heißt es: „Angesichts der dringenden Bedürfnisse von Frauen und jungen Menschen, die von Covid-19, Hunger und Arbeitslosigkeit betroffen sind, sollten die Regierungen Maßnahmen ergreifen, um Tech-Unternehmen zu besteuern, anstatt sich auf ein globales Abkommen zu einigen“. Diese Steuern sollten laut ActionAid progressiv sein und auf die enormen Gewinne der Tech-Giganten abzielen, um sicherzustellen, dass die Kosten nicht auf die Nutzer:innen abgewälzt werden.

Digitaler Kolonialismus

Dieser Artikel ist Teil einer Reihe über digitalen Kolonialismus. Wir werden verschiedene Themen behandeln, die mit der Dominanz einer Handvoll mächtiger Länder und großer Technologieunternehmen im digitalen Raum des globalen Südens zusammenhängen. In den letzten Jahren haben Wissenschaftlerinnen und Aktivisten zunehmend darüber geschrieben, wie diese Handvoll Firmen digitale Technologien nutzen, um eine sozio-politische und wirtschaftliche Vorherrschaft zu erlangen, die die Souveränität und die lokale Regierungsführung in den Ländern des globalen Südens untergräbt.

Einige Wissenschaftler bezeichnen dieses Phänomen als digitalen Kolonialismus. Sie argumentieren, dass sich zwar die Art und Weise, das Ausmaß und die Kontexte geändert haben mögen, die dem Kolonialismus zugrunde liegende Funktion des Aufbaus von Imperien, der Wertschöpfung, der Ausbeutung von Arbeitskräften und der Aneignung jedoch dieselbe geblieben ist.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Series on digital colonialism: Western tech companies saving billions in taxes in the global south

netzpolitik.org - 13 Mai, 2022 - 07:00
Tech companies save billions in the global south (symbol image) – Rahel Lang

Link to the German version. Link to the series

A research conducted by ActionAid in 2020 revealed that 20 countries from the global south could be losing out on almost $2.8 billion in tax revenues from Facebook, Google and Microsoft alone due to unfair global tax rules.

The said $2.8 billion in taxes is enough to employ 1.7 million nurses in these 20 countries within three years. This would meet the World Health Organization (WHO) benchmark target of 40 nurses per 10,000 people in these countries. India, Bangladesh, Kenya, South Africa, etc., are some of the countries mentioned in the ActionAid research.

The research revealed that Facebook, Google and Microsoft are exploiting the tax loopholes in the poorest countries to avoid paying taxes. It says that a fairer tax regime would make just these three companies liable to pay 2.8 billion dollars. ActionAid, founded in 1972, is a „Global federation working for a world free from poverty and injustice“.

ActionAid: „just the tip of the iceberg“

The report came at a time when the Covid-19 pandemic highlighted the need for increased funding for the healthcare systems around the world. „The Covid-19 pandemic has confirmed the urgent need to reprogram our tax systems,“ said Alex Cobham, CEO of the Tax Justice Network in a statement to Organized Crime and Corruption Reporting Project (OCCRP). His comments came in response to the report released by ActionAid. While the Covid pandemic has led to closures of local businesses and loss of livelihood across the world, the tech giants have registered soaring revenues. According to reports, Facebook, Google, Apple, Microsoft and Amazon collectively made more than $320 billion in Profits on $1.4 trillion in sales in 2021.

However, the size of revenues generated by these companies in the global south is not reflected in the amount of taxes that they pay there and the said $2.8 is „just the tip of the iceberg“, according to ActionAid. In fact, according to another report released by ActionAid in 2021, just India, Brazil, and Indonesia could be losing out more than the US $3.8 billion annually in tax losses from Alphabet, Amazon, Facebook, Microsoft, and Apple.

Highest gaps in India, Indonesia, Brazil, and others

The figures in the 2020 ActionAid report are based on modeling and estimates. Currently, multinational corporations are not required by law to publicly disclose how much tax they pay in some developing countries. The methodology used to calculate the $2.8 billion „tax gap“ was based on the share of the three tech giants’ global profits, relative to their number of users. It was adjusted according to the per capita GDP of the 20 countries studied in the report. According to ActionAid, India, Indonesia, Brazil, Nigeria, and Bangladesh are the countries with the highest tax gap.

ActionAid claims that the US $2.8 billion could be used to pay for 770,649 midwives, 729,010 nurses, or 879,899 school teachers ANNUALLY in the 20 countries studied across Asia, Africa, and South America. In fact, according to ActionAid, had the global taxes been fair, enough taxes could be raised from Alphabet alone to employ 244,360 nurses in these 20 countries which would transform the public health response to Covid-19.

Need for global reforms

There are several challenges in taxing the digital economies. According to David Archer, who is a spokesman for ActionAid, the outdated global tax regimes and regulations in the countries in the global south allow the big tech firms to move the profits they make to the tax haven locations. Another major challenge in taxing the digital economy is „in establishing exactly where profits are made.“ As companies like Google or Facebook could generate revenues from Indian users (for instance) without physically being there, these companies could easily argue against paying the corporate taxes in these countries.

In the „Western“ countries also, there is a huge discourse on the need for a better tax regime in order to tackle tax evasions by the tech giants. In fact, the 2021 ActionAid report claims that the OECD, G7, and EU27 countries are potentially losing out on US$27.97 billion, US$20.77 billion, and US$7.92 billion annually respectively. Consequently, countries like the United Kingdom, Italy, and France have introduced digital tax laws at their respective national levels in order to generate more revenues from the tech giants. The difference seems to be that these countries are more successful in making the tech companies pay higher taxes.

For instance, companies like Facebook, Google, Amazon, and Apple have settled their tax disputes with the French tax authorities. Google is reported to have paid 1 billion Euros to French authorities to end a tax probe. Facebook agreed to pay 106 million Euros to France as a payment in back taxes. However, the countries in the global South lag far behind in forcing the tech giants to pay their share of taxes.

A different story on the ‚other side‘

Under the given laws in several countries in the Global South, the tech companies are not required to disclose how much taxes they are paying, therefore very little is known in this regard. According to Archer, „billion could be at stake“.

Individual countries on their part have attempted to tackle the tax avoidances by the big tech firms. Nigeria, for instance, attempts to do this in two ways. First, is the Indirect Value-added Tax (VAT) levied on every digital service. This is part of the Nigerian Finance act since 2019. The second approach is to tax these companies on the profit they make. However, both approaches have their own problems.

According to Mustapha Ndajiwo, founder of the African Centre for Tax and Governance (ACTG) in Nigeria, these complex regulations are not easy to implement. As far as the indirect tax approach is concerned, he says: „Companies can immediately pass the taxes on to the consumer.“ But Ndajiwo called taxation of profit the „main problem“, as this approach still doesn’t address the issue of shifting of profits to the tax havens.

India introduced a „Google tax“ in 2020

India is facing a similar issue. India introduced an Equalisation Levy or what is popularly known as the ‚Google tax‘ in April 2020. Under this tax, the advertisers which operate on platforms such as Google and Facebook had to deduct a 6% levy before making any payments to these platforms. The said levy is imposed even if both the advertiser and the platform are not based in India. What is required is that the advertisements are visible in India.

However, there were fears that these platforms may „push costs on to customers“, said Neeru Ahuja, Partner, Deloitte India. And not surprisingly, in 2021, Google announced that it will pass the burden of the said levy on the clients who post their advertisements visible in India on Google.

Fears of retaliatory tariffs from the US

African Tax Administration Forum (ATAF), which is based in South Africa, has been working on introducing a digital tax. So far, it has aided almost 38 countries in Africa regarding issues concerning tax. ATAF is also working with the African Union.

„From discussions with our members, we know that some other African countries are considering introducing a digital service tax,“ says Logan Wort, ATAF’s executive director. However, as the countries are considering imposing the digital tax, they fear that the US would act in retaliation. „However, some members have concerns about possible US retaliation against them,“ Logan told Deutsche Welle. „That could lead to the imposition of tariffs on exports from those countries to the US.“

These fears are justified. In 2019, after France considered introducing a digital tax, the US announced a punitive tax against it. However, the new US administration under Joe Biden recently agreed that tech companies should pay a more significant share of their revenues in the countries where they operate.

OECD – a „club of rich nations“

David Archer stressed the importance of a global tax regime while commenting on the Action Aid report released in 2020. However, he claimed that it is the OECD countries that are the biggest roadblock to achieving this. „It’s a club of rich nations that don’t care that much about the needs of developing countries.“

In October 2021, after years of negotiations, the OECD finalized a deal to reform the international taxation rules. The deal was agreed upon by 136 countries and jurisdictions worldwide representing more than 90% of the global GDP. According to the OECD website, the reforms introduced would „ensure that Multinational Enterprises (MNEs) will be subject to a minimum 15% tax rate from 2023.”

The said deal also introduces a two-pillared reform package. Pillar one would ensure a fairer distribution of taxing rights on more than $125 billion in profits by relocating the taxing rights among the countries over the largest Multinational Enterprises (MNEs). According to these reforms, taxing rights would arise in the countries where the revenues are generated, even if an MNE does not have a physical presence in that country. illar two introduces a 15% global minimum corporate tax rate on companies with revenues above EUR 750 million.

ActionAid: „minimum tax rate between 25 to 30 percent“

However, the deal has come under heavy criticism from ActionAid. In 2021, ActionAid Nigeria, supported the Nigerian government’s decision to not sign the said deal by criticizing the 15% tax rate under the new deal as too low. In a statement released by ActionAid Nigeria in July 2021, it said, „Nigeria set up rules and regulations with the corporate tax at 30 percent for big and multinational companies. The average Corporate Tax Rate for African countries is 28 percent. However, the 15 percent minimum corporate rate is too low and therefore inadequate to stop the race to the bottom.“

ActionAid said: „For a moderate stand, Nigeria, like most other African countries will need the global minimum tax rate to stand between 25 percent to 30 percent“.

ActionAid was also critical of „negotiations carried out by rich countries for their benefit.“ It criticized the call by the said OECD deal on all countries to remove or take back the unilateral or national tax laws to tax the digital economy. „It is fundamentally unfair to ask countries in the global south to trade-off their unilateral taxation of the digital economy, in lieu of implementing a deal they were not part of negotiating, coupled with the fact that they will only marginally benefit from it“.

Picketty: „an enormous scam“

ActionAid also criticized that the deal would take effect earliest in 2023 and that the first review of the rules within the deal could only take place in 2030. Highlighting the urgency of the requirement of funds for better health care systems around the world, the statement said: „Revenues are desperately needed in the global south to tackle the challenges posed by the COVID-19 pandemic and to fight poverty and inequality. Companies operating within the digital economy need to be compelled to pay their fair share of taxes.“

As early as 2019, the economist Dr. Thomas Picketty, author of the book ‚Capital‘ and a member of the Independent Commission for the Reform of International Corporate Taxation (ICRICT), also criticised the then ongoing global tax negotiations. He termed the new plan for a global tax regime as „an enormous scam“, and demanded a minimum corporate tax rate of 25%.

Contrary to popular opinion, the 15% global minimum tax rate is a major step backward. Up until 1980, „corporate tax rates around the world averaged 40.11 percent„. Until 1990, the global corporate income tax rates for low-income, high-income, and middle-income countries were almost between 39% and 45%. Since then the rates have fallen drastically and continuously. In 2018, the tax rate for high-income countries was almost 22%, it was 24% for middle-income countries, and 29% for low-income countries. The 15% tax rate under the new deal sets the global corporate tax rate dangerously low, especially for low-income countries which need the highest taxes.

Colonialism yesterday and today

In today’s digital economy, multinational corporations generate immense revenues from the global south. However, these companies do this without paying their due share of taxes to the countries, thus causing huge income losses. By way of tax avoidance, wealth is extracted from the countries in the global south all the while using up and exploiting the resources of these countries. This extraction is reminiscent of colonial eras when similarly the wealth was extracted directly rendering the colonized countries poor and impoverished.

The said $2.8 billion in loss due to tax avoidance by the tech companies in fact forms a very small section of huge overall losses in revenues in the global South due to tax avoidances. According to OECD, the overall total value of the annual tax avoidance losses to Africa is somewhere between 50 to 80 billion US-dollars. This even exceeds the amount of the value of development aid given to Africa yearly.

In 2019, the total Aid to Africa from Development Assistance Committee (DAC) countries totaled almost $49 billion. DAC is an international committee acting under the auspices of the OECD and is made of the USA and mostly the countries from the European Union.However, according to The United Nations Economic Commission for Africa (UNECA) the value of losses due to tax evasions in Africa is even higher at about $89 billion.

Call for a change in the global tax regime

While terming the new OECD deal as „disappointing“, ActionAid called for „more comprehensive reforms of the international tax practices and treaties“. ActionAid says that only such reforms would grant these countries from the global south an equal voice on the negotiating table with the richer countries.

Further, in a statement released after the 2020 report, it also claimed that the governments in the global south urgently need this money to fund public services such as healthcare and social protection for the billions of people affected by the Covid-19 pandemic.

It said, „given the urgent needs of women and young people impacted by Covid-19, hunger, and unemployment, governments should take steps to tax tech companies, in lieu of a global deal being agreed. These taxes should be progressive, targeting the enormous profits of tech giants, ensuring the costs aren’t passed to the users.“

Digital Colonialism

This article is part of a series on Digital Colonialism. We will cover different issues pertaining to the dominance of digital space in the global south by a handful of powerful countries and major tech companies. Over the past several years, scholars and activists have been increasingly writing on how this handful of firms make use of digital technologies to create dominance which extends itself to socio-political and economic space undermining the sovereignty and local governance in countries of the global south.

These scholars term this phenomenon as digital colonialism. They argue, that while the mode, scale, and contexts may have changed, colonialism’s underlying function of empire building, value extraction, exploitation of the workforce, and appropriation, remain the same.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Massenüberwachung: Vernichtende Kritik für die Chatkontrolle aus Verbänden und Politik

netzpolitik.org - 12 Mai, 2022 - 17:13
Bisher kam die Kritik an der Chatkontrolle nicht bei EU-Innenkommissarin Ylva Johansson an. Doch die Vehemenz hat sich nach der Präsentation der Pläne deutlich gesteigert. (Archivbild) – Alle Rechte vorbehalten IMAGO / Frank Ossenbrink

Am Mittwoch hat die EU-Kommission ihre Pläne für eine „Chatkontrolle“ vorgestellt – die Reaktionen darauf aus Presse, Zivilgesellschaft und Politik sind vernichtend. In Berlin wurde sogar schon auf der Straße demonstriert. Die Pläne der EU-Kommission sehen vor, dass Internetanbieter private Kommunikationsinhalte durchsuchen sollen. Die Kommission will so gegen sexuelle Gewalt gegen Kinder vorgehen. 

Für den Deutschen Kinderschutzbund geht der Entwurf der Kommission zu weit. Der Vorstand des Vereins, Joachim Türk, äußert gegenüber dem Bayerischen Rundfunk Bedenken gegen die massenhafte Überwachung privater Chatnachrichten. Der Großteil von Kindesmissbrauchsinhalten werde über Plattformen und Foren geteilt. Das Scannen privater Nachrichten sei „weder verhältnismäßig noch zielführend.“

„Weder verhältnismäßig noch zielführend“

Der Deutsche Journalisten-Verband sieht im Vorhaben die „größte europäische Datenüberwachung aller Zeiten“ und fürchtet massive Eingriffe in Grundrechte wie die Presse- und Meinungsfreiheit. Der Verband fordert deshalb vom EU-Parlament und von den nationalen politischen Entscheidungsträger:innen, den Überwachungsplänen der Brüsseler Kommission die Zustimmung zu verweigern.

Auch die Bürgerrechtsorganisation Gesellschaft für Freiheitsrechte sagt, dass die EU-Kommission mit dem Vorschlag zur Chatkontrolle die Axt an die Grundrechte anlege. „Journalist:innen, Anwält:innen, Whistleblower:innen und alle anderen, die auf vertrauliche Kommunikation angewiesen sind, werden durch die Chatkontrolle erheblichen Risiken ausgesetzt, die grundrechtlich nicht zu rechtfertigen sind“, heißt es in einer Erklärung.

„Ausgeklügeltste Massenüberwachungs-Maschinerie außerhalb Chinas“

Matthew Green, einer der profiliertesten Forschenden zu Verschlüsselung, zeigt sich auf Twitter schier fassungslos über die Pläne der Kommission. Das Dokument beschreibe „die ausgeklügelteste Massenüberwachungs-Maschinerie, die je außerhalb Chinas und der UdSSR“ entwickelt worden sei.

Die Kommission will nicht nur nach bekannten und neuen Bildern suchen, sondern auch die Anbahnungsversuche im Text von Nachrichten ins Visier nehmen („Grooming“). Daher laufe das geplante Gesetz auf eine Massenüberwachung aller Nachrichten hinaus, so Green, ein „furchterregendes“ Szenario. Er bezeichnet es als „Science Fiction“, dass eine „Künstliche Intelligenz“ Nachrichten treffsicher auf solche Inhalte scannen könne und dabei die Privatsphäre der Betroffenen wahre. So etwas existiere heute schlicht nicht.

Der Kryptologe Alec Muffett weist darauf hin, was das geplante System konkret bedeuten würde: Viele Menschen kommunizieren via Messenger mit ihren Kleinkindern, Enkeln oder Nichten, sei es, um ihnen in der Badewanne etwas vorzusingen zur Schlafenszeit. Sie müssten davon ausgehen, dass die Bilder in Zukunft auf dem Schreibtisch von Behörden landen. Das würde auch Familien betreffen, die sich Fotos ihrer Kinder in Chatgruppen hin und her schicken, vielleicht vom Strand oder aus dem Freibad.

„Gefährlicher Tabubruch“

Auch einzelne Politiker:innen der Ampelparteien melden sich zu Wort und verurteilen den Vorschlag der EU-Kommission. Die FDP-Politikerin und ehemalige Justizministerin Sabine Leutheusser-Schnarrenberger äußerte sich auf Twitter, der Entwurf überschreite „alle Vorstellungen“. Das Recht auf Verschlüsselung werde unmöglich gemacht. Auch die grüne Europaabgeordnete Alexandra Geese zeigt sich empört: „Kinder werden durch mehr Personal für Ermittler*innen und Jugendschutz geschützt, nicht durch systematisches Ausspionieren.“ Die Chatkontrolle sei ein gefährlicher Tabubruch.

Der SPD-Europaabgeordnete Tiemo Wölken bezeichnete den Entwurf auf Twitter als „Katastrophe“. Er sei „alles, was das Überwachungsherz begehrt“. Der digitalpolitische Sprecher der SPD im Bundestag, Jens Zimmermann, twitterte: „Das gehört eher nach Russland, als nach Europa. #Zensursula lässt grüßen“. Der FDP-Europaabgeordnete Moritz Körner twitterte: „Von der Leyen will staatliche Schnüffelsoftware bereitstellen und Unternehmen verpflichten, ihre User zu überwachen.“

„Verschlüsselung wird obsolet“

Der grüne Innenpolitiker Konstantin von Notz bloggte zum Thema. Das Recht auf die anonyme und pseudonyme Nutzung des Internets würde mit dem Vorhaben offen in Frage gestellt, Verschlüsselung bewusst umgangen. Algorithmische Systeme seien völlig unausgereift. „Der Vorschlag legt somit die Axt an das Recht auf Vertraulichkeit der privaten Kommunikation.“

Der grüne Digitalpolitiker Tobias Bacherle sieht mit dem Entwurf das Grundrecht der EU-Bürger:innen auf Vertraulichkeit der privaten Kommunikation verletzt. Für dessen Schutz habe sich die Ampelkoalition im Koalitionsvertrag klar positioniert. Bacherle weiter: „Die Verordnung könnte schnell zu einer Vorlage und Blaupause für autoritäre Staaten werden, die sich sicherlich freuen diese Methode der Massenüberwachung ausgeweitet zu übernehmen.“

Henning Tillman vom netzpolitischen Verein D64 hält die EU-Pläne für „mehr als bedenklich“, sie müssten dringend gestoppt werden. Bei Load e.V. sieht man den Vorschlag ebenso kritisch, fürchtet um die anonyme Nutzung von Apps und geht davon aus, dass die Chatkontrolle Verschlüsselung „obsolet“ machen würde.

„Nicht mit europäischen Werten vereinbar“

Auch der Bundesdatenschutzbeauftragte Ulrich Kelber geht mit dem Entwurf hart ins Gericht: Dieser sei „nicht vereinbar mit unseren europäischen Werten und kollidiert mit geltendem Datenschutzrecht.“ So bedrohe der Entwurf die Vertraulichkeit der Kommunikation, die absichtliche Schwächung von verschlüsselter Kommunikation öffne Missbrauch Tür und Tor. Zudem sei das anonyme Internet bedroht. Verpflichtende Alterskontrollen würden dafür sorgen, dass Nutzer:innen identifiziert würden. 

Beim Spiegel nennt Journalist Patrick Beuth das Vorhaben „Ein Gesetz aus dem Überwachungs-Phantasialand“. Der Entwurf stecke „voller Widersprüche und Wunschdenken“. Beuth fragt: „Wie weit muss die EU-Kommission gehen, um mit den Regierungen von China und Russland in einen Topf geworfen zu werden?“

Diesen Vergleich zieht auch Journalist Friedhelm Greis in seinem Golem-Kommentar „Ein totalitärer Missbrauch von Technik“: Chatkontrolle gebe es nicht einmal in China und Russland, heißt es dort. Die Pläne seien ein harter und beispielloser Angriff auf wichtige Grundrechte und könnten die Bahn für eine Totalüberwachung sämtlicher Kommunikationsinhalte brechen. „Eine solch anlass- und verdachtslose Überwachung der gesamten Bevölkerung kennt man eigentlich nur von autoritären und totalitären Regimes.“

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Protest: So war die erste Demo gegen die Chatkontrolle

netzpolitik.org - 12 Mai, 2022 - 12:38
Die Kampagne Chatkontrolle Stoppen! ruft zum Straßenprotest auf. – CC0 Jakob Rieger

In Berlin haben Gegner:innen der Chatkontrolle gegen die Pläne der EU-Kommission erstmals auch auf der Straße protestiert. Der Vorschlag der EU-Kommission zur Bekämpfung sexualisierter Gewalt gegen Kinder sieht vor, dass Anbieter auch private Chatnachrichten nach solchen Inhalten durchsuchen sollen. Die Kampagne Chatkontrolle Stoppen! hatte deshalb bereits am Montag zu dem Straßenprotest vor dem Gebäude der Vertretung der EU-Kommission in Berlin aufgerufen. Dem Aufruf sind etwa 30 Menschen gefolgt. Hinter der Kampagne steht eine Kooperation des Chaos Computer Clubs (CCC) sowie den Vereinen Digitale Gesellschaft und Digitalcourage.

Viele der Menschen sind bei der Aktion dabei, weil sie sich um ihre Privatsphäre und ihre Rechte im Netz sorgen: „Ich finde es total wichtig, dass ich nicht komplett überwacht werde. Es ist wichtig, dass der Staat transparent wird, nicht wir“, äußert die Studentin Raja.

Auch Elke, die im Vorstand bei Digitale Gesellschaft aktiv ist, äußert Sorge über die Konsequenzen der Chatkontrolle: „Ich bin hier, weil der Gesetzesvorschlag heute veröffentlicht worden ist und die Privatsphäre mit Smartphones praktisch unmöglich gemacht wird.“

Mit dem Thema in die Öffentlichkeit

Für manche Teilnehmende ist wichtig, dass die geplante Chatkontrolle in der Öffentlichkeit bekannter wird.  „Ich bin hier, um das ganze zu verbreiten, denn es ist ein wichtiges Problem meiner Meinung nach, wenn in den privaten Bereich der Kommunikation eingegriffen wird“, erklärt Cherry. Cherry war bereits aktiv bei den Protesten gegen Uploadfilter. „Der User wird in die Enge getrieben. Chats sind dann weniger geschützt als Biefe“, fürchtet Cherry.

Das Vorhaben der EU, anlasslos und massenhaft Inhalte auf Endgeräten oder während der Kommunikation zu durchsuchen, in die Öffentlichkeit zu bringen ist ein erklärtes Ziel des Protests. Mit einem Foto der Demonstrierenden will die Kampagne zeigen, dass es Widerstand gegen die Pläne gibt und dass dieser ab jetzt auch auf der Straße stattfindet.

Ausweitung auf andere Bereiche befürchtet

Andere Teilnehmenden fürchten, dass die Chatkontrolle, wenn sie einmal eingeführt ist, auch für andere Bereiche angewendet wird. „Hochemotionale Themen wurden vorgeschoben. Wenn einmal eine Struktur aufgebaut ist, dann kann es auch für andere Sachen angewendet werden, die Befürchtung habe ich“, bemerkt Elektra von Freifunk.

Nicht erst seit dem geleakten Entwurf des Vorhabens der EU-Kommission bei Politico äußern sich Stimmen aus der Zivilgesellschaft und von Politiker:innen skeptisch gegenüber den Plänen einer Chatkontrolle. So hatten sich im Vorfeld 45 Bürgerrechtsorganisationen mit einem Positionspapier gegen die Chatkontrolle gestellt. Und auch IT-Sicherheitsforscher:innen haben die Pläne kritisiert.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Dude, where’s my privacy?: How a Hollywood star lobbies the EU for more surveillance

netzpolitik.org - 12 Mai, 2022 - 11:38
Actor Ashton Kutcher has invested heavily in tech – Alle Rechte vorbehalten IMAGO / Motorsport Images

A controversial new law proposed by the European Commission could oblige popular apps such as Instagram, WhatsApp or Signal to screen all private messages of their users for possible child abuse material.

The draft law, unveiled yesterday in Brussels, does not specify which technology must be used. Privacy advocates fear that in practice, the law could mean that most services will have to use client-side scanning, an intrusive technology that circumvents end-to-end encryption.

While opposition to the new law is led by privacy organisations and members of the European Parliament, a leading voice in lobbying in its favour is Thorn, a non-profit founded by Hollywood actor Ashton Kutcher and his then-wife Demi Moore. While the organisation has little public profile in Brussels, its advocacy has reached the highest levels of the European Commission.

Kutcher is known to older millennials for movies such as „Dude, where’s my car“. Outside of his acting career, he has dabbled in technology investing. With Thorn, Kutcher entered the market for surveillance technology: In 2020, the organization launched „Safer,“ which claims to be the „first comprehensive third-party CSAM [child sexual abuse material] detection platform“.

More than a dozen emails and meeting minutes

To EU institutions, Thorn presents itself as a charity organization that fights against child abuse. Meanwhile, the organization repeatedly brought up its proprietary child abuse tracking software in meetings with EU officials. This is shown by more than a dozen emails and meeting minutes that netzpolitik.org obtained through freedom of information requests to the EU Commission, German and Swedish authorities.

The new EU law against child abuse is a brain-child of Commission chief Ursula von der Leyen and home affairs Commissioner Ylva Johansson. The current controversy is likely a déjà vu for Von der Leyen: In 2009, as German minister for family affairs, she proposed a law that allowed the authorities to order the blocking of websites. While mooted as a measure against child abuse, this led to massive protests under the rally cry „Zensursula“ against government censorship. The law was ultimately scuttled.

In recent months, Johansson has stressed that privacy and encryption should not stand in the way of law enforcement – a call echoed and amplified by Thorn. While smaller advocacy groups in Brussels often find it difficult to get face time with decision makers, the organisation has drawn on Kutcher’s star power to snag high-level meetings. Evidence of this can be found in a video meeting between Kutcher and Von der Leyen, which the Commission chief posted on Twitter in November 2020.

Inhalt von Twitter anzeigen

In diesem Fenster soll ein Twitter-Post wiedergeben werden. Hierbei fließen personenbezogene Daten von Dir an Twitter. Aus technischen Gründen muss zum Beispiel Deine IP-Adresse übermittelt werden. Twitter nutzt die Möglichkeit jedoch auch, um Dein Nutzungsverhalten mithilfe von Cookies oder anderen Tracking-Technologien zu Marktforschungs- und Marketingzwecken zu analysieren.

Wir verhindern mit dem WordPress-Plugin „Embed Privacy“ einen Abfluss deiner Daten an Twitter so lange, bis Du aktiv auf diesen Hinweis klickst. Technisch gesehen wird der Inhalt erst nach dem Klick eingebunden. Twitter betrachtet Deinen Klick als Einwilligung in die Nutzung deiner Daten. Weitere Informationen stellt Twitter hoffentlich in der Datenschutzerklärung bereit.

Zur Datenschutzerklärung von Twitter

Zur Datenschutzerklärung von netzpolitik.org



Inhalt von Twitter immer anzeigen

Inhalt direkt öffnen

var _oembed_0742b87c89e064d693cd2db17e40b77d = '{\"embed\":\"<blockquote class="twitter-tweet" data-width="550" data-dnt="true"><p lang="en" dir="ltr">Happy to talk to Ashton Kutcher.<br><br>We have a common cause: protecting children.<br><br>The <a href="https:\\/\\/twitter.com\\/EU_Commission?ref_src=twsrc%5Etfw">@EU_Commission<\\/a> is working with online platforms to report &amp; remove child sexual abuse content. <br><br>We need to join forces around the globe to fight against such crimes. <a href="https:\\/\\/twitter.com\\/WeProtect?ref_src=twsrc%5Etfw">@WeProtect<\\/a> <a href="https:\\/\\/t.co\\/bdXhX6JRfw">pic.twitter.com\\/bdXhX6JRfw<\\/a><\\/p>&mdash; Ursula von der Leyen (@vonderleyen) <a href="https:\\/\\/twitter.com\\/vonderleyen\\/status\\/1327328361669152768?ref_src=twsrc%5Etfw">November 13, 2020<\\/a><\\/blockquote><script async src="https:\\/\\/platform.twitter.com\\/widgets.js" charset="utf-8"><\\/script>\"}'; .embed-twitter .embed-privacy-logo { background-image: url(https://cdn.netzpolitik.org/wp-content/plugins/embed-privacy/assets/images/embed-twitter.png?v=1647007429); }

At the time, Thorn advocated for a proposal by the EU Commission that became law at record speed a few months later. In it, the EU allowed platforms like Facebook to voluntarily scan private messages for suspected child abuse. To do this, the EU created an exception in its data protection rules, which had just been tightened. This has since given platforms such as Facebook the legal leeway to do on a voluntary basis what could soon become mandatory: screening private messages.

Kutcher personally lobbied for this regulation in interviews with Brussels-based media and via Twitter appeals to German politicians. The fact that it was passed can be seen as a success for Thorn.

Thorn has continued its lobbying campaign ever since. According to a report on its website, the organization met with 20 EU law-makers in 2021 alone. And indeed, Thorn lobbyists have been canvassing the most important digital policy decision-makers in Brussels since last year. According to the official lobby register, they have met with Von der Leyen’s staff, as well as with those of her deputies Margrethe Vestager and Margaritis Schinas, and Internal Market Commissioner Thierry Breton. The topic of conversation: child abuse and what Thorn wants to do about it.

How Thorn argues against encryption

Behind closed doors, Thorn lobbyists offered their expertise to Von der Leyen’s cabinet. The organization offered to help find a „balanced ground for the most privacy forward approach that still allows the detecting of child sexual abuse,“ according to minutes of the meeting in February 2021.

Thorn also revealed that it was working on „issues related to encryption.“ Weeks earlier, the organization warned in a blog post against plans by Meta to offer end-to-end encryption for Facebook Messenger and Instagram Messenger. It said „the world stands to lose 99% of its intelligence on CSAM. This means that abusers will be able to share illegal and harmful child sexual abuse material undetected on the same platforms that we, and our children, use every day.“

In March 2021, the organization met staffers of Commissioner Johansson, who is responsible for the new EU legislative proposal against child abuse. What was discussed there remains a secret: the meeting minutes provided by the Commission were heavily redacted. Disclosure would have a negative impact on its internal decision-making, the Commission argues.

Thorn brags about „over 30 clients around the world“

What is clear, however, is that the organization founded by Asthon Kutcher has aggressively marketed its software in other meetings with officials.

Thorn „has over 30 clients around the world and their pricing mechanism aims to allow smaller players to use their services,“ lobbyists said in a meeting with Werner Stengg, a senior digital policy advisor to Commission Vice President Vestager. Safer’s website lists the photo platform Flickr and the video portal Vimeo as customers.

Thorn offers artificial intelligence-driven software for finding, removing and reporting child abuse content. In addition, the non-profit is „working on a new algorithm to capture grooming activities„, according to the interview notes.

When asked by netzpolitik.org, a spokeswoman for Thorn confirmed that its own technology could be used to enforce the new EU law. It is crucial to „create long-term legal certainty for the protection of children on the Internet through the discovery, reporting and deletion of child abuse material and to establish a European Center,“ said Thorn CEO Julie Cordua according to German-language quotes e-mailed by the spokeswoman. Thorn will „continue to provide our experience and expertise in the future,“ Cordua added.

„I thank Commissioner Ylva Johansson and her team for the great work they have put into this bill,“ Cordua said. Thorn said it is „grateful for the pioneering work the EU is doing.“

„Safer“ soon to be in use in the EU?

In a seven-page position paper Thorn sent to Swedish EU diplomats in the fall of 2021, the organization touted the success of its „Safer“ software, saying that it had already been used to send 183,000 suspected cases of abuse to the National Center for Missing and Exploited Children (NCMEC) since 2019. In Sweden, Commissioner Johansson’s home country, Thorn is apparently hoping for an ally in the upcoming deliberations on the proposed legislation in the Council of EU States. Thorn wants to understand „the Swedish perspective“, according to an e-mail to the Scandinavian state’s representative on the EU Council.

Thorn also made overtures in Germany. As a legal framework to combat child abuse is being negotiated at the European level, Thorn said it wanted to present its mission in Berlin. So says an e-mail sent last summer to the office of the then Independent Commissioner for Child Sexual Abuse, Johannes-Wilhelm Rörig.

Whether the lobbying of Ashton Kutcher and his non-profit company will be followed by a lucrative public contract remains to be seen. The new EU Center against Child Abuse is likely to play a crucial role. The Commission’s draft legislation outsources the sensitive political question of which software platforms should use to scan private messages in the future to the newly created EU Center. The European Data Protection Supervisor also has a say.

If Thorn’s software finds favour with the EU authorities, it could soon be widely used. For the non-profit organization, that could mean high revenues. But Ashton Kutcher and his organizations would then also have influence on the privacy of millions of Europeans.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Richtlinie für Plattformarbeit: Unerwartete Verbündete im Kampf gegen Scheinselbstständigkeit

netzpolitik.org - 12 Mai, 2022 - 05:53
Lufthansa und andere Fluglinien wollen mehr Regulierung für Plattformunternehmen. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Jan Rosolino

Es gibt eine Menge verschiedene Meinungen zum Projekt der EU-Kommission, Plattformarbeit neu zu regulieren. Damit sollen die Arbeitsbedingungen von Menschen verbessert werden, die zum Beispiel per App ihre Aufträge zum Ausliefern von Essen bekommen.

Branchenverbände hätten am liebsten gar kein neues Gesetz. Plattformunternehmen selber hatten verschiedene Ansätze, von einer Allianz europäischer Plattformen über Umfragen bei tausenden Bolt-Fahrer*innen. Gewerkschaften fordern noch härtere Kriterien gegen Scheinselbstständigkeit.

Dabei haben die Arbeitnehmer*innen-Vereinigungen überraschende Verbündete: die großen Fluglinien Europas. Das zeigt ein Brief, den netzpolitik.org durch eine Informationsfreiheitsanfrage erhalten hat. Darin fordern die Fluglinien umfassende Maßnahmen der EU gegen Scheinselbstständigkeit, nicht nur bei Plattformen. Auch die European Cockpit Association, die europäische Gewerkschaft von Pilot*innen, meldete sich zum Entwurf der Richtlinie bei der EU-Kommission.

Große Fluglinien wollen gerechten Wettbewerb

Unterzeichnet hat diesen Brief der Direktor der Airline Coordination Platform, einem Verband von Fluglinien, der inzwischen in European Network Airlines‘ Association umbenannt wurde. Mitglieder sind unter anderem Air France, KLM, Lufthansa oder Brussels Airlines.

„Die Fluglinienindustrie ist keiner der Sektoren, die man normalerweise mit Themen der Plattformarbeit in Verbringung bringen würde“, schreiben die Fluglinien. Aber: „Mehrere der Themen, die im Konsultationsdokument beschrieben werden, sind für den Sektor gleich relevant.“

Sie konzentrieren sich in ihrer Antwort auf das Thema Scheinselbstständigkeit, gegen das die neue Richtlinie vorgehen soll. Die Fluglinien hätten dieses Problem schon wiederholt als „sozial inakzeptabel“ identifiziert, außerdem verzerre es den Wettbewerb. Deshalb würden sie jetzt die Pläne der Kommission unterstützen, gegen Scheinselbstständigkeit im Plattformsektor vorzugehen. Sie schreiben:

Wir sind der Ansicht, dass mögliche Aktionen ergriffen werden sollten, um die Praxis von Scheinselbstständigkeit auf einer größeren Skala zu eliminieren, und nicht nur auf Personen begrenzt, die im Kontext von digitalen Arbeitsplattformen arbeiten. Das Problem ist wesentlich umfassender.

Experte für Lobbying überrascht

Der Brief der Fluglinien verwundert Kenneth Haar, der bei der NGO Corporate Europe Observatory Lobbying bei der EU untersucht. Es sei sehr ungewöhnlich, dass Unternehmen sich zu Gesetzen äußerten, die nicht direkt für sie relevant sind – und dann auch noch auf Seite der Gewerkschaften. „Ich glaube nicht, dass ich das vorher jemals gesehen habe“, so Haar zu netzpolitik.org.

Der Brief zeige, dass die Richtlinie vielleicht als Signal für eine umfassende Offensive gegen Scheinselbstständigkeit verstanden würde. „Ich nehme mal an, dass das ist, was die Fluglinien gedacht haben. Aber trotzdem, ich habe noch nie eine Gruppe an Unternehmen für einen Ausbau von Arbeitsrechten lobbyieren sehen.“

Zumindest auf ihrem Gebiet seien die Fluglinien eine Macht, mit der man rechnen müsse. „Sie haben großen Einfluss, wenn es um Themen geht, die sie direkt betreffen. Ob sie diesen Einfluss in ein Gebiet übertragen können, dass nicht direkt mit ihnen zu tun hat, ist eine schwierige Frage“, so Haar.

Zersplitterte Zuständigkeiten

Auf Anfrage von netzpolitik.org sagte der Verband der Fluglinien, man würde schon länger daran arbeiten, das Thema Scheinselbstständigkeit auf die EU-Agenda zu bringen: „Sozial- und Arbeitsgesetzgebung ist mehrheitlich die Zuständigkeit von nationalen Behörden, die große Schwierigkeiten damit haben, dieses gesetzliche Fehlverhalten einzeln anzugehen, oft aus nationalen politischen Gründen“.

„Wir ergreifen diese Gelegenheit, um aufzuzeigen, dass unser Sektor ebenfalls ähnlichen Problemen begegnet“, so ein Vertreter der Fluglinien. „Scheinselbstständigkeit ist kein Vorrecht der Plattformwirtschaft, sondern sie existiert auch in anderen Branchen, wie zum Beispiel im Flugsektor.“

So steht es auch in einer 2019 von der Europäischen Kommission veröffentlichten Umfrage. Dort sagten bei einigen sogenannten Billigfluglinien bis zu vierzig Prozent der Pilot*innen, sie wären selbstständig angestellt. Das bedeutet nicht gleich, dass sie auch scheinselbstständig sind. Doch neun von zehn dieser vermeintlich selbstständigen Pilot*innen sagten auch, sie könnten nicht für mehrere Fluglinien arbeiten oder selbst entscheiden, wann sie fliegen wollten.

Ein Bericht eines EU-Forums gegen Schwarzarbeit nennt auch hier die Zersplitterung zwischen den verschiedenen EU-Staaten als Problem: Verschiedene Definitionen, Sprachen und Kriterien für Scheinselbstständigkeit führten zu gesetzlichen Unklarheiten.

Der Verband der Fluglinien sei nun „zuerst einmal glücklich“, dass die Kommission mit ihrem ambitionierten Entwurf zur Plattformarbeit das Problem erkannt habe und es jetzt auf dieser Ebene eine Initiative dazu gebe. „Das Ausmaß an Fehlverhalten in der Plattformwirtschaft wiegt weit schwerer als die im zivilen Flugsektor, aber das Problem existiert trotzdem und sollte deshalb auch angegangen werden.“

Gewerkschaften und große Fluglinien an einem Strang

Nicht nur die Fluglinien versuchen, dem Problem Scheinselbstständigkeit auf dem Spielfeld der Plattformunternehmen zu begegnen: Auch die European Cockpit Association, eine Gewerkschaft von Pilot*innen, hat zwei Stellungnahmen zur geplanten Richtlinie abgegeben. Darin forderten sie unter anderem, dass die Auswirkungen des Plattformmodells besser untersucht werden sollten und formulieren Fragen:

Wie wird der generierte Wohlstand verteilt? Was wären die Auswirkungen, wenn dieses Modell die Norm werden würde?

Die „Nachhaltigkeit des europäischen Sozialmodells“ stehe auf dem Spiel, so die Pilot*innen-Gewerkschaft. Bestehe ein Markt vor allem aus „plattform-selbstständigen Arbeiter*innen“, könnte das „zu einer ungleicheren Gesellschaft mit einer wachsenden Lücke zwischen Arm und Reich führen, zu Schwarzarbeit, zu wachsenden Schwierigkeiten für gerechte, sichere und gesunde Arbeitsbedingungen und zu einer unmöglichen Aussöhnung des Gleichgewichts von Familie und Arbeit“.

Der Verband der Fluglinien betonte, dass man in Sachen Scheinselbstständigkeit mit den Gewerkschaften übereinstimmen würde. Zu diesem und auch zu anderen Themen würde man gemeinsam im Dialog mit Behörden stehen. „Auf der anderen Seite können unsere Ansichten zu diesem Thema von denen anderer Arbeitgeberorganisationen abweichen“, so der Vertreter zu netzpolitik.org.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Chatkontrolle: Das EU-Überwachungsmonster kommt wirklich, wenn wir nichts dagegen tun

netzpolitik.org - 11 Mai, 2022 - 18:23
Die Chatkontrolle ist das größte Überwachungsprojekt seit Langem. (Symbolbild) – Alle Rechte vorbehalten IMAGO / Science Photo Library

Irgendwie gab es immer wieder Hoffnung, dass die EU-Kommission doch noch Abstand nimmt von ihren Plänen. Doch nun ist nach zahlreichen Verschiebungen doch gekommen, wovor Bürgerrechtsorganisationen seit Monaten warnen. Die EU-Kommission hat ihre Pläne vorgestellt und will mit der sogenannten Chatkontrolle eine neue umfassende, anlasslose Massenüberwachung aller Bürger:innen einführen.

Messengerdienste wie WhatsApp oder Signal sollen gezwungen werden, Dateien daraufhin zu untersuchen, ob sie Inhalte wie Darstellungen von Kindesmissbrauch enthalten. Das Problem ist: Das Vorhaben etabliert eine Infrastruktur, mit der man theoretisch jedwede Datei suchen und an Behörden melden kann. Die Technologie ist ein Angriff auf die sichere, private und verschlüsselte Kommunikation und die Integrität unserer Endgeräte. Das sieht ein Konzern wie Facebook genauso wie die Hacker:innen vom CCC oder ein EU-Abgeordneter der FDP.

Angriff auf die Privatsphäre

Da kann sich die EU-Innenkommissarin noch so harmlos hinstellen und so tun, als handele es sich nur um eine Art Spamfilter. Nein, die Chatkontrolle ist kein Spamfilter, der unverschlüsselte E-Mails anschaut. Es geht darum, Zugriff auf die Dateien unbescholtener Menschen zu bekommen. Das geht nur, indem man Verschlüsselung schwächt oder die Dateien auf den Geräten der Leute mittels Client-Side-Scanning durchsucht. Das gefährdet Grundrechte.

Und weil die Innenkommissarin weiß, wie brisant ihre Pläne sind, versucht sie das Problem zu verschleiern: Sie will die technischen Details an eine noch zu schaffende ominöse EU-Zentralstelle delegieren, unter dem Dach der Polizeibehörde Europol. Es gibt keine technische Beschreibung im Gesetz, so kann die EU-Kommission Debatte und Proteste hinauszögern. Das Prinzip kennen wir schon: Bei der Urheberrechtsreform wurden die Uploadfilter auch nicht ausdrücklich genannt – und jeder, der eins und eins zusammenzählen kann, wusste, dass die technische Lösung auf Uploadfilter hinauslaufen wird. So ist es nun wieder.

Technologie verschleiern um die Debatte abzuwürgen

Für die jüngsten Überwachungspläne instrumentalisiert die EU-Kommission Kinder und Kinderschutz, und das obwohl auch Kinderschutzorganisationen den Eingriff für unverhältnismäßig halten. Während Polizeibehörden wie das Bundeskriminalamt es nicht einmal als ihre Aufgabe sehen, illegale Bilder auch löschen zu lassen, und die herkömmlichen Ermittlungsmöglichkeiten noch lange nicht ausgeschöpft sind, will die EU nun ein beispielloses Überwachungswerkzeug einführen. Ein Werkzeug, das einmal eingeführt für immer neue Inhalte und Durchsuchungen genutzt werden kann.

Und das ist nur ein Teil des Gesetzesvorhabens, das auch noch Netzsperren und Altersverifikationen enthält, welche die Anonymität bei der App-Nutzung untergraben. Das Vorhaben beinhaltet sogar, dass Internetdienste Grooming und unbekannte Bilder automatisiert erkennen. Hier werden die Behörden in das Leben zahlreicher unbescholtener Menschen eingreifen, weil Technik so etwas einfach nicht leisten kann und Fehler produzieren wird.

Die Pläne der EU-Kommission sind auf fast allen Ebenen gefährlich. Gegen diesen Irrsinn, der die IT-Sicherheit, verschiedene Grundrechte und die Demokratie als Ganzes gefährdet, sollten wir schleunigst aktiv werden, uns organisieren, verbünden und auf die Straßen gehen.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

„Menstruation“ verboten: OnlyFans zensiert mindestens 149 Wörter

netzpolitik.org - 11 Mai, 2022 - 16:35
OnlyFans möchte Creator empowern, solange sie nicht über Menstruation sprechen (Symbolbild) – Menstruationstasse: Unsplash/ Monika Kozub, Statue: IMAGO/Zoonar, Montage: netzpolitik.org

OnlyFans führt eine geheime Liste mit unerwünschten Wörtern. Wer eines davon verwenden möchte, kann den Text nicht posten. Betroffen sind öffentliche Beiträge und private Nachrichten. Welche Begriffe OnlyFans stören, möchte die Plattform auf Nachfrage von netzpolitik.org nicht offenlegen. Aber im Netz führen OnlyFans-Nutzer:innen Listen. Sie bezeichnen die Maßnahmen als „lächerlich“ und „idiotisch“. Bei 149 Begriffen konnten wir bestätigen, dass OnlyFans sie nicht gestattet – wir veröffentlichen sie am Ende des Artikels.

OnlyFans ist kein Winzling. Zahlreiche Promis und Influencer:innen verbreiten hier Bilder und Videos für zahlende Abonnent:innen. Die Plattform hat nach eigenen Angaben mehr als 170 Millionen Nutzer:innen, davon würden 1,5 Millionen Inhalte beisteuern. Bekannt ist OnlyFans vor allem durch Pornografie, es gibt dort aber auch jugendfreie Inhalte. Laut Financial Times hat OnlyFans im Jahr 2021 rund zwei Milliarden Euro Umsatz gemacht. Mit dem rasanten Aufstieg der britischen Plattform ist die Hoffnung verbunden, dass sich im Netz auch anders Geld verdienen lässt – mit monatlichen Abos statt mit auf Tracking basierender Werbung.

Die Blockliste von OnlyFans zeigt nun, mit welch plumpen Mitteln eine so große Plattform offenbar Inhalte moderiert. Was das bringen soll, ist fraglich: Während OnlyFans alltägliche Gespräche beschneidet, lassen sich die Verbote kinderleicht umgehen. Wenn Anbieter Inhalte von Nutzer:innen unverhältnismäßig stark unterdrücken, nennt man das auch Overblocking. OnlyFans reagiert damit wohl auch auf politischen Druck aus den USA, wo sexuelle Inhalte zunehmend strenger reguliert werden.

Auf Anfrage von netzpolitik.org erklärt eine OnlyFans-Sprecherin, man wolle Creator „empowern“. OnlyFans habe robuste Maßnahmen, um sicherzustellen, dass Creator und Fans ein „hohes Level an Schutz“ genießen könnten, heißt es in der englischen E-Mail.

Nicht über „Vergewaltigung“ sprechen

Die meisten der geblockten Worte auf OnlyFans kreisen um Inhalte, die gegen die Regeln der Plattform verstoßen könnten. Dazu gehören etwa die englischen Begriffe für „Ersticken“, „Urin“, „Kot“ und „Toilette“. Blockiert werden auch Worte, die von illegalen Inhalten handeln, etwa „Vergewaltigung“ und „Pädophilie“. Wer auf OnlyFans über Vergewaltigung aufklären möchte, muss andere Worte wählen.

Möchte man einen Text mit einem gesperrten Begriff posten, erschient eine Warnung in roten Buchstaben: „Eingabe enthält eingeschränkte Wörter“. Danach werden die betroffenen Wörter angezeigt. So lassen sich gesperrte Begriffe zumindest durch Ausprobieren ermitteln. Getestet haben wir das mit einem deutschen OnlyFans-Account im Mai.

OnlyFans blockt auch viele Wörter aus der Alltagssprache. Es braucht teils etwas Fantasie, um zu erraten, warum sich die Plattform daran stoßen könnte. So sperrt OnlyFans etwa das Wort „meet“ (sich treffen). Ein möglicher Grund ist, dass auf OnlyFans keine sexuellen Dienstleistungen beworben werden dürfen, für die man sich trifft. Zu den blockierten Wörtern gehören auch „Menstruation“, „Cervix“ (ein anderes Wort für Gebärmutterhals) und „Blut“. OnlyFans sperrt außerdem die ausgeschriebenen englischen Zahlen zwischen elf und siebzehn – möglicherweise, weil Nacktbilder von Menschen bis einschließlich siebzehn Jahren illegal sind. Auch das Wort „jung“ ist tabu.

„Versuch, unsere Redefreiheit einzuschränken“

„Lächerlich“, findet das eine OnlyFans-Nutzerin. Ihr Kommentar steht in einem Unterforum auf Reddit. Hier tauschen sich Creator:innen über Probleme auf OnlyFans aus. Die Nutzerin berichtet, wie der Wortfilter alltägliche Gespräche auf OnlyFans einschränkt. Sie habe einem ihrer Abonnenten erklären wollen, dass sie eine Weile brauche, um Anfragen zu beantworten, weil sie sich um zwei junge Kinder kümmere. Aber das Wort „jung“ lässt OnlyFans nicht zu. Eine andere Nutzerin berichtet, sie wollte „nice to meet you“ schreiben, schön dich kennenzulernen. Aber „meet“ ist verboten.

Auf die Wortwahl achten – „meet“ wird von OnlyFans angeprangert. - Screenshot: OnlyFans

„Ich bin an einem Punkt angelangt, an dem ich nicht mehr glauben kann, wie sehr OnlyFans versucht, unsere Redefreiheit einzuschränken“, schreibt eine dritte Reddit-Nutzerin auf Englisch. Die Maßnahmen seien idiotisch. „Wir versuchen einfach nur, unsere Geschäfte sicher zu führen und werden immer wieder ungerechtfertigterweise unterdrückt und wie absoluter Scheiß behandelt, und ich bin es einfach leid.“

OnlyFans bezeichnet sich als „branchenführend“

Weitere Begriffe, die OnlyFans blockiert, sind „PayPal“ und „Admireme“. PayPal ist ein Online-Zahlungsdienstleister, Admireme eine weitere Bezahlseite für erotische Inhalte. Beide Dienste können anstelle von OnlyFans genutzt werden, um Creator zu bezahlen. Sie sind insofern Konkurrenz zu OnlyFans. Möchte man aber diese Konkurrenz auf OnlyFans erwähnen, wird man zum Schweigen gebracht.

Wortfilter können einer Plattform dabei helfen, potentiell regelwidrige Inhalte zu entdecken und zu überprüfen. Für die Moderation von Inhalten beschäftigen etwa Facebook und TikTok Tausende Löscharbeiter:innen. Denn ohne menschliche Hilfe lässt sich der Kontext eines Beitrags kaum bewerten. Zwar kann Löscharbeit bei Millionen Nutzer:innen nie fehlerfrei sein – aber das pauschale Verbot von Wörtern aus der Alltagssprache ist offenkundig äußerst fehleranfällig. Hinzu kommt, dass die Hürde kinderleicht zu umgehen ist. „Jeder setzt wahrscheinlich Leerzeichen oder Punkte in die Wörter, um sie trotzdem zu verwenden“, schreibt eine OnlyFans-Nutzerin auf Reddit. Welchen Zweck verfolgt OnlyFans also mit den geblockten Wörtern?

Auf unsere Presseanfrage reagierte OnlyFans mit überschwänglichem Eigenlob. Man verwende „branchenführende, robuste Maßnahmen“ und „modernste Technologien“ um sicherzustellen, dass Inhalte auf OnlyFans mit den Nutzungsbedingungen übereinstimmen. Alle Inhalte würden innerhalb von 24 Stunden „umfassend“ von Menschen überprüft, heißt es weiter. Das Moderationsteam pflege eine Liste von Wörtern und Sätzen. Diese Liste sei aber nicht öffentlich zugänglich, um die Umgehung der Richtlinien zu verhindern. Wir hatten ausdrücklich gefragt, ob man uns diese Liste offenlegen könne.

Eine nicht vollständige Übersicht geblockter Begriffe auf OnlyFans, Stand Mai 2022. Eine alphabetisch geordnete Liste veröffentlichen wir am Ende dieses Artikels. - CC-BY 4.0 netzpolitik.org

Offenbar setzt OnlyFans damit auf das Motto „Security through obscurity“, Sicherheit durch Unklarheit. Dahinter steckt das Konzept, dass man Sicherheitsmaßnahmen besser geheim hält, damit die Schlupflöcher nicht sofort ins Auge fallen. Konsistent ist OnlyFans dabei aber nicht. Im Jahr 2020 veröffentlichte eine OnlyFans-Nutzerin eine Liste der damals blockierten Wörter auf ihrem WordPress-Blog. Die Nutzerin erklärt, sie habe den OnlyFans-Support schlicht danach gefragt und sie erhalten.

Auf Grundlage dieser Liste haben wir überprüft, welche Begriffe OnlyFans noch heute sperrt. Einige Worte hat OnlyFans nicht mehr beanstandet, etwa „farm“ und „golden“. Neue Begriffe sind hinzugekommen, etwa „PayPal“.

OnlyFans verrät nicht, ob der Wortfilter nur Englisch kann

Im stumpfen Blockieren von Wörtern lässt sich schwerlich „modernste Technologie“ erkennen. Anscheinend fokussiert sich die Blockliste von OnlyFans zudem auf Englisch. Wir haben deutsche, französische und spanische Übersetzungen der geblockten Wörter getestet – in diesen Sprachen hat OnlyFans sie nicht beanstandet. Können die „modernsten“ Wortfilter von OnlyFans nur Englisch? Diese Frage hat uns die Sprecherin nicht beantwortet. OnlyFans wollte uns auch nicht verraten, wie viele Menschen in wie vielen Sprachen Inhalte moderieren.

OnlyFans überwacht anscheinend nicht nur Beiträge für alle Follower:innen, sondern auch direkte Nachrichten im Chat. Das berichtete ein ehemaliger Angestellter gegenüber der britischen BBC. Unsere konkrete Frage, ob OnlyFans auch private Nachrichten durchleuchte, beantwortete die Sprecherin nicht eindeutig. Man überprüfe „alle Inhalte“, hieß es.

Intransparente Löscharbeit ist nicht nur bei OnlyFans ein Thema. TikTok hat bereits seine eigenen Erfahrungen mit automatischen Wortfiltern gemacht, wie wir Anfang des Jahres berichtet haben. Im Gegensatz zu OnlyFans hat TikTok betroffene Nutzer:innen nicht darüber informiert, welche Wörter problematisch waren. Auch dass sich Plattformen bei der Löscharbeit zunächst auf Englisch fokussieren, ist nicht neu. Bei Facebook gab es bereits Vorwürfe wegen mangelhafter Löscharbeit in anderen Sprachräumen.

Die Angst vor Overblocking durch Wortfilter hat längst die Netzkultur verändert. Viele Nutzer:innen haben ein Bewusstsein dafür entwickelt, dass Plattformen sie für manche Wörter bestrafen könnten. Darf man im Netz überhaupt noch offen über Sex sprechen? Mit kreativ verfälschten Schreibweisen und neuen Synonymen wollen Nutzer:innen mögliche Einschränkungen umgehen, etwa auf TikTok und Instagram. Das Phänomen hat den Namen „Algospeak“.

„War On Porn“ trifft auch OnlyFans

Im Fall von OnlyFans gibt es einen weiteren Einflussfaktor, der den Einsatz der Wortfilter erklären könnte. Die Plattform steht politisch unter Druck. Es gab mal die Hoffnung, dass OnlyFans Sexarbeiter:innen nachhaltig stärken könne. Mit seinem Bezahlmodell ist die Plattform ein Gegenentwurf zu den mächtigen Gratis-Pornoseiten. Mit OnlyFans konnten sich Sexarbeiter:innen ein finanzielles Standbein aufbauen – vor allem, als während der Pandemie andere Einkommensquellen wegbrachen. Aber Pornografie und Sexarbeit haben mächtige Gegner:innen.

Erzkonservative Politiker:innen, Aktivist:innen und Zahlungsdienstleister machen mobil gegen sexuelle Angebote im Netz. In der Branche ist die Rede vom „War on Porn“, Krieg gegen Pornografie. Besonders in der Kritik stehen in den USA etwa die Regulierungen namens SESTA (Stop Enabling Sex Traffickers Act) und FOSTA (Fight Online Sex Trafficking Act). Sie machen Online-Plattformen für einige von Nutzer:innen generierte Inhalte verantwortlich. Eigentlich zielen diese Regulierungen auf illegalen Menschenhandel ab. In der Praxis führen sie aber auch zu Overblocking legaler Inhalte, wie Yigit Aydin von der European Sex Workers‘ Rights Alliance erklärt.

Die Lage für OnlyFans sei schwierig, schreibt Yigit an netzpolitk.org. Die Plattform versuche, sich zu schützen. „Solche Gesetze wirken sich auf das Design und die Politik von Plattformen aus und machen diese Orte zunehmend feindlich für Sexarbeiter:innen.“ In der Folge würden sie von Online-Plattformen vertrieben. Das führe zu Einkommensverlusten und Isolation, schreibt Aydin.

Im Jahr 2021 hatte OnlyFans sogar zeitweise angekündigt, sexuelle Inhalte ganz zu verbieten. Als Grund nannte OnlyFans-Gründer Tim Stokely den Druck durch Banken und Zahlungsdienstleister. Dabei ist die Plattform nur dank Pornografie so populär geworden. OnlyFans hätte sich neu erfinden müssen – oder wäre bedeutungslos geworden. Wenige Tage später machte OnlyFans die Entscheidung rückgängig. Offenbar wurde auf den letzten Drücker noch eine Einigung erreicht. Angespannt ist die Lage bis heute. OnlyFans blockt lieber zu viel als zu wenig. Dabei nimmt die Plattform in Kauf, dass Sätze wie wie „nice to meet you“ einfach nicht gepostet werden können.

Liste geblockter Begriffe auf OnlyFans

abduct
abducted
abducting
abduction
admireme
asphyxia
asphyxiate
asphyxiation
asphyxicate
asphyxication
bait
ballbusting
bareback
beastiality
bestiality
blacked
blackmail
bleeding
blood
bloodplay
bukkake
caned
caning
cannibal
cbt
cervics
cerviks
cervix
child
chloroform
chloroformed
chloroforming
choke
choking
coma
comatose
cp
diapers
doze
drunk
drunken
eleven
enema
escort
escorting
fanfuck
fecal
fetal
fifteen
fisted
fisting
flogging
foetal
forced
forcedbi
forceful
forcing
fourteen
fuckafan
fuckfan
gangbang
gangbangs
gaping
hardsports
hooker
hypno
hypnotize
hypnotized
hypnotizing
inbreed
inbreeded
inbreeding
incapacitate
incapacitation
incest
intox
inzest
jail
jailbait
kidnap
kidnapped
kidnapping
lactate
lactation
lolicon
lolita
medicalplay
meet
menstrate
menstrual
menstruate
menstruating
menstruation
molest
molested
molesting
mutilate
mutilation
necrophilia
paddling
paralyzed
paypal
pedo
pedophile
pedophilia
pee
peeplay
piss
pissing
poo
poop
preteen
prostituted
prostituting
prostitution
pse
rape
raping
rapist
restrictedwordtestzulu
scat
seventeen
sixteen
skat
snuff
strangled
strangling
strangulation
suffocate
suffocation
teen
thirteen
toilet
toiletslave
toiletslavery
torture
tortured
twelve
unconscious
unconsciousness
underage
unwilling
vomit
vomitted
vomitting
watersports
whipping
young
zoophilia

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Chatkontrolle: Wie ein Hollywoodstar für mehr Überwachung wirbt

netzpolitik.org - 11 Mai, 2022 - 13:35
Dreamteam für mehr Überwachung: Ashton Kutcher und Ursula von der Leyen – CC-BY 3.0 Kuhlmann/MSC/TechCrunch/Bearbeitung netzpolitik.org

Es ist ein weitreichender Vorschlag, den die Europäische Kommission macht: Private Chatnachrichten über beliebte Apps wie Instagram, WhatsApp oder Signal sollen künftig systematisch durchleuchtet werden, wenn eine EU-Behörde das anordnet. Möglich machen soll das ein Gesetzesentwurf gegen Kindesmissbrauch, den die Kommission heute vorgelegt hat. (Wir haben vorab berichtet.)

Behörden sollen Internetdiensten künftig anordnen dürfen, dass sie private Nachrichten auf den Verdacht von Kindesmissbrauch scannen müssen. Wenn die Plattform in Bildern oder Videos ihrer Nutzer:innen konkrete Anzeichen für Missbrauchsmaterial findet, muss dies den Behörden gemeldet werden. Das könnten etwa Dateien sein, die ähnlich zu bereits bekannten Darstellungen sexualisierter Gewalt sind. Welche Technologien für diese Erkennung zum Einsatz kommen, soll ein neues EU-Zentrum gegen Kindesmissbrauch bereitstellen.

Diese Pläne halten Kritiker:innen für einen massiven Eingriff in die Privatsphäre. Es sei völlig unklar, wie zuverlässig eine solche Technologie sei – etwa, wie leicht Unschuldige in ihr Visier geraten können. Datenschützer:innen warnen überdies, wenn die EU das Scannen von Inhalten direkt auf den Geräten anordne, könne das die Ende-zu-Ende-Verschlüsselung von Messengern wie WhatsApp und Signal unterlaufen.

Doch selbst interne Einwände fanden kein Gehör bei den EU-Spitzen. Politisch verantwortlich sind EU-Innenkommissarin Ylva Johansson und Kommissionschefin Ursula von der Leyen. Johansson betonte in vergangenen Monaten mantraartig, Privatsphäre und Verschlüsselung dürften der Strafverfolgung nicht im Wege stehen. Für Von der Leyen sind solche Kontroversen nichts Neues: Ihr Vorschlag für Netzsperren gegen Kindesmissbrauchsinhalte sorgte 2009 für massive Proteste gegen „Zensursula“ in Deutschland.

Protestkundgebung gegen Zensursula, April 2009. - CC-BY 2.0 Stephan Luckow Ein Schauspieler mit Nebenlinie als Überwachungsentrepreneur

Der neue Überwachungsvorschlag aus Brüssel weckt freilich nicht nur lautstarke Opposition, er findet auch einflussreiche Fürsprache. Überaus wirksames Lobbying für das Gesetz machte dabei offenbar eine Organisation namens Thorn, gegründet vom Hollywoodschauspieler Ashton Kutcher und seiner damaligen Frau Demi Moore.

Kutcher ist hierzulande bekannt für Komödien wie „Ey Mann, wo is‘ mein Auto?“, abseits seiner Schauspielkarriere mauserte sich Kutcher in den vergangenen Jahren zum Technologieinvestor. Mit Thorn stieg Kutcher in den Markt für Überwachungstechnologie ein: 2020 brachte die Organisation „Safer“ auf den Markt, nach eigenen Angaben die erste „umfassende Erkennungsplattform“ für Kindesmissbrauchsinhalte eines Drittanbieters.

Gegenüber den EU-Institutionen tritt Thorn als Charity-Organisation auf, die sich aus idealistischen Gründen gegen Kindesmissbrauch einsetzt. Allerdings brachte die Organisation bei Treffen mit europäischen Behörden immer wieder seine eigens entwickelte Software zum Aufspüren von Kindesmissbrauch ins Spiel. Das zeigen mehr als ein dutzend E-Mails und Gesprächsnotizen, die netzpolitik.org durch Informationsfreiheitsanfragen bei der EU-Kommission, deutschen und schwedischen Behörden erhielt.

In seinem Lobbying nutzt Thorn das Gewicht seines Hollywoodstar-Gründers. Organisationen fällt es oft schwer, hochrangige Treffen mit der Kommission einzufädeln. Wie wenig das auf Thorn zutrifft, verdeutlichen Bilder von einem Videotreffen zwischen Kutcher und Von der Leyen, die die Kommissionschefin im November 2020 auf Twitter postete.

Inhalt von Twitter anzeigen

In diesem Fenster soll ein Twitter-Post wiedergeben werden. Hierbei fließen personenbezogene Daten von Dir an Twitter. Aus technischen Gründen muss zum Beispiel Deine IP-Adresse übermittelt werden. Twitter nutzt die Möglichkeit jedoch auch, um Dein Nutzungsverhalten mithilfe von Cookies oder anderen Tracking-Technologien zu Marktforschungs- und Marketingzwecken zu analysieren.

Wir verhindern mit dem WordPress-Plugin „Embed Privacy“ einen Abfluss deiner Daten an Twitter so lange, bis Du aktiv auf diesen Hinweis klickst. Technisch gesehen wird der Inhalt erst nach dem Klick eingebunden. Twitter betrachtet Deinen Klick als Einwilligung in die Nutzung deiner Daten. Weitere Informationen stellt Twitter hoffentlich in der Datenschutzerklärung bereit.

Zur Datenschutzerklärung von Twitter

Zur Datenschutzerklärung von netzpolitik.org



Inhalt von Twitter immer anzeigen

Inhalt direkt öffnen

var _oembed_589a5945042758679725660b9f84b1e9 = '{\"embed\":\"<blockquote class="twitter-tweet" data-width="550" data-dnt="true"><p lang="en" dir="ltr">Happy to talk to Ashton Kutcher.<br><br>We have a common cause: protecting children.<br><br>The <a href="https:\\/\\/twitter.com\\/EU_Commission?ref_src=twsrc%5Etfw">@EU_Commission<\\/a> is working with online platforms to report &amp; remove child sexual abuse content. <br><br>We need to join forces around the globe to fight against such crimes. <a href="https:\\/\\/twitter.com\\/WeProtect?ref_src=twsrc%5Etfw">@WeProtect<\\/a> <a href="https:\\/\\/t.co\\/bdXhX6JRfw">pic.twitter.com\\/bdXhX6JRfw<\\/a><\\/p>&mdash; Ursula von der Leyen (@vonderleyen) <a href="https:\\/\\/twitter.com\\/vonderleyen\\/status\\/1327328361669152768?ref_src=twsrc%5Etfw">November 13, 2020<\\/a><\\/blockquote><script async src="https:\\/\\/platform.twitter.com\\/widgets.js" charset="utf-8"><\\/script>\"}'; .embed-twitter .embed-privacy-logo { background-image: url(https://cdn.netzpolitik.org/wp-content/plugins/embed-privacy/assets/images/embed-twitter.png?v=1647007429); }

Damals setzte Thorn sich vehement für einen Vorschlag der EU-Kommission ein, der wenige Monate später im Rekordtempo Gesetz wurde. Plattformen wie Facebook erlaubte die EU darin, freiwillig private Nachrichten auf Kindesmissbrauchsverdacht zu scannen. Dafür schuf die EU eine Ausnahme in ihren Datenschutzregeln, die eigentlich gerade erst verschärft worden waren. Diese gibt den Plattformen seither den rechtlichen Spielraum, auf freiwilliger Basis das zu tun, was bald auf Anordnung verpflichtend werden könnte: das Durchleuchten privater Nachrichten.

Kutcher lobbyierte persönlich in Interviews mit EU-Fachmedien und sogar über Twitter-Appelle an SPD-Vorsitzende Saskia Esken für diese Regelung. Dass sie beschlossen wurde, kann auch als Erfolg für Thorn gewertet werden.

Seine Lobbykampagne führt Thorn seither konsequent weiter. 20 EU-Gesetzgeber:innen habe die Organisation allein 2021 getroffen, heißt es in einem öffentlichen Bericht. Und tatsächlich, Lobbyist:innen von Thorn grasen seit dem Vorjahr die wichtigsten digitalpolitischen Entscheider:innen in Brüssel ab. Laut offiziellem Lobbyregister trafen sie enge Mitarbeiter:innen Von der Leyens, aber auch ihrer Stellvertreter Margrethe Vestager und Margaritis Schinas sowie von Binnenmarktkommissar Thierry Breton. Gesprächsthema: Kindesmissbrauch, und was Thorn dagegen tun kann.

„Ausgewogener Ansatz“ gegen zu viel Verschlüsselung

Hinter verschlossenen Türen boten Lobbyist:innen von Thorn dem Kabinett Von der Leyens ihre Expertise an. Die Organisation wolle dabei helfen, einen „ausgewogenen Ansatz zu finden, der den Schutz der Privatsphäre gewährleistet und dennoch die Aufdeckung von sexuellem Kindesmissbrauch ermöglicht“, heißt es in Gesprächsnotizen der Kommission.

In dem Treffen verriet Thorn auch, dass es an „Themen rund um Verschlüsselung“ arbeite. Wochen zuvor hatte die Organisation in einem Blogpost vor Plänen des Meta-Konzerns gewarnt, dass Nachrichten über Facebook Messenger und Instagram Messenger künftig Ende-zu-Ende-verschlüsselt würden. Damit werde „die Welt 99 Prozent ihrer Informationen“ über die Verbreitung von Kindesmissbrauchsinhalten verlieren. „Dies bedeutet, dass Missbrauchstäter illegales und schädliches Material über sexuellen Kindesmissbrauch unentdeckt auf denselben Plattformen verbreiten können, die wir und unsere Kinder täglich nutzen.“

Welche Positionen Thorn gegenüber der EU vertrat, bleibt inzwischen teilweise im Dunklen. Im März 2021 trifft die Organisation Mitarbeiter:innen von EU-Kommissarin Johansson, die direkt für den neuen EU-Gesetzesvorschlag gegen Kindesmissbrauch verantwortlich ist. Was dort besprochen wird, bleibt leider geheim: Gesprächsnotizen von dem Treffen übermittelt uns die Kommission praktisch völlig geschwärzt. Eine Offenlegung hätte negativen Einfluss auf ihre interne Entscheidungsfindung, argumentiert die EU-Behörde.

Thorn wirbt mit „über 30 Kund:innen in der ganzen Welt“

Klar ist allerdings, dass die von Asthon Kutcher gegründete Organisation in anderen Lobbytreffen offensiv ihre Software vermarktet. Thorn habe „über 30 Kund:innen in der ganzen Welt, und ihre Preisgestaltung zielt darauf ab, auch kleineren Anbietern die Nutzung ihrer Dienste zu ermöglichen“, sagten Lobbyist:innen bei einem Treffen mit Werner Stengg, einem führenden digitalpolitischen Berater von Kommissionsvizechefin Vestager. Auf der Website von Safer sind als Kund:innen etwa die Foto-Plattform Flickr und das Videoportal Vimeo aufgeführt.

Thorn biete von Künstlicher Intelligenz gesteuerte Software zum Finden, Entfernen und Melden von Kindesmissbrauchsinhalten. Darüber hinaus arbeite das Non-Profit an einem „neuen Algorithmus zur Erfassung von Grooming-Aktivitäten“, also der gezielten Kontaktaufnahme mit Minderjährigen in Missbrauchsabsicht, heißt es in den Gesprächsnotizen.

Star mit Sendungsbewusstsein: Ashton Kutcher - Alle Rechte vorbehalten IMAGO / Motorsport Images

Auf Anfrage von netzpolitik.org bestätigt eine Sprecherin von Thorn, dass die eigene Technologie für die Durchsetzung des neuen EU-Gesetzes verwendet werden könne. Es sei von entscheidender Bedeutung, „langfristige Rechtssicherheit für den Schutz von Kindern im Internet durch Entdeckung, Meldung und Löschung von Kindesmissbrauchsmaterial zu schaffen und ein europäisches Zentrum einzurichten“, sagte der Sprecherin zufolge Julie Cordua, die das operative Geschäft der Organisation leitet. Thorn werde „unsere Erfahrung und unser Fachwissen auch in Zukunft zur Verfügung stellen“.

Den Gesetzesvorschlag der Kommission begrüßt Thorn ausdrücklich. „Ich danke Kommissarin Ylva Johansson und ihrem Team für die großartige Arbeit, die sie in dieses Gesetz gesteckt haben“, sagte Cordua. Thorn sei „dankbar für die Pionierarbeit, die die EU leistet“.

„Safer“ bald in der EU im Einsatz?

Auch in einem siebenseitigen Positionspapier, das Thorn im Herbst 2021 an schwedische EU-Diplomaten schickte, bewirbt die Organisation den Erfolg seiner Software „Safer“, mit der seit 2019 bereits 183.000 Verdachtsfälle auf Missbrauch an US-Stellen übermittelt worden seien. In Schweden, dem Heimatland von Kommissarin Johansson, hofft Thorn offenbar auf einen Verbündeten bei den kommenden Beratungen über den Gesetzesvorschlag im Rat der EU-Staaten. Thorn wolle „die schwedische Perspektive“ verstehen, heißt es in einer E-Mail an die Vertreterin des skandinavischen Staates im EU-Rat.

Auch in Deutschland wurde Thorn vorstellig. Da auf europäische Ebene über einen rechtlichen Rahmen zur Bekämpfung von Kindesmissbrauch verhandelt werde, wolle Thorn in Berlin seine Mission vorstellen. So heißt es in einer vergangenen Sommer verschickten E-Mail an das Büro des damaligen Unabhängigen Beauftragten für sexuellen Kindesmissbrauch, Johannes-Wilhelm Rörig.

Ob auf das Lobbying von Ashton Kutcher und seinem Non-Profit-Unternehmen tatsächlich ein lukrativer öffentlicher Auftrag folgt, ist noch offen. Eine entscheidende Rolle dürfte dabei das neue EU-Zentrum gegen Kindesmissbrauch spielen. Der Gesetzesentwurf der Kommission lagert nämlich die heikle politische Frage, mit welcher Software Plattformen künftig private Nachrichten scannen sollen, teilweise an die Verwaltung aus. Mitreden darf auch der Europäische Datenschutzbeauftragte.

Sollte die Software von Thorn bei den EU-Behörden Anklang finden, könnte sie bald weiträumig eingesetzt werden. Für die Non-Profit-Organisation könnte das hohe Einnahmen bedeuten. Ashton Kutcher und seine Organisationen hätten dann aber auch auf die Privatsphäre von Millionen Europäer:innen prägenden Einfluss.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Gesetz gegen Kindesmissbrauch: EU-Kommission will private Nachrichten durchleuchten

netzpolitik.org - 10 Mai, 2022 - 18:58
Werden verdächtige Chats bald automatisch den Behörden gemeldet? (Symbolbild) – CC-BY-SA 2.0 Montecruz Foto/Montage netzpolitik.org

Die Europäische Kommission könnte Plattformen wie Facebook, WhatsApp oder Signal bald das Durchleuchten von Inhalten und Nachrichten ihrer Nutzer:innen vorschreiben. Durchsetzen soll das ein Vorschlag für eine EU-Verordnung zur Bekämpfung von Kindesmissbrauch, den die Kommission am morgigen Mittwoch vorstellen will. Gegen die Vorschriften formiert sich allerdings bereits seit Monaten Widerstand.

Nach Vorstellungen der EU-Kommission sollen Plattformen künftig Maßnahmen zur Bekämpfung von Kindesmissbrauch angeordnet werden können. Der Vorschlag unterscheidet drei Arten von sexualisiertem Missbrauch: die Verbreitung bereits bekannter Missbrauchsdarstellungen, bislang unbekanntes Material und die entsprechende Kontaktaufnahme zu Kindern. Für jede dieser drei Kategorien soll es verschiedene Indikatoren geben, die in einer Datenbank verzeichnet sind.

Schon länger Warnungen vor „Chatkontrolle“

Wie genau die Betreiber die Indikatoren aufspüren sollen, spezifiziert der Entwurf nicht. Die Anbieter sollen geeignete Technologie einsetzen, um entsprechende Anzeichen zu erkennen. Das kann etwa bestimmte Software zum Scannen auf verdächtige Inhalte sein oder zum Abgleich von Videos und Bildern mit bekannten Kindesmissbrauchsinhalten. Verdachtsfälle müssen dann den Behörden gemeldet werden.

Anbieter sollen mittels Anordnungen zu Maßnahmen verpflichtet werden können, wenn etwa auf dem Dienst ein besonders hohes Risiko besteht, dass dieser für sexualisierte digitale Gewalt an Kindern genutzt wird.

Bereits im Vorfeld hatte eine Kampagne von Abgeordneten und aus der Zivilgesellschaft vor einer „Chatkontrolle“ gewarnt. Dabei ging es um Befürchtungen, dass sogenanntes Client-Side-Scanning vorgeschrieben werden könnte. Dies bedeutet, dass Software zur Prüfung aller Inhalte schon auf dem Gerät der Nutzer:innen installiert werden muss. Damit soll selbst Ende-zu-Ende-Verschlüsselung umgangen werden, jedes Bild oder Video würde dann der Prüfung unterzogen werden können.

Entwurf könnte Client-Side-Scanning bringen

Ob die EU-Kommission nun Client-Side-Scanning vorschreiben möchte, blieb zunächst unklar. Ein geleakter Textvorschlag der Kommission (den wir veröffentlichen) spricht davon, dass die konkrete Technologie von einer neu einzurichtenden EU-Zentralstelle gegen Kindesmissbrauch ausgesucht werden soll. Dabei einbezogen werden soll aber auch der Europäische Datenschutzbeauftragte, der vor der überschießenden Maßnahmen im Kampf gegen Kindesmissbrauch gewarnt hat.

Um welche Technologien es sich konkret handeln könnte, sagt der Entwurf der EU-Kommission nicht. Auch ist noch unklar, ob es sich bei dem geleakten Entwurf um die endgültige Version des Kommissionsvorschlags handelt. Doch der Verweis auf eine nicht näher benannte „Technologie“ ohne konkrete Einschränkungen könnte für das neue EU-Zentrum zum Blankoscheck werden, um das Scannen aller Inhalte direkt auf dem Gerät europaweit für alle Plattformen und Messengerdienste zur Vorschrift zu machen.

Auch Stimmen aus der Zivilgesellschaft zeigen sich extrem skeptisch. „Die Vorstellung ist unerhört, dass die private Kommunikation von Hunderten von Millionen Menschen in der EU, von der sie vernünftigerweise erwarten, dass sie privat ist, wahllos und generell rund um die Uhr gescannt wird“, sagte Ella Jakubowska vom NGO-Dachverband European Digital Rights (EDRi) im Vorfeld dem Online-Medium Politico. In Berlin ist am Mittwoch ein Protest vor der Vertretung der EU-Kommission gegen das Vorhaben  geplant.

EU-Innenkommissarin Ylva Johansson hält trotz der Bedenken an dem Vorhaben fest. „Die Täter verstecken sich hinter der Ende-zu-Ende-Verschlüsselung; sie ist einfach zu benutzen, aber fast unmöglich zu knacken, was es den Behörden erschwert, Straftaten zu untersuchen und zu verfolgen“, beklagte Johansson Ende April.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs
Inhalt abgleichen