Linn Friedrichs beschäftigt sich mit der Frage, welche digitalen Kompetenzen ein Bildungssystem vermitteln müsste, um Lernende auf die Zukunft vorzubereiten. Wir sprechen mit ihr darüber, wie ein digitales Curriculum aussehen müsste – und wie sich das System dafür verändern muss.
Linn Friedrichs setzt sich für mehr Digitalkompetenzen ein.Linn Friedrichs arbeitet, lehrt und forscht zu globaler Bildung. Ob in ihrer Doktorarbeit oder auf ihren beruflichen Stationen an der New York University (NYU) in Berlin und am United World College (UWC) in der Nähe von Pune in Indien: Friedrichs beschäftigt sich mit der Entwicklung von Curricula. Dabei ging es immer um die Frage, welche Fähigkeiten wir in Zukunft benötigen werden und wie das Bildungssystem Lernende auf veränderte Rahmenbedingungen vorbereiten kann.
https://netzpolitik.org/wp-upload/2023/09/23-09-OnTR-Linn.mp3
Besonders am Herzen liegen ihr Digitalkompetenzen (im Englischen treffender beschrieben mit „Digital Literacy“). Aber wie können diese im aktuellen Bildungssystem vermittelt werden? Und wie müsste dieses System dafür reformiert werden? Auf der vergangenen re:publica hat Linn Friedrichs dazu einen Vortrag gehalten. Um ihre Thesen und Ideen zu vertiefen, haben wir diesen Podcast aufgenommen.
Im ersten Teil sprechen wir über den Status Quo und die dahinter liegenden Prozesse: Wie und von wem werden Curricula überhaupt entwickelt und umgesetzt? Es geht aber auch darum, was die Aufgabe von Bildung ist und ob diese Aufgabe im traditionellen System ausreichend auf die Gegenwart und Zukunft vorbereitet. (Die wenig überraschende Antwort: nein. Das Bildungssystem ist wie ein Tanker, der gerade irgendwo im Suezkanal festgefahren ist.)
Vor allem wollen wir in diesem Podcast aber über die Zukunft sprechen und über die Fähigkeiten, die vermittelt werden müssen, um souverän auf die digitale Zukunft vorbereitet zu werden. Wie würde man das „from scratch“ neu bauen? Wie muss ein Bildungssystem aufgebaut sein, das alle mitnimmt und nicht im Gestern steckenbleibt? Und wer könnte so ein dafür notwendiges digitales Curriculum entwickeln?
In dieser Folge: Markus Beckedahl und Linn Friedrichs.
Produktion: Serafin Dinges.
Titelmusik: Trummerschlunk.
Hier ist die MP3 zum Download.
Unseren Podcast könnt ihr auf vielen Wegen hören. Der einfachste: In dem eingebundenen Player hier auf der Seite auf Play drücken. Ihr findet uns aber ebenso bei Apple Podcasts, Spotify und Deezer oder mit dem Podcatcher eures Vertrauens, die URL lautet dann netzpolitik.org/podcast/.
Wie immer freuen wir uns über Kritik, Lob und Ideen, entweder hier in den Kommentaren oder per Mail an podcast@netzpolitik.org.
Weiterführende Links zum Thema Auswahl relevanter Beschlüsse und Richtlinien der Kultusministerkonferenz:KMK-Strategie „Bildung in der digitalen Welt“
KMK: Kompetenzen in der digitalen Welt
Jahresbericht der Kultusministerkonferenz 2022 zur Bildung in der digitalen Welt
KMK: Standards für die Lehrerbildung: Bildungswissenschaften
Im Gespräch erwähnte Studien und Forderungen zu Lehrer*innenfortbildung:Qualifizierung: Was macht gute Lehrerfortbildung aus?
DPhV und Fachverbände fordern von Politik deutlich mehr Engagement bei Lehrkräftefortbildung
Auswahl relevanter Modelle und Publikationen zu Digital- und Medienkompetenz:re:publica 2023: Linn Friedrichs – What is the digital literacy curriculum we need?
EU-Kommission: Digital Competences Framework
Stiftung Neue Verantwortung: „Quelle: Internet“? Digitale Nachrichten- und Informationskompetenzen der deutschen Bevölkerung im Test
Im Gespräch referenzierte Initiativen und Ideen zur Transformation von Bildung:Table Media: Die Kralle des Bundes
Kompetenzverbund lernen:digital
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die 37. Kalenderwoche geht zu Ende. Wir haben 22 neue Texte mit insgesamt 157.693 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.
Fraktal, generiert mit MandelBrowser von Tomasz ŚmigielskiLiebe Leser:innen,
mein Blutdruck ist bis auf eine leichte Weißkittelhypertonie meistens ziemlich in Ordnung. Außer ich fühle mich zur Närrin gehalten, dann hat das die Wirkung eines vierfachen Espressos mit hundert Prozent Robusta-Bohnen. Diese Woche ging mir das so mit einer Presseanfrage ans Bundesinnenministerium.
Es ging um die deutsche Position zur Chatkontrolle. Das Innenministerium führt in Brüssel die Verhandlungen im Rat, ist also die geeignete Ansprechpartnerin. Aus einem Positionspapier aus dem Februar wissen wir: Bei der deutschen Regierungsposition gab es noch einige klärungsbedürftige Punkte, denn vor allem Innen- und Justizministerium waren sich nicht ganz einig. Außerdem wissen wir: Einige Punkte aus der Chatkontrolle-Verordnung widersprechen deutlich der deutschen Position. Wir wissen auch: In zwei Wochen wollen die EU-Staaten in Brüssel über die Ratsposition abstimmen. Die Zeit ist also denkbar knapp. Ein guter Moment, nachzuhaken.
Meine Fragen waren einfach: Sind die offenen Punkte geklärt? Mit welchem Ergebnis? Was ist, wenn die kritischen Punkte im Verordnungsentwurf sich nicht mehr ändern? Stimmt Deutschland dann mit „Nein“ oder enthält es sich?
Für die Antwort habe ich dem Innenministerium 28 Stunden Zeit gegeben, bis 18 Uhr am Dienstag. Mehr als genug für Fragen, zu denen das Haus wohl nicht erst ausführlich in alten Akten aus dem Keller recherchieren muss. Natürlich war am Dienstag Abend keine Antwort da. Am Mittwoch morgen hatte ich dann eine E-Mail in meiner Inbox, die aber den Namen „Antwort“ nicht verdient. Zumindest nicht auf meine Fragen.
Ich bekam vor allem Zitate aus dem Positionspapier. Das kenne ich, keine Sorge, denn immerhin haben wir es selbst veröffentlicht. Komplettiert mit Phrasen wie: „Die Bundesregierung wird sich auch weiterhin aktiv in die Verhandlungen auf EU-Ebene einbringen.“ Eine Aussage mit dem Neuigkeitswert von „YouTube ist eine Video-Plattform“. Oder: „Ein Apfel ist eine rundliche, fest-fleischige, aromatisch schmeckende Frucht mit Kerngehäuse, die an einem Baum wächst.“
Respektlos gegenüber der ÖffentlichkeitIch schrieb also zurück. „Mit Bedauern musste ich feststellen, dass einige meiner Fragen unbeantwortet geblieben sind.“ Und wiederholte meine Fragen. Außerdem verwies ich aufs Justizministerium. Das hatte mir nämlich in der Zwischenzeit immerhin verraten, dass die Verhandlungen zur deutschen Position noch nicht fertig sind. Ich setzte eine neue Frist, diesmal nur noch 4,5 Stunden. Und bekam – vier Minuten nach Ablauf der Zeit – die Absage: „Die Nachfragen beziehen sich auf einen noch laufenden Abstimmungsvorgang. Daher können wir zum jetzigen Zeitpunkt keine näheren Informationen übermitteln.“
Ich fühle mich, entschuldigt die Wortwahl, doppelt verarscht. Zum einen ganz persönlich, weil man bis zur letzten Minute und darüber hinaus wartet, um mir zu sagen, dass man mir nichts sagen wird. Das behindert und verzögert unsere Arbeit. Zum anderen, weil die Regierung hier bei einem wichtigen und dringenden Thema mauert. Und das regt mich noch mehr auf, weil es bei Weitem nicht nur mich betrifft. Sondern alle, die sich dafür interessieren, wie ihre Regierung sich bei einem so grundrechtsrelevanten Thema verhalten wird. Ich finde das zutiefst respektlos – gegenüber der gesamten Öffentlichkeit.
Klar, das ist kein Einzelfall. Ich hatte schon unzählige Nicht-Antworten in meiner Inbox, schon tagelange Verzögerungen, weil die Anfrage noch „in der Fachabteilung liegt“. Auch mein Kollege Sebastian hat diese Woche seine Blutdruck-Momente mit einer Pressestelle gehabt, in diesem Fall: Google. Bestimmt sagen manche: Es lohnt sich nicht, sich darüber aufzuregen. Und stimmt, ein bisschen gewöhnt man sich dran. Aber ich finde auch: Ein gutes Maß an Empörungsenergie hilft beim Weitermachen.
Ein schönes Wochenende mit gesundem Blutdruck wünscht euch
anna
Diese Folge von Degitalisierung wird buchstäblich mehrdimensional. Oder sie ist einfach nur politisch und damit erfolgt die Argumentation quasi Lichtjahre entfernt von der physikalischen Realität. Oder sie ist beides auf einmal, weil in den vergangenen Tagen viele Digitalisierungsthemen anders keinen Sinn ergeben. Von Bianca Kastl –
Artikel lesen
Die Bundespolizei überwachte eine Umweltaktivistin und schrieb sie zur Fahndung aus. Diese wehrte sich dagegen vor Gericht und bekam recht: Das Verwaltungsgericht Hannover hat beides als rechtswidrig eingestuft. Von Nora Nemitz –
Artikel lesen
Eine Sonderkommission des polnischen Senats hat ihren Abschlussbericht zum Pegasus-Skandal vorgestellt. Sie kritisiert den Einsatz des Staatstrojaners hart und spricht von Wahlmanipulation. Ihre Vorschläge zur Geheimdienstkontrolle nennt eine NGO „überfällig“. Von Leonhard Pitz –
Artikel lesen
Während in Europa die Verhandlungen zur digitalen Identität fast fertig sind, macht das Innenministerium einen Konsultationsprozess zum Thema. Eine Kleine Anfrage aus dem Bundestag veranschaulicht ein Wirrwarr aus Konzepten, Projekten, Zuständigkeiten und Interessen. Von Markus Reuter –
Artikel lesen
Die Bundesregierung will mehr Künstliche Intelligenz aus Deutschland und hat dafür ein großes Investitionspaket aufgelegt. Die Eigentumsstrukturen spielen bei der Förderung offensichtlich keine wichtige Rolle. Von Leonhard Pitz –
Artikel lesen
Die EU-Kommission musste bis August einen Bericht zur freiwilligen Chatkontrolle vorlegen. Das hat sie bis heute nicht getan. Auch Internet-Dienste und EU-Staaten müssen jedes Jahr Statistiken veröffentlichen, tun das aber nur unzureichend. Die Länder-Berichte hat die Kommission wieder depubliziert. Von Andre Meister –
Artikel lesen
Der Hollywood-Schauspieler Ashton Kutcher ist ein Held unter den Befürwortern der Chatkontrolle. Jetzt hat Kutcher sich bei einer Richterin für einen befreundeten Vergewaltiger eingesetzt und dabei die Glaubwürdigkeit von dessen Opfern untergraben. Der Mann taugt weder als Vorbild noch als Lobbyist. Ein Kommentar. Von Markus Reuter –
Artikel lesen
Es könnte ein wegweisendes Verfahren sein: Das US-Justizministerium wirft Google vor, seine Vormachtstellung bei der Internetsuche missbraucht zu haben. Heute beginnt der Prozess, der letztlich nicht nur die Suche im Internet umkrempeln könnte. Von Hasset Tefera-Alemu –
Artikel lesen
In ihrer vermutlich letzten Rede zur Lage der Union feierte Kommissionspräsidentin von der Leyen die EU als weltweite Vorreiterin für digitale Rechte. Sie lobte abgeschlossene Gesetzesvorhaben und drängte auf einen Abschluss des AI Acts. Ein wichtiges Thema aber ließ sie aus. Von Maximilian Henning –
Artikel lesen
Mit dem Medienfreiheitsgesetz will die EU die Pressefreiheit schützen und die Überwachung von Journalist:innen verbieten. Doch in Brüssel liegen die Vorstellungen weit auseinander, wie stark dieses Verbot ausfallen soll. Von Tomas Rudl –
Artikel lesen
Kurz vor dem Beschluss der Chatkontrolle warnt ein internationales Bündnis von Nichtregierungsorganistionen vor den Überwachungsplänen der EU. Die Verordnung gefährde Freiheit und Sicherheit aller Internetnutzer*innen, sagen mehr als 80 NGOs aus Afrika, Asien, Europa, Latein- und Südamerika sowie den USA. Von Leonhard Pitz –
Artikel lesen
Die Justiz- und Innenminister der EU-Staaten wollen Ende September über die Chatkontrolle abstimmen. Manche Länder wie Deutschland wollen mehr Zeit zum Verhandeln, wurden aber überstimmt. Diese kritischen Staaten können das Vorhaben verhindern. Wir veröffentlichen ein eingestuftes Verhandlungsprotokoll. Von Andre Meister –
Artikel lesen
Tech-Regulierung ist eines der wichtigsten Themen der EU. Da wollen Konzerne wie Meta und Google gerne mitreden, seit langem gehören sie in Brüssel zur Speerspitze des Lobbyismus. Zwei NGOs zeigen, wie die Digitalkonzerne ihre Macht 2022 ausgebaut haben. Von Hasset Tefera-Alemu –
Artikel lesen
Zu „anstößig“: Der Jugendschutz-Filter von Google entfernt Journalismus über Pornoseiten aus den Suchergebnissen. Mindestens 20 Nachrichtenseiten sind betroffen, wie Recherchen von netzpolitik.org zeigen. Google weicht kritischen Fragen aus, der Deutsche Journalisten-Verband (DJV) und Reporter ohne Grenzen fordern Konsequenzen. Von Sebastian Meineck –
Artikel lesen
Bis die Justiz- und Innenminister der EU ihre Position zur Chatkontrolle beschließen, ist nur noch wenig Zeit. Deutschland hat in anderthalb Jahren seine eigene Position nicht endgültig geklärt, muss aber in zwei Wochen abstimmen. Daraus folgt nur eine logische Konsequenz. Von Anna Biselli –
Artikel lesen
Es klingt wie Satire, aber das Verkehrsministerium will jetzt Klimaschutz mit Künstlicher Intelligenz machen. Dabei würde ein bisschen mehr menschliche Intelligenz im Ministerium gegen die Klimakrise wirklich helfen. Ein Kommentar. Von Markus Reuter –
Artikel lesen
Das Bundesamt für Migration und Flüchtlinge darf nach einem Gerichtsurteil nicht mehr einfach so Handys von Geflüchteten auslesen. Die Asylbehörde änderte daraufhin ihre Abläufe und zapfte seit März deutlich weniger Datenträger an. Doch das Innenministerium will mit einem neuen Gesetz noch mehr Daten abgreifen. Von Anna Biselli –
Artikel lesen
Vor Überwachung, Zensur und Repression in Russland flüchtete die renommierte Journalistin Galina Timchenko in die EU. Dort wurde ihr Handy nun mit dem Staatstrojaner Pegasus infiziert. Wer hinter dem Hack steckt, bleibt Spekulation. Von Leonhard Pitz –
Artikel lesen
Britische Geheimdienste überwachen weitflächig das Internet. Menschen, die außerhalb des Vereinigten Königreichs leben, konnten sich bislang nicht dagegen wehren. Dies untersagt nun ein Urteil des Europäischen Gerichtshofs für Menschenrechte. Von Hasset Tefera-Alemu –
Artikel lesen
Populäre Internet-Dienste wie Netflix und YouTube sollen sich am europäischen Breitbandausbau beteiligen, fordern große Netzbetreiber. Die umstrittene Idee stößt vor allem beim französischen EU-Kommissar Thierry Breton auf offene Ohren. Bislang liegt noch kein Gesetzentwurf vor – aber der Schaden ist bereits weltweit angerichtet. Von Tomas Rudl –
Artikel lesen
Was ist digitale Gewalt? Was bringt das Eckpunktepapier des Bundesjustizministeriums zu einem neuen Gesetz? Und was braucht es wirklich, um Betroffenen zu helfen? Anne Roth hat das in einem Talk auf dem Chaos Communication Camp 2023 zusammengefasst. Von Anne Roth –
Artikel lesen
NOYB fordert die französische Datenschutzbehörde auf, gegen drei beliebte Apps vorzugehen. Sie würden die Daten der Nutzer*innen sammeln und weiterleiten, ohne vorher deren Erlaubnis einzuholen. Von Nora Nemitz –
Artikel lesen
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
NOYB fordert die französische Datenschutzbehörde auf, gegen drei beliebte Apps vorzugehen. Sie würden die Daten der Nutzer*innen sammeln und weiterleiten, ohne vorher deren Erlaubnis einzuholen.
Ungefragte Weitergabe von persönlichen App-Daten – CC-BY 2.0 Nenad StojkovicDie Datenschutzorganisation NOYB prüfte drei Android-Apps und reichte daraufhin am Donnerstag bei der französischen Datenschutzbehörde CNIL Beschwerde ein. Eine Beschwerde richtet sich gegen die in Deutschland auch beliebte Fitness-App MyFitnessPal, die beiden anderen Apps sind vor allem in Frankreich verbreitet: einmal die Immobilien-App SeLoger und die App von Fnac, einer französischen Elektronik-Handelskette. Bei allen drei Apps habe NOYB Datenschutzverstöße festgestellt.
Sofort nach dem Öffnen sammeln alle drei Apps personenbezogene Daten, sagt NOYB. Hierbei handele es sich um die Google-Werbe-ID, das Modell so wie die Marke des Geräts und lokale IP-Adresse. Diese Daten würden rechtswidrig gespeichert und an Dritte weitergegeben, etwa für personenbezogene Werbung. Lediglich eine App wies bei der Nutzung darauf hin. Jedoch seien auch hier schon vor dem Hinweis Daten gesammelt worden. Bei keiner der drei Apps habe man vor Beginn der Datensammlung die Möglichkeit, dem zu widersprechen.
Konsequenzen sollen folgenNOYB fordert, dass alle gespeicherten Daten bei den App-Betreibern unwiderruflich gelöscht werden. Zudem schlägt NOYB vor, die Behörde solle wegen der vielen betroffenen Personen ein Bußgeld für die Betreiber veranlassen.
Bei den drei Apps handelt es sich wohl nicht um Einzelfälle. NOYB kündigte an, weitere Untersuchungen vorzunehmen. Aber auch eine Studie von Konrad Kollnig und Reuben Binns der University of Oxford weist darauf hin, dass weit mehr Anwendungen als diese drei sich nicht an das Gesetz halten und Daten ohne Zustimmung sammeln und speichern.
Laut der Studie würden lediglich 3,5 Prozent der Android-Apps Nutzenden eine Möglichkeit geben, den Datentransfer an Dritte abzulehnen. Ala Krinickytė, Datenschutzjuristin bei NOYB, sagt daher: „Es ist wichtig, dass die zuständigen Aufsichtsbehörden jetzt geeignete Maßnahmen ergreifen, um dieser Praxis ein Ende zu setzen.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Was ist digitale Gewalt? Was bringt das Eckpunktepapier des Bundesjustizministeriums zu einem neuen Gesetz? Und was braucht es wirklich, um Betroffenen zu helfen? Anne Roth hat das in einem Talk auf dem Chaos Communication Camp 2023 zusammengefasst.
Digitale Gewalt hat viele Gesichter. – Alle Rechte vorbehalten IMAGO / Ikon ImagesDieser Text ist eine verschriftlichte, für bessere Lesbarkeit editierte Version des Vortrags, der auf media.ccc.de angeschaut werden kann.
Ich möchte mit einem Gespräch beginnen, das ich vor einiger Zeit mit einer Beraterin einer Frauenberatungsstelle führte. Sie erzählte mir von dem Fall einer jungen Frau, wo jemand genau wusste, wie ihr Zimmer aussieht, obwohl sie in der dritten Etage wohnt. „Er konnte ihr die Bilder erklären, die er von ihr gemacht hat, aber er hat es ihr nicht gezeigt. Er hat sie beim Entkleiden gefilmt. Er hat sie auch bedroht und sie aufgefordert, Sachen zu tun, die sie nicht tun wollte. Die Frau hat irgendwann angefangen, an ihrer eigenen Wahrnehmung zu zweifeln. Wenn aber eine Frau mit einer solchen Geschichte zur Polizei geht, dann sagen die oftmals: ‚Das hat sie sich aus den Fingern gesogen.’“
Wenn Menschen so etwas widerfährt, sind sie erst einmal völlig ratlos. Sie treibt nicht nur die Frage um: „Wie macht er das?“ – sondern die haben Angst. Die haben Angst davor, dass dieses Material, wie angedroht, vielleicht an Kolleg*innen, an Nachbar*innen, an die Familie gerät. Und sie haben Angst, dass der Täter vielleicht in ihrer Wohnung war oder noch in die Wohnung kommt. Und sie haben das Gefühl, überwacht zu werden – ohne zu wissen, wie und wo diese Überwachung stattfindet. Das macht Angst.
Die Beraterin hat mir berichtet, dass der Belästiger vermutlich eine Drohne genutzt hat. „Inzwischen wissen wir, dass so etwas regelmäßig vorkommt.“
Vermeintlich einfache LösungenIm Bereich des Stalkings kommt es sehr oft vor, dass der Belästiger immer genau weiß, wo die betroffene Person ist: „Eine Frau hatte einen Sender am Auto. Nachdem der Sender gefunden worden war, baute der Belästiger ein Mikro im Auto ein, sodass er alles mithören konnte. Auch das ist irgendwann entdeckt worden und dann war Ruhe.“
Im Nachhinein ist es einfach, sich zu erklären, woher Belästiger ihre Infos haben. Und dann sieht auch die Lösung auf den ersten Blick einfach aus. Aber in dem Moment, wo du davorstehst und das nicht weißt, verursacht die Bedrohung einen enormen Stress. Und das ist auch eine Herausforderung für die Beratungsstellen. Sie müssen sich erstens fragen: Gibt es überhaupt eine reale Überwachung? Und zweitens: Wie findet diese statt?
Wenn in einer Beratungsstelle eine Frau sitzt, deren Ex-Freund oder Partner viel über sie weiß, man aber nicht weiß woher, dann helfen pauschale Ratschläge – etwa einen Passwort-Manager oder eine sichere Messenger-App Signal zu nutzen – nicht weiter.
Was ist digitale Gewalt?Das Problem beginnt vielmehr weit früher – nämlich bei der Definition. Was ist eigentlich alles digitale Gewalt?
Die Frauenhauskoordinierung e. V. – quasi der Dachverband der Frauenhäuser in Deutschland – definiert digitale Gewalt wie folgt:
Definition von Digitaler Gewalt der Frauenhauskoordinierung - FrauenhauskoordinierungManche sprechen inzwischen auch von technikbasierter Gewalt oder von geschlechtsspezifischer digitaler Gewalt. Es geht in diesem Text vor allem um Gewalt im sozialen Nahraum, landläufig bekannt als ‚Häusliche Gewalt‘. Dabei geht es in der großen Mehrzahl um Gewalt in heterosexuellen Paar-Beziehungen bzw. getrennten Paaren. Digitale Gewalt betrifft aber auch andere Menschen und zwar vor allem alle, die von verschiedenen Formen von Diskriminierungen betroffen sind: Neben Frauen sind das etwa LGBTQI-Personen, Menschen mit Behinderungen, alle, die von Rassismus betroffen sind oder die, die aufgrund geringerer Bildung weniger Zugang zu Wissen über digitale Geräte oder Plattformen haben.
Digitale Gewalt umfasst verschiedene Formen der Gewalt, die mit Hilfe technischer Geräte wie Smartphone und über Programme und Plattformen ausgeübt wird. Digitale Gewalt steht im Partnerschaftskontext meist in direkter Verbindung zu analoger Gewalt. Auch das ist ein großes Problem in dieser Debatte.
Digitale Gewalt wird begrifflich häufig synonym zu Hate Speech benutzt und verstanden. Aber das ist tatsächlich nur ein relativ großer Teilbereich, der auch viel Aufmerksamkeit verdient – aber eben nur ein Teilbereich.
Es gibt noch etliche weitere Seiten der digitalen Gewalt. Aber vielen Menschen, insbesondere in der Politik, ist dies nicht bewusst. Und wir sollten uns klar machen, dass geschlechtsspezifische Gewalt im sozialen Nahraum – auch bekannt als häusliche Gewalt oder Partnerschaftsgewalt – viel mit Kontrolle und Manipulation zu tun hat. Dementsprechend bieten digitale Geräte, Software und Plattformen viele Möglichkeiten, digitale Gewalt auszuüben – in Familien, in Partnerschaften, unter Kolleg*innen, in der Nachbarschaft.
Eine Studie der Fachhochschule Campus Wien aus dem letzten Jahr. - fh campuswienHinzu kommt die digitale Gewalt, die durch Unbekannte im Netz erfolgt. Eine Studie aus dem vergangenen Jahr, die an der Fachhochschule Campus Wien erschienen ist, versucht, digitale Gewalt im sozialen Nahraum zu kategorisieren. Demnach gibt es bildbasierte sexualisierte Gewalt, dann die Erstellung von Fake-Profilen und was man damit alles anfangen kann, sowie Nachrichten, Anrufe, die Kontrolle durch technische Geräte, Beschädigung technischer Geräte sowie Psychoterror durch das sogenannte Internet of Things, also smarte Geräte, und schließlich der ökonomische Schaden, den digitale Gewalt anrichten kann.
Wie groß ist das Problem eigentlich?Aber wie groß ist dieses Problem eigentlich? Vor vier Jahren stand ich hier und habe gesagt, dass es keine Zahlen und keine Empirie zu dem Thema gibt. Wir wissen darüber einfach viel zu wenig.
Natürlich haben die Beratungsstellen Umfragen dazu erstellt, aber eben keine Empirie. Und im Grunde fehlen bis heute valide Zahlen. Das Hilfetelefon „Gewalt gegen Frauen“, das von der Bundesregierung betrieben wird, gibt Jahresberichte heraus. Diese Berichte führen auf, wie viele Fälle das Hilfetelefon jährlich insgesamt verzeichnen. Im Jahr 2022 sind es knapp 40.000 gewesen. Genau 314 davon sind als digitale Gewalt kategorisiert. Die niedrige Zahl wirft Fragen auf. Denn das kann eigentlich nicht sein.
Das Problem ist, dass die Mitarbeitenden des Hilfetelefons jeden Fall, den sie bearbeiten, in eine Kategorie einsortieren. Und natürlich ordnen sie die meisten Fälle bei häuslicher Gewalt ein, also quasi bei der physischen Gewalt. Unter „digitale Gewalt“ sind dann nur noch jene Fälle einsortiert, die die Mitarbeitenden zuvorderst nicht zur häuslichen Gewalt zählen. Deren Zahl fällt dann natürlich sehr gering aus. Und sie ist daher auch kaum aussagekräftig.
Für die Jahre zuvor zeichnen die Zahlen ein ähnliches Bild. 2019 waren es 229 Fälle, sie sind dann etwas angestiegen, aber sie weisen insgesamt keine großen Unterschiede auf.
Seit dem Jahr 2022 gibt es außerdem die Bundeslagebilder Häusliche Gewalt des Bundeskriminalamts (BKA). Sie führen Zahlen zur Partnerschaftsgewalt mit dem Thema Internet zusammen. Zuvor gab es solche Übersichten nicht. Damals wurden Straftaten erfasst, die mit dem Internet oder mit Partnerschaftsgewalt zusammenhängen, aber sie wurden nicht gesondert erfasst, wenn sie in dieser Kombination vorkamen.
Die seit 2022 vom BKA erfassten Zahlen sind ebenfalls ziemlich klein. Insgesamt gab es 24.000 Fälle von Bedrohung in Partnerschaften, 1.800 davon erfolgten mit dem Internet, also 7,8 Prozent. Dasselbe gilt für Stalking und Nötigung. Meine Vermutung ist, dass diese Zahlen nicht die Realität darstellen. Denn die Beratungsstellen sagen bereits seit Jahren, dass nahezu alle Fälle von geschlechtsspezifischer Gewalt auch digitale Aspekte aufweisen.
Das Problem ist auch die PolizeiWenn das BKA in ihren Lagebildern dies so nicht darstellt, dann kann das viele Gründe haben. Zunächst einmal gehen betroffene Frauen nur selten zur Polizei. Das kennen wir aus dem Bereich der analogen körperlichen Gewalt. Wenden sie sich aber an die Polizei, dann werden ihre Fälle oftmals nicht aufgenommen, die Frauen werden abgewiesen. Das kommt leider allzu häufig vor.
Die Beamt*innen fragen dann, wieso die Frauen das Nacktfoto überhaupt gemacht haben. Irgendwie seien sie ja selber schuld – ich überspitze – wenn ihnen digitale Gewalt widerfährt. Inzwischen ändert sich das ein wenig. Aber im Großen und Ganzen hat die Polizei noch immer weder die Technik, um eine vernünftige Beweissicherung zu machen, noch die die Ausbildung dazu.
Digitale Gewalt taucht inzwischen auch in den Statistiken der Polizeilichen Kriminalstatistik (PKS) auf. Da geht es allerdings nur um Verdacht und Ermittlungen, aber nicht um Verurteilungen. Das heißt, auch die PKS bildet die Realität nicht ab.
Immerhin erfasst die PKS ebenfalls seit dem Jahr 2022 im Bereich Hasskriminalität auch frauenfeindliche Hasskriminalität. Vorher wurde das nicht erfasst, weil in dem Bereich Hass, Bedrohungen und Beleidigungen das Thema Sexismus beziehungsweise Frauenfeindlichkeit und geschlechtsspezifischer Hass häufig einfach vergessen wird. Laut PKS gab es immerhin 206 Fälle von Frauenfeindlichkeit. Und neuerdings wird auch Männerfeindlichkeit erfasst. Die gibt es noch seltener, die PKS nennt hier 15 Fälle.
Fehlende Empirie, fehlende StudienDiese Zahlen geben die Realität also nicht wieder. Sie bieten damit auch keine empirische Grundlage für die Debatte um digitale Gewalt. Die letzte empirische Studie zu Gewalt gegen Frauen in Deutschland gab im Jahr 2004 – also vor knapp zwanzig Jahren – das Bundesfamilienministerium in Auftrag. Die Studie ist damit nicht nur veraltet, sondern sie führt zu digitaler Gewalt nichts auf.
In den vergangenen zwei Jahrzehnten sind keine neuen Zahlen hinzugekommen. Allerdings hat das Familienministerium gemeinsam mit dem Bundesinnenministerium und dem BKA kürzlich eine neue Studie in Auftrag gegeben. Die ist nicht frauenspezifisch, sondern trägt den Titel „Lebenssituation, Sicherheit und Belastung im Alltag“. In der Studie soll es auch um digitale Gewalt gehen. Erste Ergebnisse werden für das Jahr 2025 erwartet.
Tatsächlich ist es so, dass die Bundesrepublik seit 2018 verpflichtet ist, Statistiken zum Thema digitale Gewalt zu führen und eine entsprechende Forschung zu fördern, weil Deutschland die Istanbul-Konvention ratifiziert hat. Das ist ein Übereinkommen des Europarats zur Verhütung und Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt. Und auch dank der Istanbul Konvention tut sich jetzt endlich ein wenig.
Die Frage aber lautet: Ist das Glas halb leer oder ist es halbvoll? Ich würde sagen, es ist immer noch ziemlich leer, aber es ist nicht mehr ganz leer.
Projektförderung muss man mit der Lupe suchenDaneben fördert die Bundesregierung einzelne Projekte zu dem Thema digitaler Hass. Der Bundesverband Frauenberatungsstellen und Frauennotrufe – Frauen gegen Gewalt (bff) betrieb beispielsweise seit 2017 ein Projekt Aktiv gegen digitale Gewalt.
Dafür bekam der bff eineinhalb Stellen. Die dort beschäftigten Personen erstellten Materialien, berieten all ihre Mitgliedsverbände, betreuten eine Webseite und machten vieles mehr. Im Jahr 2021 ist das Projekt dann plötzlich nicht mehr gefördert worden, es wurde daraufhin erstmal eingestellt, 2022 aber wieder aufgenommen.
Der bff hatte 2021, nachdem keine weitere Förderung bewilligt worden war, kurzfristig noch Mittel für ein anderes Projekt beantragt und bewilligt bekommen. Da ging es um interdisziplinäre Aktionspartnerschaften gegen digitale geschlechtsspezifische Gewalt. Sie widmen sich der Frage, wie Beratungsstellen mit IT-Expert*innen zusammenarbeiten und eine Beratung organisieren können. Zu dem Thema gibt es auch eine lesenswerte Broschüre.
Bundesweit gab es außerdem zwei aufeinanderfolgende Projekte der Frauenhauskoordinierung. Aber darüber hinaus fördert die Bundesregierung keine weiteren Projekte zum Thema geschlechtsspezifische digitale Gewalt. Das reicht aber nicht aus, um eine stetige Beratung oder Begleitung dieses Themas zu gewährleisten.
Daneben gibt es eine ganze Reihe von Projekten und Organisationen, die sich spezifisch mit Hate Speech beschäftigen oder weitergehend mit digitaler Gewalt im Netz und auf Plattformen. Etwa hateaid, Das Nettz, die Amadeu Antonio Stiftung oder no hate speech.
In diesem Bereich fördern Bund und Länder eine Menge, und auch Stiftungen unterstützen solche Projekte. Das ist zu begrüßen, aber es hat zugleich den beschriebenen Effekt, dass digitale Gewalt im sozialen Nahraum ständig übersehen wird.
Ein positives Gegenbeispiel ist die Stadt Wien. Sie hat im Jahr 2020 eine Kompetentzstelle gegen Cybergewalt eingerichtet. Aus meiner Sicht wäre dies auch hierzulande die beste Lösung für dieses Problem: In den Bundesländern, aber auch den großen Städten sollte es Kompetenzstellen geben mit Personal, das Zeit und Ressourcen hat, die ständigen technischen Weiterentwicklungen zu verfolgen und die nötige Expertise bereitzuhalten, um dann in konkreten Fällen Beratungsstellen und Frauenhäuser beraten zu können.
In Wien gibt es das jetzt. Und ich finde, das sollte hier nachgemacht werden.
Warum ist die Lage in Deutschland so desolat? Schauen wir auf den Haushaltsentwurf von Bundesfinanzminister Christian Lindner (FDP) für das Jahr 2024, dann sind für das Bundesministerium für Familie, Senioren, Frauen und Jugend 13,4 Milliarden von 384 Milliarden vorgesehen.
Ausgaben, die 2024 vom Bundeshaushalt geplant sind - CC-BY-ND 2.0 statistaDas ist nicht sehr viel. Ebendarum ging es auch in der Auseinandersetzung, die Familienministerin Lisa Paus um die Höhe der Kindergrundsicherung geführt hat. Diese Grundsicherung soll aus dieser Summe bezahlt werden. Das geht nur leider nicht, weil in diesem Etat, das ist jetzt der Etat für das Familienministerium, allein 12 Milliarden Euro gesetzliche Leistungen für Familien sind. Das muss Paus’ Haus in jedem Fall bezahlen. Und der Rest steht dann für alle anderen Projekte zur Verfügung. Das sind 500 Millionen für Zivilgesellschaft, Familien, Gleichstellung und Senioren.
Wo aber steckt im Etat des BMFSFJ die Gewalt gegen Frauen? Die ist – erstaunlicherweise – ein Teil des Postens Gleichstellung. Und darin stecken die Posten für das Thema digitale Gewalt. Die sind also minimal. Es gibt quasi kein Geld für dieses Thema, jedenfalls nicht von der Bundesregierung.
Bei dem Thema Hate Speech sieht das ein wenig anders aus. Beispielsweise ist Hate Aid teilweise vom Bundesjustizministerium gefördert worden. Hate Aid ist der Etat im Entwurf jetzt allerdings komplett gestrichen worden. Wie das ausgeht, wird man sehen.
Was bringen Gesetze?Was hat sich in den vergangenen Jahren im Bereich der Gesetze getan? Nicht so viel. Allerdings ist es meiner Auffassung nach auch ein Trugschluss, dass mehr Verbote und höhere Strafen dazu beitragen können, dass die Gewalt nennenswert sinkt. Das ist vielfach erforscht worden.
Zugleich aber ist es eine relativ einfache Möglichkeit, um überhaupt irgendetwas gegen Gewalt zu tun – ganz gleich, wie wirksam das ist. Ja, es gab ein paar kleine Neuerungen. Im Herbst 2020 verabschiedete der Bundestag das Gesetz zum Thema Upskirting, also wenn gegen den Willen von Personen unter den Rock fotografiert oder von oben in den Ausschnitt fotografiert wird. Der Paragraf 184 StGB richtet sich gegen die Verletzung des Intimbereichs durch Bildaufnahmen.
Im April 2021 wurde das Gesetz zum Hasskriminalität und Rechtsextremismus verabschiedet. Das ist so eine Art Puzzlegesetz, das aus vielen einzelnen Teilen besteht. Damit wurde etwa in Paragraph 46 StGB – da geht es um die Strafzumessung – das Motiv Antisemitismus ergänzt. Paragraf 126 stellt seitdem die Androhung sexueller Straftaten unter Strafe. Außerdem gibt es Teile zum Melderecht, zum NetzDG und zur Meldepflicht von Plattformen.
Beim Paragraph 46 StGB (Strafzumessung) geht es um die Höhe der Strafe und die Motive, die bei der Begehung der Tat eine Rolle spielen. Mit der Reform 2021 wurden nun rassistische, fremdenfeindliche, antisemitische und weitere menschenverachtende Beweggründe und Ziele des Täters erfasst. Und was fehlt? Richtig, Frauen.
Geschlechtsspezifische Gewalt gegen Frauen wurde einmal mehr vergessen. Das mahnten schon damals viele an, unter anderem der Juristinnen-Bund. Das hat aber nicht dazu geführt, dass es noch geändert wurde. Und jetzt im Juni 2023 wurde das Gesetz erneut geändert. Künftig sollen geschlechtsspezifische und gegen die sexuelle Orientierung gerichtete Motive eine Rolle bei der Strafzumessung spielen.
Im Oktober 2021 wurde der Paragraf 238 StGB zum Thema Stalking um Cyber-Stalking erweitert, so dass digitale Aspekte des Stalking ebenfalls erfasst wurden. Seit Ende 2021 gibt es das TTDSG. Das ist ein sehr schönes Gesetz. In voller Länge lautet der Name Telekommunikation-Telemedien-Datenschutz-Gesetz. Dieses Gesetz gibt es, weil Verschiedenes im Bereich von TKG und Telemediengesetz an die DSGVO angepasst werden musste. Und in dem TTDSG gibt es den Paragraf 8, den gab es vorher auch schon, er trug allerdings eine andere Nummer.
In diesem Paragrafen geht es um den Missbrauch von Telekommunikationsanlagen. Und worum es dabei geht, erklärt uns die Bundesnetzagentur in einem kleinen Film.
Inhalt von YouTube anzeigenIn diesem Fenster soll ein YouTube-Video wiedergegeben werden. Hierbei fließen personenbezogene Daten von Dir an YouTube. Wir verhindern mit dem WordPress-Plugin „Embed Privacy“ einen Datenabfluss an YouTube solange, bis ein aktiver Klick auf diesen Hinweis erfolgt. Technisch gesehen wird das Video von YouTube erst nach dem Klick eingebunden. YouTube betrachtet Deinen Klick als Einwilligung, dass das Unternehmen auf dem von Dir verwendeten Endgerät Cookies setzt und andere Tracking-Technologien anwendet, die auch einer Analyse des Nutzungsverhaltens zu Marktforschungs- und Marketing-Zwecken dienen.
Zur Datenschutzerklärung von YouTube/Google
Zur Datenschutzerklärung von netzpolitik.org
„Kleine Spione: Vorsicht bei smarten Produkten“ direkt öffnen var _oembed_97914bb7bcddda987a86b6411a6af358 = '{\"embed\":\"<iframe title="Kleine Spione: Vorsicht bei smarten Produkten" width="760" height="428" src="https:\\/\\/www.youtube-nocookie.com\\/embed\\/zd2Ll2sRFso?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" allowfullscreen><\\/iframe>\"}'; [data-embed-id="oembed_97914bb7bcddda987a86b6411a6af358"] { aspect-ratio: 760/428; } .embed-youtube .embed-privacy-logo { background-image: url(https://cdn.netzpolitik.org/wp-content/plugins/embed-privacy/assets/images/embed-youtube.png?v=1.8.0); }Erstaunlich finde ich, was mit dem neuen Gesetz eben nicht geändert wurde – obwohl sich das ja geradezu angeboten hat: Nämlich jene Teile anzupassen, die nicht länger aktuell sind.
Konkret frage ich mich, warum das so spezifisch ist? In dem Film geht es um heimliche Aufnahmen und deren Verwendung. Es muss ein Alltagsgegenstand vorgetäuscht werden, heißt es in dem Video, und es muss sendefähig sein. Alles andere ist nicht verboten. Heimliche Aufnahmen und deren Verwendung ohne Einverständnis der gefilmten Personen sind aber schon jetzt verboten. Warum gilt dann hier Paragraph 8 TTDSG nicht für Geräte, die zum Beispiel quasi unsichtbar eingesetzt werden können, also eine Minikamera auf der Toilette oder in der Dusche?
Warum aber braucht es Minikameras mit versteckten Mikrofonen? Gewiss, man kann jetzt viel drüber diskutieren – aber ich würde sagen, dass es Minikameras, die man nicht sehen kann, nicht braucht. Ich finde, alles was sich dazu eignet, Aufnahmen von Personen anzufertigen, sollte als solches auch klar erkennbar sein.
Die Pläne der BundesregierungDamit kommen wir zu den Plänen der aktuellen Bundesregierung für die Zukunft. Im Koalitionsvertrag der Ampel gibt es folgende Passagen, die sich auf digitale Gewalt beziehen:
Mit einem Gesetz gegen digitale Gewalt werden wir rechtliche Hürden für Betroffene, wie Lücken bei Auskunftsrechten, abbauen und umfassende Beratungsangebote aufsetzen. Wir schaffen die rechtlichen Rahmenbedingungen für elektronische Verfahren zur Anzeigenerstattung und für private Verfahren und ermöglichen richterlich angeordnete Accountsperren.“ (S. 18)
Da ist das Glas insofern halb voll, als dass das Thema digitale Gewalt in diesem Koalitionsvertrag explizit genannt wird. Das hat viele Menschen gefreut. Endlich erkennt eine Bundesregierung an, dass digitale Gewalt ein Problem ist. Aber der Teufel steckt im Detail, weil das überaus spezifisch ist. Denn der Koalitionsvertrag sagt: „Mit einem Gesetz gegen digitale Gewalt werden wir rechtliche Hürden für Betroffene wie Lücken bei den Auskunftsrecht abbauen, also Auskunftsrechte und umfassende Beratungsangebote aufsetzen.“
Das ist natürlich super, dass es davon gibt es noch allzu viel zu sehen. Und außerdem soll es eine Möglichkeit geben, auf digitalem Wege Anzeige zu erstatten und Accounts zu sperren. Das aber war’s auch schon. Das ist das, was die Ampel gegen digitale Gewalt unternehmen will. Mehr nicht, erklärtermaßen.
Das Digitale-Gewalt-GesetzIm April dieses Jahres hat das Bundesjustizministerium (BMJ) Eckpunkte zum Digitale-Gewalt-Gesetz veröffentlicht. Seitdem veröffentlichten unterschiedliche Verbände ihre Stellungnahmen. Im Herbst soll es dann einen Referentenentwurf geben.
Auch der CCC hat eine Stellungnahme eingereicht, die an vielen Punkten dem ähnelt, was ich seit vielen Jahren zu dem Thema sage. Das hat mich sehr gefreut, aber eben auch nicht nur mich, sondern ganz viele andere, weil es auf der Hand liegt, was getan werden müsste, um der digitalen Gewalt zu begegnen.
Was steht drin in diesen Eckpunkten? Ziel ist effektiver Rechtsschutz im digitalen Raum. Wer verletzt wird, muss sich dagegen wehren können.
Die sogenannte digitale Gewalt definiert das BMJ nämlich als Beleidigung, Bedrohung und Verleumdung. Eine solche Definition ist schwierig, weil zur digitalen Gewalt ja sehr viel mehr gehört. Obendrein steht in den Eckpunkten nichts dazu, dass den Betroffenen geholfen werden muss, dass die Beratungsstellen angemessen ausgestattet, dass Polizei und Justiz sensibilisiert werden müssen und dass diese sehr enge Definition von digitaler Gewalt deutlich ausgeweitet werden sollte.
Was hat die Bundesregierung jetzt also genau vor? Für Betroffene soll es einfacher werden, Auskunft über den Verfasser rechtswidriger Inhalte zu erhalten. Wenn nichts anderes hilft, soll dann der Account gesperrt werden können. Und außerdem sollen Betreiber sozialer Netzwerken besser erreichbar sein.
Der Haken ist, dass diese Auskunft über den Verfasser rechtswidriger Botschaften in zwei Schritten erfolgen soll: also erst mal die IP-Adresse und über die IP Adresse dann die Bestandsdaten. Es geht also darum, eine Identifizierung möglich zu machen.
Das dauert alles ewig. Und wenn die Betroffenen das dann haben, dann können sie die verklagen und dann mal gucken, was dann passiert.
Gesetz gegen Digitale Gewalt — Der Auskunftsanspruch in der Praxis - Bundesministerium der JustizDie Grafik des BMJ zeigt deutlich, dass es vor allem darum geht, Menschen im Netz zu identifizieren. Und damit sind wir dann bei der Kritik. Denn das Problem ist in der Regel nicht, dass es einen Täter gibt, der eine Person verfolgt und der wird dann identifiziert und dann ist alles gut. Sondern, dass Hass und Bedrohungen im Netz von vielen Accounts ausgehen, die auch ständig wechseln können und daher auch nicht ohne weiteres unschädlich gemacht werden können.
Ich finde auch nicht, dass man die alle identifizieren muss. Beim Thema Identifizierung im Netz sind wir auch schnell beim sogenannten Mission Creep. Wenn es da bald eine Methode der Identifizierung gibt, dann lässt sich diese auf alle möglichen anderen Sachen ausdehnen – das kennen wir von vielen anderen Überwachungsgesetzen: Erst wird ein sehr enger Anwendungsbereich versprochen, aber dann gibt es neue Begehrlichkeiten der Sicherheitsbehörden und so wird Schritt für Schritt ausgeweitet, wofür diese Methode eingesetzt wird.
Und ebendies ist auch schon in den Eckpunkten mit angelegt. Denn da steht unter anderem drin, dass die Identifikation auch auf die Verletzung absoluter Rechte ausgedehnt werden soll. Das bezieht sich offiziell unter anderem auf das Recht am Gewerbebetrieb. Davon betroffen sind dann etwa die sogenannten Restaurantkritiken, was auch breiter durch die Presse ging. Also nimmt das Gesetz etliche Formen rechtswidrigen Verhaltens im Netz in den Fokus, bei denen andere zu Schaden kommen. Sie sollen dann mit diesem Verfahren möglicherweise aufgeklärt und bestraft werden können.
Damit aber bezieht sich das Digitale-Gewalt-Gesetz dann auf sehr viel mehr. Nämlich auf nahezu alles, was im Netz passiert. Es könnte damit die Grundlage dafür legen, sehr viele Menschen im Netz zu identifizieren.
Das Ganze soll zudem auf Messenger sowie auf Provider und die Bestandsdaten ausgedehnt werden. Das einzige, was dem aus rechtsstaatlicher Sicht entgegensteht, ist dann der Richtervorbehalt. Wie wirksam der ist, wissen bereits aus vielen anderen Situationen. Es klingt theoretisch sehr effektiv, faktisch aber funktioniert er kaum, weil die Richter*innen, die Maßnahmen absegnen sollen, häufig nicht die Zeit haben, die Details der jeweiligen Fälle gründlich zu prüfen.
Das sind jetzt Eckpunkte, das ist noch nicht der eigentliche Entwurf. Und wie der dann aussieht, das wissen wir noch nicht.
Der Elefant im Raum ist nun, dass dies kein Digitale-Gewalt-Gesetz ist, auch wenn es so heißt. Das ist vielleicht ein Account-Sperren-Gesetz oder ein Anonymitätsbekämpfungsgesetz. Und aus eben diesem Grund sollten wir den weiteren Verlauf sehr genau beobachten.
Hier werden ein, zwei spezifische Probleme angegangen. Weite Teile der digitalen Gewalt werden hingegen komplett ignoriert. Selbst die GFMK, die Konferenz der Gleichstellungs- und Frauenministerinnen und -minister, -senatorinnen und -senatoren der Länder, hat kürzlich erhebliche Lücken in dem Eckpunktepapier ausgemacht. Und das ist kein Krawallgremium. Das sind die Länderministerien. Und die sagen klipp und klar: „Nein, das kann es noch nicht sein.“
Die Minister*innen fordern seit Jahren mehr Aktivitäten im Bereich digitale Gewalt. Es gibt etliche Stellungnahmen und Beschlüsse, die sagen, es gibt hier ein Problem, da muss endlich mehr passieren.
Was fehlt?Die Frauenhauskoordinierung benennt einige Dinge, die dringend erforderlich sind, wo sich aber gerade hierzulande nur wenig tut. Aus meiner Sicht sollte es IT-Kompetenzzentren geben, die Frauenhauskoordinierung nennt das bundesweite Anlaufstellen, die in Fällen digitaler Gewalt mit technischer Expertise beraten. Die Frauenhauskoordinierung fordert eine ausreichende Finanzierung von Frauenhäusern und Fachberatungsstellen, die haben ohnehin viel zu wenig Geld. Die haben Budgets, mit denen sie übliche Sätze von IT-Expertinnen gar nicht bezahlen dürfen, selbst wenn sie wollten oder könnten. Und auch die Leute, die da arbeiten, werden nicht gut bezahlt. Da ist viel mehr Geld nötig. Dazu kommt, dass es viel zu wenig Frauenhäuser gibt.
In jedem Frauenhaus – und auch in jeder Beratungsstelle – sollte eine Expertin zu dem Thema sein, weil es bei digitaler Gewalt eben spezialisierte Fachkompetenz zum Thema IT braucht. Natürlich braucht es Personen vor Ort, die die Übersetzung leisten und mit den Betroffenen sozusagen die detektivische Arbeit leisten und herausfinden, was eigentlich das Problem ist – bevor dann etwa ein Smartphone forensisch untersucht wird.
Darüber hinaus fordert die Frauenhaus-Koordinierung auch Grundlagenwissen bei Polizei und Justiz zu digitaler Gewalt im Partnerschaftskontext, außerdem Weiterbildungen für Beamt*innen der Polizei, Fortbildungen für Richter*innen sowie Amts- und Staatsanwält*innen.
Es gibt in einigen Ländern mittlerweile spezialisierte Staatsanwaltschaften. Mir hat ein solcher Cyber-Staatsanwalt allerdings einmal erklärt, dass er natürlich nur für das zuständig sei, was üblicherweise unter Cyber verstanden wird. Also für IT-Sicherheit, nicht aber für digitale Gewalt. Ich würde sagen, Straftaten mit IT-Bezug sind Straftaten mit IT-Bezug. Ob das jetzt Menschen, Unternehmen oder Netze betrifft. Aber die Menschen spielen meist leider keine Rolle.
Darüber hinaus ist es enorm wichtig, dass sich auch die IT-Seite Gedanken macht. Es braucht konkrete Überlegungen, wie Entwickler*innen und Produzent*innen von Hard- und Software mehr Verantwortung dafür übernehmen können, um Gewalt einzudämmen, etwa indem sie relevante Sicherheitsstandards für ihre Produkte vorsehen.
Weil es in diesem Bereich relativ wenig Unterstützung gibt, will ich noch am Ende noch auf ein Projekt hinweisen, das von einigen Haecksen betrieben wird: antistalking.haecksen.org. Ein solches Angebot kann die Hilfe vor Ort nicht ersetzen, aber es kann hoffentlich viele Fragen beantworten, die sonst kaum jemand beantwortet. Bei den Berater*innen und bei den Betroffenen.
Und damit bin ich am Ende dieses Talks. Es gibt zweifelsohne noch viele Aspekte, die ich nicht angesprochen habe. Dazu hätte es viel mehr Zeit gebraucht. Der ganze Bereich bildbasierte Gewalt gehört dazu, oder die Erpressung mit Aufnahmen, die ehemals vielleicht konsensual aufgenommen wurden, oder auch intime Aufnahmen, die nie konsensual aufgenommen wurden, die dann auf Porno-Plattformen hochgeladen werden.
Dennoch hoffe ich mit dem Beschriebenen deutlich gemacht zu haben, dass es keine einfachen Lösungen für das Problem der digitalen Gewalt gibt. Ja, es ist weiterhin noch nicht einmal klar, was digitale Gewalt eigentlich genau ist. Es fehlen eine umfassende Definition, genaue Fallzahlen und empirische Studien. Und auch Polizei und Justiz sind dem Problem gegenüber weitgehend ignorant. Daran wird, allem Anschein nach, auch das Digitale-Gewalt-Gesetz des BMJ, das seine Namen zu unrecht trägt, wohl wenig ändern.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Populäre Internet-Dienste wie Netflix und YouTube sollen sich am europäischen Breitbandausbau beteiligen, fordern große Netzbetreiber. Die umstrittene Idee stößt vor allem beim französischen EU-Kommissar Thierry Breton auf offene Ohren. Bislang liegt noch kein Gesetzentwurf vor – aber der Schaden ist bereits weltweit angerichtet.
Der EU-Binnenmarktkommissar Thierry Breton treibt die Idee einer Datenmaut für populäre Internet-Dienste voran. – Alle Rechte vorbehalten IMAGO / ABACAPRESSNoch gibt es gar keinen konkreten Vorschlag, doch die Idee zieht schon weite Kreise. Seit über einem Jahr überlegt die EU-Kommission, allen voran der französische Binnenmarktkommissar Thierry Breton, bei populären Internet-Diensten wie Netflix oder YouTube extra abzukassieren, um damit – so die Argumentation – den Breitbandausbau mitzufinanzieren. Von dem Ansatz lassen sich nun offenkundig andere Länder und Regionen inspirieren, etwa Indien, Brasilien und manche karibische Inseln.
Neu ist dieses Modell nicht, es wurde wiederholt in den 1990er-Jahren und zuletzt vor rund zehn Jahren diskutiert – und jedes Mal aus den gleichen Gründen verworfen. Eine derartige Datenmaut birgt die Gefahr, das offene Internet nachhaltig zu beschädigen. Denn Netzbetreiber würden damit enorm viel Macht darüber erhalten, welche Internet-Dienste zu welchen Bedingungen ihre Nutzer:innen erreichten und ob überhaupt.
Von diesem Argument, das unter anderem auch europäische Regulierungsbehörden vertreten, lassen sich aber vor allem große Netzbetreiber nicht beeindrucken. Aus ihrer Sicht verursachen einige wenige Internet-Dienste den Löwenanteil des jährlichen weltweiten Datentransfers, während sie auf den Kosten der Auslieferung sitzen bleiben würden.
Mit Verweisen auf den Digital Markets Act, der diskriminierenden Geschäftspraktiken im digitalen Raum einen Riegel vorschieben soll, verkaufen sie die alte Debatte nun unter dem Schlagwort „Fair Share“: Alle im Internet-Ökosystem sollten ihren fairen Beitrag dazu leisten, fordern die Unternehmen. Fair Share, das soll irgendwie gerecht klingen.
Indien prüft DatenmautIn die selbe Kerbe schlagen sie in Indien. Dort ging kürzlich eine öffentliche Konsultation zu Ende. Hierbei lotet die Regulierungsbehörde TRAI unter anderem die quasi-Besteuerung sogenannter „Over The Top“-Anbieter (OTT) wie Netflix oder WhatsApp zu Gunsten der Netzbetreiber aus. Die Beteiligung war rege, eingegangen sind über 200 Stellungnahmen.
So fordert etwa der Lobbyarm der Mobilfunkanbieter, GSMA, von den Anbietern datenintensiver Internet-Dienste einen „fairen Beitrag zu Investitionen in die Netze über einen angemessenen Verteilungsmechanismus“. Teils fast wortgleich liest sich die Eingabe des Netzbetreibers Reliance Jio, der gleiche Wettbewerbsbedingungen („level playing field“) verlangt. Das mit über 450 Millionen Kund:innen größte Telekommunikationsunternehmen Indiens gehört zum umstrittenen Firmenimperium des reichsten Manns Asiens, Mukesh Ambani.
Auf der Gegenseite stehen vor allem zivilgesellschaftliche Organisationen. Beispielsweise warnt die indische Internet Freedom Foundation unter anderem vor der Abschaffung der Netzneutralität, was die Folge des von den Betreibern vorgeschlagenen Modells wäre.
Zudem kann sie, wie übrigens auch das deutsche Digitalministerium, kein Marktversagen erkennen, mit dem sich ein derart folgenschwerer Eingriff ins Internet rechtfertigen ließe. „Anstatt die Unternehmensgewinne sowohl von Telekommunikations- als auch von OTT-Anbietern zu schützen, sollte das Ziel der Regulierung darin bestehen, den Interessen der Öffentlichkeit zu dienen“, schreibt die Internet Freedom Foundation.
Thierry Breton als Treiber der DebatteAn der Konsultation hat sich auch die österreichische NGO epicenter.works beteiligt – und sich auch in Brasilien eingebracht, wo Zugangsgebühren für OTTs derzeit ebenfalls beäugt werden. Die Schuld dafür, warum sich die Debatte inzwischen weltweit ausgebreitet hat, verortet ihr Experte für Netzneutralität, Thomas Lohninger, ganz klar beim EU-Binnenmarktkommissar.
„Thierry Breton hat sich darüber hinweggesetzt, wie Gesetze normalerweise in Europa gemacht werden – und egal, wie die Debatte in Europa ausgeht, der Schaden für andere Weltregionen ist leider bereits eingetreten“, schreibt Lohninger an netzpolitik.org.
Tatsächlich ist das bisherige Vorgehen in der EU äußerst undurchsichtig. So findet sich die Datenmaut in keinem Arbeitsprogramm der EU-Kommission, die Ergebnisse der Anfang des Jahres durchgeführten Konsultation bleiben, anders als versprochen, weiterhin unter Verschluss, und dutzende Anfragen nach dem Informationsfreiheitsgesetz hat die Kommission bislang abgewiesen oder rigoros geschwärzt.
Wenn etwas durchsickert, dann sind das bestenfalls Halbsätze etwa in LinkedIn-Beiträgen von Breton. Jüngst erwähnte er dort beiläufig einen ominösen „Telecoms Act“, der angeblich in Vorbereitung sei. In ihrer gestrigen Grundsatzrede verlor die Kommissionspräsidentin Ursula von der Leyen dazu kein Wort.
„Dagegen wirkt Oettinger kompetent und integer“„Als ehemaliger CEO von France Télécom, der nun als Kommissar alle Regeln bricht, um seinen früheren Geschäftsfreunden zu helfen, hat Breton dem Ansehen der EU massiv geschadet“, sagt Lohninger. Und der langjährige Aktivist, der die Entstehung der EU-Regeln zur Netzneutralität eng begleitet hatte, legt nach: „Man konnte es sich nicht vorstellen, aber im Vergleich mit Breton wirkt sogar Günther Oettinger wie ein kompetenter und moralisch integrer Politiker.“
Dabei könnten sich die EU und Breton umgekehrt von Südkorea inspirieren lassen. Dort hat die Regierung vor Jahren ein sogenanntes „Sending-Party-Network-Pays“ ausgerollt, OTTs müssen also bezahlen, um ihre Nutzer:innen gut zu erreichen.
Der erwünschte Effekt ist im einstigen Internet-Vorzeigeland jedoch nicht eingetreten, im Gegenteil: OTTs haben sich aus dem Markt zurückgezogen oder haben die Qualität ihrer Angebote herabgesetzt, der Wettbewerbsdruck hat sich verringert, und kleine Anbieter klagen über hohe Zugangsbarrieren. Nach einem Erfolgsmodell klingt das nicht.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Britische Geheimdienste überwachen weitflächig das Internet. Menschen, die außerhalb des Vereinigten Königreichs leben, konnten sich bislang nicht dagegen wehren. Dies untersagt nun ein Urteil des Europäischen Gerichtshofs für Menschenrechte.
Der IT-Experte Claudio Guarnieri bei einem Vortrag auf der Digitalkonferenz re:publica im Jahr 2017. – CC-BY-SA 2.0 re:publica/Jan ZappnerDie Europäische Gerichtshof für Menschenrechte (EGMR) hat sich in einem Urteil gegen Großbritannien und seine digitale Überwachung ausgesprochen. Demnach ist die Überwachung ohne Rechtsbehelfsmechanismen rechtswidrig, auch wenn es Menschen betrifft, die außerhalb des Vereinigten Königreichs wohnen.
Geklagt hatten Claudio Guarnieri, Chef des Security Lab von Amnesty International, und der IT-Forscher Joshua Wieder. Beide leben außerhalb des Vereinigten Königreichs, nach geltender britischer Rechtslage standen ihnen deshalb keine Rechtsbehelfe gegen die Überwachung durch britische Geheimdienste zur Verfügung.
Der Menschengerichtshof sagt nun, Personen, die sich außerhalb des Landes befinden, haben das Recht, sich zu beschweren. Die Voraussetzung dafür ist, dass der Eingriff in die Privatsphäre dort stattfindet, wo die Kommunikation „abgefangen, abgehört, durchsucht oder verwendet“ wurde. Das Urteil erkennt an, dass es in der Verantwortung Großbritanniens liegt, die Beschwerde der beiden Kläger zu bearbeiten.
Keine Überwachung ohne KonsequenzenIlia Siatitsa, Rechtsexpertin der britischen Bürgerrechtsorganisation Privacy International, sagt hierzu: “Die sich ständig erweiternden technologischen Möglichkeiten haben die Staaten in die Lage versetzt, weit über ihre traditionellen Grenzen hinaus zu spionieren, und ihnen einen nie dagewesenen Zugang zu den Informationen und dem Leben der Menschen gewährt. Staaten können nicht mehr davon ausgehen, dass die digitale Überwachung ohne Konsequenzen bleibt oder dass sie sich der Rechenschaftspflicht entziehen können, indem sie Menschen außerhalb ihrer Grenzen ins Visier nehmen.”
Guarnieri und Wieder haben keinen Anspruch auf finanziellen oder immateriellen Schadenersatz erhoben. Laut dem Urteil erklärten sie, dass eine öffentliche Feststellung einer Verletzung der Europäischen Menschenrechtskonvention sie gerecht entschädigt.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Vor Überwachung, Zensur und Repression in Russland flüchtete die renommierte Journalistin Galina Timchenko in die EU. Dort wurde ihr Handy nun mit dem Staatstrojaner Pegasus infiziert. Wer hinter dem Hack steckt, bleibt Spekulation.
Galina Timchenko wurde mit Pegasus gehackt. Ihre Nachrichtenseite Meduza ist in Russland harten Repressionen ausgesetzt. Das Foto zeigt sie 2019 bei einem Medienstatement anlässlich der Verhaftung ihres Kollegen Ivan Golunov in Russland. – Alle Rechte vorbehalten IMAGO / Russian LookDas Smartphone der russischen Exil-Journalistin Galina Timchenko ist mit dem Staatstrojaner Pegasus gehackt worden. Das hat eine Untersuchung des Citizen Lab der University of Toronto und der NGO Access Now ergeben. Wer für die Attacke verantwortlich ist, ist nicht bekannt.
Galina Timchenko ist Mitgründerin und Herausgeberin von Meduza. Die unabhängige Nachrichtenseite berichtet seit 2014 aus Riga über Russland. Der Kreml erklärte die Seite 2021 zum „Ausländischen Agenten“ und Anfang 2023 zur “unerwünschten Organisation“. Selbst das Verbreiten von Meduza-Links könne nun zum rechtlichen Risko für Leser*innen in Russland werden, erklärt das Medium.
Infiziert in BerlinApple hatte Timchenko im Juni mitgeteilt, dass ihr iPhone das Ziel von staatlicher Überwachung sein könnte. Anschließend kontaktierte sie Access Now. Laut der folgenden Untersuchung geschah die Infektion mit Pegasus am 10. Februar. Ihr iPhone wurde laut Citizen Lab vermutlich über einen Zero-Click-Exploit infiziert. Bei derartigen Schwachstellen muss der oder die Überwachte nicht auf einen Link oder ähnliches klicken, um den Staatstrojaner zu installieren. Die Infektion erfolgt vollkommen eigenständig.
Timchenko befand sich am Tag der vermuteten Infektion in Berlin. Einen Tag später nahm sie dort an einem Treffen russischer Exilmedien teil, um über die rechtlichen Risiken für „ausländische Agenten“ und „unerwünschte“ Organisationen zu sprechen. Diese Zusammenkunft könnte infolge des Hacks abgehört worden sein, womöglich war es sogar der Anlass für den Angriff. Laut Access Now dauerte die Ausspähung wahrscheinlich über mehrere Tage oder sogar Wochen an.
Wer könnte hinter der Infektion stecken?NSO, der israelische Hersteller von Pegasus, verkauft nach eigenen Angaben seinen Staatstrojaner nur an staatliche Organisationen. Expert*innen halten es für unwahrscheinlich, dass Russland Pegasus besitzt, das Citizen Lab hat auch keine Hinweise darauf. Russland-freundliche Regierungen in Aserbaidschan, Kasachstan oder Usbekistan kämen für Access Now ebenfalls als Urheber in Frage, allerdings gibt es auch hier keine Beweise, dass die Regierungen den Staatstrojaner von NSO gekauft hätten.
Selbst EU-Staaten könnten für den Hack verantwortlich sein. Mindestens zwölf von ihnen besitzen Pegasus. Und nicht alle von Ihnen sind russischen Exil-Journalist*innen freundlich gesinnt. So hatte die lettische Regierung laut Access Now dem russischen Exilsender TV Rain die Lizenz entzogen und als „Bedrohung der nationalen Sicherheit und öffentlichen Ordnung“ bezeichnet. In Tschechien hatte Präsident Petr Pavel im März sogar gefordert, alle Russ*innen, die im Westen leben, zu überwachen.
EU-Abgeordnete fordert Überprüfung durch KontrollgremiumIn Deutschland besitzen mindestens das BKA und der BND Pegasus. Auch der Verfassungsschutz darf Staatstrojaner einsetzen, ob er über Pegasus verfügt, ist aber nicht bekannt. Auf eine Anfrage der Washington Post antwortete das deutsche Innenministerium nicht.
In dem Artikel der Washington Post äußerte sich auch die Europa-Abgeordnete Hannah Neumann (Grüne). Sie hält es für unwahrscheinlich, dass deutsche Behörden für den Hack verantwortlich sein könnten. Wer hinter der Infektion steckt, bleibt aktuell reine Spekulation. Trotzdem zeigt der Fall ein großes Problem: Deutschland ist nicht in der Lage, Exil-Journalist*innen vor einer Infektion im eigenen Land zu schützen.
Das parlamentarische Kontrollgremium solle sich mit dem Fall beschäftigten, fordert daher Neumann, die auch im Untersuchungsausschuss des EU-Parlaments zu Pegasus saß. „Denn Timchenko ist die Art von Person, die Zuflucht und Schutz in Deutschland finden sollte.“ Den könne Deutschland ihr offensichtlich nicht bieten, „weil diese dämliche Technologie existiert und es international nicht genug politischen Willen gibt, sie zu regulieren“.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Das Bundesamt für Migration und Flüchtlinge darf nach einem Gerichtsurteil nicht mehr einfach so Handys von Geflüchteten auslesen. Die Asylbehörde änderte daraufhin ihre Abläufe und zapfte seit März deutlich weniger Datenträger an. Doch das Innenministerium will mit einem neuen Gesetz noch mehr Daten abgreifen.
Für Asylsuchende sind Smartphones wichtige Werkzeuge. – Alle Rechte vorbehalten IMAGO / Ralph LuegerSeit dem Jahr 2017 mussten bereits Zehntausende Geflüchtete dem Bundesamt für Migration und Flüchtlinge (BAMF) ihr Handy über den Tisch reichen. Hatten sie keine gültigen Papiere bei sich, durften BAMF-Angestellte ihre digitalen Geräte auslesen, um später Hinweise auf Identität und Herkunft zu bekommen. Ob es Alternativen zu einem derart tiefen Eingriff in die Privatsphäre geben könnte, das prüfte das BAMF zuvor nicht. Daran hat sich nun etwas geändert.
Zunächst hatte ein Urteil des Bundesverwaltungsgerichts dieser Praxis im Februar dieses Jahres eine Absage erteilt. Geklagt hatte eine geflüchtete Frau aus Afghanistan. Anhand ihres Falles entschied das Gericht: Das BAMF hätte zuerst mildere Mittel prüfen müssen. Und die wären in dem konkreten Fall auch verfügbar gewesen. Die Klägerin konnte etwa eine Heiratsurkunde mit ihrem Namen vorweisen.
Was sich seitdem beim BAMF geändert hat, wollte die linke Bundestagsabgeordnete Clara Bünger wissen. Die Bundesregierung antwortete auf ihre Kleine Anfrage, das BAMF habe „unverzüglich eine Verfahrensanpassung zum Auslesen von Datenträgern vorgenommen“. Vor dem Urteil hat die Behörde erst nach dem Auslesen geprüft, ob die erfassten Daten für das Asylverfahren überhaupt gebraucht werden. Diese Prüfung musste eine Person mit zweitem juristischen Staatsexamen unternehmen. Erst wenn sie positiv ausfiel, durften die BAMF-Mitarbeitenden die Ergebnisse der Auswertung sehen und nutzen. Sonst mussten sie gelöscht werden.
Zahlen gesunken: Offenbar wirkt das UrteilNun, so die Bundesregierung, erfolge diese Abwägung vor dem Auslesen der Daten. Wörtlich schreibt sie: „zum gesetzlich vorgesehenen Zeitpunkt des Herausgabeverlangens der Zugangsdaten zum Datenträger“. Ganz festgezurrt ist das neue Verfahren aber offenbar noch nicht. „Der Vorgang befindet sich derzeit noch in Abstimmung“, heißt es weiter.
Die Antwort der Bundesregierung lässt manche Fragen offen. Zum Beispiel verrät sie nicht, wie genau die Voll-Jurist:innen abwägen, ob Geflüchtete ihre Geräte auslesen lassen müssen. Bislang werden Datenträger schon direkt ausgelesen, wenn sich Geflüchtete registrieren und einen Antrag auf Asyl stellen. Sie haben so keine Möglichkeit, angehört zu werden und Informationen zu liefern, die ein Auslesen ihrer Daten überflüssig machen. Aus der Antwort der Bundesregierung geht nicht hervor, ob sich auch das geändert hat.
Zumindest in den Statistiken zeigt sich ein Abwärtstrend. 9.625 Geräte hat das BAMF demnach im ersten Halbjahr 2023 insgesamt ausgelesen, davon 6.097 jedoch bereits im Januar und Februar. Bezogen auf alle Asylsuchenden ohne gültige Papiere bedeutet das nach Berechnungen der Bundesregierung: Vor dem Urteil wurden die Datenträger von 10,6 Prozent dieser Personen ausgelesen, danach nur noch von 5,9 Prozent.
Eine weitere wichtige Zahl gibt an, was das Eindringen in die Geräte der Schutzsuchenden überhaupt gebracht hat. Auch in diesem Jahr sind die meisten Auswertungen nämlich nutzlos: 73,2 Prozent brachten im ersten Halbjahr „keine verwertbaren Erkenntnisse“, heißt es. Das kann etwa der Fall sein, wenn Personen das Gerät erst seit Kurzem nutzen oder sich ein Handy mit anderen teilen. In lediglich 1,9 Prozent der Fälle hat die Behörde in den Daten Widersprüche entdeckt, die sich nicht mit den Angaben der Schutzsuchenden deckten.
Innenministerium will noch mehr auslesen„Das massenhafte Auslesen der Handys von Geflüchteten ist teuer, nutzlos und greift auf unverantwortliche Weise in das Recht auf informationelle Selbstbestimmung ein“, schreibt die Abgeordnete Clara Bünger gegenüber netzpolitik.org.
Währenddessen möchte das Bundesinnenministerium (BMI) die Auswertung ausweiten. Hierzu hatte das SPD-geführte Haus im August einen Diskussionsentwurf zu Änderungen im Asyl- und Aufenthaltsgesetz vorgelegt. Darin steht der Vorschlag, nicht nur physische Datenträger, sondern auch Cloudspeicher auszulesen. Zwar teilt das BMI in dem Entwurf Auslesen und Auswerten in zwei separate, rechtliche Schritte auf. Unterm Strich stellt das Ministerium aber klar: „Das frühzeitige Auslesen von Mobiltelefonen zur Identitätsklärung einer Person ist auch weiterhin möglich.“
Bünger findet es „vollkommen falsch“, wenn auf diese Weise noch tiefer in die Privatsphäre von Asylsuchenden eingegriffen werden soll. Sie fordert: „Das Recht auf Datenschutz muss auch für Geflüchtete gelten!“ Die Bundesregierung solle daher die Auswertung von Handydaten ersatzlos abschaffen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Es klingt wie Satire, aber das Verkehrsministerium will jetzt Klimaschutz mit Künstlicher Intelligenz machen. Dabei würde ein bisschen mehr menschliche Intelligenz im Ministerium gegen die Klimakrise wirklich helfen. Ein Kommentar.
Die Zunahme von Extremwettern, wie hier in Libyen, ist eine Folge der Klimakrise. – Alle Rechte vorbehalten IMAGO / ZUMA PressWährend Griechenland im Extremwetter absäuft und in Libyen tausende Menschen in den Fluten ertrinken, kündigt das FDP-geführte Verkehrsministerium (BMDV) nun die Förderung von Künstlicher Intelligenz für den Klimaschutz an, um den „zunehmenden Bedarf an Mobilität umweltfreundlich zu bewältigen“. Und Verkehrsminister Volker Wissing schiebt nach: „Damit können wir den Verkehr klimafreundlicher gestalten.“
Nun ist es sicherlich nicht falsch, moderne Technologien bei der Verkehrswende zu benutzen. Doch es ist ein Hohn, dass Wissing sich nun ausgerechnet als klimafreundlich inszeniert, wenn sein Ministerium üblicherweise Klimaschutzmaßnahmen torpediert. Das Verkehrsministerium steht seit Jahren dafür, dass die Heilige Kuh des fossil-motorisierten Individualverkehrs nur mit Samthandschuhen angefasst wird. Auch unter Wissing bleibt es eine Art verlängerter Arm der Automobilindustrie; jüngst hat es die Klimaziele krachend verfehlt.
Um solche Probleme schönzurechnen, hatte die Bundesregierung ihre Sektorenziele aufgeweicht. Anstelle von Klimaschutzzielen, die jeder Sektor für sich einhalten muss, gibt es nun eine sektorübergreifende und mehrjährige Gesamtrechnung. Das heißt vereinfacht: Niemand ist so richtig verantwortlich, wenn die Klimaziele nicht erreicht werden. Besonders profitiert davon Wissings Verkehrsministerium, das richtig viel tun müsste, um irgendwie die Klimaziele zu erreichen. Es tut das Gegenteil.
Menschliche Intelligenz könnte helfenWissings Ministerium hat sich aktiv gegen die Forderung von mittlerweile mehr als 900 Städten und Gemeinden eingesetzt, die selbst über die Einführung von Tempo 30 entscheiden wollen. Begründung: Die Freiheitsrechte der Autofahrer:innen. Wissings Verkehrministerium und die FDP verhindern auch eine generelles Tempolimit von 120 auf Deutschlands Autobahnen. Das ist ein Schritt, der eine gesellschaftliche Mehrheit hat, ganz ohne künstliche Intelligenz auskommt und fast umsonst laut einer Studie des Umweltbundesamtes 6,7 Millionen Tonnen CO2 einsparen könnte.
Kombiniert man das Tempolimit mit einer Geschwindigkeitsgrenze von 80 auf Landstraßen, könnte man demnach auf einen Schlag fünf Prozent der Emissionen von Pkws und Nutzfahrzeugen einsparen. Auch künftige Generationen haben Rechte – zum Beispiel auf eine lebenswerte Zukunft. Aus Perspektive der FDP werden diese Rechte aber von den Brumm-Brumm-Freiheitsrechten ihrer heutigen Wähler:innen plattgemacht.
Mit ganz einfacher menschlicher Intelligenz könnte man auch klimaschädliche Subventionen abbauen, ob nun die Pendlerpauschale, das Dienstwagen– und Dieselprivileg oder die viel zu niedrige Besteuerung von Kerosin im Luftverkehr. Oder man könnte den Trend zu immer mehr Leistung und Leergewicht bei den Autos kritisieren. Oder kein Geld in unsinnigen Technologien wie E-Fuels versenken. Oder mal nicht das Geld von unten nach oben verteilen. Oder einfach einmal nicht nur auf dem Schoß der Autoindustrie sitzen.
Hokus-Pokus statt echte MobilitätswendeAuch ohne Künstliche Intelligenz könnte das Verkehrsministerium wichtige Entscheidungen für eine Verkehrswende setzen: Städte umbauen, öffentlichen Nahverkehr verbessern, Radwege einrichten, alternative und ökologische Fortbewegung subventionieren. Stattdessen will Wissing Autobahnen zügig ausbauen und bringt dem 49-Euro-Ticket auffällig wenig Liebe entgegen.
Vor diesem Hintergrund fällt es schwer, die Versprechen von Klimafreundlichkeit durch KI ernstzunehmen. Viel mehr erscheint das „KI-Modellprojekt für umweltfreundlichen Verkehr in Kommunen“ wie ein weiteres Geldgeschenk für Wirtschaftsunternehmen, die klassische Zielgruppe der FDP-Politik. Was wir vom Verkehrsministerium brauchen ist kein Technik-Hokus-Pokus, sondern klare, mutige Maßnahmen – und menschliche Intelligenz.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Bis die Justiz- und Innenminister der EU ihre Position zur Chatkontrolle beschließen, ist nur noch wenig Zeit. Deutschland hat in anderthalb Jahren seine eigene Position nicht endgültig geklärt, muss aber in zwei Wochen abstimmen. Daraus folgt nur eine logische Konsequenz.
Bei der Bundesregierungsposition zur Chatkontrolle gibt es zwischen dem Justiz- und Innenministerium noch Gräben zu überwinden. – Alle Rechte vorbehalten IMAGO / Bernd ElmenthalerIn zwei Wochen treffen sich die Justiz- und Innenminister der EU. Sie wollen ihre finale Position zum Gesetzentwurf der Kommission zur „Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern“ beschließen, besser bekannt als Chatkontrolle. Auch deutsche Minister sitzen dann mit am Tisch.
Doch wie wird sich Deutschland am 28. September verhalten? Klar ist: Zustimmen kann Deutschland dem derzeitigen Verhandlungsstand nicht. „Aus Sicht der Bundesregierung muss der Verordnungsentwurf an einigen Stellen deutlich nachgeschärft werden, damit er für die Bundesregierung zustimmungsfähig wird“, schreibt uns ein Sprecher des federführenden Bundesinnenministeriums (BMI).
Aktuell sieht der Verordnungsentwurf vor, dass Anbieter von Internetdiensten auf Anordnung die Inhalte ihrer Nutzer:innen durchsuchen und strafbare Kinderpornografie sowie Grooming an ein EU-Zentrum weiterleiten sollen – egal ob sie verschlüsselt kommunizieren oder nicht.
Entwurf nicht zustimmungsfähigDie Bundesregierung fordert, den „Einsatz von Maßnahmen, die zu einem Bruch, einer Schwächung, Modifikation oder einer Umgehung von Ende-zu-Ende-Verschlüsselung führen, durch konkretere technische Anforderungen im Verordnungsentwurf auszuschließen“. Das schreibt die Bundesregierung in ihrem Positionspapier von Februar. Und das schreibt uns der Sprecher jetzt erneut. „Daraus folgt auch, dass Maßnahmen, die auf den Endgeräten erfolgen, ausgeschlossen werden sollen.“
Aber was bedeutet das? Die Zeit für weitere Verhandlungen ist knapp. Die entsprechende Ratsarbeitsgruppe trifft sich heute planmäßig zum letzten Mal, bevor die Ständigen Vertreter der EU-Staaten das Gesetz besprechen und die Justiz- und Innenminister ihre finale Position beschließen wollen.
Wir haben das BMI gefragt, wie es mit diesem Problem umgeht. „Die Bundesregierung wird sich auch weiterhin aktiv in die Verhandlungen auf EU-Ebene einbringen“, lautete die Antwort. Mehr sagte der Sprecher nicht. Hinter den Kulissen aber versuchte die Bundesregierung, die Abstimmung am 28. September zu verschieben und bekam dafür Unterstützung aus Polen, den Niederlanden und Österreich. Doch das reichte nicht, der Punkt bleibt vorerst auf der Tagesordnung.
Ob Deutschland sich dann enthält oder gegen das Gesetz stimmen wird, wenn sich an den wesentlichen Punkten nichts mehr ändert? Auch hier: keine Antwort aus dem Ministerium von Nancy Faeser (SPD).
Anderthalb Jahre StreitDoch nicht nur im Rat hat Deutschland ein Zeitproblem, auch innerhalb der eigenen Regierung. „Die Verhandlungen innerhalb der Bundesregierung zum Verordnungsentwurf der EU-Kommission dauern noch an“, schrieb uns eine Sprecherin des Bundesjustizministeriums (BMJ) auf Anfrage. Zu Einzelheiten könne sie daher jedoch keine Angaben machen. Das derzeitige Positionspapier der Bundesregierung stehe jedoch im Einklang mit der Auffassung des BMJ. Auch das BMI verweist bei Nachfragen nach konkreten Diskussionspunkten auf den „noch laufenden Abstimmungsvorgang“.
Dieser Abstimmungsvorgang läuft, seit die EU-Kommission ihren Vorschlag vorgestellt hat. Das ist anderthalb Jahre her. Seitdem gab es viele Monate Streit, vor allem zwischen dem SPD-geführten Innenministerium und dem Justizministerium von Marco Buschmann (FDP).
Die FPD-Ministerien formulierten rote Linien, die sie im August 2022 an das Innenministerium schickten. Ein Entwurf für ein Positionspapier aus dem Innenministerium vom Dezember 2022 war damit in weiten Teilen nicht vereinbar. Schließlich gab es im Februar ein gemeinsames Positionspapier, bei dem sich das Innenministerium in vielen Punkten durchsetzte. Einigung gab es dann zumindest zu verschlüsselten Inhalten, die von der Chatkontrolle ausgenommen werden sollen.
Neun rote LinienStreitpunkte blieben weiterhin allgemeine Überwachungspflichten, auch bei unverschlüsselter Kommunikation und die Suche nach „bislang unbekannten Missbrauchsdarstellungen und Grooming“. Im gemeinsamen Positionspapier heißt es dazu: „Innerhalb der Bundesregierung dauert die kritische Prüfung hinsichtlich folgender Punkte an“. Einige der von den FDP-Ministerien formulierten „roten Linien“ werden so überschritten.
Der Koalitionsvertrag ist klar, er schließt „allgemeine Überwachungspflichten“ und „Maßnahmen zum Scannen privater Kommunikation“ aus. Egal, ob sie verschlüsselt ist oder nicht. Trotzdem scheitern die Ministerien seit Monaten daran, sich darauf zu einigen. Nun steht in zwei Wochen die Abstimmung an.
Die Bundesregierung hat also zwei Probleme: Sie hat keine gemeinsame Linie zu kritischen Punkten des Gesetzentwurfs. Wo sie eine gemeinsame Linie hat, widerspricht sie dem aktuellen Stand deutlich. Zustimmen kann sie also nicht. Eine Ablehnung wäre die einzig konsequente Wahl.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Zu „anstößig“: Der Jugendschutz-Filter von Google entfernt Journalismus über Pornoseiten aus den Suchergebnissen. Mindestens 20 Nachrichtenseiten sind betroffen, wie Recherchen von netzpolitik.org zeigen. Google weicht kritischen Fragen aus, der Deutsche Journalisten-Verband (DJV) und Reporter ohne Grenzen fordern Konsequenzen.
SafeSearch soll „anstößige“ Inhalte filtern (Symbolbild) – Alle Rechte vorbehalten Hintergrund: IMAGO / Lackovic; Screenshot: google.com; Montage: netzpolitik.orgGoogle ist für viele das Tor zum Internet. Längst hat das Wort „googeln“ im Alltag die gleiche Bedeutung wie „etwas im Internet nachschauen“. Die größte Suchmaschine der Welt bestimmt mit, was Abermillionen Menschen im Netz sehen können – und was sie nicht finden. Nun hat Google offenbar seine Maßnahmen zum Jugendschutz verschärft. Das Ergebnis: Der Jugendschutz-Filter der Suchmaschine lässt auch journalistische Inhalte aus den Ergebnissen verschwinden, weil er sie als anstößig einstuft.
Da ist zum Beispiel eine Recherche des SPIEGEL, die erstmals offenlegte, wer die Männer hinter xHamster sind. „Das Pornoimperium und seine Könige“ enthüllt die nebulösen Firmenkonstrukte hinter einer der weltgrößten Pornoseiten, es geht um Macht und bildbasierte Gewalt. Aber ist der Jugenschutz-Filter aktiv, tilgt Google den Eintrag aus den Ergebnissen. Selbst bei einer gezielten Suche bleibt er verborgen. Die Recherche erschien 2021, gemeinsam mit Journalist*innen von NDR und netzpolitik.org. Auch diese Veröffentlichungen blockiert Google: „Die Männer hinter xHamster“ und „xHamster: Wer steckt hinter der Pornoplattform?“ – beides offenbar zu anstößig für den Filter.
Bei insgesamt 20 Nachrichtenseiten haben wir beobachtet, wie bei Google journalistische Artikel über Pornoseiten aus den Suchergebnissen verschwinden. Die Pressestelle des Konzerns sieht darin offenbar kein Problem und weicht unseren Fragen aus, dazu später mehr.
Zunächst ist der Jugendschutz-Filter für Nutzer*innen offenbar ausgeschaltet. Er schaltet sich automatisch ein, wenn Google den Verdacht hat, dass Nutzer*innen unter 18 sind. Bei unseren Tests in den vergangenen Tagen ist das mehrfach passiert. Ein klares System ließ sich dahinter allerdings nicht erkennen. Teils wurde er im Hintergrund aktiv, sobald wir mit einem Google-Account eingeloggt waren.
In einem Fall stellte sich der Filter plötzlich scharf, als wir – ohne eingeloggt zu sein – nach dem „Amt für Veröffentlichungen“ der Europäischen Union suchten. Es ist unklar, warum Google ausgerechnet diese Suchanfrage für verdächtig hielt. Immerhin bekamen wir in diesem Fall eine Warnung per Pop-up. Darin stand, dass der Jugendschutz-Filter namens SafeSearch jetzt „anstößige Ergebnisse“ filtere.
DJV: Pressefreiheit berührt Google Pop-up: Verdacht auf Minderjährigkeit. - Alle Rechte vorbehalten Screenshot: google.comWir haben die Ergebnisse unserer Recherche dem Deutschen Journalisten-Verband (DJV) vorgelegt. Er vertritt als Gewerkschaft und Berufsverband die Interessen von Journalist*innen in Deutschland. „Sicherheitsmaßnahmen müssen da enden, wo sie die Pressefreiheit berühren“, schreibt Pressesprecher Hendrik Zörner. „Es kann nicht sein, dass kritische Medienberichte über Pornoseiten blockiert werden, sobald sie bestimmte Reizbegriffe enthalten. Da muss Google besser darauf achten, was die eigenen Filter anrichten.“
Helene Hahn ist Referentin für Internetfreiheit für die Menschenrechts-Organisation Reporter ohne Grenzen. Sie kritisiert: „Dass so viele Beiträge von zahlreichen Medien betroffen zu sein scheinen, verweist auf ein ernsthaftes Problem bei der Plattform, das mehr öffentliche Aufmerksamkeit braucht.“ Es könne nicht sein, dass journalistische Inhalte, die sich etwa kritisch mit der Porno-Industrie auseinandersetzen, aus der Suchmaschine ausgeblendet würden.
Google versteckt Ergebnisse und fragt, ob wir uns vertippt haben Hat der Bayerische Rundfunk wirklich nie über Pornhub-Mutterkonzern Mindgeek berichtet? Doch, hat er. Links: mit Jugendschutz-Filter, rechts: ohne. - Alle Rechte vorbehalten Screenshot: google.com; Montage: netzpolitik.orgIn den meisten Fällen unserer Stichprobe zeigte Google mit aktivem Filter schlicht eine kürzere Suchergebnis-Liste. Manchmal lieferte unsere Suchanfrage sogar gar keine Ergebnisse, dann stand dort der Hinweis: „Achte darauf, dass alle Wörter richtig geschrieben sind“. Das ist mindestens irreführend – immerhin war nicht etwa unsere Rechtschreibung für die fehlenden Ergebnisse verantwortlich, sondern Google. „Es muss deutlich sichtbar werden, wenn und dass solche Filter aktiv sind“, fordert Hahn von Reporter ohne Grenzen.
Die Suchmaschine hat sich während unserer Stichprobe nicht immer gleich verhalten. In einem Fall, als unsere Suche kein Ergebnis erzielte, erschien eine Infobox mit dem Hinweis auf „von SafeSearch ausgeblendete Ergebnisse“. Dort hieß es, wir sollten es mit einem anderen Suchbegriff versuchen oder die SafeSearch-Einstellungen verwalten. Die Infobox war teils auf Deutsch, teils auf Englisch verfasst. Das deutet darauf hin, dass Google im Hintergrund noch an den Funktionen arbeitet.
In den Einstellungen lässt sich der Jugendschutz-Filter zumindest händisch ausschalten. Man darf allerdings bezweifeln, ob Nutzer*innen das regelmäßig tun – oder überhaupt mitbekommen. Es braucht dafür zwei Klicks (Menüleiste > „Safe Search“ > „Aus“); alternativ lässt sich einer Suchanfrage per URL auch der Parameter „&safe=off“ hinzufügen. Wer ohne solche Eingriffe ungefilterte Suchergebnisse sehen möchte, muss sich gegenüber Google identifizieren. Anonym lässt sich die Suchmaschine dann nicht mehr nutzen. Um zu beweisen, dass sie volljährig sind, brauchen Nutzer*innen einen Google-Acccount und müssen dort eine Kreditkarte hinterlegen – oder gleich ihren Ausweis hochladen.
Google hat sich an den Problemen zunächst interessiert gezeigt, sich Beispiele schicken lassen und um eine Verlängerung der Antwortfrist gebeten. Aber dann hat die Pressestelle nur mit ausweichenden Phrasen reagiert. Mit etwas Fantasie lassen sich darin Ansätze von Antworten finden. Zum Beispiel schreibt die Pressestelle: „SafeSearch ist so konzipiert, dass es keine Inhalte filtert, die in erster Linie bildenden Charakter haben.“ Daraus lässt sich ableiten: Das Filtern journalistischer Inhalte war nicht im Sinne der Erfindung. Offenkundig möchte Google vermeiden, selbst von einem „Versehen“ oder „Fehler“ zu sprechen.
Weiter schreibt Google: „Die überwiegende Mehrheit der Inhalte der genannten Websites wird nicht von SafeSearch gefiltert.“ Das lässt sich als Versuch werten, die von uns entdeckten Probleme kleinzureden.
Verschwundene Artikel bei ZDF, Guardian, ZEIT Hinweis auf SafeSearch: Ein bisschen Deutsch, ein bisschen Englisch. - Alle Rechte vorbehalten Screenshot: google.comWir können nicht klar benennen, seit wann SafeSearch auch journalistische Recherchen für „anstößig“ hält. Erstmals bemerkt haben wir das Phänomen Anfang September, als wir eine bestimmte Recherche über eine Pornoseite googeln wollten – und sie einfach nicht auftauchte. Daraufhin haben wir eine Stichprobe gemacht. Für diese Stichprobe haben wir am 8. September gezielte Suchanfragen für Artikel auf Nachrichtenseiten gestellt.
Bei der Google-Suche lassen sich Anfragen mit sogenannten Operatoren eingrenzen. Das sind zusätzliche Suchbefehle. So kann man mit dem Operator „site:“ nach Inhalten einer bestimmten Domain suchen. Die Google-Suche „site:heise.de pornhub“ liefert beispielsweise allein Ergebnisse von heise online. Auf diese Weise haben wir bei Dutzenden Nachrichtenseiten Inhalte über Pornoseiten gesucht – einmal mit und einmal ohne Jugendschutz-Filter.
Das Ergebnis: Google hält offenbar Artikel für anstößig, in denen Worte wie „Pornhub“, „Mindgeek“, „xHamster“, „xVideos“, „OnlyFans“ oder „Pornos“ auftauchen. Bei zehn deutschsprachigen Seiten und zehn englischsprachigen Seiten haben wir Artikel identifiziert, die der Jugendschutz-Filter blockiert:
Journalismus über Pornoseiten klärt darüber auf, was rund um die meistbesuchten Websites der Welt passiert. Es geht um eine der einflussreichsten Unterhaltungsindustrien, um Jugendschutz, um Diskriminierung von Sexarbeiter*innen, um bildbasierte Gewalt, um unaufgearbeitete Tabus oder um das Recht auf sexuelle Selbstbestimmung. Das ist weder „anstößig“ noch „unsicher“. Die Funktion namens SafeSearch blockiert solche Inhalte trotzdem. Für „anstößig“ hält Google unter anderem diese Artikel:
Auch nicht-journalistische Angebote sind vom Filter betroffen. So veröffentlichte die Techniker Krankenkasse den Artikel „Was ist Safer Sex?“. Dort werden Leser*innen über Kondome und Lecktücher aufgeklärt. Für den Jugendschutz-Filter: anstößig. Sogar manche Informationen der deutschen Medienaufsicht schaffen es nicht durch den Filter. Die Medienaufsicht droht Pornoseiten in Deutschland mit Netzsperren, weil sie keine Ausweiskontrollen einführen wollen. Hierzu erschien die Pressemitteilung „Pornoseiten müssen Kinder- und Jugendmedienschutz umsetzen“. Selbst das ist für den Filter „anstößig“.
Einheitlich waren die Ergebnisse unserer Stichprobe nicht. In vielen Fällen hat Google bei unserer Stichprobe nur die direkten Links zu den gesuchten Artikeln unterschlagen. Weiterhin auffindbar waren teils Unterseiten, in denen die gesuchten Artikel verlinkt waren. Das heißt, der Jugendschutz-Filter blockiert zwar jugendfreie Inhalte, ist dabei aber sehr ungenau.
In vielen Fällen waren nur manche Porno-bezogene Artikel einer Seite verborgen, andere nicht. Zum Beispiel hielt Google unseren Artikel „Kein OnlyFans für Minderjährige“ für nicht anstößig. Er erscheint auch bei eingeschaltetem Jugendschutz-Filter. Blockiert wurde dagegen der Artikel „OnlyFans zensiert mindestens 149 Wörter“.
Offenbar sind es also nicht allein Stichwörter, die entscheiden, wann der SafeSearch-Filter aktiv wird. Eine mögliche Erklärung: Ausgefeiltere Filtersysteme beziehen mehrere Faktoren mit ein und berechnen daraus einen Score. Das ist ein Wert, der das Risiko eines Inhalts ausdrücken soll. Eine Rolle spielen könnte dabei zum Beispiel die Anzahl verdächtiger Wörter pro Artikel. Oder die Websites, auf die ein Artikel verlinkt. All das ist allerdings Spekulation – die genaue Antwort will Google auch auf direkte Nachfrage für sich behalten.
Die Pressestelle gab uns hierzu nur Hinweise: Sie bestätigte, das die Systeme eine Vielzahl von Faktoren berücksichtigen. Aber Google habe bei eigenen Tests festgestellt, dass die Klassifikation „sehr genau“ sei. Diese Aussage irritiert: Wir konnten schon innerhalb weniger Minuten – bei einer händischen Stichprobe – gravierende Mängel beobachten. Nach Aussage von Google sollen die Systeme etwa feststellen, ob Inhalte „sexuell befriedigend“ sind. Auch das irritiert: Artikel wie „Dutzende Frauen verklagen Pornhub“ oder „Junge Union fordert Pornografie-Verbot“ mögen vieles sein, aber sicher nicht „sexuell befriedigend“.
Das sind die Fragen, die Google nicht beantworten wollteOffenbar sind nicht alle Nachrichtenseiten von Einschränkungen durch SafeSearch betroffen. Für CNN, New York Times, Reuters und Bloomberg konnten wir zum Suchbegriff „Pornhub“ keine Fälle von blockierten Inhalten feststellen. Führt Google möglicherweise eine Liste mit vertrauenswürdigen Seiten, die ungehindert über Pornoseiten berichten dürfen? Falls es eine solche Allow-Liste gibt, dann hätte sie jedenfalls große Lücken. Unsere Fragen nach einer solchen Liste hat Googles Pressestelle nicht beantwortet.
Insgesamt sind es fünf Fragen, bei denen sich Google gegen eine konkrete Antwort entschieden hat:
Einen Begriff aus unserem Fragenkatalog müssen wir kurz erklären: Diskriminierungsfreiheit. In Deutschland gibt es ein Gesetz, das große Plattformen zu Fairness verpflichtet, wenn es darum geht, wie sie Inhalte zugänglich machen. Hierfür gibt es im Medienstaatsvertrag (MStV) einen Paragrafen zu „Diskriminierungsfreiheit“, der die Meinungsvielfalt schützen soll.
Dort steht, dass große Plattformen einen „besonders hohen Einfluss“ auf die Wahrnehmbarkeit von „journalistisch-redaktionell gestalteten Angeboten“ haben. Solche redaktionellen Angebote dürfen Plattformen wie Google nicht „unbillig systematisch behindern“. Einfacher ausgedrückt: Es muss schon einen guten Grund geben, wenn eine Plattform die Inhalte mancher Nachrichtenmedien versteckt.
Ob diese Regel auf den aktuellen Fall überhaupt anwendbar ist, das müsste die zuständige Medienaufsicht entscheiden. Wir haben deshalb die Landesmedienanstalt Hamburg Schleswig-Holstein um Einschätzung gebeten. Die Behörde weist darauf hin, dass die Behinderung eines Angebots „systematisch“ sein müsse, um gegen den Paragrafen zu verstoßen. Das könne man den geschilderten Fällen aber nicht entnehmen. Die Einschätzung der Behörde legt nahe: Wer etwa unsystematisch oder fahrlässig handelt, braucht die Medienaufsicht nicht zu fürchten.
Der Fall SafeSearch zeigt, welche Schäden entstehen können, wenn man im Namen des Jugendschutzes das Internet umkrempelt. Hierzu dürften in nächster Zeit einige Änderungen zu erwarten sein, denn das frisch in Kraft getretene EU-Gesetz über digitale Dienste (DSA) verpflichtet große Plattformen dazu, Risiken zu mindern, zum Beispiel durch „Werkzeuge zur Altersüberprüfung“.
Je nach Ausgestaltung dürfte sich der Wunsch nach mehr Alterskontrollen mit anderen netzpolitischen Grundsätzen beißen. So hatte die Ampelregierung im Koalitionsvertrag festgehalten: „Eine Identifizierungspflicht lehnen wir ab. Anonyme und pseudonyme Online-Nutzung werden wir wahren.“ Aktuell muss sich zwar niemand vor dem Googeln identifizieren. Dennoch macht Google bereits heute Kreditkarte oder Ausweis zur Bedingung, wenn man dem SafeSearch-Filter dauerhaft entgehen will.
Update, 15. September, 12:30 Uhr: Angestoßen durch die Presseanfrage im Rahmen der Recherche hat die Landesmedienanstalt Hamburg Schleswig-Holstein ein Telefonat mit Vertreter*innen von Google geführt und sie auf das Problem hingewiesen. Google habe demnach zurückgemeldet, dass man sich das näher anschaue.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Tech-Regulierung ist eines der wichtigsten Themen der EU. Da wollen Konzerne wie Meta und Google gerne mitreden, seit langem gehören sie in Brüssel zur Speerspitze des Lobbyismus. Zwei NGOs zeigen, wie die Digitalkonzerne ihre Macht 2022 ausgebaut haben.
So würde keine Lobbykasse aussehen – Gemeinfrei-ähnlich freigegeben durch unsplash.com Jonathan BrinkhorstMindestens 113 Millionen Euro haben Tech-Unternehmen im Jahr 2022 für Lobbyismus bei der EU ausgegeben. Zu diesem Schluss kommen in einer neuen Analyse die beiden Nichtregierungsorganisationen Lobbycontrol und Corporate Europe Observatory (CEO).
Im Jahr 2021 schätzten die beiden Lobbyismus-kritischen NGOs die Ausgaben der Tech-Branche noch auf 97 Millionen Euro, eine Steigerung um 16,5 Prozent. Einzelne Unternehmen wie etwa Apple verdoppelten ihr Lobby-Ausgaben sogar, Spitzenreiter bei den Ausgaben ist der Facebook-Konzern Meta.
„Dass immer mehr Geld für Lobbyarbeit ausgegeben wird, während die Konzerne in diesem Sektor gleichzeitig ihre Monopolmacht nutzen können, ist besorgniserregend“, kommentiert Verena Leyendecker von Lobbycontrol die Befunde. Gerade die großen Tech-Konzerne hätten durch ihre enormen Ressourcen unverhältnismäßig viele Möglichkeiten, Politik in ihrem Sinne zu beeinflussen.
Meta ist Lobby-SpitzenreiterinFür die Analyse haben Lobbycontrol und CEO das Transparenzregister der EU ausgewertet. Die Unternehmen geben hier selbst einmal im Jahr Größenordnungen für ihre Lobbyausgaben an. Insgesamt haben die NGOs 651 Unternehmen, Verbände und Interessengruppen gezählt, die für die Digitalindustrie in Brüssel und Straßburg lobbyierten.
Von den mindestens 113 Millionen Euro im Jahr 2022 entfielen dem Bericht zufolge mehr als ein Drittel der Ausgaben auf die großen Tech-Unternehmen. Zusammen gaben die Top 10 der Tech-Lobbyist:innen mehr als 40 Millionen Euro aus. „Damit liegt die Spitze des Techsektors den Ausgaben nach weiterhin ganz vorne, noch vor den Top 10 Unternehmen der Auto- und Finanzlobby“, schreibt Lobbycontrol.
Spitzenreiter im Tech-Lobbyismus ist Meta. Die Ausgaben des Konzerns stiegen von 5,75 Millionen Euro in 2021 auf 8 Millionen Euro in 2022. Die zweithöchsten Lobby-Ausgaben der Tech-Industrie leistete sich Apple, das Unternehmen verdoppelte seine Ausgaben auf mindestens 7 Millionen Euro. Google gab mindestens 5,5 Millionen Euro aus, Microsoft mindestens 5 Millionen Euro. Die fünfthöchsten Lobby-Ausgaben der Tech-Branche hatte der US-Halbleiterhersteller Qualcomm mit einer Steigerung von 1,75 Millionen Euro auf 4 Millionen Euro.
Mit je zwei Millionen Euro erstmals unter die Top 10 kamen die Telekommunikationskonzerne Telefónica und Deutsche Telekom. Das chinesische Unternehmen TikTok gab 2022 mindestens 900.000 Euro für Lobbyismus aus.
Meta kann mit 17,05 Vollzeitäquivalenten (VZÄ) auch die größte Anzahl an Lobbyist:innen bei der EU vorweisen. Google steigerte seine VZÄ von 5,5 auf 8,7, Amazon von 5 auf 8 VZÄ und Apple von 4,5 auf 7,5 VZÄ. Zusätzlich zu den konzerneigenen Lobbyist:innen finanzieren die Tech-Unternehmen zahlreiche Branchenverbände, die ebenfalls in ihrem Sinne Druck machen.
KI-Regulierung könnte verwässert werdenDie Nichtregierungsorganisationen stellen die weiter gestiegene Lobbymacht der Tech-Branche in den Kontext verstärkter Regulierungsbestrebungen der EU. Darunter fallen der Digital Services Act und der Digital Markets Act, die beide im Jahr 2022 beschlossen wurden. Unter anderem war es der Branche damals gelungen, ein zwischenzeitlich diskutiertes Verbot von überwachungsbasierter Werbung zu verhindern. Derzeit befinde sich weitere wichtige Digitalgesetze der EU in der entscheidenden Phase, etwa neue Regeln für politische Online-Werbung oder für Künstliche Intelligenz.
„Die Lobbyarbeit der Digitalkonzerne droht nicht nur wichtige Maßnahmen wie den AI Act zu verwässern, sondern untergräbt auch die demokratische Entscheidungsfindung“, kommentiert Bram Vranken von Corporate Europe Observatory die Analyse. „Diese neuen Zahlen sind ein Weckruf.“ Die EU müsse den privilegierten Zugang für Unternehmenslobbyisten dringend unterbinden. Auch Verena Leyendecker von Lobbycontrol forderte strengere Regeln für Lobbyismus in Brüssel und eine ambitionierte Anwendung des Digital Markets Act der EU. Dieser biete Möglichkeiten, die Macht von Amazon & Co zu begrenzen.
Da die Tech-Konzerne in der Regel keine konkreten Angaben zu ihren Lobbyausgaben, basiert die Studie auf Schätzungen. Im Transparenzregister der EU wird mit Ausgabenkategorien gearbeitet. Die NGOs verwenden für ihre Analyse den niedrigsten Wert jede Kategorie. Lediglich bei der Gruppe zwischen null und 10.000 Euro setzten sie den Mittelwert an, also 5.000 Euro. Die Lobbyaktivitäten bei den Regierungen der EU-Mitgliedstaaten berücksichtigen sie nicht.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die Justiz- und Innenminister der EU-Staaten wollen Ende September über die Chatkontrolle abstimmen. Manche Länder wie Deutschland wollen mehr Zeit zum Verhandeln, wurden aber überstimmt. Diese kritischen Staaten können das Vorhaben verhindern. Wir veröffentlichen ein eingestuftes Verhandlungsprotokoll.
Die Innenminister der EU-Staaten bei ihrem letzten Gipfel. (Archivbild) – CC-BY-NC-ND 2.0 Spanische RatspräsidentschaftDie EU-Staaten wollen noch in diesem Monat ihre Position zur Chatkontrolle beschließen. Über 80 NGOs kritisieren das geplante Gesetz als beispiellos: „Es soll Internetdienste verpflichten, die private digitale Kommunikation aller Menschen im Auftrag von Regierungen zu durchleuchten.“
Seit anderthalb Jahren verhandeln EU-Parlament und EU-Staaten über den Gesetzentwurf der Kommission. Damit das Gesetz noch vor der Europawahl im Juni 2024 beschlossen werden kann, wollen Parlament und Rat ihre Position in den nächsten Wochen beschließen. Dann verhandeln die drei Institutionen im Trilog die finale Version.
Die EU-Staaten verhandelten letzte Woche erneut in der Ratsarbeitsgruppe Strafverfolgung. Wir veröffentlichen ein weiteres Mal das eingestufte Protokoll der Sitzung im Volltext.
Wesentliche Änderungen erforderlichDie spanische Ratspräsidentschaft präsentierte einen straffen Zeitplan. Am morgigen Donnerstag soll die Arbeitsgruppe das Gesetz das letzte Mal verhandeln, danach widmet sie sich wieder anderen Themen. Nächste Woche sollen die Ständigen Vertreter der EU-Staaten das Gesetz besprechen. Am 28. September wollen die Justiz- und Innenminister ihre finale Position verabschieden.
Dabei ist das zentrale Problem des Gesetzes weiterhin ungelöst. Das Gesetz soll Anbieter von Internetdiensten verpflichten, die Inhalte ihrer Nutzer:innen zu durchsuchen und strafbare Kinderpornografie sowie Grooming an ein EU-Zentrum weiterzuleiten. Private Kommunikation massenhaft und anlasslos zu durchsuchen, ist jedoch grundrechtswidrig und damit illegal. Der Juristische Dienst der EU-Staaten erwartet deshalb, dass Gerichte das Gesetz wieder kippen.
Eine Handvoll Staaten will kein gesetzwidriges Gesetz beschließen und die juristischen Probleme lösen. Auch Deutschland kann dem Gesetz nicht zustimmen. Die Bundesregierung lehnt im Koalitionsvertrag „allgemeine Überwachungspflichten“ und „Maßnahmen zum Scannen privater Kommunikation“ ab. Deutschland fordert, einige Vorschläge zu streichen, darunter Client-Side-Scanning und Scannen verschlüsselter Kommunikation.
Hinauszögern nicht sachgerechtDie Bundesregierung hat ihre Verhandler in einer Weisung an diese Forderungen erinnert. „Leider erfüllt auch der aktuelle Kompromisstext nicht die von uns angeregten Änderungen.“ Deutschland wird „dem aktuellen Kompromisstext nicht zustimmen können“. Die Bundesregierung bittet deshalb, die geplante Abstimmung am 28. September zu verschieben. Polen, Niederlande und Österreich unterstützen den deutschen Antrag auf Verschiebung.
13 Staaten und die Kommission lehnen eine Verschiebung ab. Irland sagt, man kann „es niemals allen zu 100 Prozent recht machen“. Die spanische Ratspräsidentschaft meint, „man habe bereits lange diskutiert und gute Fortschritte erzielt“. Die Justiz- und Innenminister sollen das Gesetz am 28. September beschließen. „Ein Hinauszögern der Abstimmung sei nicht sachgerecht.“
Auf Verdachtsfälle beschränkenPolen kritisiert erneut, dass die Kommunikation von Unverdächtigen anlasslos kontrolliert werden soll, das ist unverhältnismäßig. Die polnische Delegation fordert, die Chatkontrolle auf Personen und Gruppen zu beschränken, die einer Straftat verdächtigt werden. Die anderen Verhandler lehnen das ab. Die Chatkontrolle hat mit Strafverfolgung nichts zu tun, Rechtsgrundlage für die Verordnung ist der Binnenmarkt.
Polen, Niederlande und Estland fordern weiterhin, „allgemeine Überwachungspflichten“ und „Maßnahmen zur Umgehung von Verschlüsselung“ im Gesetzestext auszuschließen. Diese Punkte diskutieren die Staaten seit vielen Sitzungen. Die ehemalige schwedische Ratspräsidentschaft hatte die Formulierungen aufgenommen, die spanische Ratspräsidentschaft hat sie wieder gestrichen.
Österreich und Slowenien haben weiterhin „Diskussionsbedarf“ zum Element der Chatkontrolle. In Frankreich diskutiert die Regierung „auf höchster politischer Ebene“ über die Chatkontrolle, die Diskussionen sollen „alsbald abgeschlossen“ werden. Schweden und Finnland prüfen ebenfalls noch.
Umstrittene Teile auslösenDie Justiz- und Innenminister wollen ihre Position zum Gesetz in zwei Wochen beschließen. Dabei soll ein Detail außen vor bleiben: Der Sitz des vorgesehenen EU-Zentrums. Viele Staaten wollen neue EU-Behörden in ihrem Land ansiedeln, so auch hier. Weil sie in diesem Punkt noch nicht einig sind, wollen die Staaten über den Ort des Zentrums „gesondert“ entscheiden.
Nach Informationen von netzpolitik.org existiert ein weiterer Vorschlag, kontroverse Teile des Gesetzes auszuklammern. Demnach könnte ein erster Teil des Gesetzes unstrittige Punkte wie das EU-Zentrum, Meldepflichten sowie Risikobewertungs- und Risikominderungspflichten regeln. Der umstrittene Teil der verpflichtenden Chatkontrolle könnte in einen zweiten Teil ausgelagert werden. Diese Idee haben einige Staaten wie Estland über den Sommer entwickelt.
Auch die Bundesregierung diskutiert diesen Vorschlag. Laut unseren Informationen ist das Justizministerium von FDP-Minister Marco Buschmann für eine solche Zweiteilung. Das Innenministerium von SPD-Ministerin Nancy Faeser lehnt das jedoch ab. Deshalb bringt Deutschland den Vorschlag auch nicht auf EU-Ebene ein.
Mit Sperrminorität verhindernDamit steuern die Justiz- und Innenminister auf eine Kampfabstimmung auf ihrem Gipfel am 28. September zu. Die spanische Ratspräsidentschaft und viele EU-Staaten wollen die Chatkontrolle endlich beschließen.
Ihr Plan kann jedoch scheitern. Vier Staaten mit zusammen mindestens 35 Prozent der EU-Bevölkerung können eine Sperrminorität bilden und den Vorschlag verhindern. Das ist durchaus realistisch. Dazu müssen Deutschland und andere Staaten sich enthalten oder dagegen stimmen, zum Beispiel Polen, Niederlande, Schweden und Österreich. All diese Staaten äußern sich kritisch zur Chatkontrolle.
Die Position Deutschlands sollte klar sein. Das Gesetz verstößt sowohl gegen den Koalitionsvertrag als auch die Position der Bundesregierung. Wenn die Ampel-Regierung diese Dokumente ernst nimmt, muss sie im Rat gegen den Vorschlag stimmen – statt sich nur zu enthalten.
Hier das Dokument in Volltext:
Behandelt wurde ausschließlich der Entwurf der CSA–VO.
Vorsitz kündigte an, dass eine partielle Allgemeine Ausrichtung beim JI-Rat am 28.09.2023 beschlossen werden solle. Es handele sich nur um eine partielle Allgemeine Ausrichtung, da die Frage des Sitzes des vorgesehenen EU-Zentrums zunächst ausgeklammert werde. Die AStV-Befassung sei für den 20.09.2023 vorgesehen.
Ich forderte weisungsgemäß, die Abstimmung im JI-Rat zu verschieben, wurde dabei jedoch nur von AUT, NLD und POL unterstützt. Vorsitz teilte mit, dass der von ihm angekündigte Zeitplan bestehen bleibe.
Vorsitz wies darauf hin, dass die CSA–VO in der RAGS-Sitzung am 20.09.2023 nicht behandelt werde. Diese werde der Erörterung allgemeiner Polizeithemen dienen.
II. Im Einzelnen 1) ZeitplanVorsitz erläuterte zunächst den vorgesehenen weiteren Zeitplan in den Ratsgremien. Eine partielle Allgemeine Ausrichtung solle beim JI-Rat am 28.09.2023 beschlossen werden. Dabei handele es sich nur um eine partielle Allgemeine Ausrichtung, da die Sitzfrage des vorgesehenen EU-Zentrums zunächst ausgeklammert bleibe. Hierüber werde noch (wie bei AMLA) gesondert zu entscheiden sein. Die AStV-Befassung sei für den 20.09.2023 geplant. Vorher werde es am 14.09.2023 noch eine weitere RAGS-Sitzung geben.
Ich plädierte weisungsgemäß für eine Verschiebung der Beschlussfassung über die partielle Allgemeine Ausrichtung auf einen späteren JI-Rat. Aus DEU-Sicht sei das Dossier noch nicht „abstimmungsreif“. AUT, NLD und POL unterstützten dieses Petitum. Demgegenüber sprachen sich IRL, HUN, LVA, ITA, LTU, ROU, FRA, CYP, BGR, DNK, HRV, MLT, SVK und KOM für den vom Vorsitz vorgeschlagenen Zeitplan aus. IRL machte geltend, dass man „es niemals allen zu 100 % recht machen könne“. Dem schlossen sich zahlreiche MS an. ROU betonte, dass endlich mehr für den Kinderschutz getan werden müsse.
Vorsitz wies darauf hin, dass es Aufgabe der jeweiligen EU-Präsidentschaft sei, (qualifizierte) Mehrheiten für Rechtssetzungsvorschläge zu suchen und zu finden. Er könne auch die Vorgaben aus der AStV-Sitzung am 31.05.2023 nicht einfach ignorieren, nur weil einzelne MS anderer Auffassung seien. Die CSA–VO sei wichtig, man habe bereits lange diskutiert und gute Fortschritte erzielt. Aus Sicht des Vorsitz werde das Dossier beim JI-Rat am 28.09.2023 entscheidungsreif sein. Ein Hinauszögern der Abstimmung sei nicht sachgerecht.
Vorsitz wies darauf hin, dass der LIBE-Ausschuss und das EP-Plenum voraussichtlich im Oktober 2023 abstimmen würden.
2) Allgemeine AnmerkungenAnschließend gab Vorsitz Gelegenheit zu allgemeinen Anmerkungen.
Ich trug die DEU-Position gemäß der ressortabgestimmten Weisung vor.
POL forderte, Aufdeckungsanordnungen auf „Verdachtsfälle (Einzelpersonen und Gruppen)“, also auf den Bereich Strafverfolgung, zu beschränken. Auf Nachfrage konnte POL aber erneut nicht erläutern, wie dies konkret ausgestaltet sein sollte und wie dies mit Art. 114 AEUV als Rechtsgrundlage für die CSA–VO vereinbar wäre.
FRA wies darauf hin, dass es zu den Aufdeckungsanordnungen in Paris noch Gespräche auf höchster politischer Ebene gebe, äußerte sich aber zuversichtlich, dass diese alsbald abgeschlossen würden.
AUT und SVN sahen noch Diskussionsbedarf zu den Aufdeckungsanordnungen.
SVN, SWE und FIN mit PVen, die aber nicht näher spezifiziert wurden.
EST plädierte dafür, Formulierungen zu Verschlüsselung nicht nur in die EGe, sondern auch in den verfügenden Teil der VO aufzunehmen.
3) Einzelne ArtikelIch trug die DEU-Position gemäß der ressortabgestimmten Weisung vor. Dargestellt sind daher nachfolgend nur die wesentlichen Positionen und Beiträge der übrigen Delegationen.
a) Kapitel II, Abschnitt 3 (Meldepflichten)FRA machte geltend, dass die Änderungen in Art. 12 und 13 in die richtige Richtung gingen. Dank für neuen Text in Art. 14a und 18a. Frage, wieso es in Art. 18b eine neue Bestimmung zur URL-Liste gebe.
AUT sah die Wiederherstellungsplicht in Art. 15 kritisch und hatte im Übrigen grundsätzliche Bedenken aus datenschutzrechtlicher Sicht.
NLD plädierte dafür, Eingriffe in TelKo nur mit Richter/in-Vorbehalt zuzulassen.
HUN verwies auf seine schriftlich eingereichten Anmerkungen und unterstützte Art. 18aa und 18b.
DNK sah im Hinblick auf Art. 14a und 18aa keine innerstaatlichen verfassungsrechtlichen Probleme mehr.
ROU und POL begrüßten die Änderungen grundsätzlich. POL mit Forderung, in Art. 16 Abs. 1 einen Hinweis auf relevante nationale Vorschriften aufzunehmen.
Vorsitz schlussfolgerte, dass der Text weit herangereift sei.
b) Kapitel III (Überwachung, Durchsetzung und Zusammenarbeit)FRA sah noch Probleme bei Art. 27 und kündigte einen eigenen Textvorschlag an.
SWE verwies auf seine schriftlich eingereichten Bemerkungen.
HUN kündigte schriftliche Vorschläge zu Art. 25 und 27 an.
EST plädierte für Änderungen in Art. 35 und kündigte schriftliche Vorschläge an.
DNK forderte, dass die Datenbank in Art. 36 „sicher“ sein müsse. In Abs. 1a solle man die Formulierung „subject to adequate oversight by judicial authorities“ streichen.
Vorsitz schlussfolgerte, dass Kapitel 3 weit herangereift und man auf der „Schlussgeraden“ sei.
c) Kapitel IV (EU-Zentrum)Vorsitz wies darauf hin, dass sich Art. 42 nach dem Verfahren bei AMLA richten werde.
FRA plädierte dafür, in Art. 46 die Formulierung „facilitate“ statt „support“ zu benutzen. Ankündigung eines neuen Formulierungsvorschlags zu Art. 66.
NLD und BEL forderten, dass in Art. 43 der Aspekt der Prävention stärker betont werden müsse.
NLD war nicht einverstanden mit den Textvorschlägen in Art. 44 und 53.
HUN verwies auf seine schriftliche Stellungnahme zu Art. 64 Abs. 6.
Auch SWE verwies auf seine schriftlich eingereichten Vorschläge.
KOM wies darauf hin, dass Prävention natürlich eine Aufgabe des EU-Zentrums sei. Mit der VO würden keine zusätzlichen Aufgaben für Europol geschaffen, daher gebe es auch keine Auswirkungen auf das Europol-Budget.
Vorsitz kündigte an, ggf. noch weitere Textanpassungen vorzunehmen.
d) Kapitel II, Abschnitt 1 (Risikobewertungs- und Risikominderungspflichten)SWE plädierte dafür, in Art. 3 die Kriterien für die Risikobewertung nochmals zu überprüfen.
POL kündigte eine schriftliche Stellungnahme an.
HUN zu Art. 4 mit Verweis auf seine schriftlichen Anmerkungen und Ankündigung zusätzlicher Textvorschläge.
Zum „sign of compliance“ (Art. 5b) unterschiedliche Auffassungen der Delegationen. Zustimmend grundsätzlich IRL und BEL.
CZE plädierte für „may“ statt „shall“-Vorschrift.
FRA zögerlich beim Siegel („evtl. kontraproduktiv“) und mit Bedenken gegen Befugnis zu entsprechenden delegierten Rechtsakten.
Kritisch auch FIN, ROU und SVN, insbesondere im Hinblick auf mögliche „trügerische Sicherheit“ und hohen Verwaltungsaufwand bei 6-monatiger Überprüfung.
KOM plädierte dafür, dass MS den Mehrwert des Siegels prüfen sollten.
Vorsitz forderte MS auf, sich klar zu der Vorschrift zu positionieren. Ggf. werde er die Regelung im Text streichen, in jedem Fall dürfe kein zu hoher Verwaltungsaufwand entstehen.
e) Artikel 1 (Gegenstand und Anwendungsbereich)CZE mit PV.
POL, NLD und EST mit Forderung, Formulierungen zu Verschlüsselung in den verfügenden Teil der VO aufzunehmen.
Vorsitz kündigte entsprechende Prüfung an („ggf. in Art. 10“).
4) Übermittlung schriftlicher Kommentare, weiteres VorgehenVorsitz erbat Übermittlung schriftlicher Kommentare möglichst bis 06.09.2023, DS. Er werde am 08.09.2023 einen neuen Kompromisstext übersenden.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Kurz vor dem Beschluss der Chatkontrolle warnt ein internationales Bündnis von Nichtregierungsorganistionen vor den Überwachungsplänen der EU. Die Verordnung gefährde Freiheit und Sicherheit aller Internetnutzer*innen, sagen mehr als 80 NGOs aus Afrika, Asien, Europa, Latein- und Südamerika sowie den USA.
Die Chatkontrolle würde zur anlasslossen Massenüberwachung von Millionen Menschen führen. (Symbolbild). – Alle Rechte vorbehalten Auge: Pixabay/ cocoparisienne, Handy: IMAGO/ NurPhoto, Bearbeitung: netzpolitik.orgÜber 80 Nichtregierungsorganisationen aus aller Welt fordern von den Mitgliedsstaaten der EU, die sogenannte Chatkontrolle zu verhindern. In einem Offenen Brief warnen sie, dass die geplante Verordnung zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern zur anlasslosen Massenüberwachung von Millionen von Menschen führt. Die Verhandlungen zur Chatkontrolle stehen kurz vor dem Abschluss, die Staaten wollen Ende September ihre gemeinsame Position beschließen.
Privatsphäre, Meinungsfreiheit und Unschuldvermutung bedroht„Wir rufen alle EU-Regierungen dazu auf, die Verordnung zur Prävention und Bekämpfung von sexuellem Kindesmissbrauch abzulehnen, bis diese die Rechte, Freiheiten und Sicherheit im Internet vollständig schützt“, appellieren die Unterzeichner*innen. Es seien weitreichende Veränderungen nötig, um Privatsphäre, Meinungsfreiheit und die Unschuldsvermutung zu schützen. „Das vorgeschlagene Gesetz ist beispiellos: Es könnte Firmen dazu zwingen, die digitale Kommunikation von jedem zu scannen, jederzeit, im Auftrag von Regierungen“, schreiben die über 80 NGOs. Der Entwurf gefährde damit die Ende-zu-Ende-Verschlüsselung.
Die Verordnung könne zudem zu einer verpflichtenden Ausweiskontrolle vor der Internetnutzung führen, kritisieren sie weiter. Damit drohe die digitale Ausgrenzung all jener, die nicht die „richtigen“ Dokumente hätten.
Der Deutsche Anwaltverein (DAV), der den Brief mitunterzeichnet hat, hält das Vorhaben in einer ergänzenden Pressemitteilung auch für unvereinbar mit der Grundrechtecharta der EU. „Sehenden Auges und wider besseres Wissen nehmen die EU-Co-Gesetzgeber in Kauf, eine Verordnung zu verabschieden, die der EuGH sofort wieder einkassieren müsste“, sagt Rechtsanwalt Dr. David Albrecht.
Breiter Widerstand gegen ChatkontrolleDie Unterzeichner*innen des Briefes sind Nichtregierungsorganisationen aus aller Welt. Neben europäischen Verbänden wie European Digital Rights (EDRi) und internationalen Organisationen wie Access Now und der Electronic Frontier Foundation sind auch Verbände aus Afrika, Asien, Lateinamerika und den USA vertreten. Zu den deutschen Unterzeichner*innen gehören neben dem DAV beispielsweise der Chaos Computer Club und D64. Aus Österreich hat unter anderem der Kinderverband Lobby4Kids unterschrieben.
Der gemeinsame Brief unterstreicht damit erneut den breiten Widerstand, der sich seit Monaten zu dem Gesetz formiert. Neben der Zivilgesellschaft und renommierten Wissenschaftler:innen haben auch auch IT-Wirtschaftsverbände und der juristische Dienst des Rates die EU-Staaten vor der Verordnung gewarnt.
Hier ist der Offene Brief aus dem PDF befreit:
Statement to EU countries: Do not agree to mass surveillance proposal, warn NGOs13. September 2023
EU countries are preparing to agree their position on the draft EU Child Sexual Abuse (CSA) Regulation, commonly known as “chat control”. This proposed law is unprecedented: it could force companies to scan everyone’s private digital communications, on behalf of governments, all of the time.
Legal experts advising EU governments have warned that in its current form, the CSA Regulation would likely violate the rights of hundreds of millions of people in Europe, without any suspicion that they have done something wrong. It could also force everyone to undergo ID checks in order to access the internet, threatening digital exclusion for those without the ‘right’ documents.
Regardless of the broad concerns raised about the CSA Regulation, EU governments have so far failed to make essential changes to protect human rights, including privacy, free expression and the presumption of innocence. Nevertheless, they propose to exclude their own government communications from the rules, in a shocking admission that otherwise, the law would violate their right to confidentiality of communications.
Hundreds of academics, including those from 19 EU countries, have warned that the proposal is technically dangerous and poses a serious threat to encryption (5). This could put the 2 billion people worldwide who rely on encryption to keep their digital lives safe and secure at risk – including the very children this law aims to protect.
At least eight EU countries have reportedly attempted to address some of the major problems with the proposal. Parliamentarians in the Czech Republic, Ireland, the Netherlands, Austria and France have also spoken up for their constituents against the mass intrusion of our digital private lives.
Despite this, EU Home Affairs Ministers seem set to adopt a joint position on the CSA Regulation which would be illegal under EU human rights law.
As over 80 groups dedicated to upholding democracy and to protecting digital rights, the open use of the internet, human rights defenders, women and children’s rights and more, we call on all EU governments to say no to the CSA Regulation until it fully protects rights, freedoms and security online.
Signed,
Pan-European and international:
• Access Now
• Alternatif Bilisim (AiA-Alternative Informatics Association)
• Civil Liberties Union for Europe
• Centre for Democracy & Technology, Europe
• CloudPirat – Defend Your Digital Freedom
• Committee to Protect Journalists
• Ecoropa
• Electronic Frontier Foundation – EFF
• European Digital Rights (EDRi)
• European Sex Workers Rights Alliance (ESWA)
• The Georgia Tech Internet Governance Project
• INSPIRIT Creatives NGO, CIVICUS Member, Human Rights & Civil Society
• Internet Society
• Interpeer gUG
• International Online Safety Corp (IOSCORP)
• Open Privacy Tech Foundation (OPTF) Ltd
• Sex Workers‘ Rights Advocacy Network (SWAN)
• Statewatch
• Wikimedia Europe
Austria:
• epicenter.works
• Lobby4kids- Kinderlobby
Croatia:
• Centre for Peace Studies
• Politiscope
Czechia:
• Iuridicum Remedium
• NoLog z. s.
France:
The Netherlands:
Portugal:
Romania:
Slovenia:
Sweden:
Europe:
Africa:
North, Central and South America:
Asia:
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Mit dem Medienfreiheitsgesetz will die EU die Pressefreiheit schützen und die Überwachung von Journalist:innen verbieten. Doch in Brüssel liegen die Vorstellungen weit auseinander, wie stark dieses Verbot ausfallen soll.
Manche EU-Länder haben in den vergangenen Jahren massiv die Pressefreiheit eingeschränkt. Im Bild eine Demonstration in Ungarn gegen ein umstrittenes Mediengesetz – aus dem Jahr 2011. – Alle Rechte vorbehalten IMAGO / Attila VolgyiDas EU-Parlament möchte Journalist:innen und ihre Quellen besser vor Überwachung schützen, doch die EU-Länder im Ministerrat drücken auf die Bremse. Sie fordern weitreichende Ausnahmen für die „nationale Sicherheit“. Eskalieren dürfte dieser Konflikt nun in den bevorstehenden Verhandlungen rund um das Europäische Medienfreiheitsgesetz (European Media Freedom Act).
Den Vorschlag für die neue Verordnung hatte die EU-Kommission im Vorjahr auf den Weg gebracht. Sie reagiert damit auch auf die Entwicklungen in Polen und Ungarn, wo Medien zunehmend ihre Unabhängigkeit verlieren und politisch instrumentalisiert werden. Eine Rolle gespielt haben auch die Enthüllungen über den Staatstrojaner Pegasus. Damit wurden in mehreren EU-Staaten auch Journalist:innen und Oppositionspolitiker:innen in Visier genommen. Wenn Regierungen selbst Journalist:innen hacken und aushorchen, dann stehen freie Berichterstattung und der Schutz von Quellen auf dem Spiel.
„Wir mussten in den vergangenen Jahren in mehreren Ländern der EU immer wieder beobachten, dass heftig in die Pressefreiheit eingegriffen wurde“, schreibt der deutsche EU-Abgeordnete Daniel Freund (Grüne) an netzpolitik.org. „Unter fadenscheinigen Vorwänden wurden Journalisten einfach abgehört. Das müssen wir verhindern.“ So brauche die EU deutlich strengere Regeln für Spionagesoftware. Einsicht in verschlüsselte Daten journalistischer Arbeit gehört verboten, fordert Freund.
EU-Staaten wollen Lücke ins Gesetz reißenZumindest das EU-Parlament kommt diesem Ziel ein wenig näher. Vergangene Woche haben sich die federführenden Ausschüsse auf eine gemeinsame Position zu dem geplanten Regelwerk verständigt. Darin setzen sie der Überwachung von Journalist:innen, ihres Umfelds und ihrer Quellen enge Grenzen. Anfang Oktober soll dann das Plenum des Parlaments über diese Position abstimmen. Dabei kann sich etwas ändern: Obwohl die Position im hauptverantwortlichen Ausschuss für Kultur und Bildung (CULT) mit einer breiten Mehrheit angenommen wurde, könnten sich noch Änderungen ergeben. Danach ist der Weg frei für die sogenannten Trilog-Verhandlungen über das finale Gesetz, dafür kommen Parlament, Ministerrat und EU-Kommission zusammen.
Wie sich die EU-Staaten zum Vorschlag der Kommission verhalten, steht bereits fest. Auf Drängen von Frankreich, Deutschland und weiteren Staaten pochen sie auf einen Blanko-Scheck für Überwachungsmaßnahmen, sofern die „nationale Sicherheit“ berührt wird. Freilich hebelt das die guten Absichten des Gesetzes aus, schließlich führen betroffene Staaten längst „nationale Sicherheitsinteressen“ für den Einsatz von Pegasus an – und verweigerten mit der gleichen Begründung die Zusammenarbeit mit dem Untersuchungsausschuss des EU-Parlaments.
Dabei gibt es überwältigende Hinweise darauf, dass die Spionage in vielen Fällen reichlich wenig mit nationaler Sicherheit zu tun hatte. Erst letzte Woche kam eine von der Opposition kontrollierte Sonderkommission des polnisches Senats zu dem Schluss, der Einsatz von Pegasus sei illegal gewesen und habe die vergangene Parlamentswahl manipuliert.
Sippel pocht auf „unerlässliche Eckpunkte“Ähnliche Vorfälle will das EU-Parlament eigentlich mit dem neuen Gesetz verhindern. Manchen grünen, linken und sozialdemokratischen Abgeordneten fällt der vorgesehene Schutz allerdings nicht stark genug aus. Denn auch der Kompromisstext des Parlaments enthält Ausnahmen: Beim Verdacht auf schwere Straftaten, etwa Terrorismus oder Mord, könnten in Einzelfällen und nach einer richterlichen Genehmigung die Geräte von Journalist:innen dennoch abgehört oder beschlagnahmt werden. Das geht aus der konsolidierten, nicht-offiziellen Fassung der Parlamentsposition hervor. Sie folgt dem Vorschlag des LIBE (Ausschuss für bürgerliche Freiheiten, Justiz und Inneres), der für die entsprechenden Passage zuständig ist.
Es ist möglich, dass zur kommenden Abstimmung im EU-Parlament noch Änderungsanträge eingereicht werden, die das Überwachungsverbot für Journalist:innen nachschärfen. Einigermaßen fest steht für das Parlament jedoch, dass es keine breiten Ausnahmen für die Überwachung von Journalist:innen geben soll, wie sie der EU-Rat fordert.
Nur dann könnte das Gesetz ein „Meilenstein in der Gesetzgebung zum Schutz der Medienfreiheit und des Medienpluralismus“ werden, mahnt die deutsche EU-Abgeordnete Birgit Sippel (SPD) . „Das Verbot des Einsatzes von Spähsoftware und der Schutz journalistischer Quellen und verschlüsselter Kommunikation sind unerlässliche Eckpunkte, die es in den Verhandlungen mit dem Rat unermüdlich zu verteidigen gilt“, schreibt Sippel.
Update, 18.09.: Seit heute steht der finale Text des im CULT-Ausschuss beschlossenen Berichts auf der Website des EU-Parlaments zur Verfügung.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
In ihrer vermutlich letzten Rede zur Lage der Union feierte Kommissionspräsidentin von der Leyen die EU als weltweite Vorreiterin für digitale Rechte. Sie lobte abgeschlossene Gesetzesvorhaben und drängte auf einen Abschluss des AI Acts. Ein wichtiges Thema aber ließ sie aus.
Sie sprach über vieles, aber nicht über Chatkontrolle. – Alle Rechte vorbehalten European Union 2023Die Präsidentin der EU-Kommission, Ursula von der Leyen, hat heute ihre jährliche Rede zur Lage der Europäischen Union gehalten. Darin setzt sie traditionell Schwerpunkte für die Politik des kommenden Jahres. Für von der Leyen ist es die letzte dieser Reden – zumindest, wenn sie ihren Posten nicht für weitere fünf Jahre übernimmt. Sie sprach eine lange Liste an digitalen Projekten der EU an, das geplante Gesetz zur Chatkontrolle (CSA-Regulierung) erwähnte sie aber nicht.
„Die viel kritisierte CSA-Regulierung ist in der Rede verdächtig abwesend“, sagte dazu Ella Jakubowska von der europäischen Digitalrechte-Gruppe EDRi zu netzpolitik.org. „Könnte das ein Beweis sein, dass die Europäische Kommission endlich auf die juristischen Einschätzungen mehrerer EU-Institutionen gehört hat, dass das Vorhaben nach EU-Recht illegal wäre?“ Zivilgesellschaftliche Organisationen hätten wiederholt darauf hingewiesen, dass das Gesetz auf einem fundamentalen Missverständnis von Technologie fuße.
Dem schließt sich auch Konstantin Macher von Digitalcourage an. Die beiden Organisationen haben heute, zusammen mit dutzenden anderen, einen offenen Brief zum Thema an die Kommission geschickt. „Von der Leyen hat über die Lage der Europäischen Union gesprochen, aber verschließt die Augen vor der Realität“, sagte Macher nun zur Rede von der Leyens.
„Die Lage ist ernst: Mit der Chatkontrolle gefährdet die EU-Kommission die Sicherheit von Millionen Menschen in der EU“, so Macher weiter. „Jetzt müssen die EU-Mitgliedstaaten die Reißleine ziehen und ihr Überwachungspaket stoppen.“ Die EU-Kommission antwortete nicht auf eine Anfrage von netzpolitik.org, ob das Fehlen des Vorschlags in der Rede eine besondere Bedeutung hatte.
Vorreiter für Online-Rechte, mehr Befugnisse für FrontexVon der Leyen konzentrierte sich stattdessen auf die zwei großen Plattformgesetze der Kommission, den Digital Services Act und den Digital Markets Act. Diese würden Fairness gewährleisten und einen sicheren digitalen Raum schaffen. „Das ist eine historische Errungenschaft, und wir sollten stolz auf sie sein“, sagte die Kommissionspräsidentin in Straßburg. „Wir haben den Weg für den digitalen Wandel geebnet und sind weltweit Vorreiter bei den Online-Rechten.“
Gleichzeitig forderte sie für den Migrationsbereich neue Rechtsvorschriften und eine neue Führungsstruktur. „Wir brauchen eine strengere Anwendung des Gesetzes, strafrechtliche Verfolgung und mehr Befugnisse für unsere Agenturen – Europol, Eurojust und Frontex.“
KI-Gesetz noch nicht abgeschlossenZum Thema des Jahres, der Künstlichen Intelligenz (KI), zitierte von der Leyen einen Aufruf, den unter anderem OpenAI-Chef Sam Altman und Ex-Microsoft-Chef Bill Gates unterzeichnet haben: „Die Verringerung des Risikos, dass die KI zum Aussterben des Menschen führt, sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkriegen eine globale Priorität darstellen.“ Es gebe immer weniger Möglichkeiten, KI in verantwortungsvolle Bahnen zu lenken.
Die EU arbeitet dafür gerade an ihrem AI Act. Momentan befinden sich Kommission, Rat und Parlament in den Trilog-Verhandlungen, in denen die drei Institutionen ihre verschiedenen Entwürfe auf einen gemeinsamen Nenner bringen müssen. Dabei gibt es Befürchtungen, dass die Entwürfe von Parlament und Rat KI-Unternehmen ein Schlupfloch bieten könnten, die Bestimmungen für Hochrisiko-Systeme zu umgehen. Der AI Act wird aber, abgesehen von China, das international erste große KI-Gesetz sein – die USA sind bei der Regulierung ihrer Digitalindustrie weiterhin politisch gelähmt.
Von der Leyen sieht hier eine ähnliche Vorbildfunktion wie mit der Datenschutz-Grundverordnung, die weltweit als Blaupause für Datenschutzgesetze diente. Das sei der AI Act auch bereits, sagte sie. Er müsse nun so schnell wie möglich fertig werden.
EU muss sich verteidigen, andere bitte nichtNicht ganz eindeutig äußerte sich die Kommissionspräsidentin zum Handel. Hier kündigte sie einerseits an, eine Untersuchung chinesischer E-Autos starten zu wollen, weil diese gegen den fairen Handel verstoßen würden. Das könnte dazu führen, dass die EU Strafzölle auf die Autos erhebt. Sie habe auch nicht vergessen, wie chinesische Konkurrenten die europäische Solarindustrie vom Markt verdrängten. Europa müsse sich gegen unfaire Praktiken wehren.
Andererseits setzt sich die EU im Rahmen der E-Commerce-Verhandlungen, die seit Jahren bei der Welthandelsorganisation laufen, für ein dauerhaftes Verbot auf digitale Zölle ein. Viele ärmere Länder wehren sich gegen dieses mögliche Verbot, weil sie ihre wachsenden Digitalindustrien gegen die gewaltige Übermacht US-amerikanischer und chinesischer Tech-Riesen schützen wollen. „Schlauer Handel schafft gute Arbeitsplätze und Wohlstand“, wie von der Leyen heute sagte. Die WTO-Verhandlungen zu E-Commerce erwähnte sie ebenfalls nicht.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Es könnte ein wegweisendes Verfahren sein: Das US-Justizministerium wirft Google vor, seine Vormachtstellung bei der Internetsuche missbraucht zu haben. Heute beginnt der Prozess, der letztlich nicht nur die Suche im Internet umkrempeln könnte.
Der Internetgigant Google sitzt auf der Anklagebank – Gemeinfrei-ähnlich freigegeben durch unsplash.com Alex DudarEs ist das größte US-Kartellrechtsverfahren im IT-Bereich seit Jahrzehnten: Das US-amerikanische Justizministerium hat im Jahr 2020 Google angeklagt. Der Vorwurf lautet: Google missbraucht seine Monopolstellung und schadet damit anderen Unternehmen, die Suchfunktionen im Internet anbieten. Heute beginnt das Verfahren vor dem Bezirksgericht im District of Columbia, dauern soll es rund zehn Wochen.
Jahrelang habe Google wettbewerbswidrige Vereinbarungen getroffen, heißt es in der Anklageschrift. Google zahlt Beträge in Milliardenhöhe, um als Standard-Suche in möglichst vielen Browsern und Geräten zu erscheinen. Dazu zählen etwa Browser wie Mozilla Firefox und Opera oder Smartphone-Hersteller wie Samsung und Apple. Mitunter verbiete Google seinen Geschäftspartnern, Vereinbarungen mit Konkurrenten zu treffen.
Googles Marktanteil bei der Internet-Suche liegt schon seit Jahren bei rund 90 Prozent. Das Justizministerium sagt, dass Google seine Monopolstellung durch diese Verträge beibehält und es anderen Unternehmen unmöglich macht, ihre Suchfunktionen Nutzer:innen anzubieten. Die Regierung fordert, dass Google „strukturelle Abhilfe“ schafft, was auf eine Zerschlagung des Konzerns hinauslaufen könnte. In Frage kommen aber auch Bußgelder oder eine außergerichtliche Einigung.
“Menschen nutzen Google nicht, weil sie müssen”Googles Hauptargument gegen die Anklage ist, dass sich Nutzer:innen freiwillig für ihre Suchfunktion entscheiden. Kent Walker, Präsident für globale Angelegenheiten und Rechtsexperte von Google greift das in einem Statement auf. Er behauptet, dass die Vertriebsvereinbarungen für die Google-Suche auf die Qualität der Google-Dienste zurückzuführen sind: “Menschen nutzen Google nicht, weil sie müssen, sondern weil sie es wollen”.
Weiter verweist Walker darauf, dass andere Unternehmen, etwa Bing und Yahoo, ebenfalls Vereinbarungen mit beispielsweise Apple abgeschlossen haben, um in Safari zu erscheinen. Wie einfach diese Einstellungen zu ändern seien, demonstriert er in seinem Statement– wohl wissend, dass dies kaum jemand macht, und dass sich der Austausch der Suchmaschine nicht überall so einfach bewerkstelligen lässt. Aus Sicht von Google sollte es jedenfalls nicht um das Wohl des Wettbewerbs, sondern um das Wohl der Verbraucher:innen gehen.
Ein möglicher WegbereiterObwohl sich das Verfahren auf die Suchfunktion von Google fokussiert, könnte das Ergebnis jedoch die zukünftige Rolle des Unternehmens in anderen Bereichen beeinflussen, beispielsweise im KI-Sektor. So nutzt Google den Datenschatz, der bei der Internetsuche anfällt, für andere Produkte, unter anderem für personalisierte Werbung, seinen Bilderkennungsdienst Google Lens oder noch nicht öffentliche Forschungsprojekte. Ohne ungehinderten Zugang zu dieser wichtigen Datenquelle müsste Google wohl merkliche Konsequenzen befürchten, nicht zuletzt für seine Konzernbilanz.
Der letzte Prozess in dieser Größenordnung war das Verfahren gegen Microsoft. Um die Jahrtausendwende herum musste sich Microsoft gegen den Vorwurf wehren, seine dominante Marktposition im Browser- und OEM-Bereich missbraucht zu haben. Microsoft konnte das Verfahren zwar teils gewinnen, musste aber Teile seiner Systeme für die Konkurrenz öffnen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Der Hollywood-Schauspieler Ashton Kutcher ist ein Held unter den Befürwortern der Chatkontrolle. Jetzt hat Kutcher sich bei einer Richterin für einen befreundeten Vergewaltiger eingesetzt und dabei die Glaubwürdigkeit von dessen Opfern untergraben. Der Mann taugt weder als Vorbild noch als Lobbyist. Ein Kommentar.
Ashton Kutcher (Archivbild) – Alle Rechte vorbehalten IMAGO / ZUMA WireDer US-amerikanische Schauspieler Ashton Kutcher, bekannt durch Filme wie „Ey Mann, wo is‘ mein Auto?“, ist einer der prominentesten und hartnäckigsten Lobbyisten für die Einführung der Chatkontrolle. Er ließ zusammen mit seiner Kinderschutzorganisation Thorn kaum eine Gelegenheit aus, um in der EU für die neue Idee der anlasslosen Überwachung zu werben.
Sein Lobbyismus fand bei Befürwortern der Chatkontrolle regen Anklang: Bei einer Veranstaltung im EU-Parlament letzten November wurde Kutcher von der mittlerweile wegen Korruptionsermittlungen zurückgetretenen Eva Kaili bis zur Grenze der Peinlichkeit als Star gefeiert und gehätschelt. Doch jetzt hat Kutcher ein echtes Glaubwürdigkeitsproblem, was den Umgang mit Betroffenen sexueller Gewalt angeht.
Glaubwürdigkeit der Opfer untergrabenIn einem Gerichtsverfahren gegen den wegen zweifacher Vergewaltigung verurteilten Schauspieler Danny Masterson, hatte sich Kutcher in einem Brief an die Richterin für den Angeklagten eingesetzt. Der Fall war laut Medienberichten auch davon geprägt, dass die Sekte Scientology, der Masterson angehört, über Jahre die Betroffenen eingeschüchtert und den Schauspieler gedeckt habe.
In dem Brief, den unter anderem Newsweek im Volltext veröffentlicht hat, hatte Kutcher Masterson als „Vorbild“ bezeichnet, das ihn vor Drogen bewahrt habe. Er habe sich zudem in einem Konflikt für ein fremdes Mädchen eingesetzt, das von ihrem Freund beschimpft worden sei, und habe Menschen immer mit Anstand und Großzügigkeit behandelt. Kutcher bescheinigte Masterson darüber hinaus, dass dieser ihn nie angelogen hatte und setzte sich für ein geringeres Strafmaß für Masterson ein. Dieser sei keine Bedrohung für die Gesellschaft, er sei einer der wenigen Menschen, die er alleine mit seinen Kindern lassen würde.
Für diesen Brief hat Kutcher zu Recht heftige Kritik einstecken müssen. Denn er hat versucht, die Glaubwürdigkeit der Opfer zu untergraben und den Vergewaltiger zu schützen. Der Brief war zudem auf die Vorwürfe der Anklage zugeschnitten, indem dort Mastersons Einsatz gegen Drogen und dessen Ehrlichkeit betont wurde. Masterson hat seine Opfer laut der Anklage vor der Vergewaltigung unter Drogen gesetzt. Er hat die Taten aus den frühen 2000er-Jahren bis zuletzt abgestritten.
Kritik an „Entschuldigungsvideo“Ashton Kutcher und seine Frau Mila Kunis, die auch einen Brief für Masterson geschrieben hat, reagierten auf die Kritik mit einem Video auf Instagram, in dem sie nun sagen, dass die Briefe nur für die Richterin gedacht gewesen seien und nicht dafür, die Aussagen der Opfer zu untergraben oder diese erneut zu traumatisieren. „Dies würden wir nie wollen und es tut uns leid, wenn das passiert ist.“ Ihr Mitgefühl gelte den Opfern sexueller Gewalt.
Das Video wiederum löste Empörung aus, weil es keine echte Entschuldigung enthält. Eines der Vergewaltigungsopfer wandte sich in Reaktion auf das Video an einen Journalisten mit den Worten: „Dieses Video war unglaublich beleidigend und verletzend.“ Insbesondere Kutcher, der behaupte, mit Opfern von Sexualverbrechen zu arbeiten, müsse lernen seine Privilegien in Schach zu halten, so die Betroffene weiter.
Kein gutes VorbildKlar ist in jedem Fall: Selbst wenn Kutcher nur eine ungewöhnlich hohe Haftstrafe für seinen Freund abwehren wollte, hat er mit diesem Brief seine Glaubwürdigkeit verspielt. Wer es ernst meint mit dem Kampf gegen sexualisierte Gewalt und einen verantwortungsvollen Umgang mit Überlebenden dieser Gewalt, der sollte mit Ashton Kutcher nicht zusammenarbeiten. Der Mann ist weder ein gutes Vorbild, noch jemand, dessen Lobbyismus man Beachtung schenken sollte.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die EU-Kommission musste bis August einen Bericht zur freiwilligen Chatkontrolle vorlegen. Das hat sie bis heute nicht getan. Auch Internet-Dienste und EU-Staaten müssen jedes Jahr Statistiken veröffentlichen, tun das aber nur unzureichend. Die Länder-Berichte hat die Kommission wieder depubliziert.
Fordert Chatkontrolle ohne Evaluierung: EU-Innenkommissarin Ylva Johansson. – Alle Rechte vorbehalten Europäische UnionDie schwedische Politikerin Ylva Johansson ist die treibende Kraft hinter der Chatkontrolle. Die EU-Innenkommissarin hat eine Verordnung zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern vorgeschlagen. Das Gesetz soll Anbieter von Internetdiensten verpflichten, auf Anordnung die Inhalte ihrer Nutzer:innen zu durchsuchen und strafbare Kinderpornografie sowie Grooming an ein EU-Zentrum weiterzuleiten.
Das ist eigentlich verboten. Laut der Datenschutzrichtlinie für elektronische Kommunikation dürfen Internetdienste die Inhalte ihrer Nutzer:innen nicht „mithören, abhören, speichern oder auf andere Arten abfangen oder überwachen“. Manche Anbieter wie Google, Facebook und Microsoft tun das jedoch bereits freiwillig. Um das zu legalisieren, gibt es seit zwei Jahren eine vorübergehende Ausnahme der Vertraulichkeit der Kommunikation.
Kommission bricht GesetzDie Kommission muss laut der Verordnung einen Bericht über die Durchführung dieser Verordnung erstellen. Das Gesetz nennt auch eine Frist: 3. August 2023. Trotzdem gibt es diesen Bericht bis heute nicht. Wir haben die Innen-Direktion von Kommissarin Johansson gefragt, wo der Bericht bleibt.
Ein Sprecher bestätigt, dass die Kommission den Bericht noch nicht erstellt und veröffentlicht hat. Zunächst nannte der Sprecher „technische Verzögerungen“ als Grund. Auf unsere detaillierte Nachfrage änderte er die Begründung: „Der Bericht ist noch nicht abgeschlossen, da sich der Eingang der erforderlichen Beiträge von Dritten verzögert hat.“
Das Gesetz ist eindeutig formuliert: „Die Kommission erstellt bis zum 3. August 2023 einen Bericht“. Auf unsere Nachfrage, ob die Kommission das Gesetz bricht, antwortet der Sprecher: „Unsere rechtliche Verpflichtung stützt sich auf die rechtliche Verpflichtung der Mitgliedstaaten und Unternehmen, die erforderlichen Angaben fristgerecht zu übermitteln.“
Staaten brechen GesetzDie Übergangs-Verordnung verpflichtet die Anbieter von Kommunikationsdiensten, jährliche Berichte zu veröffentlichen. Die Internetdienste müssen transparent machen, wie viele Chats sie scannen, wie viel Kindesmissbrauch sie dabei entdecken und wie viele Fehler die Technologien dabei machen. Google, Facebook und Microsoft haben einige Daten geliefert, aber die Kommission hat „zusätzliche Informationen“ angefragt.
Die EU-Staaten müssen ebenfalls jedes Jahr Statistiken veröffentlichen. Sie müssen berichten, wie viele Meldungen über Kindesmissbrauch sie gemeldet bekommen, wie viele missbrauchte Kinder sie ermittelt haben und wie viele Täter sie verurteilt haben. Die Frist dafür ist „bis zum 3. August 2022 und danach jährlich“. Die meisten Staaten haben diese Frist gerissen.
Die Dienste und Staaten sind gesetzlich verpflichtet, diese Berichte zu veröffentlichen. Schon letztes Jahr hätten die ersten Berichte erscheinen müssen, dieses Jahr die zweiten. Doch nur wenig davon ist tatsächlich verfügbar.
Kommission löscht BerichteIm Mai hatte die Kommission erste Berichte veröffentlicht, von allen EU-Staaten außer Malta und Rumänien. Seitdem hat sie diese Dokumente jedoch wieder aus dem Internet entfernt. Auf ihrer Webseite behauptet die Kommission, dass sie am Ende der Seite verfügbar sind, aber das stimmt nicht. Die Direktlinks der einzelnen Berichte liefern Fehler.
Wir haben die Kommission gefragt, warum sie diese Länder-Berichte wieder depubliziert hat. Eine Antwort haben wir noch nicht erhalten, wir werden sie ergänzen.
Deutschland ohne ChatkontrolleWir haben den Bericht Deutschlands abgespeichert und veröffentlichen ihn an dieser Stelle in Volltext.
Darin berichtet das Digitalministerium, dass deutsche Anbieter keine Chatkontrolle machen, auch nicht freiwillig. Grundgesetz und Telekommunikation-Telemedien-Datenschutz-Gesetz stellen klar, dass Kommunikation vertraulich ist, Anbieter dürfen die Inhalte nicht lesen. Die temporäre EU-Ausnahme ändert nichts an der deutschen Rechtslage.
Das gilt jedoch nur für Dienste, die „in Deutschland niedergelassen“ sind. Die Big-Tech-Firmen haben ihren Europa-Sitz in Irland. Google, Facebook und Microsoft durchsuchen die Inhalte ihrer Nutzer bereits freiwillig, ein deutsches Missbrauchs-Opfer klagt dagegen. Darauf geht die Bundesregierung nicht ein.
Das Digitalministerium antwortet der Kommission, dass Deutschland keine Statistiken im Sinne der Verordnung melden kann. Das Ministerium verweist nur allgemein auf den jährlichen „Löschen statt Sperren“-Bericht zu Kinderpornografie im Web.
Staaten gegen TransparenzDie neue Verordnung zur verpflichtenden Chatkontrolle enthält ebenfalls Transparenzpflichten. Laut Kommissions-Entwurf sollen die EU-Staaten Zahlen über Täter und Opfer von sexuellem Missbrauch sammeln und regelmäßig melden. Doch im Rat wehren sich einige Staaten dagegen.
Schweden will die Statistiken über Täter und Opfer streichen, sonst wird die Verwaltung belastet und die ganze Verordnung „nicht umsetzbar“. Ungarn unterstützt Schweden und fordert, auch Statistiken über strafrechtliche Ermittlungen und betroffene Internetdienste zu streichen.
Im Rat kann die EU-Kommission diese Einwände nicht nachvollziehen. Eine solide Datenbasis ist wichtig, auch um Notwendigkeit und Verhältnismäßigkeit der Maßnahmen zu belegen. Besonders seltsam ist, „dass die Mitgliedstaaten zwar hohe Transparenzanforderungen an die Unternehmen hätten, für sich selbst aber hierbei Probleme sähen“.
Politik ohne EvidenzDabei nimmt die Kommission ihre eigenen Transparenzanforderungen im geltenden Gesetz selbst nicht ernst, indem sie die Berichtspflicht verschleppt. Das ist besonders bitter, da Rat und Parlament ihre Positionen zur verpflichtenden Chatkontrolle schon in den nächsten Wochen beschließen wollen. Eine Datengrundlage wäre das Mindeste für evidenzbasierte Sicherheitspolitik.
Der EU-Abgeordnete Patrick Breyer kritisiert Innenkommissarin Johansson für ihre Informationspolitik: „Die systematischen Verstöße gegen die Evaluierungspflichten zeigen, wie wenig wert auch die versprochenen Sicherungen zum Grundrechtsschutz bei der Chatkontrolle sind.“
Die existierenden Berichte bezeichnet der Pirat als „nicht aufschlussreich“. Sie zeigen keine Auswirkungen und direkten Effekte der freiwilligen Chatkontrolle. „Ganz offensichtlich will die EU-Kommission lieber nicht zeigen, was sie mit der freiwilligen Chatkontrolle schon angerichtet hat. Fakten passen nicht in ihre Propagandakampagne.“
Hier der deutsche Bericht aus dem PDF befreit:
Sehr geehrte
vielen Dank für Ihre E-Mail-Nachricht vom 26. August 2022.
Sie erinnern darin an Artikel 8 (1) der Verordnung (EU) 2021/1232 des Europäischen Parlaments und des Rates vom 14. Juli 2021 über eine vorübergehende Ausnahme von bestimmten Vorschriften der Richtlinie 2002/58/EG hinsichtlich der Verwendung von Technologien durch Anbieter nummernunabhängiger interpersoneller Kommunikationsdienste zur Verarbeitung personenbezogener und anderer Daten zwecks Bekämpfung des sexuellen Missbrauchs von Kindern im Internet.
Artikel 8 (1) der Verordnung (EU) 2021/1232 verlangt von den Mitgliedstaaten, bis zum 3. August 2022 und danach jährlich Berichte mit Statistiken zu folgenden Aspekten öffentlich zugänglich zu machen und der Kommission vorzulegen:
a) die Gesamtzahl der Berichte über festgestellten sexuellen Missbrauch von Kindern im Internet, die den zuständigen nationalen Strafverfolgungsbehörden von Anbietern und Organisationen, die im öffentlichen Interesse gegen sexuellen Kindesmissbrauch vorgehen, übermittelt wurden, wobei zwischen der absoluten Zahl der Fälle und jenen Fällen, die mehrmals gemeldet werden, sowie nach der Art des Anbieters, in dessen Diensten sexueller Missbrauch von Kindern im Internet festgestellt wurde, unterschieden wird, sofern solche Daten vorhanden sind,
b) die Zahl der Kinder, die im Rahmen von Maßnahmen gemäß Artikel 3 ermittelt wurden, aufgeschlüsselt nach Geschlecht,
c) die Zahl der verurteilten Täter. Im Hinblick auf Deutschland beantworte ich ihre Nachfrage wie folgt:
Spezifische Statistiken aufgrund von Meldungen nummernunabhängiger interpersoneller Kommunikationsdienste gemäß der Verordnung (EU) 2021/1232 über Online-Material, das sexuellen Missbrauch von Kindern enthält, liegen nicht vor.
Artikel 8 (1) der Verordnung (EU) 2021/1232 bezieht sich auf Berichte und Statistiken über sexuellen Missbrauch von Kindern im Internet, die von Anbietern nummernunabhängiger interpersoneller Kommunikationsdienste und Organisationen an zuständige nationale Strafverfolgungsbehörden übermittelt wurden. Dabei handelt es sich um Online-Material über sexuellen Missbrauch von Kindern, das aufgrund des freiwilligen Einsatzes von speziellen Technologien gemäß Artikel 3 der Verordnung (EU) 2021/1232 zum alleinigen Zweck der Aufdeckung und Entfernung solchen Materials durch die betreffenden Anbieter aufgedeckt wurde.
Hierzu weise ich darauf hin, dass der freiwillige Einsatz von Technologien zum Aufspüren von Online-Material über sexuellen Missbrauch von Kindern in Deutschland niedergelassenen nummernunabhängigen interpersonellen Kommunikationsdiensten nicht erlaubt ist.
Artikel 3 (1) a ii) der Verordnung (EU) 2021/1232 bestimmt, dass Artikel 5 und 6 der Richtlinie 2002/58/EG nicht für die Vertraulichkeit von Kommunikationen gelten, bei der auch personenbezogene und andere Daten durch die Anbieter im Zusammenhang mit der Bereitstellung nummernunabhängiger interpersoneller Kommunikationsdienste verarbeitet werden, sofern die Verarbeitung unbedingt erforderlich ist, damit eine spezielle Technologie zum alleinigen Zweck der Aufdeckung und Entfernung von Online-Material über sexuellen Missbrauch von Kindern und der Meldung dieses Materials an Strafverfolgungsbehörden und Organisationen, die im öffentlichen Interesse gegen sexuellen Missbrauch von Kindern vorgehen, sowie zur Aufdeckung der Kontaktaufnahme zu Kindern und ihrer Meldung an Strafverfolgungsbehörden und Organisationen, die im öffentlichen Interesse gegen sexuellen Missbrauch von Kindern vorgehen, verwendet werden kann.
Artikel 3 der Verordnung (EU) 2021/1232 legt damit nicht fest, dass der Einsatz von Technologien gemäß der Verordnung in den Mitgliedstaaten erlaubt ist, sondern regelt lediglich, dass die Anforderungen der Richtlinie 2002/58/EG zur Vertraulichkeit der Kommunikation nicht gelten. Dies folgt auch aus Erwägungsgrund 10, nach dem die Verordnung keine Rechtsgrundlage für die Verarbeitung personenbezogener Daten durch Anbieter zum alleinigen Zweck der Aufdeckung von sexuellem Missbrauch von Kindern im Internet in ihren Diensten und der Meldung desselben und der Entfernung von Online-Material über sexuellen Missbrauch von Kindern aus ihren Diensten bietet, sondern eine Ausnahme von bestimmten Vorschriften der Richtlinie 2002/58/EG vorsieht.
In Deutschland unterliegen nummernunabhängige interpersonelle Kommunikationsdienste als Telekommunikationsdienste unabhängig von den Anforderungen der Richtlinie 2002/58/EG dem Fernmeldegeheimnis, das in Artikel 10 des Grundgesetzes festgeschrieben ist und in § 3 des Gesetzes über den Datenschutz und den Schutz der Privatsphäre in der Telekommunikation und bei Telemedien (Telekommunikation-Telemedien-Datenschutz-Gesetz – TTDSG) konkretisiert ist. Danach ist es diesen Diensten untersagt, sich oder anderen über das für die Erbringung der Telekommunikationsdienste oder für den Betrieb ihrer Telekommunikationsnetze oder ihrer Telekommunikationsanlagen einschließlich des Schutzes ihrer technischen Systeme erforderliche Maß hinaus Kenntnis vom Inhalt oder von den näheren Umständen der Telekommunikation zu verschaffen. Sie dürfen Kenntnisse über Tatsachen, die dem Fernmeldegeheimnis unterliegen, nur für diesen Zweck verwenden. Eine Verwendung dieser Kenntnisse für andere Zwecke, insbesondere die Weitergabe an andere, ist nur zulässig, soweit das TTDSG oder eine andere gesetzliche Vorschrift dies vorsieht und sich dabei ausdrücklich auf Telekommunikationsvorgänge bezieht.
Eine gesetzliche Vorschrift, die danach erforderlich wäre, um in Deutschland niedergelassenen nummernunabhängigen interpersonellen Kommunikationsdiensten den freiwilligen Einsatz von Technologien gemäß Artikel 3 der Verordnung (EU) 2021/1232 zu erlauben, besteht nicht.
Demgemäß können von Deutschland auch keine Statistiken gemäß Artikel 8 (1) der Verordnung (EU) 2021/1232 bereitgestellt werden.
Die Ermittlung und Aufdeckung von Online-Material, das sexuellen Missbrauch von Kindern enthält, erfolgt in Deutschland mit sämtlichen Möglichkeiten, die die Strafprozessordnung (StPO) dafür zur Verfügung stellt. Dazu zählen die Durchsuchung und Beschlagnahme ebenso wie die Überwachung der Telekommunikation, die Online-Durchsuchung sowie die Erhebung von Verkehrs- und Nutzungsdaten jeweils auf der Grundlage der Anforderungen, die die Strafprozessordnung dafür jeweils stellt. In der Regel darf die Verarbeitung von Verkehrsdaten durch Telekommunikationsdienste nur auf richterliche Anordnung erfolgen.
Die in Deutschland vorhandenen Daten zum sexuellen Missbrauch von Kindern im Internet werden daher nicht auf der Grundlage von Meldungen nummernunabhängiger interpersoneller Kommunikationsdienste und des freiwilligen Einsatzes von Technologien gemäß Artikel 3 der Verordnung (EU) 2021/1232 erhoben.
Zu den vorhandenen Daten über den sexuellen Missbrauch von Kindern im Internet verweise ich auf den Bericht der Bundesregierung über die im Jahr 2021 ergriffenen Maßnahmen zum Zweck der Löschung von Telemedienangeboten mit kinderpornografischem Inhalt im Sinne des § 184b des Strafgesetzbuchs (https://dserver.bundestag.de/btd/20/031/2003175.pdf). Der Bericht enthält eine statistische Auswertung der Löschbemühungen im Jahr 2021 sowie eine Übersicht von Maßnahmen, die auf die Löschung von Telemedienangeboten mit kinderpornografischem Inhalt im Sinne des §184b des Strafgesetzbuches (StGB) abzielen. Datenbasis für die Erhebungen bildet die Anzahl der jährlich bei den Beschwerdestellen sowie dem Bundeskriminalamt (BKA) eingegangenen berechtigten Hinweise auf kinderpornografische Inhalte
Weiterhin verweise ich auf den Jahresbericht von Jugendschutz.net. Jugendschutz.net fungiert als gemeinsames Kompetenzzentrum von Bund und Ländern für den Schutz von Kindern und Jugendlichen im Internet.
Mit freundlichen Grüßen
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die Bundesregierung will mehr Künstliche Intelligenz aus Deutschland und hat dafür ein großes Investitionspaket aufgelegt. Die Eigentumsstrukturen spielen bei der Förderung offensichtlich keine wichtige Rolle.
Deutsche Start-ups für Künstliche Intelligenz – mit Eigentümern in der Karibik. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Ronny RondonMehrere deutsche KI-Start-ups haben Eigentümer*innen mit Sitz in Steueroasen wie Guernsey, Gibraltar oder den Cayman Islands – und manche davon werden sogar staatlich gefördert.
Zu den Firmen mit Verbindungen in Steueroasen gehört etwa Nyonic, eine KI-Firma, die sich auf Large Language Models für Unternehmen spezialisiert hat. Die Firma sitzt laut Impressum im AI Campus in Berlin, ist aber laut correctiv.org im vollständigen Besitz einer Holding – mit Sitz auf den Cayman Islands in der Karibik. Diese gehört wiederum zu einer Investment-Gesellschaft der Lenovo-Gruppe auf den britischen Jungferninseln.
„Das sieht nach reiner Steuervermeidung aus. Ich kann mir keinen anderen Grund für eine solche Konstruktion vorstellen”, sagt Gerhard Schick vom Verein Finanzwende gegenüber Correctiv. „Die Cayman Islands sind aufgrund niedriger Steuern und Verschwiegenheit ein typischer Standort für Briefkastenfirmen, in die Gewinne geschoben werden, um sie im Heimatland nicht versteuern zu müssen.” Das geschehe etwa über Kredite zwischen den verschiedenen Unternehmen oder Lizenzgebühren, so Schick weiter.
„Für Investmentsfonds attraktiver“Nyonic-Geschäftsführerin Vanessa Cann verteidigt das Konstrukt ihrer Firma. Es würden damit keine steuerlichen Vorteile einhergehen. Dies bezieht sich allerdings nur auf Nyonic – und nicht die Investor*innen im Hintergrund. Denn zu diesen gibt Cann zu: „Für globale Risikokapitalgeber kann es steuerliche Vorteile haben, in Firmen zu investieren, die ihren Sitz in den Caymans haben. Für uns als deutsche GmbH hat die Holding in den Caymans daher allein den Vorteil, dass wir für internationale Investmentfonds attraktiver sind.”
Neben Nyonic haben laut Correctiv auch andere deutsche KI-Firmen Gesellschafter*innen aus Steueroasen: Bei der Robotik-Firma Wandelbots und dem Rüstungsstart-up Helsing sitzen diese ebenfalls auf den Cayman Islands, bei der Identifizierungsfirma IDNow in Gibraltar, bei Scoutbee, Twaice und Celus auf den britischen Kanalinseln Guernsey bzw. Jersey.
Steueroasen kein Hinderungsgrund bei FörderungÜber das Bundesministerium für Bildung und Forschung (BMBF) fördert die Bundesregierung immerhin zwei dieser Firmen: Wandelbots und Celus. Dieses prüft zwar laut Correctiv die Eigentumsverhältnisse, solange aber „eine auf Dauer in Deutschland angelegte Forschungstätigkeit besteht, eine Verwertung innerhalb des Europäischen Wirtschaftsraums und der Schweiz realistisch ist“, bestehe jedoch kein Problem. Start-ups, die zu 100 Prozent Eigentümern in Steueroasen gehören, sind offenbar kein Ausschluss-Kriterium für eine staatliche Förderung. Das dürfte vor allem noch spannend werden, da die Bundesregierung jüngst Förderungen in Milliardenhöhe für Künstliche Intelligenz angekündigt hatte.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.