Blogs

Urheberrecht: Musikindustrie verklagt Hoster von youtube-dl

netzpolitik.org - 13 Januar, 2022 - 16:14
Die Musikindustrie will verhindern, dass Nutzer:innen Youtube-Videos herunterladen und verklagt nun den Hosting-Anbieter eines Open-Source-Tools. – CC-BY-SA 2.0 Esther Vargas

Die Musikindustrie schaltet einen Gang hoch und geht nun gegen einen deutschen Hosting-Anbieter vor. Drei große Labels verklagen den Anbieter Uberspace, weil er die Website des Open-Source-Projekts youtube-dl hostet. Mit der Software, die auf der Codesharing-Plattform Github verfügbar ist, lassen sich Youtube-Videos und Musikdateien ohne Web-Browser herunterladen. Den Klägern zufolge werde damit das Urheberrecht verletzt.

Die Auseinandersetzung zwischen der Musikindustrie, youtube-dl und seinem Umfeld schwelt seit über einem Jahr. Damals erwirkte die US-Lobbyorganisation Recording Industry Association of America (RIAA), dass der Quelltext von youtube-dl kurzzeitig von Github verschwand.

Zugleich flatterte Uberspace ein Rechtsanwaltsschreiben ins Haus. Der Anbieter habe sich der Mittäterschaft, Gehilfen- sowie Störerhaftung schuldig gemacht und solle unter anderem das Hosten der Website unterlassen, hieß es in der Abmahnung. Verschickt wurde sie im Namen der deutschen Ableger von Sony Entertainment, Warner Music Group und Universal Music. Die der Redaktion vorliegende Klageschrift gleicht weitgehend der Abmahnung.

Industrie will wohl Grundsatzurteil erreichen

Für Uberspace-Chef Jonas Pasche war weder die Abmahnung noch die Klage gerechtfertigt. Sein Anwalt vermutet, dass „mit der Klage eine Art Grundsatzurteil erreicht“ werden soll. Kommt die Industrie damit durch, könnte das Hostern auch dann eine Handlungspflicht auferlegen, wenn die behauptete Illegalität beanstandeter Inhalte juristisch umstritten ist.

Grundsätzlich sind Online-Dienste wie Uberspace durch das sogenannte Providerprivileg geschützt. Sie sind für mögliche Rechtsverletzungen ihrer Nutzer:innen nicht unmittelbar haftbar. Rechtlich relevant wird es für sie dann, wenn sie auf illegale Inhalte auf ihren Diensten aufmerksam gemacht werden, aber nichts dagegen unternehmen.

Ob eine Software wie youtube-dl illegal ist, bleibt jedoch stark umstritten. In der Antwort auf die Abmahnung wies Uberspace etwa darauf hin, dass der Download von Youtube-Inhalten in der Regel zulässig sei, sofern dafür kein Kopierschutz umgangen werden muss – schließlich werde das Recht auf eine Privatkopie der Verwertungsgesellschaft GEMA über entsprechende Gebühren abgegolten. Offenkundig wollten die Plattenlabels dieser Argumentation nicht folgen.

Ist schwacher Schutz wirksam?

Youtube schützt lediglich Bezahlinhalte mit effektiver DRM-Verschlüsselung (Digital Rights Management), der größte Teil des Youtube-Katalogs ist nur mit einer sogenannten „Rolling Cipher“ versehen. Um diesen rudimentären Schutz zu umgehen, sind weder Programmierkenntnisse noch spezielle Werkzeuge nötig. So setzt etwa jeder Browser beim Aufruf von Youtube die im Klartext übermittelten Informationen zusammen, um die Videos abzuspielen.

Das Landgericht Hamburg, bei dem auch die aktuelle Klage liegt, sah dies in der Vergangenheit jedoch anders. In einer einstweiligen Verfügung stellte das Gericht im Jahr 2017 fest, dass die Verschleierung des Speicherortes einer Videodatei, wie es etwa die „Rolling Cipher“-Technik macht, eine wirksame technische Maßnahme sei. Eine Umgehung solcher Schutzmaßnahmen sei daher nicht zulässig.

Von Youtube erhielten wir keine Antwort auf die Frage, ob Downloads von Videos erlaubt sind oder nicht. In seinen Nutzungsbedingungen verbietet der Anbieter zwar das Herunterladen, solange keine ausdrückliche Erlaubnis vorliegt. Allerdings macht der Anbieter in seinem Hilfebereich darauf aufmerksam, dass Downloads grundsätzlich möglich sind: „Indem du dein Originalvideo mit einer Creative-Commons-Lizenz versiehst, erlaubst du der gesamten YouTube-Community, es wiederzuverwenden und zu bearbeiten“, heißt es dort. Anders wäre ein guter Teil der Youtube-Kultur, etwa „Reaction-Videos“ oder eine sonstige Auseinandersetzung mit fremden Inhalten, rechtlich nicht möglich.

„Auch wenn Youtube die Funktionalität des Video-Downloads nicht von Haus aus anpreist, sind die Videos nicht mit einem Kopierschutz versehen“, sagt Julia Reda von der Gesellschaft für Freiheitsrechte (GFF). Das Verstecken der Download-URL im User-Interface sei nicht mit einem technischen Kopierschutz vergleichbar, dessen eigenhändige Umgehung durch das Urheberrechtsgesetz verboten ist. Das Landgericht Hamburg habe in seiner damaligen Entscheidung verkannt, dass „nur rudimentäre technische Kenntnisse notwendig sind, um den Download eines Youtube-Videos selbst vorzunehmen“, sagt die Urheberrechts-Expertin und ehemalige EU-Abgeordnete.

Industrie will mehrfach abkassieren

Das Vorgehen gegen youtube-dl zeigt laut Reda, dass die Rechte von Nutzer:innen urheberrechtlich geschützter Werke stets unter Beschuss durch die Unterhaltungsindustrie sind. „Nicht nur Youtube zahlt Lizenzgebühren für Musik, wir alle Zahlen Gebühren für das Recht auf Privatkopie in Form der Geräteabgabe, die bei jedem Kauf von Smartphones oder Speichermedien erhoben wird“, sagt Reda. „Trotz dieser doppelten Vergütung wollen Sony, Universal und Warner Music verhindern, dass wir von unserem Recht auf Privatkopie auch Gebrauch machen, indem wir Youtube-Videos lokal auf der Festplatte speichern.“

Traditionell geht die Branche aggressiv gegen potenzielle Urheberrechtsverletzungen vor. So zog sie etwa in einem wegweisenden Verfahren gegen den IT-Verlag Heise bis vor den Bundesgerichtshof. In einem Artikel hatte Heise Online einen Link auf die Software AnyDVD gesetzt, was die Industrie gern dauerhaft verhindert hätte. Mit dem Tool ließen sich Kopierschutzmechanismen von Video-DVDs umgehen, um beispielsweise eine Privatkopie anzulegen. Die Klage der Musikindustrie wurde erst nach einem jahrelangen Verfahren von höchster Instanz abgewiesen.

Für Privatkopien, die in Deutschland rechtlich zweifelsfrei erlaubt sind, gibt es viele gute Gründe. Sei es in diesem Fall, so Reda, weil die Bandbreite zuhause nicht reicht, um Videos ruckelfrei zu schauen, weil man vor einer langen Flugreise steht oder weil man sich in einem eigenen Video kritisch auf fremde Inhalte beziehen will. „Wenn Tools wie youtube-dl verboten werden, werden all diese legalen und gesellschaftlich erwünschten Aktivitäten unterbunden“, sagt Reda.

Im Zweifel erst mal löschen

Auch bei Youtube meldet die Industrie massenhaft vermutete Verstöße gegen das Urheberrecht und verlangt eine Entfernung der beanstandeten Inhalte. Die allermeisten Beschwerden wickelt das Content-ID-System ab und sperrt die Inhalte. Wie jedoch der erste Copyright Transparency Report des Unternehmens jüngst enthüllte, halten die automatisiert getroffenen Entscheidungen einer manuellen Überprüfung oft nicht stand. Das legt den Schluss nahe, dass sogenanntes „Overblocking“ ein verbreitetes Phänomen ist: Im Zweifel löschen Online-Dienste Inhalte eher als sich auf einen langwierigen Rechtsstreit einzulassen.

Zu einem weiteren Kollateralschaden könnten nun Hosting-Anbieter werden, wenn sie mit Abmahnungen überzogen werden, warnt Reda: „Es ist immer leichter, einer Abmahnung oder Takedown-Notice einfach nachzukommen, anstatt darauf zu beharren, dass die Rechtswidrigkeit des betroffenen Inhalts tatsächlich höchstrichterlich festgestellt wird. Insofern ist es zu begrüßen, dass Uberspace der Forderung nicht einfach nachgegeben hat.“

Der Hoster will die Sache nun durchfechten und bereitet seine Verteidigung vor. Sollte Uberspace das Verfahren verlieren, könnte es teuer für das Unternehmen werden. Der Gegenstandswert liegt bei 100.000 Euro. Dieser entscheidet letztlich über die Prozess- und Rechtsanwaltskosten – auch die der Gegenseite, für welche die unterlegene Partei aufkommen muss. Dies könnte rund zehn Prozent des Streitwerts ausmachen, so Pasche.

Unzählige Alternativen verfügbar

Um das Herunterladen von Youtube-Videos müssen sich Nutzer:innen hingegen keine Sorgen machen, zumindest nicht kurzfristig. Der Quelltext und die ausführbaren Dateien von youtube-dl liegen ohnehin nicht bei Uberspace, sondern beim zu Microsoft gehörenden Github. Der Anbieter hatte das Code-Repository des Projekts wieder hergestellt, nachdem er die DMCA-Anordnung der Industrie überprüft und als nicht gerechtfertigt eingestuft hatte. Zudem gibt es eine ganze Reihe von Forks, also abgespaltener und ebenfalls quelloffener Varianten von youtube-dl sowie unzählige andere Tools, die Youtube-Inhalte auf die eigene Festplatte schaufeln können.

Bizarr findet Uberspace-Chef Pasche jedenfalls, dass eine Google-Suche nach „youtube download“ als erstes eine von den Suchergebnissen separierte Infobox mit einem Anreißer des Wikipedia-Eintrags von youtube-dl anzeigt. „Wenn Youtube doch so sehr daran gelegen ist, Downloads zu unterbinden, könnte zumindest Google als Eigner ja schon mal dafür sorgen, nicht selbst prominent auf das vermutlich verbreitetste Download-Tool hinzuweisen“, sagt Pasche.

Update, 19. Januar: Passage zum Gegenstandswert überarbeitet.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Kartellverfahren: Google beschränkt Reichweite von News Showcase in Deutschland

netzpolitik.org - 13 Januar, 2022 - 15:49
Google spielt Verlagsinhalte aus dem Showcase-Lizenzprogramm über die Google-News-App aus – Alle Rechte vorbehalten IMAGO / ZUMA Wire

Auf Druck des Bundeskartellamtes hat Google angekündigt, sein Angebot News Showcase anzupassen. Die Behörde prüft derzeit Vorwürfe, dass die Kooperation des US-Konzerns mit deutschen Verlagen den Wettbewerb verzerre. Als Reaktion habe Google „Maßnahmen vorgeschlagen, um wettbewerbliche Bedenken des Amtes auszuräumen“, kündigte das Bundeskartellamt in einer Pressemitteilung an.

Mit Google News Showcase hat der Konzern weltweit Presseverlagen eine Milliarde US-Dollar an Lizenzzahlungen versprochen. Im Gegenzug liefern die Verlage an den Konzern händisch ausgesuchte Teaser für ihre Inhalte, die über die Google-News-App und Google Discover ausgespielt werden. In Deutschland nehmen laut Google 90 Medientitel teil, darunter der Spiegel, die Zeit und die Frankfurter Allgemeine Zeitung. Die Höhe der Zahlungen für Showcase wollen weder Google noch die Verlage verraten, sie sollen jedoch bei großen Medien im niedrigen sechsstelligen Bereich sein, für kleinere ein fünfstelliger. 

Doch in der Branche gibt es auch einigen Unmut gegen Showcase. Im Raum steht der Vorwurf, Google missbrauche seine Dominanz, um die Presseverlage zu überrollen. Die Verwertungsgesellschaft Corint Media, die dem Axel-Springer-Verlag nahesteht, hatte vor dem Bundeskartellamt Beschwerde gegen das Lizenzprogramm eingebracht. Im Kern geht es einerseits um die Frage, ob Google die Inhalte aus Showcase auch in seiner allgemeinen Suche anzeigen darf. Dadurch bevorzuge Google sein eigenes Angebot gegenüber anderen Nachrichtenaggregatoren, lautet das Argument. Google hat nun gegenüber der Behörde angekündigt, das zu unterlassen.

Leistungsschutzrecht im Fokus der Kartellbehörde

Zugleich prüft das Bundeskartellamt, ob Google mit den Verträgen für Showcase die Durchsetzung des Leistungsschutzrechtes erschwert. Dieses wurde durch das EU-Urheberrecht eingeführt und sieht vor, dass Google für Verweise auf Inhalte von Nachrichtenmedien über Google News Lizenzgebühren zahlen muss. Dagegen hat sich Google lange gewehrt, inzwischen hat das Unternehmen aber erste Verträge mit deutschen Verlagen abgeschlossen. In früheren Verträgen für Showcase legte Google fest, dass die Zahlungen aus Showcase versiegen, wenn „der Publisher einen Rechtsanspruch stellt“. Diese Bedingungen nahm Google allerdings wieder zurück.

Untersuchen möchte das Bundeskartellamt auch, ob der Zugang zu Showcase für alle Verlage diskriminierungsfrei gewährleistet wird. Ob die von Google vorgeschlagenen Maßnahmen wirksam sind, will die Behörde nun breit mit den Verlagen besprechen. Es würden dafür Stellungnahmen eingeholt. Das Verfahren gegen Google geht damit erstmal weiter. Erst wenige Tage zuvor hatte das Bundeskartellamt nach längerer Prüfung festgestellt, dass Google eine „überragende marktübergreifende Bedeutung“ hat. Das gibt der Marktaufsicht neue Eingriffsbefugnisse.

Corint Media zeigte sich in einer Reaktion erfreut über die Zugeständnisse Googles an die Kartellbehörde. „Wir begrüßen die Entschiedenheit, mit der die Beschlussabteilung die Missbräuchlichkeit des Google News Showcase aufgreift und Google Maßnahmen auferlegt“, sagten Christoph Schwennicke und Markus Runde, Geschäftsführer von Corint Media. Google selbst betonte, es kooperiere mit der Behörde. „Wir haben bereits einige Anpassungen vorgenommen sowie weitere Verbesserungen vorgeschlagen“, sagte ein Sprecher gegenüber netzpolitik.org. „Wir werden auch weitere Fragen entsprechend adressieren.“ Gleichzeitig wolle der Konzern Google News Showcase fortsetzen, „um Qualitätsjournalismus in Deutschland und anderswo zu unterstützen“.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Recht auf Reparatur: Die Ampel wartet auf Brüssel

netzpolitik.org - 13 Januar, 2022 - 13:00
Umweltministerin Steffi Lemke verspricht ein Recht auf Reparatur – Alle Rechte vorbehalten IMAGO / Future Image

Die Ampel-Regierung aus SPD, Grünen und FPD hat in ihrem Koalitionsvertrag ein „Recht auf Reparatur“ für Geräte wie Handys und Laptops angekündigt. Der Zugang zu Ersatzteilen und Reparaturanleitungen müsse sichergestellt werden, auch müssten Firmen eine bestimmte Zeit Softwareupdates garantieren. Doch bei dieser Ankündigung dürfte die Koalition sich größtenteils auf die EU-Kommission in Brüssel verlassen, wie sich nun herausstellt.

Das Recht auf Reparatur ist eine langjährige Forderung von Verbraucherschützer:innen und unabhängigen Reparaturwerkstätten. Denn bislang sind viele elektronische Geräte so gebaut, dass sie nur schwer repariert werden können – etwa, weil Akkus im Gerät verklebt sind oder sich kaputte Displays schwer tauschen lassen. Die durchschnittliche Nutzungsdauer von Handys in Deutschland beträgt derzeit nur rund zweieinhalb Jahre – Altgeräte sorgen für viele Tonnen an Elektromüll. NGOs fordern, durch rechtliche Maßnahmen die durchschnittliche Haltbarkeit von Handys auf bis zu zehn Jahre zu erhöhen.

In Interviews hatte die zuständige Bundesumweltministerin Steffi Lemke (Grüne) eine gesetzliche Vorschrift zu dem Thema versprochen, zuletzt etwa im Gespräch mit dem „Tagesspiegel“. Betreffen soll die Regelung elektronische Geräte, aber auch elektrische Zahnbürsten und andere Haushaltsgeräte. „Angesichts der abertausenden Konsumgüter lässt sich das Recht auf Reparatur aber nicht mit nur einem einzigen Gesetz umsetzen“, sagte Lemke der Zeitung. Aus ihren Äußerungen und Antworten eines Pressesprechers aus ihrem Haus an netzpolitik.org wird deutlich, dass das Umweltministerium jedoch keine von der EU unabhängige nationale Regelung plant.

Für das Recht auf Reparatur wesentliche Regelwerke seien „die Ökodesign-Richtlinie auf EU-Ebene und das Warenkaufrecht im BGB, das auf der EU-Warenkaufrichtlinie basiert“, betonte ein Sprecher des Bundesumweltministeriums. Die Ökodesign-Richtlinie schreibt Mindeststandards für die Nachhaltigkeit von Geräten vor, 2019 wurde sie auf Waschmaschinen, Geschirrspüler und Fernseher ausgeweitet.

Elektronische Geräte wie Handys sind bislang nicht erfasst, die EU-Kommission möchte das aber ändern. Sie wollte einen Gesetzesvorschlag ursprünglich schon vergangenes Jahr vorlegen, hat das aber auf die zweite Hälfte 2022 verschoben. Die Neuerungen sollen Handys und Tablets umfassen. „Derzeit wird die entsprechende Durchführungsmaßnahme für diese Produktgruppe in Brüssel verhandelt“, sagt der Ministeriumssprecher. „Wesentliche Inhalte der Maßnahme sind die Lebensdauer der Geräte und ihrer Akkus, Reparierbarkeit, Verfügbarkeit von Ersatzteilen.“

vzbv: „Regierung muss zügig Weichen stellen“

Als flankierende Maßnahme möchte das Bundesumweltministerium auch am Warenkaufrecht drehen. Dieses setzt eine EU-Richtlinie um, bereits vor der Wahl hat der Bundestag im Sommer einen Entwurf beschlossen. Die mit Jahresanfang gültige Neuregelung schuf etwa bereits Update-Pflichten für Hersteller digitaler Geräte. Das Bundesumweltministerium will aber darüber hinaus prüfen, ob es bei der nationalen Umsetzung noch Spielräume für weitere Verbesserungen bei der Reparierbarkeit gibt. „Das BMUV setzt sich im Rahmen des Warenkaufrechts dafür ein, die Gewährleistung für langlebige Geräte zu stärken und zu verlängern und die Beweislastumkehr für diese Produkte auf zwei Jahre auszuweiten“, sagte ein Sprecher. Hierzu sollten auch IT-Geräte zählen. Ob das bedeuten könnte, das gerade erst geänderte Warenkaufrecht neuerlich anzupassen, ließ er offen.

Verbraucherschützer:innen zeigen sich angesichts der Äußerungen der Umweltministerin skeptisch. Um beim Recht auf Reparatur schneller voranzukommen, könnte und sollte die neue Bundesregierung auch national handeln, sagte Elke Salzmann, Referentin Ressourcenschutz des Verbraucherzentrale Bundesverbands (vzbv), der Frankfurter Allgemeinen Zeitung. Bisherige Ankündigungen gingen nicht über das hinaus, was auch schon die vorherige Regierung versprochen habe. „Die Regierung muss zügig die Weichen für haltbare und reparierbare Produkte stellen“, so Salzmann.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Zentrum für politische Schönheit: Berliner Polizei durchsucht Künstler wegen Flyer-Aktion gegen AfD

netzpolitik.org - 13 Januar, 2022 - 10:54
Der „Flyerservice Hahn“ entsorgt AfD-Flyer. – Alle Rechte vorbehalten Zentrum für politische Schönheit

Die Berliner Polizei hat in den frühen Morgenstunden mehrere Privatwohnungen von Mitgliedern des Zentrums für politische Schönheit (ZPS) wegen angeblicher „Fälschung beweiserheblicher Daten“ durchsucht. Das berichten die Aktionskünstler auf Twitter und auf Rückfrage von netzpolitik.org. Die Berliner Polizei hat eine kurzfristige Presseanfrage zum Thema noch nicht beantwortet.

Nach Auskunft der Künstler:innen steht die Hausdurchsuchung im Zusammenhang mit der Aktion „Flyerservice Hahn“, bei der es dem ZPS gelang, unter Vortäuschung einer erfundenen Firma tonnenweise Werbematerial der rechtsradikalen AfD im Bundestagswahlkampf zu erlangen und dieses im Rahmen einer Kunstaktion zu entsorgen.

Stefan Pelzer vom Zentrum für politische Schönheit hält die Durchsuchungen für einen „skandalösen Vorgang“. Er sagt gegenüber netzpolitik.org: „Die Ermittlungen sind politisch motiviert und beruhen auf völlig fadenscheinigen Begründungen. Statt endlich gegen Rechtsextremisten durchzugreifen, bricht die Berliner Polizei offensichtlich mit Rückendeckung des neuen Senats in unsere Wohnungen ein. Wir werten die Durchsuchungen als Angriff auf das Grundrecht auf Kunstfreiheit.“

Aus dem Durchsuchungsbeschluss twitterte das ZPS einen Auszug.

 

Provokation bundesweiter Debatten

Das Zentrum für politische Schönheit provoziert mit seinen Aktionen seit Jahren bundesweite Debatten zum Thema Menschenrechte, Migration und Rechtsradikalismus. Dabei nutzten die Aktionskünstler auch immer wieder Techniken der Kopie und Fälschung, bauten Webseiten der Bundesregierung nach oder kündigten an, mit Presslufthämmern den Platz vor dem Bundeskanzleramt umzugestalten

Aktionen des ZPS stehen oftmals am Rande von Illegalität und Strafbarkeit oder spielen mit dieser. Zum Zwecke der öffentlichen Debatte sind diese Provokationen fest eingeplant und gehören zur künstlerischen Methode der Gruppe, sie befeuert den medialen Diskurs auf vielfältige Weise und weist so auf politische Missstände hin.

In der Vergangenheit hatten die Künstler unter anderem dem rechtsradikalen Politiker Björn Höcke einen Nachbau des Holocaustmahnmals in den Nachbargarten gestellt. Ein Staatsanwalt, der sich später als AfD-Spender herausstellte, leitete damals Ermittlungen wegen „Bildung einer kriminellen Vereinigung“ gegen die Künstler ein. Das Verfahren wurde nach einem  öffentlichen Aufschrei eingestellt.

Berliner Polizei gegen Aktionskunst

In Berlin ist es nicht die erste Razzia gegen Aktionskünstler. Im vergangenen Juli hatte die Berliner Polizei Privaträume und das Büro des Peng-Kollektivs durchsucht wegen eines angeblichen Aufruf zu Straftaten. Die Durchsuchung gegen Peng stand im Zusammenhang mit der Webseite TearThisDown.com, die Peng gemeinsam mit der Initiative Schwarze Menschen in Deutschland veröffentlicht hatte. Die Webseite zeigt eine Karte von Orten, an denen der Kolonialismus weiterlebt – und rief zu Aktionen gegen diese auf.

Auch gegen Adbuster und Streetart-Künstler fährt Berlin immer wieder harte Geschütze auf. Hierbei wurden Menschen, die Plakate in Werbekästen austauschen, auf unverhältnismäßige Weise kriminalisiert

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Studie: Seit dem NetzDG gibt es weniger Hass auf Twitter

netzpolitik.org - 13 Januar, 2022 - 07:00
Laut einer Studie wird auf dem Kurznachrichtendienst Twitter seit dem NetzDG weniger toxisch gezwitschert. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Vincent van Zalinge

Staatliche Regulierung habe geholfen, Hassrede auf Twitter signifikant zurückzudrängen. Das hat eine Studie des Leibniz-Zentrums für Europäische Wirtschaftsforschung (ZEW) ergeben. Demnach seien rund zehn Prozent weniger Hasskommentare auf dem sozialen Netzwerk erschienen als vor dem Netzwerkdurchsetzungsgesetz (NetzDG).

Um die gesetzliche Regulierung potenzieller Hassrede in sozialen Netzwerken tobt seit Jahren eine heftige Debatte. Deutschland war 2017 als weltweit erstes Land vorangeprescht und hatte mit dem NetzDG ein so umstrittenes wie wegweisendes Gesetz vorgelegt. Davon erfasste Online-Dienste müssen ihnen gemeldete Inhalte binnen 24 Stunden entfernen, wenn sie offensichtlich illegal sind, bei anderen rechtswidrigen Inhalten gilt eine Frist von sieben Tagen.

Über die Folgen des Gesetzes auf die Meinungsfreiheit im Netz wird weiterhin gestritten – auch vor dem Hintergrund kommender EU-Gesetze wie dem Digital Services Act, dem die deutsche Regelung teils als Vorbild dient. Eine Evaluierung des Bundesjustizministeriums stellte dem NetzDG noch vor dessen Novellierung insgesamt eine gute Note aus, eine unabhängig durchgeführte Untersuchung warnte hingegen vor Overblocking, also vor zu viel ungerechtfertigt gelöschten Inhalten. Zudem stellte sie die praktische Relevanz des NetzDG im Kampf gegen Hassrede in Frage.

Rechtes Hassbiotop

Zumindest letzteren Einwand könnte die ZEW-Studie nun entkräften. Die Forscherinnen Raphaela Andres und Olga Slivko zogen dazu rund 200.000 Accounts von Twitter-Followern der Rechtsaußen-Partei AfD heran. Aus dieser Ecke kommt messbar die meiste Hassrede, sie eignet sich deshalb besonders gut für solche Untersuchungen. Als Kontrollgruppe diente die österreichische FPÖ und deren Follower. Das Nachbarland taugt gut für einen Vergleich, weil es sprachliche und kulturelle Ähnlichkeiten gibt, dort aber dem NetzDG ähnliche Gesetze fehlten.

Die Forscherinnen luden über zwei Millionen Tweets aus 2016 bis 2019 herunter, um Zeiträume vor und nach dem In­kraft­tre­ten des NetzDG untersuchen zu können. Aus dem Material filterten sie Nachrichten heraus, die Begriffe wie „Islam“, „Migra[tion]“ oder „Flucht“ enthielten. Diese Tweets untersuchten sie automatisiert auf die Toxizität. Jeder der Tweets erhielt dann einen Score zwischen 0 und 1. Nachrichten mit einem Score von 0,5 oder höher galten als potenzielle Hassrede. Seit dem NetzDG ging der Studie zufolge die Anzahl solcher Tweets in Deutschland durch die Bank zurück, besonders bemerkbar habe sich dies bei Attacken auf die Identität gemacht.

Hassintensität auf Twitter vor und nach dem NetzDG in Deutschland und Österreich. Je weiter rechts ein Tweet auf der Verteilungskurve aufscheint, umso hasserfüllter ist er. Hassrede beginnt etwa ab der Mitte. - Alle Rechte vorbehalten Raphaela Andres, Olga Slivko

Auch die „Hassintensität“ sei zurückgegangen, im Unterschied zu Österreich. Trotz gewisser Spill-over-Effekte habe sich dort seit dem NetzDG die Verteilung hin zu mehr extremen Tweets verschoben, während in Deutschland insgesamt weniger stark hasserfüllte Inhalte als früher gepostet wurden. Dies spiegle sich auch in absoluten Zahlen wider. Seit der NetzDG-Einführung sei die Anzahl „massiv toxischer“ Tweets um acht Prozent gefallen, solche mit „Identitätsattacken“ um elf Prozent. Da sich polarisierende Inhalte zudem schneller verbreiten als langweilige, habe die bessere Moderation auch zu entsprechend weniger Retweets und damit geringerer Sichtbarkeit von Hasskommentaren geführt, heißt es in der Studie.

Schädliche Effekte abgeschwächt

Zahlreiche Untersuchungen belegen inzwischen, dass Hass im Netz ein ernstzunehmendes Problem ist. Insbesondere bei marginalisierten und deshalb oft angegriffenen Gruppen, etwa Migrant:innen, LGBTQ-Personen oder Frauen, kann es zum Rückzug aus dem digitalen Raum führen, wenn sie online ungebremst attackiert werden. Die Gewalt kann auch als sogenannter „stochastischer Terrorismus“ in den Offline-Bereich überschwappen oder, im Extremfall, gar Genozide befeuern.

Lange sperrten sich die Betreiber der Online-Plattformen gegen Forderungen nach besserer Moderation, Twitter etwa rechtfertigte seine Untätigkeit gegen Hassrede mit der Verteidigung der Meinungsfreiheit. Erst als sich der öffentliche Druck nicht mehr länger wegwischen ließ, gelobten sie Besserung. Doch statt staatlicher Eingriffe ziehen sie bis heute Selbstregulierung und private Gemeinschaftsregeln vor.

Das alleine reiche allerdings nicht aus, schreiben die Autorinnen: Die Anreize für die Betreiber seien schwach, selbst ein „optimales Niveau“ bei der Inhaltemoderation zu erreichen. „Tatsächlich könnte es für die Plattformen optimal sein, extreme Inhalte auf dem Dienst zu belassen, um ihre Nutzer:innenbasis und werbegetriebene Profite zu vergrößern“, heißt es in der Studie.

Umgekehrt würden die Ergebnisse der Untersuchung nahelegen, dass die schädlichen Effekte von Online-Hass abgeschwächt werden könnten, wenn die Online-Dienste stark angereizt werden, rasch auf Meldungen von Hassrede zu reagieren. Seit dem NetzDG drohen davon erfassten Anbietern Geldbußen, wenn sie gegen die Auflagen verstoßen. Verhängt wurden solche Strafen erst zwei Mal, allerdings nicht aufgrund nachlässiger Moderation: Facebook versteckte aus Sicht des Bundesamts für Justiz unrechtmäßig das Meldeformular und legte zudem unvollständige Transparenzberichte vor.

Bessere Meldewege gefordert

Hier sieht die ZEW-Studie noch Potenzial für Verbesserungen. Die Meldewege seien zu komplex, so müssten Nutzer:innen etwa den korrekten Gesetzesparagraphen angeben, wenn sie Hassrede melden möchten. Das könnte abschreckend wirken, schließlich ist der Prozess langwierig und nicht alle sind juristisch ausgebildet.

Auch müssten weitere Studien potenzielle Overblocking-Effekte genauer untersuchen, selbst wenn die Autorinnen keine Hinweise darauf gefunden haben wollen: Abseits der zurückgegangenen Anzahl von Hasspostings rund um Migration und Religion habe sich kein dämpfender Effekt des NetzDG oder eine Verhaltensänderung von Twitter-Nutzer:innen nachweisen lassen. Das NetzDG scheint also laut der Studie, trotz aller Kritik, wirksam gegen Hassrede zu sein.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Crowd-Recherche: Mozilla lädt zur Jagd auf Facebooks Tracking-Pixel

netzpolitik.org - 12 Januar, 2022 - 18:29
Facebooks Tracking-Praxis im Blick: Das Projekt „Pixel Hunt“ von Mozilla und The Markup – Gemeinfrei-ähnlich freigegeben durch unsplash.com Glen Carrie

Was weiß Facebook über uns? Trotz zahlreicher journalistischer Recherchen, Datenlecks und Kongressanhörungen kann diese Frage niemand außerhalb der Firma so richtig akkurat beantworten. Viel weiß der Datenkonzern, so viel ist klar. Auch über Menschen, die gar keinen Facebook-Account haben.

Mithilfe seines großen Werbenetzwerks und Tracking-Tools für die Anbieter:innen anderer Websites und Apps sammelt Facebook auch außerhalb der eigenen Plattformen fleißig Daten. In diese undurchsichtige Praxis wollen nun die gemeinnützige Mozilla Foundation und das US-Recherchemagazin The Markup Licht bringen. Mit einer Studie wollen sie aufdecken, wie und welche Daten über unser Online-Verhalten Facebook auf den Seiten von Drittanbietern sammelt.

Im Fokus der „Facebook Pixel Hunt“ stehen Tracking-Pixel. Dies sind kleine Code-Schnipsel, die Seitenbetreiber in ihre Websites integrieren und die beim Aufrufen der Seite Informationen an Facebook übermitteln.

Die Seitenanbieter:innen können ihre Besucher:innen dann mit zielgerichteter Werbung in den Diensten von Facebook oder auf anderen Websites erreichen. Den Effekt davon haben die meisten Internetnutzer:innen schon einmal erlebt, wenn sie sich Schuhe oder andere Produkte in einem Online-Shop angeschaut und dann genau für dieses Angebot später Werbung gezeigt bekommen haben. Im Gegenzug erhält Facebook umfangreiche Informationen darüber, wo sich einzelne Menschen im Netz so herumtreiben.

US-Nutzer:innen werden um Datenspenden gebeten

Die Studie von Mozilla und The Markup setzt auf einen Crowd-Ansatz. Freiwillige können sich eine Erweiterung für ihren Mozilla-Firefox-Browser installieren, die Informationen sammelt und diese als Datenspende an die Forscher:innen übermittelt. Wie uns mehrere Leser:innen mitteilen, ist die Teilnahme derzeit jedoch auf Nutzer:innen aus den Vereinigten Staaten begrenzt. Das Ende der Untersuchung ist für den 13. Juli 2022 angekündigt.

Wer mitmachen will, muss bereit sein, einige Daten über das eigene Surf-Verhalten bereitzustellen. Für die Studie sammle man neben den Daten der Facebook-Pixel und Facebook-Cookies auch Informationen über die besuchten Websites, heißt auf der Kampagnenseite. Das sind zum Beispiel die vollständigen URLs besuchter Websites, die Dauer des Besuchs auf einer Seite und auch, wie weit man auf dieser heruntergescrollt hat. Außerdem werden Teilnehmer:innen gebeten, einen Fragebogen mit Angaben zur eigenen Person auszufüllen.

Das Forschungsteam verspricht möglichen Teilnehmer:innen, sorgsam mit den Daten umzugehen. So sollen die Rohdaten nur in einer von Mozilla besonders geschützten Forschungsumgebung gesammelt und verarbeitet werden. Dritte würden im Rahmen der Studie keine granularen Daten erhalten, auch der Medienpartner The Markup werde in seiner Berichterstattung ausschließlich aggregierte und anonymisierte Daten verwenden.

Darüber hinaus habe sich Mozilla bei allen Studien dem Grundsatz der Datenminimierung verschrieben, nach dem nur solche Daten gesammelt werden sollen, die zur Erreichung der Studienziele nötig sind. Sobald die Analyse abgeschlossen ist, sollen deshalb alle Rohdaten gelöscht werden.

Update, 14. Januar 2022: Info über Beschränkung der Studie auf US-Nutzer:innen ergänzt. Danke allen Leser:innen für die Hinweise!

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Booster-Nachweis: CovPassCheck-App nutzlos bei einigen Corona-Regeln

netzpolitik.org - 12 Januar, 2022 - 17:15
Zur wievielten Impfung ein Zertifikat gehört, kann die CovPassCheck-App nicht anzeigen. – Alle Rechte vorbehalten IMAGO / Jochen Tack

Vor einigen Tagen einigten sich die Ministerpräsident:innen auf die Einführung der 2GPlus-Regelung für die Gastronomie. Damit sollen nur noch geimpfte Menschen mit tagesaktuellem Schnelltest Cafés, Bars und Restaurants besuchen können. Die einzige Ausnahme: Wer schon eine dritte Spritze bekommen hat, für den gilt die Testpflicht nicht.

Neue Maßnahmen bedeuten für die Gastronomie natürlich auch neue Herausforderungen, um zu kontrollieren, ob die Regeln eingehalten werden. Für die Kontrolle von Impfzertifikaten und auch von Corona-Tests gibt es die CovPassCheck-App des Robert-Koch-Instituts. Besucher:innen können ihre Impf- und Testnachweise in der CovPass-App oder in der Corona-Warn-App hinterlegen. Die QR-Codes werden dann mit der CovPassCheck-App von den Betreiber:innen gescannt und auf ihre Gültigkeit überprüft.

Doch die App zeigt neben der Gültigkeit des Zertifikats nur den Namen und das Geburtsdatum der geimpften oder getesteten Person an. Es ist nicht ersichtlich, wie viele Impfungen die Person schon erhalten hat. Es ist vollkommen unklar, wie die 2GPlus-Regeln und der Wegfall der Testpflicht für Geboosterte mit der CovPassCheck-App durchgesetzt werden sollen.

Anpassung nicht vorgesehen

Im Bundesgesundheitsministerium kann man auf Anfrage auch nicht weiterhelfen. Die Einsicht in die Daten der einzelnen Impfungen und die Gültigkeitsdauer einer Impfung sei „aus Gründen des Datenschutzes“ nicht vorgesehen, so ein Sprecher. „Die Daten sind lediglich lokal auf dem Gerät der Überprüften gespeichert und werden gegen das hinterlegte Regelwerk des RKI geprüft. Eine entsprechende Funktion zur Einsicht in detaillierte Impfdaten in der CovPass-Check-App ist nicht vorgesehen und vor allem datenschutzrechtlich kritisch zu betrachten.“ Eine Anpassung sei daher nicht vorgesehen.

Doch um zu kontrollieren, ob eine Person schon eine Booster-Impfung bekommen hat, wäre es ja gar nicht nötig, Datum oder Gültigkeitsdauer der Impfung einzusehen. Ein simples 1, 2 oder 3 würde genügen, um deutlich zu machen, zu welcher Impfung das Zertifikat gehört, das die App gerade kontrolliert. Das Datenschutzargument wirkt nicht wirklich stichhaltig, um die Probleme der App zu rechtfertigen.

Schlimmer noch: Wer sich über die CovPass-App ein PDF zum analogen Nachweis der Impfung generiert, kann das „2/2“ unter dem Punkt „Erstimpfung/Wiederimpfung“ mit einem einfachen Programm zur PDF-Bearbeitung ein „3/3“ machen. Die CovPassCheck-App könnte die Fälschung beim Scannen des QR-Codes nicht erkennen.

Problem ist in der Branche bekannt

Der Sprecher des Gesundheitsministeriums weist daraufhin, dass das Fälschen eines Impfnachweises eine Straftat sei. Man mache sich außerdem nicht nur strafbar, wenn man selbst Impfpässe fälscht, sondern auch, wenn man wissentlich einen gefälschten Impfpass benutze. Das scheint viele Menschen aber nicht davon abzuhalten, es trotzdem zu versuchen. Immer wieder fliegen Fälschungen auf.

Eine Sprecherin des Deutschen Hotel- und Gaststättenverbandes sagt auf Anfrage von netzpolitik.org, das Problem mit der Kontrolle der 2GPlus-Regeln sei in der Branche bekannt: „Im Interesse der Gäste und der Betriebe muss das dringend gelöst werden. Wir brauchen hier mehr Klarheit bei den Vorgaben.“

Im Ministerium ist man unterdessen damit beschäftigt, die neuen Vorgaben der EU-Kommission für Genesenenzertifikate und digitale Nachweise der Johnson&Johnson-Impfung umzusetzen. Laut Sprecher prüfe man derzeit, wie man den betroffenen Personen bis zum 1. Februar ein gültiges Zertifikat zur Verfügung stellen könne, das den EU-Anforderungen genügt.

Genesene und zweimal geimpfte Menschen haben noch mit anderen technischen Hürden zu kämpfen. Sie gelten ebenfalls als geboostert. Der CovPass-App gelingt es aber nicht, diesen Status klar anzuzeigen. In der App erscheint „Impfung 2 von 2“, obwohl die Person zusätzlich den Genesenenstatus hat. Auch für dieses schon seit Monaten bekannte Problem gibt es noch keine Lösung. Betroffene müssen bei der Kontrolle immer beide Nachweise vorzeigen.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Für Android und iOS: Telegram blockiert Inhalte der Verschwörungsszene

netzpolitik.org - 12 Januar, 2022 - 16:05
Eingeschränkte Inhalte auf Telegram. – Logo und Screenshots: Telegram, Bearbeitung: netzpolitik.org

Telegram ist derzeit eine der wichtigsten Plattformen für Verschwörungsgläubige. In den Gruppen und Kanälen der Chat-App vermischen sich unter anderem Querdenker:innen und Rechtsextreme. Einige teilen irreführende und falsche Informationen über die Pandemie und organisieren Proteste. Andere verbreiten auch Hass, Hetze und Todesdrohungen. Das kann dazu beitragen, Menschen zu radikalisieren, die sich auf Telegram einfach nur umschauen möchten.

Telegram lässt das in der Regel zu. Im Vergleich zu anderen Plattformen wie Facebook oder Twitter löscht Telegram Inhalte extrem selten. Telegram ist dafür bekannt, Meinungsfreiheit äußerst weit auszulegen und Behörden abblitzen zu lassen. Das hat die Plattform in autoritären Ländern wie Belarus und Iran zu einem wichtigen Werkzeug für demokratische Protestbewegungen gemacht, führt aber hierzulande auch zur Situation, dass Mordaufrufe einfach stehen bleiben.

Jetzt zeigen Recherchen von netzpolitik.org, dass Telegram derzeit gegen manche Inhalte aus der deutschen Verschwörungsszene vorgeht. Gruppen lassen sich nicht öffnen, Kommentare in Kanälen werden nicht angezeigt.

Punktuelle Maßnahmen

Es handelt sich bisher offenbar um Einzelfälle. Betroffen sind mindestens sechs Kanäle und Gruppen aus der Verschwörungsszene. Die Einschränkungen gelten nur für Nutzer:innen, die Telegram aus dem Google Play Store oder dem App Store von Apple heruntergeladen haben. Wer Telegram aus anderen Quellen bezieht oder etwa auf dem Laptop nutzt, kann die eingeschränkten Inhalte weiterhin sehen.

Die Namen der betroffenen Kanäle und Gruppen nennen wir nicht, um uns möglichst wenig an der Verbreitung von deren Falschinformationen zu beteiligen. Einen der Kanäle betreibt ein ehemaliger Russland-Korrespondent des Focus, er hat rund 300.000 Abonnent:innen, ein anderer Kanal wird von einem Anwalt aus der Querdenken-Szene betrieben. In den Kommentaren bezeichnen Nutzer:innen die Corona-Impfung als „Giftspritze“ und die Regierung als „Satanisten“. Sie verbreiten die falsche Erzählung, dass die Impfung Menschen töten solle.

Kanäle auf Telegram können unbegrenzt viele Abonnent:innen haben. Die Kanalbetreiber:innen posten etwa Texte, Links oder Bilder an ihr Publikum. Eine Kommentarfunktion lässt sich optional einschalten. Noch mehr Austausch gibt es in Telegram-Gruppen. Dort können bis zu 200.000 Mitglieder direkt miteinander chatten.

Offenbar Druck von Google und Apple Gesperrte Gruppe für Nutzer:innen von Telegram aus dem Google Play Store. - Screenshot: Telegram, Bearbeitung: netzpolitik.org

Anscheinend reagiert Telegram mit den Einschränkungen auf Druck von Google und Apple. Apple kontrolliert über den App Store, welche Apps für sein mobiles Betriebssystem iOS verfügbar sind. Ähnlich ist es beim Konzern Google, der den Google Play Store für Android kontrolliert. Beide Konzerne verlangen von App-Anbietern, dass sie sich an die Regeln der jeweiligen App-Stores halten, sonst könnten sie rausfliegen. Zuletzt hatte der sächsische Ministerpräsident Michael Kretschmer (CDU) Apple und Google aufgefordert, gegen Telegram aktiv zu werden.

Zu den Regeln von Apple gehört etwa, dass Anbieter von Apps mit nutzergenerierten Inhalten „einen Mechanismus zur Meldung unzulässiger Inhalte und zeitnahe Reaktionen auf Beschwerden“ bereithalten müssen. Ebenso muss es die Möglichkeit geben, dass solche unzulässigen Inhalte entfernt werden. Für Entwickler:innen von Apps, die im Play Store erscheinen, gelten ähnliche Richtlinien.

Ein Rauswurf aus dem Google Play Store oder dem App Store könnte die Reichweite von Telegram deutlich beschneiden. Offenbar um das zu verhindern, hat Telegram schon in der Vergangenheit Inhalte eingeschränkt, wie Kanäle des Islamischen Staates oder pornografische Inhalte für iOS-Nutzer:innen. Wir haben die Pressestellen von Google und Apple zu den Sperrungen von Verschwörungsinhalten kontaktiert, beide wollen sich nicht öffentlich zur Sache äußern.

Weiterer Druck auf Telegram kommt von der deutschen Regierung. Unter anderem das Justizministerium ist wohl der Ansicht, dass Telegram unter das Netzwerkdurchsetzungsgesetz (NetzDG) falle. Entsprechend müsste die Plattform unter anderem für Behörden erreichbar sein. Telegram müsste auch in Deutschland strafbare Inhalte löschen, wenn sie von Nutzer:innen gemeldet werden. Weil das nicht passiert, gibt es Bußgeldverfahren. Aber offenbar hat Telegram bislang nicht auf Anfragen deutscher Behörden reagiert. Eine aktuelle Presseanfrage von netzpolitik.org bei Telegram blieb auch unbeantwortet.

Telegram hat schon öfter gelöscht – aber sporadisch

Es ist unklar, ob die neuen Sperrungen ein Auftakt sind, um in Deutschland künftig vermehrt Inhalte zu moderieren. Möglich ist auch, dass Telegram seine Eingriffe auf ein Minimum beschränkt, um Kritiker:innen sowie Google und Apple zu besänftigen. Das würde zumindest zu der Strategie passen, die sich bislang von Telegram beobachten ließ.

Aufrufe zu Gewalt sind schon länger auf Telegram verboten. Das steht in den Nutzungsbedingungen. Demnach dürfen Nutzer:innen Gewalt nicht öffentlich „fördern“. Telegram setzt das offenbar nur in manchen Fällen durch. Die Plattform löscht beispielsweise bereits seit Jahren islamistische Terrorpropaganda. Nach dem Sturm auf das US-Kapitol im Januar 2021 habe Telegram „hunderte öffentliche Aufrufe zu Gewalt“ gelöscht, wie Telegram-Chef Pavel Durov auf seinem eigenen Telegram-Kanal erklärte.

Löschungen in Deutschland sind selten. Josef Holnburger vom Center für Monitoring, Analyse und Strategie (CeMAS) warf Telegram im Dezember vor, die Sperrungen seien „wenige und willkürlich“. Im September löschte Telegram etwa einen deutschen Kanal mit 40.000 Abonnnent:innen, der aktiv zu Gewalt gegen Ärzt:innen angestiftet haben soll. Durov schrieb: „Es ist OK, für die eigenen Rechte zu kämpfen. Es ist nicht OK, anderen Menschen zu schaden.“

In deutschsprachigen Telegramgruppen und -kanälen gibt es derzeit viele Gewaltaufrufe: Recherchen des öffentlich-rechtlichen Angebots Funk haben jüngst gezeigt, dass Morddrohungen gegen Personen des öffentlichen Lebens in Deutschland seit Mitte November täglich auf Telegram erscheinen. Beobachter:innen schätzen, dass solche Hetze Menschen zu physischer Gewalt bewegen kann.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Luca-App: Bund übernimmt Millionenkosten der Länder nicht

netzpolitik.org - 12 Januar, 2022 - 15:25
Auch weil die Corona-Warn-App als Alternative Funktionen von Luca kann, steht die Weiternutzung der App auf der Kippe. – Alle Rechte vorbehalten IMAGO / Lobeca

Der Bund übernimmt die Kosten für die Lizenzverträge mit der Luca-App nicht. Das schreibt der Journalist Tilo Jung auf Twitter mit Verweis auf die Bundespressekonferenz.

Ursprünglich hatte der Bund angekündigt, die Kosten für eine digitale Kontaktnachverfolgungslösung zu übernehmen, wenn sich die Länder auf eine einheitliche Lösung einigen. 13 Bundesländer hatten daraufhin für insgesamt 21 Millionen Euro Lizenzvereinbarungen mit Luca getroffen, um die App für ein Jahr zur digitalen Kontaktnachverfolgung einsetzen zu dürfen.

In diesem Fenster soll ein Twitter-Post wiedergeben werden. Hierbei fließen personenbezogene Daten von Dir an Twitter. Aus technischen Gründen muss zum Beispiel Deine IP-Adresse übermittelt werden. Twitter nutzt die Möglichkeit jedoch auch, um Dein Nutzungsverhalten mithilfe von Cookies oder anderen Tracking-Technologien zu Marktforschungs- und Marketingzwecken zu analysieren.

Wir verhindern mit dem WordPress-Plugin „Embed Privacy“ einen Abfluss deiner Daten an Twitter so lange, bis Du aktiv auf diesen Hinweis klickst. Technisch gesehen wird der Inhalt erst nach dem Klick eingebunden. Twitter betrachtet Deinen Klick als Einwilligung in die Nutzung deiner Daten. Weitere Informationen stellt Twitter hoffentlich in der Datenschutzerklärung bereit.

Zur Datenschutzerklärung von Twitter

Zur Datenschutzerklärung von netzpolitik.org



Inhalt von Twitter immer anzeigen

Inhalt direkt öffnen

var _oembed_c4cedec7265e21ea2375020bf2e7fed1 = '{\"embed\":\"<blockquote class="twitter-tweet" data-width="550" data-dnt="true"><p lang="de" dir="ltr">Sargnagel für die <a href="https:\\/\\/twitter.com\\/hashtag\\/LucaApp?src=hash&amp;ref_src=twsrc%5Etfw">#LucaApp<\\/a>? Die Bundesregierung stellte heute klar, dass die Kosten der Bundesländer für die Lizenz der App nicht übernommen werden: &quot;Wir finanzieren die Luca-App nicht für die Länder&quot;, sagte mir das <a href="https:\\/\\/twitter.com\\/BMG_Bund?ref_src=twsrc%5Etfw">@BMG_bund<\\/a> heute in der <a href="https:\\/\\/twitter.com\\/hashtag\\/BPK?src=hash&amp;ref_src=twsrc%5Etfw">#BPK<\\/a> <a href="https:\\/\\/t.co\\/b5ZyTjz7ut">pic.twitter.com\\/b5ZyTjz7ut<\\/a><\\/p>&mdash; Tilo Jung (@TiloJung) <a href="https:\\/\\/twitter.com\\/TiloJung\\/status\\/1481264200152457218?ref_src=twsrc%5Etfw">January 12, 2022<\\/a><\\/blockquote><script async src="https:\\/\\/platform.twitter.com\\/widgets.js" charset="utf-8"><\\/script>\"}'; .embed-twitter .embed-privacy-logo { background-image: url(https://cdn.netzpolitik.org/wp-content/plugins/embed-privacy/assets/images/embed-twitter.png?v=1642508579); }

Zusage aus dem Ministerium ließ auf sich warten

Die Zusage aus dem Gesundheitsministerium kam allerdings nie. Auf Anfrage wollte bislang niemand die Übernahme der Kosten bestätigen. Wiederholt hieß es, die Sache werde noch geprüft.

Nachdem ein Gericht in Mecklenburg-Vorpommern zudem im November entschied, die Vergabe an Luca sei nicht rechtmäßig und daher unwirksam, stand in Frage, ob die verbleibenden 12 Bundesländer, die Luca kauften, noch als „einheitliche Lösung“ gewertet werden können.

Auf eine Anfrage von Ende November antwortete ein Sprecher des Ministeriums: „Für eine potenzielle Kostenbeteiligung des Bundes kann grundsätzlich das sogenannte Einer-für-Alle-Prinzip (EfA-Prinzip) zur Anwendung kommen. Dieses besagt, dass eine zentrale Finanzierung von IT-Systemen erfolgen kann, sofern sich eine Mehrheit der Bundesländer (≥9 Länder) auf ein gemeinsames Vorgehen einigt.“

Einer-für-alle-Prinzip greift nicht

Diese grundsätzliche Einschätzung scheint nun nicht mehr zu gelten. Am Donnerstag sagte ein Sprecher des Ministeriums: „Nicht zuletzt auch aufgrund der heterogenen Beschaffungsvorgänge hat die Bundesregierung bislang keine Finanzierung vorgenommen.“

Für die Länder bedeutet dies, dass sie auf den Lizenzkosten für Luca sitzen bleiben werden. Voraussichtlich bis Ende Februar steht in den Bundesländern die Entscheidung an, ob sie die Lizenzvereinbarung mit Luca kündigen oder automatisch um ein weiteres Jahr verlängern. Wie viel das die Länder zusätzlich kosten würde, ist nicht bekannt.

Die Bundesländer wollen davor zusammen mit Gesundheitsämtern und anderen Gremien über den Nutzen der App beraten und sich dann entscheiden. Das geht aus den Antworten der neun Bundesländer hervor, die auf Anfragen von netzpolitik.org geantwortet haben. Über die genauen Kündigungsfristen und das Vertragsmodell wollten die Ministerien der Bundesländer keine Auskunft geben. Auch die Betreiber der Luca-App wollten sich zu Details nicht äußern. Antworten aus einigen Bundesländern weisen aber darauf hin, dass es sich bei der Verträgen um ein zweijähriges Abo-Modell handelt, das aktiv nach einem Jahr von den Bundesländern gekündigt werden kann.

Luca-App in der Kritik

Die Luca-App steht schon seit Längerem in der Kritik. In der Anfangsphase gab es zahlreiche Sicherheitslücken. Heute zeigt sich, dass viele Bundesländer die Daten aus der App kaum bis gar nicht mehr abfragen, wie Recherchen von netzpolitik.org ergeben haben. Der Nutzen der App für die Bekämpfung der Pandemie ist damit fraglich.

Wie eine weitere Recherche zeigt, lassen zudem Verträge und Aussagen der Luca-Betreiber darauf schließen, dass auch andere Geschäftsmodelle mit dem laut Unternehmensaussagen 40 Millionen Installationen umfassenden Nutzerstamm möglich wären. Die Betreiber schlossen andere Geschäftsmodelle wie eine Gastro- und Event-App auf Nachfrage nicht aus.

Am letzten Wochenende war Luca erneut in die Kritik geraten, weil die Polizei in Mainz mit Wissen des Gesundheitsamtes und ohne Rechtsgrundlage Luca-Daten von Kneipenbesuchern für ihre Ermittlungsarbeit genutzt hatte. Der Fall bestätigt die grundlegende Kritik von Sicherheitsexpert:innen an Luca, dass eine zentrale und personalisierte Datenhaltung solche Vorfälle begünstige.

Ergänzung 17.25 Uhr:

Der schleswig-holsteinische Landkreistag sagte gegenüber der Deutschen Presse-Agentur, man werde die Lizenz für die Luca-App nicht verlängern. Grund dafür sei die geänderte Corona-Verordnung des Landes, die keine personalisierte Kontaktverfolgung mehr vorschreibe. Somit kann bei Veranstaltungen und in der Gastronomie auch die Corona-Warn-App zur Pandemiebekämpfung zum Einsatz kommen. Die Entscheidung war schon im Herbst 2021 gefallen, wurde aber erst jetzt bekannt.

Update 13.01.: In der Passage zur möglichen Kostenübernahme des Bundes haben wir ergänzt, dass die Bundesregierung die Kosten für Luca „aufgrund der heterogenen Beschaffungsvorgänge“ nicht übernommen hat.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

EU-Umfrage: Mehrheit will anonyme Internetnutzung, Deutschland kein Vorreiter

netzpolitik.org - 12 Januar, 2022 - 14:44
„Im Internet weiß niemand, dass du ein Hund bist“ – viele Europäer:innen wollen, dass das so bleibt. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Pavel Herceg

Eine deutliche Mehrheit der Menschen in neun großen europäischen Ländern spricht sich für ein Recht auf anonyme Internetnutzung aus. Zu diesem Ergebnis kommt eine statistisch repräsentative Umfrage des Meinungsforschungsunternehmens YouGov [PDF].

Insgesamt antworteten 64 Prozent der mehr als 10.000 Befragten, dass Internetnutzer:innen digitale Dienste anonym nutzen können sollten. Anonym bedeutet in diesem Fall laut Frage „ohne Sammlung Ihrer personenbezogenen Daten“. 21 Prozent sprachen sich gegen dieses Recht auf anonyme Internetnutzung aus, 14 Prozent antworteten „weiß nicht“.

Patrick Breyer, Europa-Abgeordneter der Piratenpartei, hatte die Umfrage im Kontext der anstehenden Parlamentsabstimmung über den Digital Services Act in Auftrag gegeben. Mit der Verordnung will die EU ihre Internetregulierung modernisieren und insbesondere die Macht großer Plattformen besser demokratisch einhegen.

In der nächsten Woche soll das EU-Parlament über seine Position zu dem Mammutvorhaben abstimmen. Es ist unklar, ob sich dabei ein Recht auf anonyme Internetnutzung durchsetzt. Anders als der Ausschuss für Bürgerliche Freiheiten, in dem Breyer für das Thema zuständig ist, plant der federführende Binnenmarkt-Ausschuss kein Recht auf die anonyme Nutzung von Internetdiensten.

„EU-Parlament sollte Bürgerwunsch umsetzen“

YouGov hat die Befragung zwischen dem 24. und 28. Dezember 2021 durchgeführt. Das Unternehmen hat dafür 10.064 Menschen über 18 Jahren in Belgien, Deutschland, Frankreich, Italien, Niederlande, Österreich, Schweden, Spanien und Tschechien befragt.

Interessant sind die Unterschiede in den Zustimmungsraten der einzelnen Länder. Während Deutschland häufig als das Land in Europa beschrieben wird, in dem die Menschen besonders datenschutzaffin sind und überzogene Ängste vor Überwachung haben, landet die Bundesrepublik hier nur auf dem vorletzten Platz. Lediglich 59 Prozent der mehr als 2.600 Befragten Deutschen sind für das Recht auf anonyme Internetnutzung, 25 Prozent sind dagegen. Nur in Schweden sprechen sich mit 53 Prozent noch weniger Menschen dafür aus, 27 Prozent der Befragten Schwed:innen sind dagegen.

Privacy-Spitzenreiter ist bei dieser Umfrage Spanien: 73 Prozent der Befragten votierten für die anonyme Internetnutzung, nur 17 Prozent dagegen. Ähnlich ist das Bild in Tschechien, wo sich 69 Prozent dafür aussprachen und nur 15 Prozent explizit dagegen.

Unabhängig von regionalen Unterschieden wertet Breyer, der sich als einziger deutscher EU-Abgeordneter der Piratenpartei der Fraktion der Grünen angeschlossen hat, die Ergebnisse der Umfrage als Rückenwind für seine Forderung nach einem Recht auf Anonymität im Netz.

„Auf die ständigen Datenskandale und Datenkriminalität im Netz muss das Europäische Parlament eine Antwort geben und die Bürger:innen besser schützen“, so Breyer. „Nur gar nicht erst gesammelte Daten sind sichere Daten.“ Dies habe zuletzt das Leak unnötig gesammelter Handynummern von 500 Millionen Facebooknutzer:innen gezeigt. Ein Recht auf Anonymität schütze verletzliche Personengruppen vor Diskriminierung. Deshalb solle das EU-Parlament nächste Woche die Chance nutzen, „den Bürgerwunsch nach einem besseren Schutz ihrer digitalen Privatsphäre zu erfüllen.“

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Interview mit SUPERRR Lab: Gerecht und inklusiv statt funkelnagelneu

netzpolitik.org - 12 Januar, 2022 - 13:39
Bunt und vielfältig: SUPERR Lab zeichnet ein gerechtes und inklusives Bild von der digitalen Zukunft. – Alle Rechte vorbehalten Superrr Lab

Wie kann eine gerechtere digitale Zukunft aussehen? Diese Frage stellt sich SUPERRR Lab und entwirft zusammen mit Zivilgesellschaft, Tech-Industrie und politischen Entscheidungsträger:innen mögliche Antworten darauf. Gerade hat die Non-Profit-Organisation feministische Leitlinien veröffentlicht, die der Politik zeigen sollen, wie eine nachhaltigere und gleichberechtigtere Digital- und Technologiepolitik aussehen kann. Außerdem engagiert sich SUPERRR Lab für Grundrechte in der KI-Debatte und unterstützt Künstler:innen, Aktivist:innen und Technolog:innen mit einem Stipendienprogramm dabei, ihre eigenen Zukunftsentwürfe umzusetzen. netzpolitik.org hat mit der Geschäftsführerin und Mitgründerin von SUPERRR Lab, Julia Kloiber, darüber gesprochen, wie Digitalisierung in Zukunft aussehen sollte und warum wir dafür feministische Perspektiven brauchen.

netzpolitik.org: Mal ganz konkret: Wie würde eine gerechtere digitale Zukunft aussehen?

Julia Kloiber: In gerechteren digitalen Zukünften, wie wir sie uns vorstellen, verschiebt sich der Fokus von „Innovation um jeden Preis“ – sprich der Entwicklung von immer neuen digitalen Tools ohne Rücksicht auf die Umwelt und die Menschen – hin zu einer Kultur, die Acht darauf gibt, dass möglichst viele Menschen vom technologischen Fortschritt profitieren, ohne dabei ausgenutzt und in ihren Rechten eingeschränkt zu werden oder den Planeten auszubeuten. Die Prämisse ist nicht schneller, billiger und effizienter, sondern nachhaltig, achtsam und langfristig. Statt kommerzieller Interessen und Shareholder-Value stehen die Bedürfnisse von Menschen und Gesellschaften im Zentrum. Dazu muss sich grundlegend ändern, wie wir „Digitalisierung“ machen und wer sie gestaltet.

netzpolitik.org: Ein klarer Gegensatz zu aktuellen Innovationsnarrativen.

Julia Kloiber: Genau. In diesen Zukünften verstehen wir Digitalisierung nicht als rein technisches, sondern vor allem als gesellschaftliches und soziales Thema. Die Ergebnisse werden nicht „new und shiny“ sein, dafür aber mehr Menschen Teilhabe ermöglichen. Mit einer solchen Perspektive lautet die Antwort auf die meisten Fragen nicht „High-Tech“, sondern oft „No-Tech“ oder energieeffizientes „Low-Tech“ – weil klar wird, dass sich viele Herausforderungen wie die Klimakrise oder Armut nicht nur mit Technologie lösen lassen. Wie das konkret aussehen könnte, zeigen unsere 15 Zukunftsvisionen, die wir mit der Initiative Digitale Zivilgesellschaft und anderen zivilgesellschaftlichen Organisationen entwickelt haben.

netzpolitik.org: SUPERRR Lab soll das Potenzial neuer Technologien für eine gerechtere digitale Zukunft erforschen. Wie kann man sich das vorstellen?

Julia Kloiber: Wenn wir über Digitalisierung sprechen, dann neigen wir dazu, die Dinge entweder schwarz oder weiß zu sehen. Auf der einen Seite haben wir Erzählungen, die behaupten, dass sich alle Probleme lösen lassen, wenn wir nur die richtige Technologie dafür entwickeln. Demgegenüber stehen Narrative der zunehmenden Überwachung, Ausbeutung und Diskriminierung durch Technologie. Was die Dystopien und die Utopien gemein haben: Beide suggerieren, dass der technische Fortschritt unaufhaltsam ist und wir ihm ausgeliefert sind.

In unserer Arbeit interessieren wir uns für den Bereich zwischen diesen Extremen. Uns geht es darum, den binären Blick aufzubrechen und zu beleuchten, welche sozialen, wirtschaftlichen und gesellschaftlichen Kräfte im Spiel sind, wenn Technologie Gutes oder Schlechtes hervorbringt. Wir fragen zum Beispiel: Was sind die Ursachen dafür, dass algorithmische Systeme diskriminieren? Und wie können wir daraus lernen, um es beim nächsten Mal besser zu machen? Dabei wollen wir nicht nur analysieren, kritisch hinterfragen und Schadensbegrenzung betreiben, sondern vor allem neue Narrative von Digitalisierung entwerfen, bei denen die Interessen der Gesellschaft im Zentrum stehen.

netzpolitik.org: Wie schafft ihr das?

Julia Kloiber: In unseren Projekten erproben wir wünschenswerte digitale Zukünfte. Im Herbst 2021 haben wir zum Beispiel angefangen, gemeinsam mit dem Bundesministerium für Justiz und einer diversen Gruppe an Stakeholdern zu diskutieren, wie digitale öffentliche Räume der Zukunft gestaltet sein sollten. Dabei gibt es oft keine leichten Antworten. Deshalb versuchen wir es mit einem ganzheitlichen Ansatz: Was können wir von den öffentlichen Räumen in unseren Städten lernen, was wir im Digitalen auch wollen – und was nicht? Welche unabhängigen digitalen Infrastrukturen brauchen wir in Zukunft? Außerdem interessiert uns, welche Machtstrukturen aufgebrochen werden müssen, um Veränderung überhaupt erst möglich zu machen.

netzpolitik.org: Das klingt, als würde Technologie gar keine so große Rolle mehr spielen.

Julia Kloiber: Das kommt auf die Herausforderung an. Wir sollten es aber vermeiden, alles durch die Technologiebrille zu sehen. Wir sehen ja, was herauskommt, wenn die Technologie ins Zentrum gerückt wird: Dann werden technische Lösungen entwickelt, die auf der Suche nach einem Problem sind. Ein prominentes Beispiel ist Blockchain-Technologie, bei der die Entwickler:innen laufend auf der Suche nach guten Anwendungsfällen sind. Neuestes Buzzword: web3.

Um zu Lösungen zu kommen, müssen wir zuerst verstehen, welche Herausforderungen wir eigentlich lösen wollen. Dazu ist es wichtig, die Ursachen der Probleme im Detail zu verstehen. Was führt in unseren Gesellschaften zu Bildungsungerechtigkeit, zu Exklusion oder zu Rassismus? Wenn man so vorgeht, merkt man schnell, dass digitale Werkzeuge, wenn überhaupt, nur eine begrenzte Rolle bei der Lösung dieser Probleme spielen können.

Seit 2019 ist Julia Kloiber Geschäftsführerin von SUPERRR Lab. - Alle Rechte vorbehalten Marzena Skubatz „Technologie ist immer Produkt ihrer Gesellschaft“

netzpolitik.org: Ihr schreibt, dass digitale Technologien wie künstliche Intelligenz, Gesichtserkennung, Kreditwürdigkeitsprüfung und Social Scoring Randgruppen benachteiligen. Wie können Technologien diskriminieren?

Julia Kloiber: Technologie ist immer ein Produkt ihrer Gesellschaft. Wenn in einer Gesellschaft, wie in unserer, Rassismus, Misogynie und Hass auf queere Menschen existieren, dann verstärkt die Technologie oft nur das, was ohnehin schon da ist. Einen einfachen technologischen Ausweg aus dem Dilemma gibt es nicht.

netzpolitik.org: Warum nicht?

Julia Kloiber: Auch wenn wir diskriminierungsfreie KI und Technologien gestalten – also zum Beispiel die Gesichtserkennungssoftware, die auf alle Hautfarben gleichermaßen optimiert ist oder das Recruiting-Tool, das kein Geschlecht kennt – wird das immer nur bis zu einem gewissen Grad funktionieren. Denn wenn algorithmische Systeme anfangen auf Basis von sogenannten Proxies zu diskriminieren und die optimierte Gesichtserkennungssoftware dafür eingesetzt wird, in sozial benachteiligten Stadtteilen nach Straftäter:innen zu fahnden, dann ist man ganz schnell wieder da, wo man bestehende Diskriminierungsmuster verstärkt.

netzpolitik.org: Was kann man tun gegen solche Diskriminierung?

Julia Kloiber: Es gibt Menschenrechte und diese sollten bei der Regulierung von Technologie an erster Stelle stehen. Wenn eine neue Technologie ein Risiko für unsere Grundrechte darstellt, dann sollten sie gar nicht erst zum Einsatz kommen.

netzpolitik.org: Ist das Aufgabe der Politik?

Julia Kloiber: Regulierung ist natürlich nicht die einzige, aber eben eine sehr effiziente Antwort. Oft sind es zivilgesellschaftliche Akteure, die auf Grundrechtseinschränkungen aufmerksam machen und wichtige Aufklärungs- und Forschungsarbeit leisten. Ihnen gegenüber stehen Digitalkonzerne, die hunderte von Millionen für Lobbying von Regierungen ausgeben und versuchen die Politik zu beeinflussen.

netzpolitik.org: Die Gruppe der Menschen, die das Internet und technologische Anwendungen gestaltet, ist oft homogen und vorwiegend männlich. Brauchen wir mehr Gleichberechtigung, wenn es um die Gestaltung des Internets geht?

Julia Kloiber: Es ist interessant zu hinterfragen, woher die Vorstellung kommt, dass in der Regel weiße Männer in Garagen oder Laboren Technologie entwickeln. Diese Erzählung wurde damit aufrechterhalten, dass man die Beiträge von Frauen und nicht-binären, LGBTIQ+- und BPoC-Personen [Anmerkung der Redaktion: Black, Indigenious and People of Color] und -Gemeinschaften ignoriert hat. Dass sich dieses Narrativ erst langsam geraderückt, können wir daran sehen, dass jetzt auch Pionier:innen aus den Anfängen der Computerentwicklung wieder Einzug in die Geschichte finden.

Auch lesen wir heute oft, dass Teams mit diverser Besetzung bessere Ergebnisse liefern, weil sie unterschiedliche Erfahrungen, Lebensrealitäten und Bedürfnisse mit einbringen. Das mag in Ansätzen auch stimmen, trotzdem darf man nicht außer Acht lassen, dass die Machtstrukturen, in denen diese Teams arbeiten, eine entscheidende Rolle für den Erfolg spielen. Wenn sich daran nichts ändert, müssen wir noch lange auf die erhoffte Verbesserung warten. Im schlimmsten Fall kann das dazu führen, dass Menschen wieder aufgeben, bevor sie wirklich mitgestalten können.

Mit einer feministischen Technologiepolitik zu einer gerechteren Zukunft

netzpolitik.org: Für euer neues Projekt habt ihr einen Rahmen für eine feministische Technologiepolitik entwickelt. Damit wollt ihr Diskurse über Tech-Policy ganz gezielt beeinflussen. Wie kann man sich das vorstellen?

Julia Kloiber: Unser Framework soll dabei helfen, bestehende Strukturen zu analysieren, über sie hinauszudenken und die gesamtgesellschaftlichen Auswirkungen von neuen Technologien besser zu verstehen – vor allem in Hinblick auf intersektionale Diskriminierungsmuster. Dafür haben wir zusammen mit 25 internationalen Expert:innen Leitlinien für eine Digitalisierung entwickelt, die auf den Werten Gleichberechtigung, Offenheit und Chancengerechtigkeit beruhen. Die Leitlinien zeigen auf, was passieren muss, damit Menschen alle gesellschaftlichen Gruppen gleichberechtigt von der Digitalisierung profitieren.

netzpolitik.org: Hast du ein Beispiel?

Julia Kloiber: Informierter Consent. Aktuell haben wir zwar Vorschriften wie die Datenschutz-Grundverordnung. Das Resultat ist eine Masse an Cookie-Bannern und Pop-Ups, über die unsere Zustimmung als Gegenleistung für den Zugang zu wichtigen Produkten und Dienstleistungen verlangt wird. Sie sind nur selten klar und verständlich und nutzen ein Design, dass uns dazu verleitet, einfach auf „Okay“ zu klicken. Sinnvolle Einwilligungen sollten freiwillig (wir haben eine echte Wahl), informiert (wir verfügen über ausreichende Informationen, um zu entscheiden, ob wir einwilligen oder nicht) und reversibel (wir können unsere Einwilligung jederzeit zurückziehen) sein. Sie sind nach wie vor selten, sollten aber Standard sein.

Feminist Tech Policy entwirft Leitlinien, damit alle gleichberechtigt von der Digitalisierung profitieren können. - Alle Rechte vorbehalten SUPERR Lab

netzpolitik.org: Das Konzept der Intersektionalität spielt in vielen aktuellen feministische Ansätzen eine zentrale Rolle. Was versteht man darunter?

Julia Kloiber: Um diesem Thema in seiner ganzen Tiefe gerecht zu werden, braucht man mehr als drei schnelle Sätze in einem Interview. Ich empfehle die Texte und die Definitionen vom Center for Intersectional Justice von Emilia Roig. Intersektionalität beschreibt, wie sich Systeme der Ungerechtigkeit überschneiden. Eine Transfrau mit Migrationshintergrund kann in unserer Gesellschaft auf mehreren Ebenen diskriminiert werden – auch von technologischen Systemen. Es gilt die unterschiedlichen Dimensionen von Diskriminierung zu beleuchten und zu analysieren, um sie besser bekämpfen zu können.

netzpolitik.org: Warum brauchen wir überhaupt feministische Perspektiven, wenn wir über die Zukunft der Digitalisierung sprechen?

Julia Kloiber: Eine intersektional feministische Perspektive weitet den Blick, indem sie den Fokus von der Technologie hin zu systemischen Problemen und Herausforderungen unserer Gesellschaft lenkt. Feminismus hilft uns zu verstehen, wie Patriarchat, Kolonialismus und Kapitalismus unsere Welt prägen – und welche Ungerechtigkeiten sich daraus ergeben. Wenn wir die Digitalisierung gewinnbringend für die Gesellschaft gestalten wollen, dann ist es unumgänglich diese Perspektive einzunehmen.

netzpolitik.org: Vor zwei Jahren habt ihr mit einem Feminist Tech Fellowship euer Stipendiat:innen-Programm gestartet. Letztes Jahr gab es mit „The New New“ wieder ein Förderprogramm. Wen habt ihr mit dem Programm unterstützt und warum?

Julia Kloiber: Bei unserem Fellowship-Programm The New New, ging es darum, Initiativen und Individuen zu fördern, die alternative digitale Zukünfte entwerfen. Darunter war zum Beispiel Chayn aus Italien, ein Projekt, das Tools für Frauen entwickelt hat, die von sexualisierter Gewalt betroffen sind. Außerdem haben wir HammamRadio, ein Grassroot-Radio-Projekt gefördert, das sich mit Feminismus im arabischen Raum beschäftigt und gleichzeitig eine Austauschplattform für Frauen* ist. Auch spannend war das Projekt Syb aus Großbritannien. Dafür hat die Organisation Feminist Internet einen Chatbot entwickelt, der sich spezifisch an die Bedürfnisse der Trans-Community anpasst. Das erste Jahr des Fellowships war ein großer Erfolg. Wir hoffen, dass wir es auch 2022 weiterführen können.

netzpolitik.org: Was habt ihr euch sonst noch für 2022 vorgenommen?

Julia Kloiber: Wir wollen uns aus einer zivilgesellschaftlichen Perspektive heraus stärker mit strategischen Zukunftsfragen beschäftigen – SUPERRR Lab soll zu einer zivilgesellschaftlichen Foresight-Organisation werden. Neben Organisationen wie AlgorithmWatch.org oder der Digitalen Gesellschaft, die wichtige Aufklärungs- und Policy-Arbeit im Digitalbereich leisten, sehen wir einen Mangel an Organisationen, die an Zukunftsentwürfen für eine gerechte und nachhaltige Digitalisierung arbeiten. Die neue Erzählungen entwickeln, sich mit strategischen Zukunftsfragen beschäftigen und mit neuen Formaten und Methoden, politischen Entscheidungsträger:innen und zivilgesellschaftlichen Akteur:innen dabei helfen, bei Digitalthemen über den Tellerrand zu schauen und vorausschauende, zukunftsfähige Entscheidungen zu treffen.

Bisher bezieht sich die Abschätzung davon, welche Folgen die Technik haben wird, vor allem auf die Ebene von Individuen. Was fehlt, ist nicht nur eine gesamtgesellschaftliche, vorausschauende Betrachtung der Auswirkungen neuer Technologien, sondern auch Methoden, wie man diese messen und abschätzen kann. Da wollen wir ansetzen. Die von uns entwickelte Feminist Tech Policy wird eine wichtige Grundlage für diese Arbeit sein.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Shein: Fast-Fashion-App schadet Umwelt und Privatsphäre

netzpolitik.org - 11 Januar, 2022 - 18:27
Unter Influencer:innen steht der Konzern Shein ganz hoch im Kurs. – Alle Rechte vorbehalten IMAGO / Cavan Images

Bei der Generation TikTok ist sie der letzte Schrei: die chinesische Shopping-App Shein. Jeden Tag gehen tausende neue Designs und Outfits an den Start und sind auch für Kund:innen mit kleiner Geldbörse erschwinglich. Influencermarketing und Rabattcodes machen den Einkauf nochmal billiger. Shein ist mittlerweile eine der meistbesuchten Mode-Webseiten der Welt.

Doch der Konzern zieht immer wieder harte Kritik auf sich. Sowohl große Modeimperien wie Ralph Lauren als auch kleine, unabhängige Designer:innen beschuldigen den Konzern, Entwürfe und Designs zu kopieren und zu Spottpreisen zu verkaufen. Obwohl die Lieferketten des Konzerns intransparent sind, werden immer wieder Vorwürfe laut, die hautpsächlich chinesischen Näher:innen würden unter schlimmsten Bedingungen für Shein arbeiten, um die niedrigen Preise möglich zu machen.

Auch die Ökobilanz des Konzerns scheint katastrophal zu sein. Das Geschäftsmodell von „Fast Fashion“ ist auf immer neue Trends ausgelegt, die durch Influencing-Kampagnen immer schneller aufeinanderfolgen. Die Folge: Was heute angesagt ist, kann morgen schon wieder out sein und wandert in den Müll. Und das neue Outfit in den Warenkorb von Shein.

Hohes Risiko für die Privatsphäre

Das Team von Mobilsicher hat sich nun die Einkaufs-App von Shein vorgenommen. Das Ergebnis ist eher bescheiden. Die App gibt Suchbegriffe gemeinsam mit der Werbe-ID des Geräts an Facebook und Google weiter, wo sie mit bereits vorhandenen Daten verknüpft werden können. Die beiden Digitalkonzerne wissen also, nach welchen Begriffen Nutzer:innen in der Shein-App suchen und können die eigenen, auf die Person zugeschnittenen Werbeanzeigen damit verbessern und für sich selbst lukrativer machen.

Der Konzern übermittelt laut mobilsicher Daten an überdurchschnittlich viele Tracker, die Informationen über das Gerät, das Suchverhalten und den ungefähren Standort sammeln. Eine Möglichkeit, dem zu widersprechen, gebe die App nicht: Wer nicht möchte, dass seine Daten in einem anderen Land landen und dort gespeichert und verarbeitet werden, solle die Nutzung der App doch bitte einstellen, empfiehlt der Konzern. Nutzer:innen gingen demnach ein „hohes Risiko für ihre Privatsphäre“ ein.

Kritisiert wird auch, dass das Unternehmen für das tägliche Öffnen der App und die Teilnahme an Mini-Spielen Bonus-Punkte verteilt, die in Einkaufsgutscheine umgewandelt werden können. Mit diesen Dark Patterns könnten gerade Kinder und Jugendliche dazu verführt werden, mehr Geld in der App auszugeben. Obwohl viele der Spiele glücksspielartigen Charakter haben, ist die App im Google Play Store ab 12 Jahren freigegeben.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Hass auf Twitter: Warum Gegenrede nicht immer funktioniert

netzpolitik.org - 11 Januar, 2022 - 18:17
Hassrede gibt es auch auf Twitter (Symbolbild) – CC-BY 2.0 K-Screen Shots

Ein Forscher:innenteam der Technischen Hochschule Zürich hat mit einer Untersuchung auf Twitter nachgewiesen, dass Hassrede durch Gegenrede reduziert werden kann. Die Forscher:innen mussten dabei allerdings feststellen, dass nicht alle Formen der Gegenrede von Erfolg gekrönt waren. So ließ sich nur eine Wirkung nachweisen, wenn sie mit Empathie argumentierten und beispielsweise darauf hinwiesen, wie sich betroffene Personen durch den Hass fühlen würden.

Hassrede ist und bleibt ein grundlegendes Problem der sozialen Medien. Immer wieder befinden sich Minderheiten im Zielfeuer des Hasses. So sind vor allem LGBQT-Personen und ethnische Gruppierungen von dieser digitalen Gewalt betroffen. Dies hat weitreichende Folgen für die betroffenen Personen. Um dagegen anzukommen, wird immer häufiger auf die Methode der Gegenrede zurückgegriffen. Bei ihrer Anwendung wird auf Hassrede anhand verschiedener Strategien geantwortet. Ziel ist es, den Hass zu entkräften und zu zeigen, dass er nur geringen gesellschaftlichen Rückhalt hat.

Allerdings klaffte eine große Forschungslücke in der Frage zur tatsächlichen Wirkung von Gegenrede. So konnte bisher bloß ein Zusammenhang zwischen dem erhöhten Aufkommen von Gegenrede und dem Rückgang von Hassrede festgestellt werden. Nur blieb dabei unklar, ob Gegenrede tatsächlich auch als Ursache für den Rückgang ausgemacht werden kann. Die Schweizer Forscher:innen konnten die Kausalität nun in einem Experiment beweisen.

Empathie oder doch lieber Memes?

Im Rahmen der Studie hatten Schweizer Forscher:innen sechs „Bot-Accounts“ auf Twitter erstellt. Diese antworteten innerhalb von 24 Stunden auf die Hassrede ausgewählter Nutzer:innen. Dazu wurden insgesamt 1.350 Twitteraccounts anhand ihres Tweet-Verlaufes ausgewählt. 540 davon losten die Forscher:innen in die Kontrollgruppe. Die anderen Nutzer:innen erhielten unter ihren Hass-Posts innerhalb von 24 Stunden eine Antwort mit Gegenrede. Dabei wendeten die Forscher:innen jeweils eine der folgenden Methoden an:

Humorvolle Gegenrede aus der Studie - Imgflip

Die erste Herangehensweise umfasste, den Hass-Tweetern die Konsequenzen ihrer Aussagen zu erläutern. Beispielsweise entgegnete ein Bot: „Denk dran, dass der Post auch von Personen gesehen wird, die dir wichtig sind.“ Im Rahmen des zweiten Ansatzes probierten es die Bots mit Humor. So reagierte einer der Accounts beispielsweise mit Memes. In beiden Fällen konnte das Team allerdings keine messbaren Auswirkungen auf das zukünftige Verhalten der Nutzer:innen feststellen.

Die dritte Methode hingegen zeigte Erfolg. Diesmal wurde auf die Empathie der Hassredner:innen gesetzt. So schrieb ein Bot: „Deine Sprache ist schlicht unnötig verletzend gegenüber Einwanderern.“ Diese Herangehensweise zeigte offenbar Wirkung: In den nächsten vier Wochen verfassten Nutzer:innen dieser Gruppe circa 44 Prozent weniger Hass-Tweets als die der Kontrollgruppe. Außerdem löschten sie ihre vorherigen Hass-Tweets circa acht Prozent häufiger.

Aller Anfang ist schwer

Wie eine frühere Untersuchung auf Facebook zeigte, führt die alleinige Präsenz von Gegenrede zu mehr Gegenrede. Nachdem die Forscher:innen dieser Studie begannen, auf Hassrede gegen Roma mit Gegenrede zu reagieren, motivierten sich anschließend auch weitere „echte“ Nutzer:innen, gegen den Hass anzureden. War Hassrede hingegen vorherrschend und kaum Gegenrede vorhanden, waren die Nutzer:innen entmutigt und reagierten seltener – schließlich schien sonst niemand ihre Ablehnung gegen den Hass zu teilen. Daher zeigt sich: Das Eis zu brechen kann sich lohnen.

Eine weitere frühere Studie ergab, dass die Wirkung von Gegenrede stark von dem sozialen Status einer Person abhängt. So wurde nachgewiesen, dass eine größere Follower-Anzahl die Effektivität der Gegenrede erhöht. Sollte die gegenredende Person allerdings erkennbar Teil einer gesellschaftlichen Minderheit sein, wirkten ihre Aussagen deutlich schlechter – vor allem dann, wenn sie selbst von der Hassrede betroffen war.

Dennoch – die Studien zeigen, dass Gegenrede zu einer Reduktion von Hassrede beiträgt. Offen bleibt allerdings, ob Gegenrede auch zu einer tatsächlichen Meinungsänderung führen kann. So ist bekannt, wie faktenbasiertes Einreden auf gegenteilig Überzeugte wirkt: leider fast gar nicht. In dem Fall zieht der Backfire-Effekt: Falls mit einer Aussage grundlegende Bausteine der individuellen Persönlichkeit in Frage gestellt werden, bewirkt der Effekt, dass eine emotionale Abwehrreaktion ausgelöst wird – selbst wenn die Informationen auf anerkannten Fakten basieren. Aufgrund dieser Abwehrreaktion kann der Überzeugungsversuch letztlich fehlzünden: So kann es dazu kommen, dass die Person anschließend noch stärker auf der eigentlich falschen Meinung beharrt. Für einen erfolgreichen Diskurs sollte also sachte argumentiert werden – eben mit Empathie.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Europol: EU-Polizeibehörde lässt offen, ob sie illegale Datensammlung löscht

netzpolitik.org - 11 Januar, 2022 - 17:15
Europol: Sitzt in Den Haag und gibt ungern etwas über seine Arbeit preis. – Alle Rechte vorbehalten IMAGO / IP3press

Die EU-Polizeibehörde Europol hat einen wahren Schatz an Ermittlungsdaten angehäuft. Daten aus Ermittlungen in EU-Staaten und Daten von Asylsuchenden landeten jahrelang bei Europol, auch wenn sie in den Datenbanken der Mitgliedsstaaten längst gelöscht waren. Einige Medien sprechen in diesem Zusammenhang von einer „Datenarche“. Das soll wohl Assoziationen an die Arche Noah wecken, mit der der biblische Patriarch Tier und Mensch vor der Flut rettete. Interne Europol-Dokumente, aus denen der Spiegel, der Guardian und andere Medien zitieren, sprechen von vier Petabyte an Daten – so viel wie drei Millionen CD-ROMs.

Das Problem für Europol: Viele dieser Daten hätte die Polizeibehörde nie speichern dürfen. Der Europäische Datenschutzbeauftragte Wojciech Wiewiórowski ordnete am Montag die Löschung aller persönlichen Daten an, die nicht mit einer konkreten Straftat im Zusammenhang stehen. Datenschützer:innen kritisieren die „Datenarche“ als eine Form der unzulässigen Massenüberwachung, die Anklänge an die NSA-Affäre habe. Europol drohe zu einer Art „schwarzen Loch“ für Daten von Millionen von Europäer:innen zu werden, sagt Chloé Berthélémy vom NGO-Verband European Digital Rights zum Spiegel und zum britischen Guardian.

Einzelne Beispiele machen deutlich, wie problematisch die Europol-Datensammlung sein könnte. Der Spiegel berichtet über einen niederländischen Aktivisten, der wegen eines antirassistischen Protestes auf einer Terrorliste der Behörden landete. Selbst nachdem der Eintrag in den Niederlanden gestrichen wurde, blieben die Daten bei Europol. Wann solche Daten bei Europol als nicht mehr notwendig gelöscht werden, sei nicht ausreichend klar, kritisiert der EU-Datenschutzbeauftragte.

Palantir ist mit im Spiel

Bemerkenswert ist auch, dass die Datenarche von Europol offenbar mit einer Software der umstrittenen Überwachungsfirma Palantir durchkämmt wurde. Dessen Software „Gotham“ hatte die EU-Behörde 2016 für die Rasterfahndung eingekauft, laut einem Bericht des „Spiegel“ hätten die Zuständigen inzwischen aber „desillusioniert“ die Zusammenarbeit wieder beendet. Die Löschanordnung des Europäischen Datenschutzbeauftragten hält fest, dass die Nutzung der Palantir-Software im dritten Quartal 2021 auslaufen soll. Näheres dazu ist nicht bekannt – etwa ob Beschäftigte des US-Überwachungskonzerns direkt Zugriff auf die Daten hatten. Auf eine Presseanfrage von netzpolitik.org danach antwortete Europol zunächst nicht.

Offen bleibt fürs Erste auch, wie Europol nun weiter verfahren wird. Die Behörde hatte im Prüfverfahren des EU-Datenschutzbeauftragten insistiert, dass eine schnellere Einordnung und Löschung des Datenschatzes nicht möglich sei. Die Anordnung gibt Europol nun bis zu zwölf Monate Zeit, um nicht mehr notwendige Daten zu löschen. Ob die Polizeibehörde dieser Aufforderung tatsächlich nachkommen wird, ließ ein Pressesprecher auf unsere Anfrage offen – es sei Sache des Verwaltungsrates, darüber zu entscheiden. Im Rat sitzen Vertreter:innen der EU-Staaten und der EU-Kommission.

Sollten die Europol-Chef:innen die Datenarche unverändert weiterbetreiben wollen, kann der Datenschutzbeauftragte der EU wenig ausrichten: Er kann zwar eine Löschung anordnen, mittels Sanktionen gegen die Behörde durchsetzen kann er sie aber nicht. Mit Spannung wird daher eine neue Europol-Verordnung erwartet, an der EU-Verhandler:innen derzeit arbeiten. Diese könnte nach Berichten allerdings die Befugnisse der Behörde zu Datensammlung eher ausweiten als schmälern.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Space-Eye: Satellitenüberwachung von unten

netzpolitik.org - 11 Januar, 2022 - 12:49
Forscher:innen wollen mit Satellitendaten Boote in Not retten (Symbolbild, das keinen Satelliten zeigt, sondern eine SpaceX Dragon Raumkapsel) – Alle Rechte vorbehalten SpaceX

Die EU-Grenzagentur Frontex nutzt Satelliten, um die unerwünschte Migration nach Europa aufzuhalten. Im Rahmen des Überwachungssystems EUROSUR hat Frontex verschiedene Dienste eingerichtet, um mithilfe von Flugzeugen, Drohnen und auch Satelliten Schiffe und Boote mit Geflüchteten automatisiert zu erkennen. Anschließend informiert Frontex die zuständigen Küstenwachen über die Sichtung; von nordafrikanischen Behörden werden die Bootsinsassen dann in Länder wie Libyen oder Tunesien zurückgebracht. Die Satellitendaten stammen aus den Sentinel des EU-Erdbeobachtungsprogramms „Copernicus“, Bilder mit höherer Auflösung kauft Frontex auch bei privaten Anbietern. Neben Frontex unterhält die EU-Agentur für die Meeressicherheit mit dem „CleanSeaNet“ ebenfalls ein satellitengestütztes Überwachungssystem.

Auch der Verein Space-Eye experimentiert nun mit der Nutzung von Satellitendaten. Die Informationen sollen Rettungsorganisationen helfen, Schutzsuchende in Seenot an Bord zu nehmen und in einen sicheren Hafen zu bringen. Die Satelliten-AG des Vereins besteht aus einem Dutzend Wis­sen­schaft­le­r:in­nen und Studierenden. Für das Interview sprachen wir mit der Entwicklungsingenieurin Elli Wittmann, Steffen Merseburg und Jonathan.

Verschiedene Datenquellen

netzpolitik.org: Ihr wollt Daten von Satelliten nutzen, um damit Boote auf dem Mittelmeer zu entdecken. Welche Bilder zieht ihr dafür heran, und von welchen Diensten oder Firmen stammen diese?

Space-Eye: Für die Entwicklung des Systems arbeiten wir mit Daten des kommerziellen Anbieters Planet und in Zukunft auch mit den Daten des „Copernicus“-Programms der Europäischen Weltraumorganisation. Unser Projekt befindet sich aktuell noch in einem rein wissenschaftlichen Stadium, wir arbeiten dazu mit verschiedenen Universitäten und Hochschulen zusammen. Unsere Vision geht dahin, möglichst viele verschiedene Datenquellen nutzen zu können. Das ist auch nötig, um überhaupt regelmäßig Bilder zu erhalten.

„Copernicus“ liefert Bilder von optischen und von radarbasierten Satelliten, auch Frontex nutzt den Dienst. Könnt ihr den Unterschied der Technologie erklären?

Optische Satelliten fotografieren die Erde und nutzen dafür das Sonnenlicht. Radarsatelliten hingegen senden Mikrowellen aus, sie beleuchten also das Gebiet aktiv. Das hat den Vorteil, ungestört von Wolken zu sein und auch nachts Aufnahmen machen zu können. Dafür haben diese Bilder jedoch im Vergleich zu optischen Bildern ganz andere Eigenschaften und können schwerer zu interpretieren sein. Auch wir arbeiten daran, Radarbilder in unsere Anwendung zu integrieren.

Mithilfe der Erdbeobachtung können Boote mit Geflüchteten, aber auch Pushbacks im Mittelmeer verfolgt werden. - Alle Rechte vorbehalten Planet/ Bellingcat Brauchbare Aufnahmen sind teuer

Die Bilder von „Copernicus“ sind vergleichsweise niedrig aufgelöst. Wie teuer sind die Dienste von kommerziellen Anbietern? Und bestellt man diese dann tageweise für eine bestimmte Region?

Leider haben Satellitenbilder aktuell entweder eine gute räumliche Auflösung oder eine große Abdeckung. Wir würden aber beides benötigen, das bedeutet, dass wir zusätzlich zu den Daten der Sentinel-Satelliten von „Copernicus“ weitere Bilder von gleich mehreren Satelliten kaufen müssen. Das ist aber recht teuer, wir bewegen uns hier im fünfstelligen Bereich. Bei der Firma Planet kauft man beispielsweise eine bestimmte Quote – also eine Anzahl an Quadratkilometern pro Monat, welche man dann aus dem Archiv herunterladen kann. Das sind die Bilder mit relativ guter Auflösung (3 mal 3 Meter pro Pixel). Für die noch bessere Auflösung (0,7 mal 0,7 Meter pro Pixel) müsste man Satelliten tasken, also eine gewünschte Region in Auftrag geben. Das ist dann noch deutlich teurer und nur für sehr kleine Gebiete möglich. Zum Vergleich: die typischen Bilder in Google Maps, die meist von Flugzeugen stammen, haben eine Auflösung von wenigen Zentimetern pro Pixel.

Wie ist der Pixel-Wert zu verstehen? Wenn ein Schlauchboot etwa zehn Meter lang ist, ist es dann auf den Aufnahmen der Satelliten des EU-Erdbeobachtungsprogramms nur als ein oder zwei kleine Quadrate zu erkennen? Wie wollt ihr dann die Wahrscheinlichkeit bestimmen, dass es sich um ein Boot mit Geflüchteten handelt?

Ein Wert von 3 mal 3 Meter gibt an, dass ein Pixel vom Bild einer Fläche von drei mal drei Metern am Boden entspricht. Das zehn Meter lange und vier Meter breite Schlauchboot ist also bestenfalls mit etwa drei aufeinander folgenden Pixeln zu erkennen. Es gibt auch Satelliten wie beispielsweise „World-View-3“ von DigitalGlobe mit einer Auflösung von 0,31 mal 0,31 Meter pro Pixel. Leider kann dieser Satellit aber immer nur einen kleinen Ausschnitt aufnehmen und nicht die gesamte Erde scannen. Das Schlauchboot wäre dann etwa 10 mal 30 Pixel groß und gut als solches zu erkennen. Boote dieser Art sind nicht für das offene Meer gemacht und sind im Prinzip immer in Seenot, sobald sie die Küste verlassen. Bei größeren Booten wird es nicht möglich sein, das genau zu sagen. Allerdings tragen unsere Daten dennoch zum Überblick über die Situation bei.

Problematische Wartezeiten

Ihr habt davon gesprochen, dass ihr ein großes Gebiet beobachten müsstet, um sorgfältig arbeiten zu können. Satelliten umkreisen jedoch doch die Erde, ist eine solche Abdeckung also mit der derzeitigen kommerziellen Flotte überhaupt möglich? Und wären nicht geostationäre Satelliten brauchbarer?

Eine Abdeckung, wie wir sie benötigen, bietet derzeit kein einzelner Anbieter. Wir hätten gerne mehrere Bilder pro Tag vom gesamten Mittelmeer. Das beste Angebot, das wir kennen, bietet maximal eine komplette Aufnahme pro Tag. Daher auch der Ansatz, möglichst viele verschiedene Satelliten mit in das System einzubinden. Wenn wir die Angebote mehrerer Anbieter kombinieren, können wir eine bessere zeitliche Abdeckung erreichen. Geostationäre Satelliten sind für uns keine Option, da diese zu weit von der Erde entfernt sind und mit mehreren Kilometern pro Pixel eine zu geringe Auflösung haben.

Wie lange dauert es, bis die Satelliten, deren Bilder ihr nutzen wollt, die Erde umkreist haben und wieder über dem Mittelmeer ankommen?

Normalerweise braucht ein Satellit mehrere Tage, um wieder über demselben Punkt zu stehen. Die meisten Anbieter haben daher eine ganze Flotte, bestehend aus mehreren Satelliten. Dadurch kann man dann auch eine bessere zeitliche Abdeckung erreichen.

Ein Problem ist auch der sogenannte Downlink, also die Übertragung der aufgenommenen Daten. Worin besteht die Herausforderung und wie funktioniert dieser Download, wenn der Satellit außer Sichtweite ist?

Da wir noch keinen eigenen Satelliten haben, müssen wir uns nicht um den Downlink kümmern. Dafür sind die jeweiligen Anbieter zuständig. Für uns ist es nur problematisch, dass dieser oft mehrere Stunden oder gar Tage dauert. Das kann der Fall sein, wenn die Satelliten keinen Kontakt zu Bodenstationen haben, zu wenig Energie zum Senden haben oder nicht gleichzeitig senden und aufnehmen können. Dann müssen die Bilder natürlich auch noch vorverarbeitet und in die Datenbank geladen werden, damit wir sie benutzen können. Das kann bei manchen Satelliten schnell gehen, aber bei den Daten, die wir bisher verwenden, dauert es leider seine Zeit.

Erste Erprobung erfolgreich

Ihr wollt die Erkennung der Boote auch automatisieren, damit nicht alle Satellitenbilder von Auswerter:innen durchgesehen müssen. Wie soll das funktionieren und was ist das „neuronale Netz“?

Da es sich um eine solch große Menge an Daten handelt, ist es quasi unmöglich, alle Daten „per Hand“ beziehungsweise „per Auge“ zu untersuchen. Daher trainieren wir verschiedene Algorithmen, die besondere Auffälligkeiten auf den Bildern erkennen können. Dafür verwenden wir auch neuronale Netze, also Algorithmen, die anhand vieler Beispielbilder gelernt haben, wie ein Boot auf einem Satellitenbild aussieht. Diese Entdeckungen der Algorithmen können dann wiederum von Menschen verifiziert werden.

Auf dem rc3 habt ihr berichtet, dass das System schon im Mittelmeer getestet wurde. Wie lief das ab?

In einem ersten Schritt wollten wir wissen, ob wir wirklich die kleinen Boote auf den Bildern erkennen können. Dazu haben wir zum einem ein Segelboot eines unserer Mitstreiter auf den Satellitenbildern gesucht und gefunden. Zum anderen haben wir Rettungseinsätze von anderen NGOs gesucht und gefunden. Ärzte ohne Grenzen hat beispielsweise einige der Einsätze ihres Rettungsschiffs auf einer interaktiven Karte mit Orts- und Zeitangaben veröffentlicht. Wir mussten dann nur im Archiv des Satellitenanbieters suchen, ob zu den Zeitpunkten Bilder gemacht wurden. Wir konnten über hundert Rettungseinsätze auf den Bildern erkennen und nutzen diese Daten unter anderem, um unsere Algorithmen zu verifizieren.

Unterstützung möglich

Um möglichst akkurat zu sein, können weitere Daten eingebunden werden, darunter etwa die Transponder, mit denen große Schiffe regelmäßig ihre Kennnummer, Standort und Ziel durchgeben. Welche weiteren Datenquellen wären für euch sinnvoll?

Wir planen Wetterdaten an verschiedenen Stellen in unser Modell mit einzubeziehen. Beispielsweise ist bei starkem Seegang die Bilderkennung weniger präzise. Um die Genauigkeit unserer Information einschätzen zu können, müssen wir also wissen, wie hoch die Wellen sind. Außerdem lässt sich aus den Wind- und Strömungsverhältnissen des Meeres grob vorhersagen, wo ein manövrierunfähiges Boot hintreibt.

Ihr habt gesagt, dass ihr derzeit vorwiegend wissenschaftlich arbeitet und mit einem Segelboot habt ihr auch schon erste Erprobungen unternommen. Wie können Interessierte euch unterstützen, was sind eure nächsten Schritte?

Je mehr Menschen sich der Zustände an den Europäischen Grenzen bewusst sind, desto besser. Wir können daher nur dazu auffordern, sich über die Grenzpolitik von Deutschland und Europa zu informieren und aktiv zu werden.

Wir arbeiten alle ehrenamtlich daran, mehr verlässliche Informationen zu sammeln. Wir planen in näherer Zukunft, historische Daten zu analysieren, um vergangene Fälle aufzuarbeiten und unser System dabei ausführlich zu testen. Aber um beispielsweise Satellitendaten zu kaufen und auszuwerten, benötigen wir Geld. Durch eine Spende an Space-Eye kann das Projekt direkt unterstützt werden.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Update der Corona-Warn-App: Neue Impfstatus-Prüfung auf Kosten der Anonymität

netzpolitik.org - 10 Januar, 2022 - 17:59
Können wir in Zukunft noch anonym zu Konzerten gehen? (Symbolbild) – Gemeinfrei-ähnlich freigegeben durch unsplash.com Yvette de Wit

Mit einem neuen Feature in der Corona-Warn-App (CWA) sollen Nutzer:innen ihre Impf- oder Testzertifikate schon beim Kauf eines Tickets oder vor Besuch einer Veranstaltung vorzeigen können. Das Versprechen: Mit der neuen Version 2.15 geht es bald am Einlass einer Veranstaltung oder eines Fluges schneller, weil nur noch die Identität, aber nicht mehr das Zertifikat geprüft werden muss. Das Zertifikat wird dafür von einem Dienstleister geprüft und dem Veranstalter als gültig in dessen System angezeigt.

Eigentlich soll die Dienstleistung „Validierungsdienste“ allen interessierten Anbietern offen stehen. Nach einer Prüfung durch das Gesundheitsministerium sollen Unternehmen das Feature Fluglinien, Geschäften oder Veranstaltern gegen Zahlung anbieten können, heißt es dazu im FAQ der Corona-Warn-App. Mit dem Wettbewerb wolle man eine möglichst schnelle Verbreitung unterstützen.

Doch schon die Entstehungsgeschichte des neuen Dienstes wirft Fragen auf: Die Telekom-Tochter T-Systems war als eine Entwicklerin der Corona-Warn-App schon frühzeitig über die Pläne informiert – und konnte diesen Vorteil offenbar nutzen, um vor anderen Konkurrenten einen solchen Dienst zu programmieren.

Anja Lehmann, Professorin für IT-Sicherheit und Identitätsmanagement beim Hasso-Plattner-Institut kritisiert dieses Vorgehen: „Hier hat meiner Meinung nach T-Systems eine Infrastruktur zur Pandemiebekämpfung für eigene kommerzielle Interessen ausgenutzt und von dem Vorteil profitiert, an der Entwicklung der CWA beteiligt gewesen zu sein. Das ist ja genau, was wir auch bei Luca befürchten.“ Das Feature sei zudem nicht öffentlich entwickelt und vorab kommuniziert worden.

Fraglich ist in der Sache auch die Rolle des ehemaligen Abteilungsleiters für Digitalisierung und Innovation im Gesundheitsministerium Gottfried Ludewig. Er war im Ministerium für die Entwicklung der Corona-Warn-App zuständig und wechselt nun nach Informationen von Kontraste zu einer Tochterfirma der Telekom.

„Schadet dem Ruf der Corona-Warn-App“

Unabhängig von diesen Entwicklungen im Hintergrund könnte das neue Feature aber auch auf anderen Wegen das Vertrauen in die Corona-Warn-App beschädigen. Populär geworden war die CWA ursprünglich vor allem, weil ihre Architektur die Anonymität der Nutzer:innen gewährleistet. Laut dem FAQ würden die Daten auf den Servern der Validierungsdienste nicht aufgehoben. Die Prüfung finde „on-the-fly im Arbeitsspeicher des Servers“ statt, Informationen zu den Zertifikaten oder andere persönliche Daten würden nicht gespeichert. Auch müssen die Nutzer:innen erst explizit einwilligen, bevor die Prüfung ihres Zertifikates beim Ticketkauf stattfindet.

Doch das Versprechen, dass keine persönlichen Daten die App verlassen, sei nun gebrochen, sagt Anja Lehmann. Schließlich würden für die Validierung Impf- und Testnachweise an einen externen Dienstleister geschickt. Damit sei dem Validierungsdienst auch bekannt, bei welchem Dienstleister eine Person ein Ticket kauft.

„Solche Aktionen schaden dem Ruf der CWA, was natürlich sehr schade ist, da die Kritik nur einen kleinen Teil der App betrifft“, so Lehmann. Hier wäre eine transparente Entwicklung besonders wichtig gewesen.

Eigentlich sinnvoll

Dabei findet Lehmann das neue Feature eigentlich sinnvoll. Denn die aktuelle Situation, dass man sein vollständiges Impfzertifikat an verschiedenste Seiten hochladen oder per Screenshot verschicken muss, sei auch keine vernünftige Lösung. Das größte technische Problem am Feature sei, dass Kontextinformationen bei einem zentralen Anbieter anfallen – also die Informationen, wer wann und wo Tickets bucht. „Das wäre für den Dienst aber nicht notwendig, hier gibt es bessere Ansätze“, sagt Lehmann.

Eine grundsätzlich bessere Lösung seien „anonymous credentials“. Bei diesen könnten die Nutzer:innen etwa bei jedem Vorzeigen selbst entscheiden, welche der Informationen sie offenbaren möchten. Aber selbst mit den aktuellen Zertifikaten könnte man bessere Lösungen bauen, welche ohne die Kontextinformationen auskommen, die aktuell bei T-Systems anfallen, so Lehmann weiter.

„Trend personalisierter Tickets wird zementiert“

Ein weiteres Problem: Das System begünstigt, dass Menschen Tickets für alle möglichen Anwendungen schon vor dem Besuch kaufen müssen, weil die jeweiligen Veranstalter:innen sich davon Erleichterungen beim Einlass versprechen. Die anonyme Abendkasse, an der kurz auf den Personalausweis und das Impfzertifikat geschaut, aber nichts gespeichert wird, dürfte damit noch mehr als bisher außer Mode kommen.

Die Folge ist, dass bei den Veranstalter:innen komplette Listen der Gäste vorliegen. Damit wird vorgehalten, wer bei welchem Fußballspiel, Konzert oder Kinofilm war. Das Verfahren könnte den anhaltenden Trend personalisierter Tickets auch nach der Pandemie zementieren, befürchtet Linus Neumann, Sprecher des Chaos Computer Clubs im Podcast Logbuch:Netzpolitik.

„Wenn wir überall namentlich erfasst werden, dann weckt das Begehrlichkeiten“, sagt Neumann gegenüber netzpolitik.org. Gerade habe man das an der Nutzung von Luca-Daten durch die Polizei gesehen. „Solche Szenarien werden wir häufiger haben, je mehr die Teilnahme am Leben personalisiert gespeichert wird.“ Anbieter:innen und Veranstalter:innen, die bisher kein personalisiertes Ticketing haben, sollten es auch nicht einführen. Zudem müsse es immer auch möglich sein, ohne die Nutzung eines Validierungsdienstes Einlass zu erhalten. „Sonst verschwindet das nach der Pandemie nicht mehr.“

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Jährlich zwei Tote: Mehrere Länderpolizeien führen flächendeckend Taser ein

netzpolitik.org - 10 Januar, 2022 - 17:34
In manchen Bundesländern gelten Taser als „Hilfsmittel der körperlichen Gewalt“, damit können sie niedrigschwellig wie Pfefferspray oder der Schlagstock gezückt werden. – IM NRW/ Tim Wegner

Kurz nach Ende eines Pilotprojekts in fünf Großstädten hat der Landtag in Nordrhein-Westfalen weitere 4,5 Millionen Euro zur Beschaffung von 620 Tasern beschlossen. Die bei der Polizei als „Distanzelektroimpulsgeräte“ bezeichneten Waffen sollen nun auch in zwölf weiteren Städten genutzt werden, darunter in Aachen, Bochum, Gütersloh, Münster und Wuppertal sowie Teilen des Sauerlands. Derzeit befinden sich nach Angaben von zwei Paderborner Landtagsabgeordneten 766 Taser im Einsatz der Polizei des größten Bundeslandes. Insgesamt wird der Bestand damit auf über 1.360 Geräte ausgeweitet, die Gesamtkosten der Beschaffung betragen 8,5 Millionen Euro. Darin enthalten sind auch Trainings.

Erst kürzlich hatte die dpa nach einer Länderumfrage Zahlen präsentiert. Demnach hat die Polizei in Nordrhein-Westfalen in ihrem Pilotversuch bis Ende September 2021 fast 160 Mal den Taser gezogen. Dabei handelte es sich um 123 Androhungen und 31 tatsächliche Schussabgaben. Zwei Mal wurden die Geräte im Kontakt-Modus eingesetzt, dabei erfolgt der Elektroschock ohne die sonst üblichen Drähte direkt am Körper der Zielperson.

Auch in Hessen, Rheinland-Pfalz und Saarland im Streifendienst

Den weltweiten Markt für Taser dominiert die US-Firma Axon, auch die gelben Geräte in Nordrhein-Westfalen stammen aus deren Produktion. Sie verschießen zwei Elektroden, die an Drähten befestigt sind und sich wenige Millimeter unter die Haut eingraben. Das Gegenüber wird so in bis zu zehn Metern Entfernung durch einen Stromimpuls für einige Sekunden gelähmt. Wird das Gerät scharf gestellt, zeigt es einen Lichtbogen zwischen den Elektroden. Das Ziel wird zudem mit einem farbigen Laser anvisiert. Dies soll die potentiellen Opfer eines Einsatzes einschüchtern.

In Deutschland werden Taser seit der Jahrtausendwende von der Polizei in allen Bundesländern genutzt, allerdings bis vor wenigen Jahren ausschließlich durch Sondereinsatzkommandos. In Sachsen, Thüringen und Sachsen-Anhalt ist dies auch weiterhin der Fall, in Bayern sind Taser mittlerweile auch für die 30 Einsatzeinheiten der Bereitschaftspolizei verfügbar.

Vor Nordrhein-Westfalen hatten Hessen, Rheinland-Pfalz und das Saarland die Ausweitung für den Streifendienst beschlossen, dort werden die Einsatzfahrzeuge aller Polizeiinspektionen mit Tasern ausgerüstet. In Bremen hat sich die Bürgerschaft letztes Jahr dagegen ausgesprochen, dort bleiben sie aber im Bestand der Spezialkräfte. Eine Ausnahme auch für den Streifendienst gibt es aber für Bremerhaven.

Weitere Bundesländer erwägen derzeit die flächendeckende Einführung, darunter sind etwa Brandenburg und Berlin. Vor über zwei Jahren hat auch die Bundespolizei an den Inspektionen Berlin-Ostbahnhof, Kaiserslautern und Frankfurt/Main-Hauptbahnhof ein Pilotprojekt begonnen.

Sechs Tote durch Taser in drei Jahren

Mit den neuen Waffen will die Polizei die Lücke zwischen Einsatzmitteln wie Schlagstock, Pfefferspray und Pistole schließen. Sie wirbt außerdem damit, dass mit Tasern der Schusswaffengebrauch zurückgehen könnte. Untersuchungen dazu gibt es noch nicht, laut dem Innenministerium in Düsseldorf habe jedoch das Pilotprojekt gezeigt, dass allein die Drohung mit dem Taser zu einer geringeren Gewaltanwendung durch die Polizei beigetragen habe.

In den vergangenen drei Jahren sind in Deutschland sechs Personen nach Einsätzen einer Distanzelektroimpulswaffe gestorben, davon je zwei in Rheinland-Pfalz und Hessen (mithin Ländern, die jetzt die Ausweitung betreiben), zwei weitere in Bayern und Niedersachsen. Alle tödlichen Einsätze erfolgten in Wohnhäusern, fast immer befanden sich die Betroffenen in einer psychischen Ausnahmesituation, in mindestens einem Fall stand die getaserte Person vermutlich unter Drogeneinfluss. Der Tod erfolgte unter anderem durch einen Kreislaufstillstand oder Herzinfarkt, in einem Fall starb das Opfer durch eine Lungenentzündung und Blutvergiftung nachdem er sich bewusstlos erbrochen hat.

Oesten Baller, der als Professor für öffentliches Recht an der Hochschule für Wirtschaft und Recht in Berlin lehrt, macht auf Anfrage von netzpolitik.org auf ein weiteres Problem aufmerksam. Bei den Spezialeinheiten wird der Taser häufig zur Verhinderung eines Suizids eingesetzt. Dies sei aber mit dem Grundrecht auf Suizid, welches das Bundesverfassungsgericht vor zwei Jahren ausdrücklich bekräftigt hat, kaum vereinbar.

Axon finanziert Polizeiball

Ob Taser-Einsätze und damit auch Todesfälle zunehmen, ergebe sich auch aus der Frage, wie die Geräte in den Polizeigesetzen der Länder eingestuft sind. Durch einen waffenrechtlichen Feststellungsbescheid hatte ursprünglich das Bundeskriminalamt den Taser nach dem Waffengesetz als Schusswaffe eingeordnet, erklärt Baller. Aus politischen Gründen sei dieser Feststellungsbescheid auf der Homepage des BKA jedoch gelöscht worden.

Heute treffen die Länderpolizeigesetze eigene Regelungen und stufen Taser entweder als „Hilfsmittel der körperlichen Gewalt“ (wie in Berlin und Schleswig-Holstein) oder „Waffe“ (wie in Nordrhein-Westfalen), oder aber im Gegensatz dazu als „Schusswaffe“ ein. Im letzteren Fall bestehen höhere Hürden für die Androhung des Einsatzes, auch müssen wie bei Schussabgaben ausführliche Berichte geschrieben werden. Als „Hilfsmittel“ oder „Waffe“ können Taser hingegen wie Pfefferspray oder Schlagstock gezückt werden, damit hätten sie vermutlich wenig Einfluss auf die Anzahl von Schusswaffeneinsätzen.

In Bundesländern, wo „Distanzelektroimpulsgeräte“ der Schusswaffe gleichgesetzt sind, fordern Polizeigewerkschaften vehement die Herabstufung der Einsatzschwelle. Besonders tut sich die Deutsche Polizeigewerkschaft (DPolG) hervor, die auch den Startschuss für den Bundespolizei-Test für sich reklamiert. In Sachsen-Anhalt hatte die rechtskonservative Polizeivereinigung den Taser-Hersteller Axon vor sechs Jahren zu einer Vorführung eingeladen, um den CDU-Innenminister zur Beschaffung der Geräte gewogen zu stimmen. Die US-Firma revanchierte sich laut einem Zeitungsbericht mit dem Sponsoring eines Polizeiballs anlässlich der 25-jährigen Bestehens des DPolG-Landesverbandes in einem Vier-Sterne-Hotel.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Missbrauchsdarstellungen: EU-Innenkommissarin Johansson will offenbar an Chatkontrolle festhalten

netzpolitik.org - 10 Januar, 2022 - 13:03
EU-Innenkommissarin Ylva Johansson (Archivbild von 2019) – CC-BY 2.0 European Parliament

Die EU-Innenkommissarin Alva Johansson hat in der Welt am Sonntag bekräftigt, in den kommenden Monaten ein neues Gesetz gegen sexuellen Missbrauch von Kindern vorzuschlagen. Das hätte auch Folgen für Online-Dienste: Die Unternehmen sollen verpflichtet werden, Missbrauchsdarstellungen von Kindern zu erkennen, zu melden und zu entfernen. „Eine freiwillige Meldung wird dann nicht mehr ausreichen“, so Johansson weiter. Ursprünglich war die Vorstellung des brisanten Gesetzentwurfes für den 1. Dezember 2021 geplant gewesen, wurde aber von der EU-Kommission verschoben. Laut Johansson seien die im Jahr 2020 gemachten etwa 22 Millionen Meldungen nur ein Bruchteil der wirklichen Straftaten. 

Die Entdeckung und Entfernung von Missbrauchsdarstellungen müsse künftig ein „automatischer Reflex“ für die Internetanbieter werden, so die sozialdemokratische Innenpolitikerin gegenüber der Welt am Sonntag. Damit hält Johansson offenbar an der umstrittenen Chatkontrolle fest. Unter dem Begriff werden Verfahren subsumiert, bei dem Inhalte auf den Endgeräten der Nutzer:innen nach bestimmten Dateien durchsucht werden. Zwar seien laut Johansson Datenschutz und Verschlüsselung wichtig, aber der Fokus müsse „in erster Linie auf dem Schutz der Kinder liegen.“ Die Verpflichtungen sollen für große und kleine Unternehmen gelten.

Neue Überwachungsmöglichkeiten

Grundsätzlich könnte dabei auf bereits bestehende Ansätze zurückgegriffen werden, beispielsweise auf die von Microsoft entwickelte PhotoDNA-Software und die Datenbank der US-Organisation National Center for Missing and Exploited Children (NCMEC). Darin liegen digitale Fingerabdrücke, sogenannte Hashes, von Bildern oder Videos, die bereits einmal als illegal erkannt worden sind. Vor jedem Versenden einer Nachricht könnte der Hash eines Anhangs ermittelt und mit der Datenbank abgeglichen werden. Stellt sich die Datei als einschlägig bekannt heraus, ließe sich der Versand unterbinden und potenziell ein Hinweis an die Polizei auslösen.

Schon heute scannen viele soziale Netzwerke öffentlich zugängliche Bilder und Videos und gleichen sie mit diesen Datenbanken ab. Dieses Verfahren stößt auf nur verhältnismäßig geringe Kritik, weil es bislang freiwillig und zudem nicht auf den Endgeräten der Nutzer:innen, sondern im offenen Netz stattfindet. Vor rund einem Jahr hatte die EU eine Ausnahmeregelung beschlossen, die diese Durchleuchtung weiter möglich macht.

Die Überwachungstechnologie, die dem nun erneut in den Raum gestellten EU-Gesetz folgen könnte, wird Client-Side-Scanning (CSS) genannt. Dabei werden Inhalte direkt auf den Endgeräten von Nutzer:innen durchsucht, noch bevor sie womöglich verschlüsselt werden. Zuletzt haben weltweit bekannte IT-Sicherheitsforscher:innen und Erfinder von Verschlüsselungssystemen in einer gemeinsamen Studie alle Pläne für Inhalte-Scanner auf den Geräten von Endnutzer:innen heftig kritisiert. Die Expert:innen kommen zum Schluss: Client-Side-Scanning ist eine Gefahr für Privatsphäre, IT-Sicherheit, Meinungsfreiheit und die Demokratie als Ganzes.

Ausweitung befürchtet

Der Eingriff auf die Geräte durch eine Chatkontrolle wäre schon erheblich, auch wenn nur wie bislang angedacht nach Missbrauchsdarstellungen gesucht würde. IT-Expert:innen befürchten, dass selbst wenn das Client-Side-Scanning zunächst nur zur Suche nach solchen Inhalten eingesetzt würde, ein enormer politischer und gesellschaftlicher Druck entstünde, den Anwendungsbereich auszuweiten.

Ihr Argument ist dabei, dass eine einmal eingeführte Überwachungsinfrastruktur Begehrlichkeiten weckt und es nach der Einführung kaum noch eine Möglichkeit gäbe, sich gegen die Ausweitung zu wehren oder den Missbrauch des Systems zu kontrollieren. Technisch wäre eine solche Ausweitung sehr einfach umzusetzen. Deswegen kommen die IT-Expert:innen zum Schluss, dass CSS einen Eingriff in die Privatsphäre darstellt, der sogar schlimmer ist als frühere Vorschläge zur Schwächung von Verschlüsselung. 

Während die EU-Innenminister sich für die Einführung der Chatkontrolle aussprechen, kam durch eine Recherche heraus, dass deutsche Ermittlungsbehörden nicht alle Möglichkeiten ausschöpfen, Darstellungen von Kindesmissbrauch aus dem Netz zu entfernen. Das weist darauf hin, dass es noch erhebliche Verbesserungsmöglichkeiten innerhalb bestehender Gesetze gibt, ohne dass man mit der Chatkontrolle anlasslos die Endgeräte aller Menschen durchsucht.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Massenspeicherung von Telekommunikationsdaten: Mehrheit der EU-Mitgliedstaaten wünscht weiterhin die Vorratsdatenspeicherung

netzpolitik.org - 10 Januar, 2022 - 12:20
Anlasslose Vorratsdatenspeicherung bleibt auf der politischen Agenda. – Gemeinfrei-ähnlich freigegeben durch unsplash.com rishi

Die Mitgliedstaaten der Europäischen Union wollen von der Vorratsdatenspeicherung nicht lassen. Zwar sollen die Entscheidungen des Europäischen Gerichtshofs (EuGH) noch abgewartet werden, die aktuell zur Vorratsdatenspeicherung noch anhängig sind, doch danach soll das anlasslose Speichern von Kommunikations- und Bewegungsdaten erneut europaweit vorgeschrieben werden. Das geht aus einem Dokument aus Brüssel hervor.

Kurz vor dem Jahreswechsel berichtete SPIEGEL-online über das Diplomaten-Papier, in dem zusammengefasst ist, was sich 24 von 27 EU-Mitgliedstaaten in Sachen Vorratsdatenspeicherung wünschen. Nach dem Drahtbericht an das Auswärtige Amt, der dem SPIEGEL vorlag, erklärt auch nach Jahren des politischen Streits und vielen höchstrichterlichen Urteilen aus den EU-Staaten und vom EuGH noch immer eine Mehrheit der Regierungen der Mitgliedstaaten, am erzwungenen Massenspeichern von Telekommunikationsdaten festhalten zu wollen. Im November erst hatten sich auch die EU-Innenminister (pdf) für die anlasslose Vorratsdatenspeicherung starkgemacht und „appropriate and feasible solutions“ (geeignete und praktikable Lösungen) gefordert.

Im Weg steht allerdings der EuGH, der zuletzt am 13. September 2021 mündlich darüber verhandelte, ob die flächendeckende Speicherpflicht von Telekommunikations- und Standortdaten mit der EU-Grundrechte-Charta vereinbar ist. Die Anhörung betraf eine Klage des deutschen Internetproviders SpaceNet. Das EuGH-Urteil dazu steht noch aus, wird aber in diesem Jahr erwartet. Zwei weitere Klagen aus anderen EU-Staaten sind in Luxemburg ebenfalls noch ausstehend.

Die abgelöste schwarz-rote Bundesregierung hatte sich in Brüssel für eine europaweite Neuregelung der Vorratsdatenspeicherung ausgesprochen. Vor allem die Union setzte sich auf europäischer Ebene dafür ein, neue rechtliche Voraussetzungen für die anlasslose Massenspeicherung zu schaffen. Die neue Ampel-Regierung hingegen will an der Vorratsdatenspeicherung nicht mehr festhalten, erklärte der neue Justizminister Marco Buschmann (FDP): Nicht das anlasslose Festhalten der Daten aller, sondern eine gezielte schnelle Speicherung ist nun das Ziel.

Das jedoch hält eine Mehrheit der EU-Regierungen nicht für praktikabel, wie dem Bericht des SPIEGEL zu entnehmen ist. Es sollen demnach Bedenken vorherrschen, wie die technische Umsetzung überhaupt möglich sein kann. Die Umsetzung in die Praxis sei auch kostspielig und langwierig. Das mutet angesichts der Alternative zu der schnellen gezielten Speicherung, nämlich der Verpflichtung zum Festhalten aller Telekommunikations- und Begleitdaten, wenig überzeugend an.

Gleiches gilt für die rechtlichen Bedenken, die von EU-Mitgliedsstaaten gegen das gezielte Speichern vorgebracht wurden. Dazu sind zwar kaum Details benannt. Da eine anlasslose Massenspeicherung, die alle Menschen betrifft, aber mit Sicherheit einen stärkeren Eingriff in Grund- und Menschenrechte bedeutet als ein gezieltes Festhalten von vergleichsweise wenigen Daten, ist nur schwer vorstellbar, was gegen das mildere Mittel rechtlich sprechen sollte.

Nicht nur IP-Adressen

Der EuGH hatte die anlasslose Speicherung von personenbezogenen Daten aus Telekommunikationsnetzen 2014 EU-weit aufgehoben und auch danach mehrfach als grundrechtswidrig erkannt. Die meisten EU-Regierungen streben die Massenüberwachung dennoch weiter an, fasst das Diplomaten-Papier zusammen. Neben der anlasslosen Speicherung der IP-Adressen soll demnach auch das verpflichtende Festhalten von weiteren technischen Parametern erzwungen werden. Dazu könnten laut des SPIEGEL-Artikels die Port-Nummern, die IP-Adressen der Adressaten und die Zeitstempel gehören.

Kommt politisch keine europaweite Regelung zustande, so wollen einige Regierungen in Europa nationale Gesetze zur Vorratsdatenspeicherung schaffen, heißt es im Diplomaten-Bericht weiter. Da sich aber jedes einzelne Mitglied der EU an die Vorgaben des EuGH zu halten hat und die rechtlichen Grenzen der anlasslosen Massenspeicherung schon jetzt eng gezogen sind, wäre wohl erneute juristische Gegenwehr vorprogrammiert.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

NPP 244 mit Systemabsturz: Ohrwürmer gegen Überwachung

netzpolitik.org - 8 Januar, 2022 - 09:00
Systemabsturz – Alle Rechte vorbehalten Systemabsturz


https://netzpolitik.org/wp-upload/2021/12/npp-243-systemabsturz.mp3

Wer auf unserer letzten Konferenz oder auf Veranstaltungen des Chaos Computer Club war, hat sie vielleicht schon mal live gesehen: Sophia und Viktor sind Systemabsturz, die nach eigenen Angaben „vermutlich beste und schlechteste Datenschutz-Elektropunk-Band der Welt“.

Seit rund drei Jahren schaffen, singen und spielen sie Songs, die sich um das Thema Überwachung drehen. Das sind teils echte Ohrwürmer und immer inhaltlich sehr politisch und aufklärend. Im vergangenen Monat haben sie ihr erstes Album veröffentlicht. Wie alle bisherigen Songs von Systemabsturz stehen auch diese unter einer Creative-Commons-Zero-Lizenz, das heißt man darf sie remixen und frei weiterverwenden. Demnächst sollen von allen Werken zusätzlich Versionen mit einzelnen Spuren erscheinen – so wird das Remixen noch einfacher.

Im Netzpolitik-Podcast sprechen wir über die Idee hinter Systemabsturz, ihre Motivation und welchen Spaß sie damit haben, tanzbare und politische Songs zu schaffen. Wie sie das Thema Überwachung auf eine poppige Art zu verpacken, um vielleicht noch andere Menschen über neue Kanäle zu erreichen. Und wir sprechen über ihre weiteren Ambitionen und wie sie mit ihrer Musik trotz offener Lizenzen Geld verdienen.

Gemixt und mitproduziert wurde das neue Album übrigens von Klaus Scheuermann, der als Trummerschlunk auch das Jingle zu unserem Podcast produziert hat. Dazu gibt es mittlerweile auch einen richtigen Song mit Remixen – im Moment nur auf Spotify, demnächst auch woanders.

Hier gibt es die MP3 und hier die OGG von diesem Podcast.

Mehr von Systemabsturz findet ihr bei Bandcamp, auf Twitter, Youtube oder Spotify.

Unseren Podcast könnt ihr auf vielen Wegen hören. Der einfachste: In dem eingebundenen Player hier auf der Seite auf Play drücken. Ihr findet uns aber ebenso auf iTunes, Spotify oder mit dem Podcatcher eures Vertrauens, die URL lautet dann netzpolitik.org/podcast/. Wie immer freuen wir uns über Anregungen, Kritik, Lob und Ideen.

Moderiert von Markus Beckedahl. Schnitt von Serafin Dinges.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs
Inhalt abgleichen