Blogs

Wochenrückblick KW23: Einmal Chatverläufe für alle, bitte

netzpolitik.org - 11 Juni, 2021 - 18:00

Vor dem näher rückenden Ende der Legislaturperiode hat die Große Koalition in dieser Woche noch schnell zwei Gesetze durch den Bundestag gebracht, die den Einsatz von Staatstrojanern massiv ausweiten. Das Bundespolizeigesetz erlaubt der größten Polizei des Landes schon vor Straftaten, Staatstrojaner präventiv einzusetzen. Der Einsatz soll „sich gegen Personen richten, gegen die noch kein Tatverdacht begründet ist und daher noch keine strafprozessuale [Telekommunikationsüberwachung] angeordnet werden kann“.

Das Gesetz zur Änderung des Verfassungsschutzrechts stattet alle 19 Geheimdienste mit Staatstrojanern aus. Die Große Koalition feiert die Staatstrojaner als Sicherheitsgewinn, dabei schaffen die Gesetze neue Sicherheitsrisiken und sind möglicherweise verfassungswidrig. Die ersten Verfassungsbeschwerden gegen das Gesetz sind schon angekündigt.

Die Änderung der Strafprozessordnung hat es in dieser Woche noch nicht durch den Bundestag geschafft, das passiert aber wahrscheinlich auch noch in der laufenden Legislaturperiode. Die Große Koalition hat sich in dieser Woche auf einen Änderungsantrag geeinigt, der eine bundesweite Auto-Rasterfahndung und nächtliche Hausdurchsuchungen erlaubt.

Währenddessen scheint man sich im Gesundheitsministerium nicht so sehr um Sicherheitsprobleme zu sorgen: Zwar sind Datenschutzprobleme bei Vorhaben wie der digitalen Patientenakte oder Sicherheitslücken in Gesundheitsapps bekannt, trotzdem lässt das Ministerium einen großen Teil der Stellen für IT-Sicherheit aber unbesetzt. Jana Ballweber berichtet, dass es bisher auch keine Strategie gibt, um das zu ändern.

Was sonst alles in den vergangenen vier Jahren unter der Großen Koalition digitalpolitisch passiert ist, hat eine virtuelle Diskussionsrunde der Hochschule Bremen in dieser Woche diskutiert. Dennis-Kenji Kipker und Michael Walkusz haben sie sich angeschaut und in ihrem Gastbeitrag zusammengefasst.

Mit dem Ende der Legislaturperiode rückt allmählich auch die nächste Bundestagswahl näher. Dabei wird im Herbst eine neue, „schrecklich nette Partei“ auf den Wahlzetteln stehen, über die Daniel Laufer recherchiert hat. Einzelne Akteure der Corona-Protest-Partei „Die Basis“ fallen mit demokratiefeindlichen Äußerungen auf, während die Partei sich nach außen hin bunt und freundlich gibt.

Was Künstliche Intelligenz (nicht) kann

Nordrhein-Westfalen hat bereits Systeme mit Künstlicher Intelligenz für Gefängnisse getestet, jetzt zieht auch Niedersachsen nach. Kameras sollen suizidales Verhalten von Insassen erkennen und warnen. Timo Stukenberg erklärt, warum KI Suizide in Gefängnissen aber nicht verhindern kann.

Eine andere Frage ist, inwieweit Polizei und Justiz KI-Anwendungen einsetzen sollten. Darüber streiten die EU-Institutionen: Die amtierende Ratspräsidentschaft spricht sich für möglichst wenige Einschränkungen aus, doch die Kommission möchte die Anwendungen gerne regulieren.

Und dann gibt es auch Stimmen, die für ein vollständiges Verbot von Gesichtserkennung & Co. sind. Zumindest, wenn es um die biometrische Überwachung im öffentlichen Raum geht, sind das ziemlich viele: Einen offener Brief mit der Forderung nach einem weltweiten Verbot haben mehr als 175 Unterschriften von Menschenrechtsorganisationen und Einzelpersonen weltweit unterzeichnet.

Offene Daten für alle

Die Open-Data-Richtlinie der EU verpflichtet Mitgliedsstaaten dazu, Dokumente der öffentlichen Hand offen zur Weiterverarbeitung zugänglich zu machen. Bis zum 17. Juli muss Deutschland die Richtlinie in nationales Recht umsetzen, doch Julia Reda meint: „Deutschland verfehlt das Ziel, Open-Data als Chance zu begreifen.“

Wie sich das ändern lässt, versucht der Prototype Fund wissenschaftlich zu analysieren. Das Förderprogramm für gemeinwohlorientierte Open-Source-Projekte hat Berichte zur Begleitforschung veröffentlicht, die Lösungsansätze und vorbildliche Projektideen vorstellen.

Nach vorbildlichen Beispielen im öffentlichen Personennahverkehr (ÖPNV) und neuen Mobilitätsformen hat die Studie von Attac und der Rosa-Luxemburg-Stiftung gesucht. Viele Mobilitätsdienstleistungen gelten zwar als nachhaltig, hinter einzelnen Angeboten stecken aber oft private Mobilitätsdienstleister, bei denen nicht Nachhaltigkeit, sondern Profit im Vordergrund steht. Deswegen fordert die Studie, dass Kommunen öffentliche Plattformen organisieren sollten, die Mobilitätsdienstleistungen bündeln.

Mithilfe einer Kampagne will FragDenStaat und abgeordnetenwatch.de die Lobbykontakte der Bundesregierung offenlegen. Mit mehreren Hundert Auskunftsanfragen möchten die Initiator*innen ein „selbstgemachtes Lobbyregister“ erstellen und damit Druck auf die Regierung und das im März beschlossene Lobbyregister-Gesetz ausüben.

Zwischen Zensur und Regulierung

Viel war diese Woche auch bei Plattformen, sozialen Netzwerken und Konzernen los. In dem Zuge hat sich Markus Reuter mit dem Deplatforming des Ex-US-Präsidenten Donald Trump beschäftigt. Facebook hat diesen bis mindestens 2023 gesperrt, Twitter für immer. Die New York Times hat nun untersucht, wie Donald Trump vor und nach seiner Sperrung seine Botschaften durchsetzt. Das Ergebnis: „Insgesamt ist also das Deplatforming durchaus wirksam, hat aber Trump nicht völlig die Reichweite genommen.“

Die britische Kriminalpolizei hat Plattformen wie TikTok und Facebook aufgefordert, vermehrt Internetinhalte zu löschen, wenn diese die Einreise illegaler Migrant*innen „verherrlichen“, berichtet Matthias Monroy. Der Aufruf ging von der britischen Innenministerin Priti Patel aus. Dabei arbeite die Behörde eng mit Europol zusammen, die 2016 auch die „Meldestelle für Internetinhalte“ (IRU) eingeführt hatte. Flüchtlingsorganisationen hatten Patel’s Anweisung kritisiert.

Diese Woche diskutierten Abgeordnete über neue Berichtsentwürfe zu den Gesetzen für digitale Dienste und für digitale Märkte, die in dem Gesetzespaket „Digital Services Act“ gebündelt sind. Alexander Fanta hat sich angeschaut, welche übergeordnete Rolle dem Chefverhandler des Digitale-Märkte-Gesetzes, Andreas Schwab, dabei zukommt und welche engen Regulierungen dieser im Rahmen des geplanten Plattformgesetzes vorsieht.

Globale Machtstrukturen

Außerdem ging es diese Woche darum, welchen Einfluss gleich mehrere autoritäre Staaten weltweit auf soziale Netzwerke und Konzerne haben. Microsoft hat zum Jahrestag des Tiananmen-Massakers auf seiner Suchmaschine Bing weltweit Fotos und Videos gesperrt, die das berühmte Bild des „Tank Man“ zeigten. Auslöser war nach Angaben von Microsoft ein „menschlicher Fehler“, durch den der Konzern die Zensurregelungen Chinas angewendet hatte. Da Bing unter anderem in China operiert, muss sich die Suchmaschine den chinesischen Zensurregeln unterwerfen.

Auch Apple hatte sich diese Woche den Mächten autoritärer Staaten gebeugt. Das künftige Privatsphäre-Feature „Private Relay“ soll das Browsing-Verhalten der Nutzer*innen für Provider und Werbetreibende nicht einsehbar machen. In Staaten wie China, Belarus, Ägypten, Kasachstan, Saudi-Arabien und Turkmenistan werden Apple-Nutzende das Feature jedoch nicht nutzen können. Markus Reuter kommentiert Apples Handlung: „Wer auf seiner Webseite damit wirbt, dass Privatsphäre ein Menschenrecht sei, der muss sich an dieser Aussage bei seinen Taten messen lassen.“

Die Regierung in Laos hat kurzerhand eine neue Task-Force für soziale Netzwerke eingerichtet. Diese soll nicht nur Falschmeldungen, sondern auch regierungskritische Posts sanktionieren. Wer das erste Mal auffällt, erhält eine Verwarnung, beim zweiten Mal ist eine Geldstrafe fällig, danach droht Gefängnis, berichtete Pia Stenner. Verstöße gegen Social-Media-Regeln gelten laut Gesetz in Laos als „Cybercrime“.

„Off The Record“

Es gibt wieder etwas für die Ohren, denn eine neue „Off The Record“-Podcastfolge ist online. Darin sprechen Anna Biselli, Ingo Dachwitz, Ole und Stefanie Talaska vor allem über die Etablierung der Klausurtagung, die alle paar Monate bei netzpolitik.org ansteht, um die wichtigsten Prozesse für künftige Arbeitsstrukturen zu besprechen. Außerdem geht es noch um die Spendenentwicklung im April 2021 und eine recht ungewöhnliche Spendeneinnahme.

Das war’s erstmal von uns für diese Woche. Wir sagen Tschüss und auf ein Baldiges!

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

BigBrotherAwards: Datenschutz-Negativpreise für Doctolib, Google und Proctorio

netzpolitik.org - 11 Juni, 2021 - 18:00

Bei den BigBrotherAwards 2021, den alljährlichen Oscars für Überwachung, wurden gleich mehrere Unternehmen ausgezeichnet. Der Award wird seit mehr als 20 Jahren vergeben und wird auch live übertragen

In der Kategorie „Gesundheit“ trifft es dieses Jahr das Terminvermittlungsportal Doctolib, das vielen Menschen von Buchungen bei Arztterminen und bei den Berliner Impfzentren bekannt sein dürfte. Laut der Jury würden die Patientendaten „unter Missachtung der Vertraulichkeitsverpflichtung verarbeitet und laut Datenschutzvereinbarung auch im Rahmen kommerzieller Marketingzwecke genutzt.“ Dafür nutzt Doctolib laut BigBrotherAwards den im Arztinformationssystem gespeicherten Patientenstammdatensatz und gleicht die Termine des Arztes aus dessen System ab. Dabei würden Daten auch von Patienten ausgetauscht, die nicht über Doctolib buchen.

In der Kategorie „Verkehr“ wird die  Europäische Kommission ausgezeichnet. Sie erhält den BigBrotherAward 2021 in der Kategorie Verkehr für die Einführung des Verfahrens „On-Board Fuel Consumption Meter“ (OBFCM). Es würden dabei „erhebliche Mengen an technischen Informationen eines Autos“ aufgezeichnet und an den Hersteller übermittelt. Dabei soll auch die Fahrgestellnummer übertragen werden, die Bundesregierung hatte sich dagegen ausgesprochen. Das OBFCM ist seit Anfang 2021 für Neuwagen verpflichtend, es soll die realen Verbrauchsdaten von Fahrzeugen erfassen.

In der Kategorie „Bildung“ erhält die Proctorio GmbH aus Unterföhring einen Award. Sie erhält den BigBrotherAward 2021 für den angebotenen „vollautomatischen Prüfungsaufsichtsservice“, der eine Totalkontrolle von Studierenden bei Online-Prüfungen ermöglichen soll. Während der Prüfung soll die KI-basierte Software insbesondere Blicke von Prüflingen erkennen, die auf einen Täuschungsversuch hindeuten, und dann automatisch Alarm schlagen. Netzpolitik.org berichtete, wie das System funktioniert.

In der Kategorie „Was mich richtig wütend macht“ erhält Google einen Preis „für jüngst offenbar gewordene massive Manipulation des Internet-Werbemarktes, Aushungern von Kreativen und Medien sowie Enteignung unserer digitalen Persönlichkeiten.“

In der neuen Kategorie „Public Intellectual“ erhält Julian Nida-Rümelin, stellvertretender Vorsitzender des Deutschen Ethikrats, einen BigBrotherAward. Nida-Rümelin wird ausgezeichnet „für seine öffentlich mehrfach geäußerte unhaltbare Behauptung, dass Datenschutz die Bekämpfung von Corona erschwert und Tausende von Toten zu verantworten habe“.

Die BigBrotherAwards gibt es in zahlreichen Ländern. In Deutschland wird er von Digitalcourage verliehen, Mitveranstalter sind unter anderem die Deutsche Vereinigung für Datenschutz, die Internationale Liga für Menschenrechte und der Chaos Computer Club.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Raumschiff analog: Ein digitalpolitischer Rückblick auf die Legislaturperiode

netzpolitik.org - 11 Juni, 2021 - 13:22

Dennis-Kenji Kipker ist Jurist und wissenschaftlicher Geschäftsführer am Institut für Informations-, Gesundheits- und Medizinrecht (IGMR) an der Universität Bremen. Darüber hinaus ist er im Vorstand der Europäischen Akademie für Informationsfreiheit und Datenschutz (EAID) in Berlin tätig. Michael Walkusz ist studentischer Mitarbeiter am Institut für Informations-, Gesundheits- und Medizinrecht (IGMR) an der Universität Bremen.

Was sind die wesentlichen digitalpolitischen Themen, die die Bundespolitik in den letzten vier Jahren geprägt haben oder vielmehr geprägt haben sollten? Am Dienstag hatten die Hochschule Bremen und die unabhängige Arbeitsgruppe Kritische Infrastrukturen (AG KRITIS) zu einer virtuellen Diskussionsrunde mit namhaften Experten eingeladen, die von Daphne Flieger moderiert wurde.

Stefan Heumann von der Stiftung Neue Verantwortung machte den Anfang und stellte Punkte aus dem vorletzten Koalitionsvertrag vor: mehr Medienkompetenz, flexibleres digitales Arbeiten, Industrie 4.0, Breitbandausbau, Verwaltungsdigitalisierung. Bei Betrachtung dieser Punkte aus dem Jahr 2013 wird schnell klar, dass das meiste davon auch zum Ende dieser Wahlperiode noch nicht erledigt sein dürfte. Manches wurde durch den Digitalisierungsschub, den Corona seit letztem Jahr bewirkt hat, zwar vorangetrieben – es gibt aber definitiv noch viel Luft nach oben.

„Ein Gesetz, das sehenden Auges mit einem Verstoß gegen Grundrechte verabschiedet wurde“

Vorratsdatenspeicherung und Datensparsamkeit – das sind zwei Begriffe, die nicht viel miteinander gemein haben. Obwohl die Effektivität dieses Ermittlungsinstruments nie nachgewiesen wurde, taucht der Zombie trotz gegenläufiger höchstrichterlicher Entscheidungen immer wieder auf. Insbesondere die frühere Justizministerin Sabine Leutheusser-Schnarrenberger stellte fest, dass man sich bisher nicht groß um digitale Grundrechte geschert hat – und das nicht nur in dieser Legislaturperiode.

Das sei letztlich auch der Grund dafür, dass die Ermächtigungsgrundlage zur Vorratsdatenspeicherung, die sehenden Auges mit einem Verstoß gegen die Grundrechte verabschiedet wurde, immer wieder vor den Gerichten lande. Die Politik müsse endlich anerkennen, dass es Eckpunkte gebe, über die man nicht hinweg kann, so die stellvertretende Vorsitzende der Friedrich-Neumann-Stiftung. Und solange das nicht der Fall ist, würde gegen eine entsprechende Gesetzgebung immer wieder geklagt werden.

„Viele haben ein falsches Verständnis von Datensparsamkeit“

Mit Blick auf die von Angela Merkel auf dem CDU-Parteitag 2016 getroffene Feststellung, dass man „künftig auf Datenreichtum und den Ausbau der technischen Überwachung anstatt auf Datensparsamkeit“ setzen solle, stellte der Bundesdatenschutzbeauftragte Ulrich Kelber fest, dass viele ein falsches Verständnis von Datensparsamkeit haben: Datensparsamkeit bedeutet eben nicht, dass man nur so wenige Daten wie möglich erheben muss, sondern vielmehr, dass vorhandene Daten zweckgemäß verarbeitet werden dürfen, aber zwecklose Daten gelöscht werden müssen.

In diesem Zusammenhang spielen natürlich auch die in der Gesetzgebung viel zu wenig berücksichtigte Überwachungsgesamtrechnung und die Frage eine Rolle, ob es notwendig ist, tief in informationelle Grundrechte eingreifende Überwachungsbefugnisse zu schaffen, die in der Praxis nur in verschwindend geringer Zahl genutzt werden. Laut Kelber würden oft Regelungen zur Datenverarbeitung geschaffen, die nur einen minimalen positiven Effekt erzeugen und völlig ungeeignet seien, ein angemessenes Verhältnis zum Datenschutz herzustellen.

Julia Reda von der Gesellschaft für Freiheitsrechte ergänzte dazu, dass vor allem auf europäischer Ebene der entsprechende Gestaltungswille in der Politik fehle. Dies führe oft dazu, dass in Zweifelsfällen Gerichte entscheiden müssten, was bedauerlicherweise nur in einem absoluten Minimum an Grundrechtsschutz resultiere.

ZITiS als Beispiel für Intransparenz

Nicht fehlen darf bei einem digitalpolitischen Rückblick auf die ausgehende Legislaturperiode natürlich auch die 2017 gegründete „Zentrale Stelle für Informationstechnik im Sicherheitsbereich“ (ZITiS), die sich als Dienstleister zur Entwicklung technischer Tools für Nachrichtendienste und Sicherheitsbehörden versteht. Der Vorwurf: Selbst knapp fünf Jahre später operiert die dem Geschäftsbereich des BMI zuzuordnende Behörde immer noch ohne angemessene Rechtsgrundlage.

Scharf kritisierte Stefan Heumann deshalb die extreme Intransparenz der Behörde, sowohl in ihrer Arbeitsweise, als auch mit Blick auf ihre Befugnisse: Vor allem für eine Behörde, die gezielt Schwachstellen sucht und in IT-Systeme eindringe, müssten aufgrund der hohen Eingriffsintensität konkrete und begrenzende Regelungen geschaffen werden, die bis heute aber nicht existierten.

Dass bei ZITiS keine gesetzliche Grundlage geschaffen wurde, umgehe sowohl Kompetenzfragen als auch parlamentarische Kontrolle, führte Sabine Leutheusser-Schnarrenberger aus. Ulrich Kelber wies darauf hin, dass es nicht das erste Mal gewesen sei, dass der Bund eine Behörde zunächst geschaffen hätte, und erst nachträglich die gesetzlichen Grundlagen dafür eingeführt wurden. Hier bestehe dringender Nachholbedarf.

Sinn oder vielmehr Unsinn des „digitalen Gegenschlags“

Ex-Verfassungsschutzpräsident Maaßen forderte schon 2017 die Möglichkeit zum „digitalen Gegenschlag“ oder „Hackback“, da rein defensive Maßnahmen gegen Cyberattacken nicht ausreichend seien. Die Bundesregierung skizzierte in einem internen Papier, wie sie sich den Hackback vorstellt, ohne dabei verfassungs- oder völkerrechtliche Rahmenbedingungen zu berücksichtigen. Aber schon bevor überhaupt darüber nachgedacht wird, wer denn einen solchen Hackback nun durchführen soll, muss man sich die Sinn-Frage stellen.

So betonte auch Stefan Heumann, dass bei einer Stärkung der Offensive die Defensive vernachlässigt wird. Wichtiger sei es vielmehr, vorhandene Sicherheitslücken zu schließen und die bestehende Dateninfrastruktur zu schützen, denn mit offensiven Maßnahmen wehre man Attacken schließlich nicht ab. Julia Reda bemängelte außerdem, dass es für die nationale IT-Sicherheit deutlich mehr Anreize aus der Politik bedürfe, denn schließlich sei dies Staatsaufgabe. Und der Hackback hat mit sicherer IT sicherlich nichts zu tun.

Plattformregulierung: Wer entscheidet darüber, was ich im Netz sagen darf?

Fake News, Desinformation, die Macht der Plattformkonzerne – das Thema spaltet mit Blick auf widerstreitende Grundrechte. Und allerspätestens seit dem Sturm auf das US-Kapitol im Januar dieses Jahres dürfte deutlich geworden sein, dass hier einiges im Argen liegt, wenn es darum geht, als privater Wirtschaftskonzern gewinnbringende Influencer abzuschalten. Und natürlich darf mit Blick auf Hate Speech auch das Netzwerkdurchsetzungsgesetz (NetzDG) nicht vergessen werden.

Sabine Leutheusser-Schnarrenberger wies diesbezüglich darauf hin, dass große Plattformen durch entsprechende Regulierung zwar unter Druck gesetzt werden, rechtswidrig gepostete Inhalte rechtzeitig zu entfernen, um Bußgelder zu vermeiden. Dabei müsse jedoch auch berücksichtigt werden, dass Plattformen private Konzerne seien. Der Staat könne sich durchaus der Hilfe der Plattformbetreiber bedienen, um das Recht im Netz durchzusetzen. Allerdings dürfe dies nicht dazu führen, dass Staaten die Plattformen missbrauchen, um für die Obrigkeit „im Netz aufzuräumen“.

Ulrich Kelber betonte jedoch, dass Plattformen gerade an aggressiven Diskussionen durch die erhöhte Aufmerksamkeit, Nutzungsdauer und schließlich Anzahl an gezeigten Werbeanzeigen ein erhebliches Eigeninteresse haben. Diesem Interessenskonflikt solle das NetzDG Einhalt gebieten. Es sei nur recht und billig, wenn die Plattformen für das Privileg, nicht für die strafbaren Äußerungen der User verantwortlich zu sein, die Pflicht auferlegt bekämen, gegen diese Äußerungen zumindest vorzugehen.

Dass die Regulierung global agierender Plattformkonzerne vor allem auch ein europäisches Thema ist, machte Julia Reda deutlich. Falschinformationen seien nicht per se illegal, sodass die Durchsetzung mittels NetzDG nicht immer Erfolg habe. Ebenso sei es schwierig, Falschinformationen als solche automatisiert und zutreffend zu erkennen. So könnten Tatsachenbehauptungen in einem Kontext falsch, in einem anderen Sachzusammenhang aber wiederum richtig sein. Deshalb sei der direkte Dialog der Politik mit den Plattformen zwingend notwendig.

Sabine Leutheusser-Schnarrenberger stellte abschließend fest, dass gezielte Falschinformationen einen erheblichen Einfluss auf die politische Meinungsbildung von betroffenen Personen haben, und hier bei der Politik deshalb dringender Handlungsbedarf besteht.

Digital- oder doch lieber Zukunftsministerium?

Das Ende des Rückblicks war schließlich der Ausblick auf die nächsten Jahre – im Mittelpunkt des Ganzen stehend das „Digitalministerium“, das vielfach als Allheilmittel für die Dinge gepriesen wird, an denen es in der Vergangenheit digitalpolitisch gekrankt hat. Aber brauchen wir ein solches Digitalministerium – oder gar: Zukunftsministerium – überhaupt, oder werden hier wieder einmal mehr Luftschlösser in der Berliner Bubble gebaut?

Für Julia Reda eine klare Lage: Ein Digitalministerium darf die bestehenden Kompetenzgrenzen nicht verwischen. Deshalb sei ein Digitalministerium nicht der ausschlaggebende Punkt in der nationalen digitalen Entwicklung, vielmehr sei hier die gesamte Bundesregierung verantwortlich. Auch Ulrich Kelber ist skeptisch, ob man ein Digitalministerium braucht. Denn das, was die Politik sich vornehme, müsse sie durchziehen. Egal, wie ein Ministerium denn nun heißen mag – es komme schließlich auf Inhalte und Umsetzung an. Stefan Heumann schloss sich dem an: Mit dem Digitalministerium können nicht automatisch alle Probleme gelöst werden, die in den letzten Jahren nicht gelöst wurden. Und nicht zuletzt müssten auch in einem Digitalministerium entsprechende Kompetenzen vorhanden sein, um gute Digitalpolitik zu machen.

Den kompletten Raumschiff-analog-Stream gibt es bei der c-base spacestation auf YouTube

Hier klicken, um den Inhalt von YouTube anzuzeigen.
Erfahre mehr in der Datenschutzerklärung von YouTube.

Inhalt von YouTube immer anzeigen

var _oembed_83d2d042510dd0e882ca3b5da78a4aeb = '{\"embed\":\"<iframe title="Raumschiff Analog" width="760" height="428" src="https:\\/\\/www.youtube-nocookie.com\\/embed\\/axwLz9InF5c?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen><\\/iframe>\"}'; .embed-youtube .embed-privacy-logo { background-image: url(https://cdn.netzpolitik.org/wp-content/plugins/embed-privacy/assets/images/embed-youtube.png?v=1623410838); }

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Verfassungsschutz und Bundespolizei: Bundestag beschließt Staatstrojaner für Geheimdienste und vor Straftaten

netzpolitik.org - 11 Juni, 2021 - 12:48

Der Bundestag hat gestern mit einer Mehrheit von 355 Stimmen aus CDU/CSU und SPD das Gesetz zur Anpassung des Verfassungsschutzrechts angenommen. Es erlaubt allen 19 Geheimdiensten Geräte wie Smartphones oder Computer mit Staatstrojanern zu hacken. Alle Oppositionsparteien haben das Gesetz zuvor heftig kritisiert und dagegen gestimmt. Aus dem namentlichen Abstimmungsergebnis wird deutlich, dass auch fünf Mitglieder der SPD-Fraktion gegen das Gesetz stimmten, drei enthielten sich. 34 Abgeordnete der Regierungsparteien gaben keine Stimme ab.

Bereits am Dienstagabend hatte sich die Große Koalition auf einen Änderungsantrag geeinigt. Mit dem Gesetz bekommen die Verfassungsschutzämter auf Bundes- und Länderebene, der Militärische Abschirmdienst und der Bundesnachrichtendienst die Erlaubnis, Geräte zu hacken um Kommunikation auszulesen.

Außerdem verpflichtet das Gesetz Internet-Provider, bei der Installation von Schadsoftware zu helfen. Andere Telekommunikationsanbieter wie Messenger- oder E-Maildienste sind davon ausgenommen. Die G-10-Kommission soll um sechs Richter:innen verstärkt die Fälle kontrollieren, in denen Staatstrojaner zum Einsatz kommen.

Die Quellen-Telekommunikationsüberwachung (Quellen-TKÜ), auch „kleiner Staatstrojaner“ genannt, bedeutet, dass Behörden Schadsoftware auf Geräten installieren und ab diesem Zeitpunkt laufende Kommunikation überwachen. Der große Staatstrojaner, die „Online-Durchsuchung“, leitet nicht nur laufende, sondern auch gespeicherte Daten aus – zum Beispiel ältere Chatnachrichten, die vor der Installation der Schadsoftware gesendet und empfangen wurden.

Quellen-TKÜ plus: mehr als der kleine Staatstrojaner

Bei der nun beschlossenen Verfassungsschutzrechts-Novelle handelt es sich um einen Kompromiss aus kleinem und großem Staatstrojaner: die „Quellen-TKÜ plus“. Diese ermöglicht den Zugriff auf laufende Kommunikation plus die Kommunikation, die vor Installation der Schadsoftware, aber nach Anordnung der Überwachungsmaßnahme stattgefunden hat.

Ursprünglich wollte Innenminister Horst Seehofer mit seinem ersten Gesetzentwurf im März 2019 den großen Staatstrojaner für BND und Verfassungsschutz durchsetzen. Damals stieß das noch auf heftige Kritik beim Koalitionspartner SPD. Die Parteivorsitzende Saskia Esken sagte, sie lehne Staatstrojaner ab, die SPD werde das Vorhaben der Union nicht unterstützen.

Der zweite Gesetzentwurf des Innenministeriums im Juni 2019 sah dann den kleinen Staatstrojaner vor – aber für alle 19 Geheimdienste. Und die Kritik der SPD verstummte mehr und mehr: Im Oktober 2020 setzte sich das Innenministerium mit seinem Vorschlag durch und die Koalition einigte sich, alle Geheimdienste mit Staatstrojanern auszustatten.

Verfassungswidrig und schädlich für innere Sicherheit

Viele Sachverständige und Jurist:innen schätzen die Quellen-TKÜ als verfassungswidrig ein, da sie weit in die Grundrechte eingreift. Die Gesellschaft für Freiheitsrechte erwägt, gegen die Regelung zu klagen. Gegen andere Gesetze, die den Einsatz von Staatstrojanern erlauben, laufen bereits Verfahren vor dem Bundesverfassungsgericht.

Auch die Organisation Reporter ohne Grenzen kündigte gestern an, mit dem Berliner Rechtsanwalt Prof. Niko Härting Verfassungsbeschwerde einzulegen. Sie sieht die Pressefreiheit und den digitalen Quellenschutz durch das Gesetz bedroht. „Einen so massiven Angriff auf die Vertraulichkeit journalistischer Recherchen und die Anonymität von Quellen dürfen wir nicht hinnehmen“, so Geschäftsführer Christian Mihr.

Kritik an den Staatstrojanern vereint auch internationale Tech-Konzerne wie Google und Facebook mit zivilgesellschaftlichen Organisationen wie dem Chaos Computer Club, die sich in einem offenen Brief gegen diese Form von Überwachung wehren.

Die Unionsfraktion begründet den Einsatz von Staatstrojanern damit, dass man den Verfassungsschutz so auf den Stand der Technik bringe. „Als die Leute sich noch mit Rauchzeichen oder Topfschlagen verständigt haben, da konnte jeder mithören“, so der CDU Abgeordnete Mathias Middelberg in der Aussprache im Bundestag. Die Quellen-TKÜ plus sei einfach „die Anpassung an technische Verhältnisse“ und wichtig, um Terrorismus abzuwehren und die innere Sicherheit zu verbessern.

Es sei „ein guter Tag für die Sicherheit in Deutschland“, meinte der CSU-Abgeordnete Michael Kuffer im Bundestag. „Ein massives Sicherheitsproblem, was sie hier veranstalten“, nannte es der Grünen-Abgeordnete Konstantin von Notz. Auch Stephan Thomae von der FDP warnte vor dem Sicherheitsrisiko, das Staatstrojaner mit sich bringen.

Staatstrojaner brauchen offene Sicherheitslücken

Um Staatstrojaner zu installieren, müssen Behörden IT-Sicherheitslücken auf Geräten ausnutzen. Es entsteht also ein Anreiz, bekannte Sicherheitslücken offen zu halten. Und das kann der inneren Sicherheit mehr schaden als nützen.

Dieses Problem kennt die SPD-Parteivorsitzende Esken. Sie schrieb noch am Tag vor der Abstimmung, dass sie die beschlossenen Mittel falsch findet, denn sie „schaden der Idee demokratischer Netze und unser aller Sicherheit.“ Sie stimmte aber im Bundestag nicht dagegen, sondern gab gar keine Stimme zu dem Gesetz ab. Die Jugendorganisation der SPD versuchte kurz vor der Abstimmung mit einem offenen Brief, die Bundestagsfraktion von ihrer Zustimmung zum Gesetz abzuhalten.

Vergeblich: Kurz vor dem Ende der Legislaturperiode haben SPD und Union gleich zweimal grünes Licht für Staatstrojaner gegeben. Denn auch für die Bundespolizei hat die Große Koalition den Einsatz von Staatstrojanern in dieser vorletzten Sitzungswoche des Bundestags ausgeweitet. Die Polizei darf die Überwachungsmethoden schon anwenden, wenn noch gar keine Straftat begangen wurde.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Studie: Öffentliche Plattformen für nachhaltige Mobilität

netzpolitik.org - 10 Juni, 2021 - 14:05

Mit dem Bus zum nächstgelegenen Bahnhof, mit der Regionalbahn in die Stadt und für die letzten Meter ins Büro noch schnell ein Fahrrad via Bikesharing ausleihen. So sieht der alltägliche Weg zum Arbeitsplatz für manche Berufstätigen aus. In den letzten Jahren sind viele Mobilitätsdienstleistungen entstanden, die den Menschen mobiler und das eigene Auto zukünftig fast überflüssig machen könnten. Gerade auf dem Land könnten Mobilitätsplattformen, die diese Angebote bündeln, einen großen Mehrwert bieten. Doch oft sammeln Anbieter*innen Daten über Nutzende, die letztlich in den Händen großer Konzerne landen. Die Forderung einer neuen Studie lautet daher: „Mobilitätsplattformen gehören in öffentliche Hand“.

Wie Kommunen mit öffentlichen Mobilitätsplattformen die sozial-ökologische Verkehrswende positiv beeinflussen können, zeigt eine neue Studie von Attac Deutschland und der Rosa-Luxemburg-Stiftung. Insbesondere in ländlichen Regionen sollen Kommunen eigene, öffentliche Plattformen betreiben, um den ÖPNV attraktiver zu gestalten. „Die Studie beleuchtet, wie genau sie das tun und wie Plattformen hierfür ausgestaltet und politisch begleitet werden müssen: Datengeschützt und gemeinwohl- statt profitorientiert, partizipativ unter demokratischer Kontrolle, inklusiv und bedürfnisorientiert“, heißt es auf der Website von Attac. Der Fokus liege auf Bus und Bahn, hinzu kommen dezentrale Zubringerdienste, wo die ÖPNV-Anbindung unzureichend ist, heißt es in einer zugehörigen Pressemitteilung.

Private versus öffentliche Mobilitätsplattformen

Das Angebot an Mobilitätsdienstleistungen im Personennahverkehr habe sich in den letzten Jahren durch Dienste wie Carsharing, Bikesharing und E-Roller vervielfacht. Der öffentliche Zugang zu Autos, Fahrrädern und Co. hatte eine Individualisierung des öffentlichen Nahverkehrs zur Folge, aus denen auch digitale Mobilitätsdienste entstanden sind. In den letzten fünf Jahren hat sich eine zweite Generation von Mobilitätsplattformen entwickelt. Diese basieren auf dem sogenannten Mobility-as-a-Service-Ansatz – kurz MaaS. MaaS-Plattformen bündeln und vermitteln Sharing-Angebote und Fahrdienste über eine zentrale digitale Infrastruktur. Mittlerweile haben sowohl private Anbieter*innen als auch öffentliche Verkehrsunternehmen begonnen, Dienste externer Unternehmen in die eigenen Plattformen zu integrieren.

Eigentlich sollen diese Plattformen dabei helfen, die Verkehrsemissionen bis 2030 um 40 Prozent zu senken. Die Ausbreitung von privaten Plattformunternehmen gefährdet jedoch die klimagerechten Ziele der Verkehrswende. Private Mobilitätsdienste wie Google Maps, Moovit oder FreeNow haben weder das Gemeinwohl noch den Klimaschutz als primäres Ziel, sondern Profit und die Ausübung ihrer Marktmacht, so geht es aus dem Impulspapier der Initiator*innen hervor. Außerdem schaffen sie „neue prekäre Beschäftigungsverhältnisse und erhalten exklusiven Datenzugriff auf die Bewegungsprofile von Millionen Menschen“. Kommunen müssen daher selbst aktiv werden und öffentliche digitale Infrastrukturen schaffen, in denen Versorgungssicherheit, Sozialstandards, Transparenz und Daten- und Klimaschutz im Fokus stehen.

Datenschutzfreundlicher Plattform-Kommunalismus

Auf Basis von MaaS-Plattformen soll „ein erweitertes öffentliches Verkehrsnetz entstehen“, so die Studie. Zweck sei es, die Intermodalität so attraktiv zu machen, dass die Alternative zum Pkw besser wird, ergänzt Dominik Piétron, einer der Autor*innen der Studie, in der Pressekonferenz. Ziel sei es, mehrere MaaS-Plattformen gleichzeitig durch kommunale Verkehrsbetriebe aufzubauen und damit eine Art Plattform-Kommunalismus in der digitalen Infrastrukturpolitik zu schaffen. In der Studie erläutern die Autor*innen daher auch Gemeinwohl-Prinzipien, die beispielsweise datenschutzfreundliche und demokratische Standards schaffen sollen. Eine Maßnahme sei auch, frei zugängliche Software und Datentreuhänder – unabhängige Datenverwalter*innen – einzusetzen. Die Pressemitteilung der Initiator*innen zitiert Anastasia Blinzov von der Rosa-Luxemburg-Stiftung:

Um die informationelle Selbstbestimmung der Bürger*innen sicherzustellen, müssen die Mobilitätsdaten unabhängig und kollektiv durch demokratisch kontrollierte Datentreuhänder verwaltet werden. Nur gemeinwohlorientierte Anbieter dürfen Zugang erhalten.

Auch Risiken öffentlicher Mobilitätsplattformen und mögliche Lösungsansätze werden in der Studie beschrieben. So sollen Gefahren wie Rebound-Effekte, Überwachung und Diskriminierung und steigende Anbieterabhängigkeit durch gezielte Maßnahmen zumindest minimiert werden. Die Autor*innen führen auch einige Good-Practice-Beispiele an. Darunter ist beispielsweise die Stadt Bremen, die eine Sharing-Genehmigungspflicht und eine Sondernutzungserlaubnis für E-Scooter-Sharing eingeführt hat. Bisher unterlagen Sharing-Dienste nach aktueller Rechtsprechung einem sogenannten erlaubnisfreien Gemeingebrauch, der eine Sondernutzungserlaubnis nur unter bestimmten Umständen einräumt.

Mark Herterich von Attac Deutschland betont am Ende der Pressekonferenz, Ziel der Studie sei auch, regionale Verkehrswendegruppen und Verkehrsakteur*innen zusammenzubringen, um lokale Allianzen bilden zu können. Die Studie sei nicht dafür angelegt, um irgendwann in Schubladen zu verschwinden, sondern „soll auch Konsequenzen für Aktivismus und politische Arbeit haben.“

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

IT-Sicherheit im Gesundheitsministerium: Unbedarft durch die Pandemie

netzpolitik.org - 10 Juni, 2021 - 12:13

Die Digitalisierung des Gesundheitssystems steht im Bundesgesundheitsministerium (BMG) schon seit einigen Jahren ganz oben auf der Agenda. In kurzen Abständen beglückt Jens Spahn die Republik mit riesigen Gesetzespaketen, die das Gesundheitswesen mit Forschungsdaten, Sprechstunden über Videokonferenzen und der elektronischen Patientenakte fit für die Zukunft machen sollen. Viele Digitalisierungspläne haben durch die Pandemie einen zusätzliche Schub bekommen.

In der Vergangenheit wiesen Spahns Vorhaben oft Probleme bei Datenschutz und IT-Sicherheit auf. Die Apps auf Rezept haben Sicherheitslücken, das Gesetz zur elektronischen Patientenakte ist vermutlich datenschutzwidrig, die Forschungsdaten sind bisher nicht gut aufgehoben. Doch dass IT-Sicherheit ein wichtiges Thema ist, scheint noch nicht ganz im Gesundheitsministerium angekommen zu sein.

Im Februar hatte eine schriftliche Anfrage der netzpolitischen Sprecherin der Linkspartei Anke Domscheit-Berg ergeben, dass rund 80 Prozent der vorgesehenen Stellen für IT-Sicherheit im Gesundheitsministerium unbesetzt geblieben waren. Nur etwa zweieinhalb Stellen waren besetzt. Mitte Mai fragte Domscheit-Berg erneut nach. Das Resultat: Weiterhin sind nur zweieinhalb IT-Stellen besetzt. Anders als andere Ministerien beauftragte Spahn auch keine externen Unternehmen für die IT-Sicherheit seines Hauses.

Haushaltsausschuss genehmigt vier von 68 nötigen Stellen

Auf Anfrage von netzpolitik.org begründet eine Sprecherin das Ministeriums die vielen offenen Stellen mit dem Fachkräftemangel im IT-Sektor: „Bei der Gewinnung von IT-Personal gibt es eine besondere Konkurrenzsituation zwischen freier Wirtschaft und öffentlichem Dienst als Arbeitgeber. Auf entsprechende Ausschreibungen gehen in der Folge häufig nur wenige Bewerbungen ein.“

Das Ministerium messe der Gewinnung qualifizierter Kräfte besondere Bedeutung bei, so die Sprecherin. Das gelte auch für die Behörden, die in den Geschäftsbereich des Gesundheitsressorts fallen, also die Bundeszentrale für gesundheitliche Aufklärung, das Bundesinstitut für Arzneimittel und Medizinprodukte, das Paul-Ehrlich-Institut und das Robert Koch-Institut (RKI). Doch trotz der „besonderen Bedeutung“ der Personalsuche, findet sich auf der Webseite des Ministerium unter Ausschreibungen derzeit keine für den Bereich IT.

Eine Kleine Anfrage der Linksfraktion im Bundestag zeigte schon im Februar Mängel bei den Behörden des BMG. Beim Robert Koch-Institut, beim Paul-Ehrlich-Institut und bei der Bundeszentrale für gesundheitliche Aufklärung fehlen IT-Fachkräfte. So beantragte das RKI für das letzte Jahr 68 neue IT-Stellen. Der Haushaltsausschuss des Bundestags bewilligte lediglich vier.

Ministerium sieht sich voll arbeitsfähig

Die Handlungsfähigkeit sieht man im Gesundheitsministerium dadurch nicht in Gefahr: „Selbst angesichts des außerordentlich hohen Zusatzaufwands durch die Pandemie gerade auch für den IT-Bereich ist es – auch dank des großen Engagements der Mitarbeiterinnen und Mitarbeiter im BMG und im Geschäftsbereich – zu jedem Zeitpunkt gelungen, die volle Arbeitsfähigkeit und IT-Sicherheit zu gewährleisten.“, so die Sprecherin.

Wie genau das „Engagement“ der Mitarbeiter:innen auf den zweieinhalb besetzten Stellen aussieht, ob sie Überstunden machen, um die unbesetzten Stellen zu kompensieren oder fachfremde Beschäftigte die IT-Sicherheit unterstützen, erläutert sie aber nicht. So oder so fällt es schwer, sich bei acht unbesetzten Stellen eine „volle Arbeitsfähigkeit“ vorzustellen.

Opposition kritisiert vernachlässigte IT-Sicherheit

Im Aufgabenbereich der zweieinhalb Stellen liegen laut Ministerium unter anderem: die Überarbeitung und Umsetzung von IT-Sicherheitskonzepten, die Zusammenarbeit mit dem Bundesamt für Sicherheit in der Informationstechnik und die Anpassung der IT-Infrastruktur an neue Anforderungen im Bereich Sicherheit. Die nicht besetzten acht weiteren IT-Stellen würden „in den genannten Aufgabenbereichen weitere Unterstützung leisten“.

Die Linkenpolitikerin Anke Domscheit-Berg kritisiert gegenüber netzpolitik.org Spahns fehlende Sensibilität für die Anforderungen der digitalen Welt: „Gesundheitsminister Spahn hat immer wieder betont, wie wichtig ihm eine schnelle Digitalisierung im Gesundheitswesen ist, hat aber offensichtlich den elementaren Zusammenhang zwischen Datenschutz und IT-Sicherheit nicht verstanden, denn anders ist nicht erklärbar, wie sträflich er den Bereich der IT-Sicherheit im eigenen Haus vernachlässigt.“

Gerade angesichts der vielen IT-Sicherheitsthemen in der Pandemie kann Domscheit-Berg das nicht nachvollziehen: „Wie wollen seine Fachkräfte die IT-Sicherheit bei der Umsetzung von digitalen Impfzertifikaten oder der elektronischen Patientenakte beurteilen? Wie will er rechtfertigen, dass der Bund die Kosten für eine Luca-App übernimmt, deren zahlreiche Sicherheitslücken zur Abschaltung einer Schnittstelle bei der Kontaktverfolgungssoftware (SORMAS) geführt haben und vor deren Einsatz fast 80 IT-Sicherheitsforscher:innen in Deutschland und die Expert:innen des Chaos Computer Clubs ausdrücklich warnen?“

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Prototype Fund: Herausforderungen in der Open-Source-Welt

netzpolitik.org - 10 Juni, 2021 - 10:02

Was muss geschehen, damit Open-Source-Projekte nicht als gute Idee im Sand verlaufen, sondern nachhaltig weiterentwickelt werden? Warum gibt es immer noch viel weniger Frauen als Männer, die offene Software gestalten? Und wie können Nutzende dazu bewegt werden, souveräner mit Technologien umzugehen? Das sind zentrale Fragen, die ein Zwischenbericht des Prototype Fund genauer unter die Lupe genommen hat.

Der Prototype Fund ist ein Förderprogramm des Bundesministeriums für Bildung und Forschung und richtet sich an Software-Entwickler:innen in Deutschland, die gemeinwohlorientierte Open-Source-Projekte entwickeln. Über sechs Monate können sie durch das Programm finanzielle Unterstützung bekomme und werden von der Open Knowledge Foundation Deutschland betreut. Gleichzeitig wertet der Prototype Fund aus, welche Probleme es bei Open-Source-Projekten in den verschiedenen Förderrunden gibt und wie sie sich lösen lassen.

Oft fehlt bei Entwickler:innen der lange Atem

So nahm die Begleitforschung in den Blick, warum Open-Source-Projekte oft kurzfristig aufblühen, sich langfristig aber nicht halten können: Wenn der Quellcode öffentlich zugänglich ist, fühle sich unter Umständen niemand verantwortlich, das Projekt konstant aufrecht zu erhalten. Zudem sei der Reiz für Entwickler:innen häufig größer, etwas komplett neu zu entwickeln als Vorhandenes weiterzuentwickeln. Außerdem stellen die Autorinnen des Reports fest, dass bestehende Förderungen für Gründungen im Bereich gemeinwohlorientierter Open-Source-Projekte oft gar nicht greifen.

Der Bericht stellt einzelne, vom Fund geförderte Projekte heraus, die Strategien fanden, sich dennoch nachhaltig auszurichten. So habe sich bei UwaziML, einer Open-Source-Lösung für die Organisation, Analyse und Veröffentlichung von Dokumenten, die interdisziplinäre Zusammenarbeit von Forscher:innen, Journalist:innen und Menschenrechtler:innen bewährt. In diversen Teams sei es leichter, neues Personal zu finden und zu integrieren.

Ein anderes Positiv-Beispiel aus dem Bericht ist das Projekt Datenguide. Hier sei der Wissenstransfer in andere Bereiche das Erfolgskriterium. Das Tool von Datenjournalist:innen bereitet Statistiken verständlich auf – ursprünglich für andere Journalist:innen. Mittlerweile beraten sie aber auch Verwaltungen, wie sie ihre Daten öffnen können.

Mehr Genderdiversität in der Männerdomäne

„Die Anwendung und Umsetzung technologischer Produkte wird bisher weitgehend von Männern betrieben“, heißt es in dem Bericht zur dritten Förderrunde. Aber warum? Schon an Schulen und später an Universitäten gebe es wenig weibliche Vorbilder und Unterstützung für Frauen im Tech-Bereich. Die vorhandenen Unterstützungsstrukturen seien häufig eher den privilegierteren Schichten zugänglich. Bei der Analyse der im Prototype Fund eingereichten Bewerbungen fiel zudem auf, dass Frauen im Bereich von Infrastrukturprojekten besonders unterrepräsentiert waren.

Es zeigte sich, dass besonders viele Frauen am Berufsanfang oder vor einem Quereinstieg in die Branche stehen. Daher schraubte der Prototype Fund den Eigenanteil, den Teilnehmende für Projekte aufbringen müssen, in der dritten Programmphase von 40 auf 5 Prozent herunter. „Damit wird das Programm attraktiver für Personenkreise ohne große finanzielle Rücklagen“, so der Bericht. Außerdem empfehlen die Autorinnen Weiterbildungsmaßnahmen im Bereich Diversity, agile Arbeitsmethoden und Internationalisierung von Projekten, um sie attraktiver für Frauen zu machen.

Offene Technologien brauchen souveräne Nutzer:innen

Offene Software ermöglicht Anwender:innen zwar theoretisch, Systeme zu prüfen und nach Datenschutz und Sicherheit zu entscheiden, wie sie die Anwendungen nutzen möchten. „Diese informierte und handlungsstarke Position ist aber nicht allen Nutzer:innen gleichermaßen möglich“, so der Bericht zur vierten Förderrunde. Digitale Teilhabe, digitale Kompetenz sowie digitale Mündigkeit und Selbstermächtigung seien wichtig, um Souveränität der Nutzer:innen zu fördern.

Konkret kann das so aussehen wie beim Projekt Mein.Luftdaten.info. Es setzt auf möglichst breite Beteiligung von Schüler:innen bis zu Rentner:innen, die selbst offene Umweltdaten produzieren können. Ein einfacher und kostengünstiger Bausatz animiere auch nicht-Technik-affine Menschen dazu, einen Feinstaub-Sensor zu bauen und in der eigenen Lebensumgebung einzusetzen.

Ein anderes Beispiel für digitale Teilhabe ist das Projekt Freigeist. Es ermöglicht Menschen mit kognitiven Schwächen, selbstständig Aufgaben im Arbeitsalltag zu erledigen, die ihnen ohne die Hilfestellung verwehrt bleiben. In einem ersten Teilprojekt verfolgen Bewegungssensoren die einzelnen Arbeitsschritte bei der Zubereitung von Speisen. Interaktive Videoprojektionen blenden dann Hilfestellungen ein, sodass die Menschen in einem Bistro eigenständig arbeiten können.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Apple: Neue Privatsphäre-Features gibt es nicht in Belarus, Saudi-Arabien und China

netzpolitik.org - 9 Juni, 2021 - 07:20

Das künftige Privatsphäre-Feature „Private Relay“ von Apple, welches das Browsing-Verhalten der Nutzer:innen gegenüber Providern und Werbetreibenden verschleiern soll, wird in China, Belarus, Kolumbien, Ägypten, Kasachstan, Saudi-Arabien, Südafrika, Turkmenistan, Uganda und den Philippinen nicht verfügbar sein. Private Relay soll demnächst über ein Abo-Modell erhältlich sein und erlaubt in Apples Browser Safari die Nutzung über eine Art doppeltes Virtual Private Network (VPN).

Apple stellte die Funktion auf seiner Entwicklerkonferenz am Montag vor. Bei Private Relay wird der Traffic des Browsers an die Server von Apple gesendet, um den Netzwerkverkehr dort zunächst von den IP-Adressen der Nutzer zu lösen. Apple leitet die Daten dann an einen Drittanbieter weiter, der wiederum unterschiedliche temporäre IP-Adressen vergibt und die Daten zum gewählten Zielserver sende. Die Lösung über zwei Server soll vermeiden, dass Apple die Informationen zu einzelnen Nutzern mit deren angesurften Webseiten verknüpfen kann. Wer die Drittanbieter sein sollen, gab das Unternehmen noch nicht bekannt.

Apple macht laut Informationen der Nachrichtenagentur Reuters mittlerweile fast 15 Prozent seines Umsatzes in China. Privacy Relay werde dort wegen lokaler Gesetze nicht angeboten. Das gleiche gilt für die anderen Länder, in denen es das Privatsphäre-Feature nicht geben wird.

Doppelte Standards

Apple war zuletzt in die Kritik geraten, weil es die Daten von Kund:innen in China speichert und laut Expertinnen dabei im Endeffekt die Schlüssel für iCloud übergebe. Apple dementierte dies. Darüber hinaus warf Apple Apps aus seinem Store, die Inhalte zu Tibet oder dem Tiananmen-Massaker enthielten. Seit 2017 sind so 55.000 Apps, die sonst in anderen Ländern erhältlich sind, vom chinesischen Markt verschwunden. Die meisten von ihnen waren Spiele, aber auch LGBT-Dating-Plattformen oder Apps zur verschlüsselten Kommunikation gehören zu den Programmen, die der chinesische Staat nicht haben will.

Wer auf seiner Webseite damit wirbt, dass Privatsphäre ein Menschenrecht sei, der muss sich an dieser Aussage bei seinen Taten messen lassen. Sonst handelt es sich um einen Marketing-Gag, der nur für Demokratien gilt. Unternehmen können sich entscheiden, ob sie ihre Produkte in China verkaufen und sie sich den örtlichen Regeln unterwerfen. Das gilt für den chinesischen Markt genauso wie den von Belarus, Ägypten oder Turkmenistan.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Gefängnis: Warum Künstliche Intelligenz Suizide nicht verhindert

netzpolitik.org - 9 Juni, 2021 - 07:02

Nach Nordrhein-Westfalen will nun auch Niedersachsen seine Gefängnisse mit Künstlicher Intelligenz ausstatten, um Suizide zu vermeiden. Konkret schwebt den niedersächsischen Regierungsparteien vor, dass eine Kamera suizidales Verhalten von Gefangenen erkennen und Alarm schlagen soll. Hier könne sich der Staat „innovativ und innovationsfreudig an die Spitze von neuen Entwicklungen“ stellen, sagt CDU-Politiker Christian Calderone bei der ersten Aussprache zum Vorschlag von CDU und SPD Mitte März im Landtag in Hannover.

Seit dem Jahr 2000 gab es in deutschen Gefängnissen laut der Statistik der Bundesarbeitsgemeinschaft Suizidprävention im Justizvollzug mindestens 1.540 Suizide. Für den Staat sind diese Todesfälle ein Problem. Denn indem er den Gefangenen ihre Freiheit entzieht, übernimmt er auch Verantwortung für ihre Gesundheit. Zumal der Tod eines Inhaftierten so ziemlich das Gegenteil des Vollzugsziels Resozialisierung ist.

Wenn es Dir nicht gut geht oder Du daran denkst, dir das Leben zu nehmen, versuche, mit anderen Menschen darüber zu sprechen. Das können Freund*innen oder Verwandte sein, es gibt aber auch Hilfsangebote. Die Telefonseelsorge ist anonym, kostenlos und rund um die Uhr unter 0800/111 0 111 und 0800/111 0 222 erreichbar. Es gibt auch die Möglichkeit einer E-Mailberatung oder eines Hilfe-Chats. Informationen unter: telefonseelsorge.de

Jeder Suizid ist komplex und man kann die Gründe nicht nur in der Institution Gefängnis suchen. Wer im Gefängnis sitzt, war auch schon vor der Haft häufig arm, psychisch erkrankt und männlich. Gefangene gelten daher als Risikogruppe. In deutschen Gefängnissen gibt es zwar eine Reihe von Maßnahmen wie zum Beispiel ein Suizidscreening bei Haftantritt, aber verhindern können sie Suizide oft nicht.

Zu viel versprochen?

Doch können Algorithmen einen Suizidversuch erkennen? Ein Forscher*innen-Team, unter anderem von den Universitäten Stanford und Yale, kam im vergangenen Jahr in einer Meta-Analyse zu dem Schluss, dass die Forschung zur Erkennung von Suiziden mittels Künstlicher Intelligenz noch ganz am Anfang stehe.

Expert*innen, die netzpolitik.org zu dem Vorschlag aus Niedersachsen befragt hat, sind skeptisch. „Grundsätzlich finde ich die Idee gut“, sagt Kristian Kersting, Professor an der TU Darmstadt und stellvertretender Vorsitzender des Hessian Center for Artificial Intelligence. „Aber ich mache mir Sorgen, dass hier zu viel versprochen wird.“ Auch die JVA-Psychologin und Vorsitzende der Bundesarbeitsgemeinschaft Suizidprävention im Justizvollzug, Maja Meischner-Al-Mousawi, sagt: „Die allermeisten Suizide sind damit nicht zu verhindern.“ Und der Vorsitzende der Gewerkschaft der Bediensteten im Strafvollzug, BSBD, Rene Müller, warnt vor „trügerischer Sicherheit“.

Im niedersächsischen Landtag wirbt CDU-Politiker Christian Calderone jedoch für die technische Lösung. „Künstliche Intelligenz wird aktuell vielfach in Justizvollzugsanstalten erprobt“, sagt er Mitte März. „Wir wollen und werden als Niedersachsen für diesen Einsatz bereit sein, auch nach den Ergebnissen aus Nordrhein-Westfalen.“ Er bezieht sich damit auf ein Forschungsprojekt des Justizministeriums in Nordrhein-Westfalen. Die Künstliche Intelligenz wurde laut dem dortigen Justizministerium aber noch gar nicht in einem Gefängnis erprobt. Und auch auf welche anderen Probeläufe er sich beziehe, beantwortet Calderone auf Nachfrage nicht. Mehr noch: Der Blick nach Nordrhein-Westfalen zeigt, dass bislang völlig unklar ist, ob die Technik jemals zum Einsatz kommen wird.

Extrapunkte für Rauchmelder

Das Justizministerium in Nordrhein-Westfalen beauftragte 2019 die Firma Fusion Systems aus Chemnitz für 162.000 Euro mit einem Forschungsprojekt. Sie gewannen eine Ausschreibung, die wir veröffentlichen. Das Ziel: Eine Kamera, die mithilfe Künstlicher Intelligenz Bewegungsmuster von Gefangenen analysiert, suizidales Verhalten erkennt und Alarm schlägt, damit die Bediensteten eingreifen können.

Laut der Ausschreibung geschehen rund 80 Prozent aller Suizide im Gefängnis durch Strangulation. Die Künstliche Intelligenz soll „zumindest in einem ersten Schritt“ diese häufigste Suizidform erkennen. Extrapunkte bei der Vergabe des Auftrags gibt es, wenn die Technik auch andere Suizidformen erkennt oder die Kamera einen Rauchmelder eingebaut hat.

Wo keine Kamera, da keine KI

Kameraüberwacht sind in deutschen Gefängnissen zum Beispiel besonders gesicherte Hafträume oder spezielle Suizidpräventionsräume. Dorthin werden Gefangene verlegt, wenn sie akut sich selbst oder andere gefährden könnten. Manche Gefangene nennen diese Räume den „Bunker“. Sie sind in der Regel so gestaltet, dass sich Menschen darin nur schwer töten können – nicht zuletzt, weil ein Bediensteter den Gefangenen ununterbrochen überwachen kann. „Es gibt Suizide in kameraüberwachten Hafträumen. Vielleicht, weil der Mitarbeiter im entscheidenden Moment nicht auf den Bildschirm geguckt hat“, sagt Maja Meischner-Al-Mousawi. „Hier könnte die KI, die Alarm schlägt, eine Ergänzung sein.“

Kameraüberwachte Zellen gibt es in den meisten Gefängnissen nur vereinzelt. Hier ein „besonders gesicherter Haftraum“ in der Untersuchungshaft in Berlin-Moabit. - Alle Rechte vorbehalten IMAGO/Rolf Kremming

Doch auf die Kamera können sich die Bediensteten bei der Suizidprävention selten verlassen. „Wir wissen, dass die meisten Suizide in Einzelhafträumen ohne Kameraüberwachung passieren“, sagt Meischner-Al-Mousawi. „Dieses KI-Projekt betrifft daher nur eine ganz kleine Anzahl an Gefangenen.“

Dem Ruf nach mehr Kameras im Gefängnis erteilte die niedersächsische Datenschutzbeauftragte Barbara Thiel vorsorglich eine Absage. Eine Ausweitung der Kameraüberwachung auf andere Hafträume komme nicht infrage, so Thiel in einer Pressemitteilung. „Wenn eine Vielzahl unbeteiligter Inhaftierter, deren Verhalten keinen besonderen Anlass zur Beobachtung gegeben hat, dennoch einem permanenten Überwachungsdruck ausgesetzt wird, würde das in unverhältnismäßiger Weise in deren Grundrechte eingreifen.“

„Es dürfte ständig der Alarm ausgelöst werden“

Die Anforderungen an die Zuverlässigkeit der Technik sind in einem sensiblen Bereich wie der Suizidprävention besonders hoch. Das zeigt sich auch in einer Anlage der Ausschreibung des nordrhein-westfälischen Ministeriums. „Die Fehlerquote muss daher nach Abschluss des Forschungsauftrags quasi ausgeschlossen werden können“, ist dort festgelegt. Das heißt, die Technik darf keinen Suizidversuch übersehen. Falscher Alarm soll allerdings auch möglichst nicht vorkommen.

„Das ist eigentlich eine richtige Bedingung, aber sie ist utopisch“, sagt KI-Forscher Kristian Kersting. „Um sicherzugehen, dass kein Suizid unentdeckt bleibt, dürfte ständig der Alarm ausgelöst werden. Damit das System einsetzbar ist, müssen die falsch-positiven und die falsch-negativen Ereignisse ausbalanciert werden.“

Rene Müller von der Strafvollzugsgewerkschaft BSDB warnt, dass das Vorhaben ungewünschte Effekte hervorbringen könnte. „Ich sehe die Gefahr, dass wir das Personal über Gebühr belasten, wenn die KI zu oft Alarm auslöst“, sagt Müller. Aufgrund der zu erwartenden Mehrbelastung müsste für die Erprobungsphase einer KI daher zusätzliches Personal eingestellt werden. Gleichzeitig könnte die Aufmerksamkeit der Bediensteten nachlassen, wenn sie sich darauf verließen, dass die KI schon anschlage, wenn sich ein Suizid anbahnt.

Suizide nachgestellt

Die Chemnitzer Firma Fusion Systems hat ihre Forschungsergebnisse mittlerweile an das Justizministerium in Nordrhein-Westfalen übergeben, teilt dieses auf Anfrage mit. Dort berate man derzeit, wie die „noch nicht hinreichende Detektionsgüte“ verbessert werden könne. Die Firma hatte die Künstliche Intelligenz mit Aufnahmen von Schauspieler*innen trainiert. Dafür habe sie „lebensrealistische Szenarien“ entwickelt, teilt das Justizministerium mit.

Solche nachgestellten Aufnahmen könnten sogenannte „echte Daten“, also Aufnahmen von suizidalen Handlungen, lediglich ergänzen, sagt Kristian Kersting. „Ich bin aber sehr skeptisch, ob durch den Einsatz von Schauspielern eine so hohe Treffsicherheit erzielt werden kann.“

Originalaufnahmen von Suiziden in Gefängnissen existierten in Nordrhein-Westfalen nicht, teilt das Ministerium mit. Bundesweit gebe es laut BAG Suizidprävention weniger als zehn solcher Aufnahmen.

Dabei seien „echte“ Aufnahmen wichtig, um die Datengrundlage, auf der die KI Suizide erkennen soll, nicht zu verzerren. „Je mehr echte Daten für die Entwicklung der KI zur Verfügung stehen, desto besser“, sagt KI-Forscher Kersting. „Allein unterschiedliche Beleuchtungsbedingungen oder Raummaße, aber auch die unterschiedliche Herkunft der Gefangenen erschweren es für die Technik, menschliche Handlungen wie einen Suizid zu erkennen.“

Konzepte statt KI

Im Landtag von Niedersachsen bemühten sich die Politiker*innen von CDU und SPD klarzustellen, dass es sich bei der Künstlichen Intelligenz lediglich um ein „Assistenzsystem“ handele. Sie solle kein Personal ersetzen. Doch gerade im Personalmangel liegt ein großes Problem bei der Suizidprävention. Laut der Gewerkschaft BSBD sind seit Jahren rund 2.000 Stellen im Strafvollzug unbesetzt. Trotz zahlreicher Einstellungsbemühungen der Gefängnisse könnten sie die altersbedingten Abgänge vielerorts kaum ausgleichen, sagt Rene Müller. Er befürchtet, dass die Künstliche Intelligenz letztlich das Personal ersetzen soll, das die Gefängnisse nicht gewinnen können.

Suizidprävention im Gefängnis könne nur durch ausreichend Personal gewährleistet werden, findet auch Psychologin Maja Meischner-Al-Mousawi. „Suizidale Gefangene sollten durch Menschen betreut werden und nicht durch Technik“, fordert die Vorsitzende der BAG Suizidprävention. „Denn eine Kamera arbeitet bei suizidalen Menschen nicht am Problem.“ Sie plädiert dafür, umfassende Präventionskonzepte zu entwickeln und umzusetzen.

Das reicht von Fortbildungen der Mitarbeiter*innen über speziell eingerichtete Präventionsräume bis hin zu ausgebildeten Mitgefangenen. So gibt es in bayerischen Gefängnissen das sogenannte Listener-Projekt. Dabei werden Gefangene geschult, um neu Inhaftierten in der ersten Zeit beizustehen, denn in den Wochen nach der Inhaftierung töten sich besonders häufig Menschen.

Vorbereitungen laufen bereits

Um im Ernstfall jemanden zum Reden zu haben, gibt es außerdem sogenannte Tandem-Zellen, die durch eine Tür miteinander verbunden sind. „Das Listener-Projekt aus Bayern, spezielle Präventionsräume oder sogenannte Tandem-Zellen können Bausteine eines solchen Konzepts sein“, sagt Meischner. Sie müssten jedoch zusätzlich auf die jeweilige Gefangenenstruktur und die Gegebenheiten vor Ort angepasst werden.

Die Regierungsparteien in Niedersachsen, CDU und SPD, haben in ihrem Beschlussantrag im Landtag „unverzüglich eine Ausschreibung für ein Forschungsprojekt“ gefordert. Aktuell liegt der Antrag noch im Rechtsausschuss, im Justizministerium laufen die Vorbereitungen jedoch bereits. Das Ministerium in Nordrhein-Westfalen prüft aktuell, ob es mit Niedersachsen zusammenarbeiten kann, bevor es weitere Schritte plant.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Bundespolizeigesetz: Große Koalition einigt sich auf Staatstrojaner-Einsatz schon vor Straftaten

netzpolitik.org - 8 Juni, 2021 - 18:43

Die Große Koalition im Bundestag hat sich auf einen Kompromiss zum Bundespolizeigesetz verständigt. Über Monate haben erst die Ministerien, dann die Regierungsfraktionen verhandelt, dreimal wurde die Abstimmung des Gesetzes verschoben. Gestern haben sich SPD und Union auf Änderungen geeinigt, die wir an dieser Stelle veröffentlichen.

Mit dem neuen Gesetz darf die größte Polizei Deutschlands Staatstrojaner gegen Personen einsetzen, die noch gar keine Straftat begangen haben. Die Bundespolizei erhält die Befugnis zur präventiven Telekommunikationsüberwachung, auch mittels Schadsoftware auf Endgeräten. Der Einsatz soll „sich gegen Personen richten, gegen die noch kein Tatverdacht begründet ist und daher noch keine strafprozessuale [Telekommunikationsüberwachung] angeordnet werden kann“.

Im Februar sagte uns die SPD-Parteivorsitzende Saskia Esken, die Bundespolizei bekomme den Staatstrojaner „auf keinen Fall präventiv, also nicht unterhalb der Schwelle der Strafprozessordnung“. Dieses Versprechen hält die SPD nicht ein. Unsere Presseanfrage von gestern hat Esken nicht beantwortet.

Quellen-TKÜ plus/minus

Staatstrojaner bezeichnet Überwachungs-Software, mit der Polizei und Geheimdienste IT-Geräte wie Smartphones infizieren. Der große Staatstrojaner „Online-Durchsuchung“ kann sämtliche Daten des Geräts durchsuchen und ausleiten. Der kleine Staatstrojaner „Quellen-Telekommunikationsüberwachung“ (Quellen-TKÜ) muss sich laut Bundesverfassungsgericht auf laufende Kommunikation beschränken.

Vor vier Jahren, kurz vor Ende der letzten Legislaturperiode, hat die Große Koalition den Staatstrojaner auf alle Polizeibehörden und eine lange Liste an Straftaten ausgeweitet. Seitdem darf die Polizei mit dem kleinen Staatstrojaner auch gespeicherte Kommunikation ausleiten. Jurist:innen und Sachverständige bezeichnen eine solche „Quellen-TKÜ plus“ als „schlicht verfassungswidrig“ oder „offensichtlich verfassungswidrig“.

Die Bundesregierung wollte eine solche „Quellen-TKÜ plus“ in das Bundespolizeigesetz schreiben. Das hat die Große Koalition jetzt wieder gestrichen. Uli Grötsch, der für die SPD im Innenausschuss am Gesetz gearbeitet hat, kommentiert gegenüber netzpolitik.org: „Uns ist wichtig, dass die Bundespolizei im Rahmen ihrer Befugnisse nicht auf gespeicherte Inhalte zugreifen, sondern nur laufende Kommunikation überwachen kann.“

Beobachter könnten das als Eingeständnis sehen, dass auch die „Quellen-TKÜ plus“ in der Strafprozeßordnung rechtswidrig ist. Die Gesellschaft für Freiheitsrechte hat Verfassungsbeschwerde dagegen eingereicht. Grötsch verweist auf dieses Verfahren: „Die Regelung in der Strafprozeßordnung wird derzeit durch das Bundesverfassungsgericht überprüft und auch daher sollten wir vor neuen entsprechenden Regelungen eine Entscheidung abwarten.“

Provider werden zu Hilfssheriffs

Staatstrojaner haben aber weitaus mehr und grundsätzlichere Probleme. Staatstrojaner sind nicht notwendig, Grundrechtseingriffe müssen aber notwendig und angemessen sein. Staatstrojaner halten Sicherheitslücken offen statt sie zu schließen. Staatstrojaner gefährden die öffentliche Sicherheit statt sie zu verbessern. Staatstrojaner lassen sich mit Gesetzen nicht kontrollieren.

Keins dieser Probleme geht die Große Koalition an. Stattdessen schafft sie neue. Am Donnerstag will die Große Koalition den Staatstrojaner auf alle 19 Geheimdienste ausweiten. Damit sollen Internet-Firmen gezwungen werden, bei der Installation der Staatstrojaner zu helfen. Letzte Woche hat eine breite Allianz von Chaos Computer Club bis Google und Facebook dagegen protestiert.

Die Große Koalition lässt sich davon nicht beirren. Sowohl Bundespolizeigesetz als auch Verfassungsschutz-Novelle will sie am Donnerstag beschließen.

Update (09.06. 09:00): Am Dienstag Abend hat sich die Große Koalition auch auf das Gesetz zur Anpassung des Verfassungsschutzrechts geeinigt. Wir veröffentichen den Änderungsantrag. Damit bekommen alle 19 Geheimdienste Staatstrojaner. Auch die umstrittene Quellen-TKÜ plus. Internet-Provider müssen bei der Installation helfen. (Andere TK-Anbieter nicht.)

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Datenanalyse in sozialen Medien: Trump erreicht nur noch selten die alte Lautstärke

netzpolitik.org - 8 Juni, 2021 - 17:57

Facebook hat Donald Trump mindestens bis zum Jahr 2023 gesperrt, beim für ihn wichtigeren Dienst Twitter ist der amerikanische Ex-Präsident für immer ausgeschlossen. Die New York Times hat nun in einer Datenanalyse untersucht, wie Donald Trump vor und nach seiner Sperre in den sozialen Medien seine Botschaften durchbringt.

Dabei kam heraus, dass Trump nach der Sperre deutlich weniger Statements veröffentlicht hat, dass diese deutlich weniger Durchschlagskraft in den sozialen Medien haben, aber dass manche Botschaften über andere Accounts, die ihn zitieren, immer noch eine ähnlich große Reichweite in sozialen Medien erreichen können wie früher.

Fox News und Breitbart als Verstärker

Die New York Times untersuchte für die Analyse etwa 1.600 Social-Media-Postings von Trump zwischen dem 1. September 2020 und dem 8. Januar 2021, dem  Tag, an dem Trump von den Plattformen verbannt wurde. Nach dieser Zeit wurden schriftliche Erklärungen auf seiner Webseite, seiner Kampagnenseite und den Newslettern daraufhin untersucht, ob diese Aussagen in sozialen Medien weitergeleitet und -verbreitet wurden. Im Artikel heißt es:

Vor der Verbannung generierte ein Social-Media-Beitrag ein durchschnittliches Engagement von 272.000 Likes und Shares. Nach der Sperre sank dieser Wert auf 36.000 Likes und Shares. Dennoch erreichten 11 seiner 89 Aussagen nach dem Verbot so viele Likes oder Shares wie der durchschnittliche Beitrag vor dem Verbot, wenn nicht sogar mehr.

Seit Trump keinen Social-Media-Accounts mehr hat, übernehmen andere Konten die Aufgabe, seine Botschaften zu verbreiten. In manchen Fällen können das rechte Medien wie Fox News oder Breitbart im Zusammenspiel mit anderen rechten Accounts sein, in anderen Fällen werden seine Botschaften von rechten wie linken Accounts in die sozialen Medien getragen.

Insgesamt ist also das Deplatforming durchaus wirksam, hat aber Trump nicht völlig die Reichweite genommen. Eine anhaltend große Verbreitung dürften vor allem jene schaffen, die wie Trump eine hohe Prominenz, Relevanz und eine große Unterstützerschaft in sozialen Medien haben.

Umstrittenes Mittel

Deplatforming ist umstritten, weil es den großen sozialen Netzwerken viel Macht darüber gibt, wer in der Öffentlichkeit sichtbar ist und wer nicht. Konzernentscheidungen zur Sperrung von Accounts sind von der Öffentlichkeit nicht kontrolliert. Sie werden umso problematischer, je größer, wichtiger und damit unverzichtbarer eine Plattform oder ein Service für die Kommunikation ist. Führende Politiker wie Kanzlerin Angela Merkel und EU-Kommissionschefin Ursula von der Leyen hatten das Deplatforming Trumps als Einschränkung der Meinungsfreiheit kritisiert.

Bislang gibt es keine Einspruchsmöglichkeit bei einer unabhängigen Stelle gegen solche Sperrungen, die ja immer auch fehlerhaft sein können. Facebook hat allerdings mit dem Oversight Board zumindest eine Art oberstes Schiedsgericht geschaffen, das bei Einsprüchen gegen Kontensperren einen nicht-bindenden Schiedsspruch abgeben kann. Das geschah auch im Fall von Trump. Das geplante Digitale-Dienste-Gesetz der EU soll den Plattformen klare Beschwerdewege auch gesetzlich vorschreiben.

Die oft rassistischen, hetzerischer und inhaltlich falschen Botschaften von Trump haben genügend Anlass geboten, die eine Sperrung nach den Allgemeinen Geschäftsbedingungen der Plattformen rechtfertigen. Trump war vor seiner Sperrung von diesen Regeln ausgenommen und wurde damit anders behandelt als gewöhnliche Nutzer:innen.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Großbritannien und Europol: Soziale Medien sollen Beiträge von Geflüchteten entfernen

netzpolitik.org - 8 Juni, 2021 - 17:26

Die britische Innenministerin Priti Patel hat Anbieter von Sozialen Medien am Samstag aufgefordert, Beiträge zu entfernen, wenn diese Überfahrten von Geflüchteten „verherrlichen“. In einem Brief an verschiedene Firmen reagierte Patel auf ein Video, das auf TikTok gepostet wurde und viral ging. Es zeigte eine Gruppe, die in einem Schlauchboot den Ärmelkanal überquert.

Laut Patel sollen auch Facebook, Instagram und Twitter „völlig inakzeptable Clips“ löschen, wenn diese „tödliche Überfahrten“ fördern. So seien die Posts von „Menschenschmugglern“ genutzt worden, um für ihre Dienste zu werben. Der Einwanderungsminister Chris Philp hatte Anfang des Jahres bereits mit Vertreter:innen der größten Internetfirmen gesprochen und gefordert, Anzeigen zu entfernen, die für die Überfahrten werben.

Firmen sollen „schnell und proaktiv“ tätig werden

Anlass dieses Treffens war Berichten zufolge, dass weniger als die Hälfte der Anträge auf Entfernung von Internetinhalten befolgt wurde. Zukünftig sollten die Firmen laut Innenministerin Patel „schnell und proaktiv“ von sich aus tätig werden. Der britische „Independent“ zitiert einen Facebook-Sprecher mit den Worten, „Menschenschmuggel ist illegal und alle Anzeigen, Beiträge, Seiten oder Gruppen, die diese Aktivität koordinieren, sind auf Facebook nicht erlaubt“. Der Internetriese werde daher „weiterhin eng mit Strafverfolgungsbehörden auf der ganzen Welt zusammenarbeiten“, um illegale Aktivitäten „zu identifizieren, zu entfernen und zu melden“.

Meldungen zur Entfernung von Internetinhalten werden in Großbritannien von der Kriminalpolizei (National Crime Agency – NCA) erstellt. Die Behörde arbeitet eng mit Europol zusammen, nach britischem Vorbild entstand dort seit 2016 eine „Meldestelle für Internetinhalte“ (IRU). Dort durchsuchen Ermittler:innen mithilfe von Software das Internet nach Postings, die Terrorismus verherrlichenden. Anschließend werden die betreffenden Plattformen informiert, damit sie die Inhalte entfernen. In über 90 Prozent der Fälle setzten die Firmen dies um.

Inzwischen sind aus diesen Löschbitten sogenannte Entfernungsanordnungen geworden. Ihre EU-weite Befolgung ist mit der jahrelang mit dem EU-Parlament verhandelten „Verordnung zur Bekämpfung der Verbreitung terroristischer Online-Inhalte“ Gesetz geworden. Sie ist seit gestern in Kraft und muss bis zum 7. Juni 2022 von allen Mitgliedstaaten umgesetzt werden.

Ausweitung im „Gesetz über digitale Dienste“

Zahlenmäßig hat sich die „Meldestelle für Internetinhalte“ in den vergangenen Jahren vorwiegend mit terroristischen Inhalten befasst, seit ihrem Bestehen suchte sie aber auch im Netz nach Einträgen, die eine irreguläre Migration in die Europäische Union begünstigen. Dazu arbeitet sie eng mit dem „Zentrum gegen Migrantenschleusung“ zusammen, das ebenfalls bei Europol angesiedelt ist.

Bislang ist nur die Umsetzung der Europol-Anordnungen zu Terrorismus verpflichtend. Das könnte sich bald ändern, denn gemäß den EU-Vorschlägen für ein „Gesetz über digitale Dienste“ sollen die Bestimmungen zum „Vorgehen gegen illegale Inhalte“ auf andere Kriminalitätsbereiche erweitert werden.

Die zuständigen Strafverfolgungs- oder Justizbehörden müssten dann von den Firmen „unverzüglich“ unterrichtet werden, wenn sich in Postings eine „schwere Straftat, die eine Gefahr für das Leben oder die Sicherheit von Personen darstellt“, abzeichnet. Welche Straftaten darunter fallen, definiert der Entwurf aber nicht. Das Gesetzespaket soll auch „Auskunftsanordnungen“ beinhalten, wonach die Plattformen Nutzer:innendaten zu den betreffenden Accounts herausgeben müssen.

Überquerung des Ärmelkanals nichts „Glamouröses“

Die konservative Politikerin Patel ist für ihre harte Linie in der Migrationspolitik bekannt, im Dezember hatte sie Migrant:innen etwa als „Plage“ bezeichnet. Nicht vom Tisch ist auch der Vorschlag zum Einsatz von Militärschiffen im Ärmelkanal, auch die bald in Großbritannien eintreffenden neuen Militärdrohnen könnten laut einer Meldung des „Telegraph“ zur Migrationsabwehr genutzt werden.

Patel‘s Vorstoß zur Kontrolle des Internet wird von Flüchtlingsorganisationen kritisiert. Clare Moseley, die Gründerin der in Nordfrankreich tätigen Organisation Care4Calais, sagte dem Guardian: „Die Überquerung des Ärmelkanals hat nicht im Entferntesten etwas Glamouröses an sich. Verzweifelte Menschen setzen ihr Leben aufs Spiel, um diese Reise zu machen, und für einige ist es die letzte Reise, die sie machen.“

Tatsächlich sterben immer wieder Menschen bei dem Versuch, den Ärmelkanal bei starkem Wind zu überqueren. Ginge es der Ministerin um die Verhinderung von Toten, könnte sie Möglichkeiten zur sicheren Einreise nach Großbritannien zu schaffen. So hat es auch der Enver Solomon, der Vorsitzende des britischen Flüchtlingsrats in den britischen Medien kommentiert.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Laos: Wer die Regierung im Netz kritisiert, wird zum Cyber-Kriminellen

netzpolitik.org - 8 Juni, 2021 - 16:26

Die Regierung in Laos will noch stärker gegen freie Meinungsäußerung in sozialen Netzwerken vorgehen. Wie der Sender Radio Free Asia (RFA) berichtet, will sie dazu nun eine spezielle Task Force schaffen. Diese soll genauer in den Blick nehmen, wer in dem südostasiatischen Staat Falschnachrichten verbreitet – aber auch, wer sich kritisch zur Regierung oder zur kommunistischen Regierungspartei äußert.

Dabei soll die Einsatzgruppe nach einem klaren Schema handeln: Wer das erste Mal auffällt, wird verwarnt, beim zweiten Mal gibt es eine Geldstrafe. „Für einen dritten Verstoß werden wir sie ins Gefängnis setzen“, so ein Vertreter des Ministeriums für Öffentliche Sicherheit gegenüber RFA. Er sagte dem Sender, dass die Task Force aus Mitgliedern der Medienabteilung der Regierung und Polizeibeamt:innen bestehen soll. Deren zentrale Aufgabe sei dann, „Ratschläge zu erteilen und Regeln und Strafen für diejenigen festzulegen, die soziale Netzwerke missbrauchen.“

Ein ungenehmigter Facebook-Post als Cybercrime

Unter dem Vorwand einer Anti-Fake-News Kampagne führte die Regierung der Laotischen Revolutionären Volkspartei (LPRP) bereits 2019 eine Registrierungspflicht für alle Online-Medien ein, die Kanäle auf sozialen Netzwerken wie Facebook betreiben. Die Organisation Freedom House berichtet, dass auch hier Verstöße mit Geld- und Gefängnisstrafen geahndet wurden.

Die Registrierungspflicht wurde in dem Einparteienstaat 2020 weiter verschärft. Auch Einzelpersonen, die Informationen veröffentlichen oder verbreiten, brauchen demnach eine Genehmigung durch die zuständigen Behörden. Verstöße gegen die Social-Media-Regeln stuft das Gesetz als „Cybercrime“ ein.

Erst vor wenigen Wochen, am 20. Mai, ordnete die Regierung ihren Provinzen an, Aufzeichnungen über offizielle Social-Media-Kanäle zu führen und an die Regierungsabteilung für Massenmedien weiterzuleiten. Zur Begründung hieß es wieder, man wolle gegen die Verbreitung von Falschnachrichten über die Pandemie vorgehen.

Bündnis gegen die „digitale Diktatur“ in Laos

Ein regionales Bündnis mehrerer Menschenrechtsorganisationen verurteilt die Maßnahmen der LPRP-Regierung. Sie versuche, eine „digitale Diktatur über die Rechte und Freiheiten der Menschen in Laos zu schaffen und freie Medien daran zu hindern, sich kritisch und frei zu äußern“, heißt in einer gemeinsamen Erklärung vom 28. Mai.

Access Now, das Cambodian Center for Human Rights, das Southeast Asia Freedom of Expression Network und weitere regionale Organisationen fordern die Regierung auf, die Maßnahmen unverzüglich zurückzuziehen und die Meinungs- und Pressefreiheit zu schützen.

Im Ein-Parteien-Staat Laos steht es schon lange schlecht um verschiedene Grundfreiheiten. Wie die Organisation Reporter ohne Grenzen berichtet, gibt es in dem Land bereits seit 2014 ein Gesetz, das Gefängnisstrafen für kritische Meinungen im Netz vorsieht. 2019 wurde der Fall einer laotischen Bloggerin bekannt, die ein Gericht wegen eines regierungskritischen Facebook-Posts zu fünf Jahren Haft verurteilte.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Kennzeichenscanner: Große Koalition einigt sich auf bundesweite Auto-Rasterfahndung

netzpolitik.org - 8 Juni, 2021 - 14:12

Die große Koalition hat sich auf mehrere Gesetzesverschärfungen in der Strafprozessordnung geeinigt, wie aus einem Änderungsantrag hervorgeht, den wir veröffentlichen (PDF). Mit dem Gesetz wollen die Regierungsparteien unter anderem die Kennzeichenfahndung, die in vielen Bundesländern nach Landesgesetzen und teilweise in der Grauzone stattfand, legalisieren und auf eine rechtliche Basis stellen.

Kennzeichenscanner fotografieren alle vorbeifahrenden Fahrzeuge und erkennen Text und Zahlen auf Kennzeichen. Bei der Kennzeichenfahndung werden Listen mit Nummernschildern in die Lesegeräte eingespeist und abgeglichen. Das Gerät schlägt Alarm, wenn ein Kennzeichen aus der Liste erkannt wird.

Auto-Vorratsdatenspeicherung vom Tisch

Auch wenn das Gesetz die Kennzeichenscanner –  „automatisierte Kennzeichenlesesysteme“ wie sie euphemistisch genannt werden – bundesweit einführt, so verbietet es in Zukunft eine Speicherung der Nummernschilder. Für eine solche Auto-Vorratsdatenspeicherung hatten im Bundesrat aber noch viele Bundesländer gestimmt.

Manche Bundesländer speichern bereits seit vielen Jahren alle Kennzeichen in Datenbanken. Allein Brandenburg betreibt eine Auto-Vorratsdatenspeicherung mit 40 Millionen Kennzeichen, jeden Tag kommen 55.000 neue dazu. Das neue Gesetz wird diese Praxis der Auto-Vorratsdatenspeicherung illegal machen. Eine spätere Ausweitung des Gesetzes auf eine Vorratsdatenspeicherung ist damit natürlich nicht ausgeschlossen, auch wenn eine solche anlasslose Speicherung von Mobilitätsdaten verfassungswidrig sein könnte.

Hausdurchsuchungen rund um die Uhr

Die Änderung in der Strafprozessordnung führt weitere Verschärfungen ein: Weil Internetkriminelle angeblich zu Nachtzeiten besonders aktiv sind, erlaubt die StPO in Zukunft auch nächtliche Hausdurchsuchungen zwischen 21 und 6 Uhr. Begründet wird dies damit, dass man so an Festplatten gelangen könne, die nicht verschlüsselt sind.

Der Paragraf 104 StPO wird nächtliche Durchsuchungen in Zukunft erlauben

wenn bestimmte Tatsachen den Verdacht begründen, dass während der Durchsuchung auf ein elektronisches Speichermedium zugegriffen werden wird, das als Beweismittel in Betracht kommt, und ohne die Durchsuchung zur Nachtzeit die Auswertung des elektronischen Speichermediums, insbesondere in unverschlüsselter Form, aussichtslos oder wesentlich erschwert wäre.

Da heute fast jeder Mensch verschiedene Endgeräte und Speichermedien hat, die auch verschlüsselt sein könnten, dürfte der Paragraf auf eine Vielzahl von Hausdurchsuchungen anwendbar sein und den Zeitraum, in dem diese stattfinden dürfen, deutlich erweitern.

Das Gesetz wird voraussichtlich in der laufenden Legislaturperiode vor der Sommerpause im Bundestag beschlossen werden. In dieser Woche steht es noch nicht auf der Tagesordnung.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Künstliche Intelligenz: EU-Vorsitz gegen pauschales Verbot von Echtzeit-Gesichtserkennung

netzpolitik.org - 8 Juni, 2021 - 13:53

Die portugiesische EU-Ratspräsidentschaft stellt ein grundsätzliches Verbot von Künstlicher Intelligenz (KI) zur Gesichtserkennung im öffentlichen Raum infrage. Einen solchen Vorschlag hatte die Kommission am 21. April vorgelegt, allerdings auch eine Reihe von Ausnahmen und damit verbundenen Verpflichtungen benannt.

In einem Diskussionspapier, das an die Mitgliedstaaten verteilt wurde, wird dieser Ansatz nun vom Rat kritisiert. Die EU müsse stattdessen „unbedingt sicherstellen, dass wir die Entwicklung und Nutzung der technologischen Entwicklung nicht unnötig einschränken“. Der polizeiliche und justizielle Einsatz von KI müsse „praxisorientiert und nützlich sein“ und die Arbeit der Strafverfolgungsbehörden „effizienter gestalten“.

„Hohes Risiko“ im Bereich Migration, Asyl, Grenzkontrolle

Die EU-Kommission hatte angeregt, den „weltweit ersten Rechtsrahmen“ für KI-Systeme zu verabschieden. Diese werden in verschiedene Kategorien eingeteilt. KI-gestützte Videospiele oder Spamfilter gelten demzufolge als „minimales Risiko“ für Bürgerrechte oder die Sicherheit, die Verordnung soll dort nicht eingreifen. Ein „geringes Risiko“ stellten selbstlernende Chatbots dar, Nutzer:innen sollten deshalb lediglich über die Funktion aufgeklärt werden. Ein „unannehmbares Risiko“ bestehe für Technik, die soziales Verhalten klassifiziert, oder Spielzeuge mit Sprachassistent.

Ein „hohes Risiko“ bergen dem Vorschlag zufolge KI-Systeme, die in kritischen Infrastrukturen, im Personalmanagement oder einer Bewertung der Kreditwürdigkeit eingesetzt werden. In die gleiche Kategorie fällt KI-gestützte Software im Bereich Migration, Asyl und Grenzkontrolle, etwa wenn diese die Echtheit von Reisedokumenten überprüft. Dann sollen laut der Kommission besondere „Risikobewertungs- und Risikominderungssysteme“ greifen. Eingespeiste Datensätze müssten auf ihre Qualität überprüft und alle Vorgänge protokolliert werden.

Grundsätzlich verbieten will die Kommission „alle Arten biometrischer Fernidentifizierungssysteme“ zur Strafverfolgung im öffentlichen Raum. Gemeint ist etwa die Echtzeit-Gesichtserkennung, wie sie in Deutschland das Bundesinnenministerium mit der Deutsche Bahn AG am Berliner Bahnhof Südkreuz getestet hat.

Warnung vor Verlusten für Sicherheitsindustrie

Gleichzeitig schränkt die Kommission das Verbot aber wieder ein und nennt eine große Zahl an Ausnahmen, in denen Polizei und Justiz entsprechende Systeme nutzen dürften. Hierzu gehören Fälle, in denen Anwendungen „unbedingt erforderlich sind“, um vermisste Kinder zu finden oder eine „terroristische Bedrohung abzuwenden“. Auch die Verfolgung schwerer Straftaten soll möglich sein, nachdem eine zuständige Justizbehörde einen hierfür nötigen Beschluss ausgestellt hat.

In dem Papier aus Portugal wird nicht nur die pauschale Einstufung verschiedener Funktionen als „hochriskant“ hinterfragt. Auch könnten sich die genannten Ausnahmen und Verpflichtungen „auf operativer Ebene als nicht realistisch und nicht durchführbar herausstellen“. Konkreter wird der Ratsvorsitz nicht, die Kritik zielt vermutlich auch auf den vorgeschriebenen richterlichen Beschluss, auf den laut dem Vorschlag der Kommission nur in „hinreichend begründeten dringenden Fällen“ vorläufig verzichtet werden dürfte.

An anderer Stelle warnt das Papier des Rates auch vor finanziellen Verlusten für Firmen im Bereich der Sicherheitstechnologie. Die von der Kommission vorgeschlagene Regulierung könnte demnach Innovation behindern. Deshalb soll nun Europol in einen „Dialog“ mit dem Privatsektor treten. Die Polizeiagentur betreibt für diese Zwecke ein neues „EU-Innovationszentrum für die innere Sicherheit“, das Prioritäten in der Sicherheitsforschung ermitteln und forcieren soll.

„Biometrischer Identitätsspeicher“

Schließlich geht der Ratsvorsitz auch auf formale Aspekte des Regulierungsvorschlags der Kommission ein. So könnten einige als hochriskant geltende KI-Anwendungen, die derzeit oder zum Zeitpunkt des Geltungsbeginns einer solchen Verordnung von Polizei- und Justizbehörden genutzt werden, möglicherweise nicht in ihren Anwendungsbereich fallen.

Denn bevor die EU eine Verordnung zu Künstlicher Intelligenz verabschiedet, sind längst andere neue Systeme in ihren Wirkbetrieb übergegangen. Im Projekt „Interoperabilität“ errichtet die Agentur für das Betriebsmanagement von IT-Großsystemen (eu-LISA) derzeit einen „biometrischen Identitätsspeicher“, in dem Fingerabdrücke und Gesichtsbilder aller großen EU-Informationssysteme zusammengefasst werden. Auch der sogenannte Prüm-Mechanismus wird von Fingerabdrücken auf Gesichtsbilder erweitert. Bald soll es möglich sein, das Foto einer unbekannten Person in allen EU-Mitgliedstaaten gleichzeitig abzufragen. Auch darauf geht das Papier des EU-Vorsitzes ein. So soll eine zukünftige KI-Verordnung „alle relevanten Phasen“ der Verarbeitung von Gesichtsbildern im Prüm-Verfahren berücksichtigen.

Die Überwachungsinitiative des portugiesischen Ratsvorsitzes kommt zur gleichen Zeit, in der sich 180 weltweite Bürgerrechtsorganisationen gegen Gesichtserkennung im öffentlichen Raum aussprechen. Sie fordern Regierungen auf, alle Investitionen in den Einsatz von biometrischen Fernerkennungs-Technologien zu stoppen und ihren Einsatz in öffentlich zugänglichen Räumen zu verbieten. Mit dem gleichen Ziel hat die Europäische Bürger:innen-Initiative „Reclaim Your Face“ bereits über 54.000 Unterschriften gesammelt.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Edit Policy: Die Open-Data-Richtlinie und die deutschen Blockaden

netzpolitik.org - 8 Juni, 2021 - 07:00

Julia Reda saß von 2014 bis 2019 für die Piraten im Europäischen Parlament und verantwortet heute bei der Gesellschaft für Freiheitsrechte das Projekt „control c“ zu Urheberrecht und Kommunikationsfreiheit. Dieser Beitrag erschien zuerst in ihrer Kolumne auf heise.de und wurde dort unter der Lizenz CC BY 4.0 veröffentlicht.

In Digitalisierungsfragen gilt Deutschland selten als Vorreiter – ob es um freies WLAN, Verwaltungsdigitalisierung, Breitbandausbau oder digitale Bildung geht, viel zu oft fehlt es der deutschen Politik an Weitblick. Zu Innovationen muss die Bundesregierung oft erst durch EU-Vorgaben gezwungen werden.

So ist es auch bei der Open-Data-Richtlinie, die Deutschland bis zum 17. Juli 2021 in nationales Recht umsetzen muss. Wenn es nicht bald zu einer Einigung kommt, wird Deutschland an dieser Frist scheitern. Nur noch zweimal tagt der Bundestag in dieser Legislaturperiode, für kommenden Donnerstag steht das Gesetzesvorhaben auf der Tagesordnung. Doch auch wenn der Bundestag den Regierungsentwurf abnickt, verfehlt Deutschland das Ziel, Open Data als Chance zu begreifen.

Schmalspurumsetzung der EU-Vorgaben

Die Open-Data-Richtlinie der EU verpflichtet Mitgliedstaaten grundsätzlich dazu, Dokumente der öffentlichen Hand zur Weiterverwendung freizugeben – in einigen Kernbereichen sogar in Echtzeit und maschinenlesbar. Als politischer Kompromiss enthält das Regelwerk dennoch eine Vielzahl an Ausnahmen und Einschränkungen. Von diesen will die Bundesregierung ausgiebig Gebrauch machen. Schon seit Februar liegt ein Gesetzesentwurf der Bundesregierung für das Open-Data-Gesetz und Datennutzungsgesetz vor. Dieser war aber offenbar selbst den Koalitionsfraktionen im Bundestag zu unambitioniert, setzt er doch gerade einmal die europäischen Mindestanforderungen an offene Verwaltungsdaten um.

Anstatt den gesellschaftlichen Mehrwert zu erkennen, den digitale Zivilgesellschaft, Unternehmen, Wissenschaft und Journalist:innen schaffen können, wenn sie den öffentlichen Datenschatz frei weiterverwenden und zu neuen Zwecken kombinieren können, leitet deutsche Ministerien und Unternehmen in öffentlicher Hand offenbar noch immer die Angst: Angst vor Kontrollverlust, vor Wettbewerbsnachteilen und vor einer kritischen Öffentlichkeit. Anders lässt es sich kaum erklären, warum dem Gesetzesentwurf der Bundesregierung ein einklagbares Recht auf Open Data fehlt.

Zwar sind Behörden nach dem Informationsfreiheitsgesetz zur Herausgabe von Informationen verpflichtet, dort fehlen jedoch die für Open Data zentralen Vorgaben an die Maschinenlesbarkeit. Wer an einer innovativen App arbeitet und dabei öffentliche Daten einbeziehen möchte, wird wenig begeistert sein, nach wochenlangem Warten auf die Antwort auf eine Informationsfreiheitsanfrage mit einer ausgedruckten Excel-Tabelle abgespeist zu werden.

Zensurheberrecht wird wohl fortbestehen

Eine wichtige Hürde, die es auf dem Weg zu einer offenen Verwaltung zu überwinden gilt, ist neben der technischen Aufbereitung und Bereitstellung von Daten deren rechtlicher Status: Leider ist es auch bei staatlich erhobenen Informationen nicht der Normalfall, dass diese legal weiterverwendet werden dürfen. Dem steht neben dem Urheberrecht, wenn es sich um schutzfähige Werke wie beispielsweise Texte oder Fotografien handelt, auch das Datenbankrecht im Wege – eine rein europäische Erfindung, bei der auch urheberrechtlich nicht geschützte Daten mit Exklusivrechten versehen sein können, wenn sie einer Datenbank entstammen, in deren Erstellung ein Unternehmen investiert hat. Von diesem Sonderrecht erhoffte sich die EU-Kommission bei seiner Einführung einen Aufschwung für die europäische Datenwirtschaft. Dieser ist nie eingetreten, musste die Kommission bei der Evaluation des Regelwerks kleinlaut zugeben, doch ein einmal geschaffenes Exklusivrecht lässt sich nur so schwer wieder abschaffen, dass es bis heute fortbesteht – ohne erkennbaren Nutzen.

Besonders perfide ist es allerdings, wenn sich der Staat auf ein Exklusivrecht beruft, das zur Unterstützung von Kreativität und Innovation in der freien Wirtschaft dienen sollte. Genau das passiert aber immer wieder – sowohl in Bezug auf das Urheberrecht als auch beim Datenbankrecht. Unter dem Schlagwort Zensurheberrecht sind zahlreiche Fälle bekannt, in denen Ministerien und öffentliche Ämter gegen Privatpersonen, Zivilgesellschaft und Medien vorgehen, die von der öffentlichen Hand erstellte Informationen weiterverbreiten und für neue Zwecke nutzen.

Missbrauch von Exklusivrechten

Erst jüngst wurde bekannt, dass das bayerische Landesamt für Digitalisierung, Breitband und Vermessung (LDBV) versucht, die Nutzung von Geodaten durch Open Data-Aktivist:innen zu unterbinden – unter Berufung auf das Urheberrecht und das Datenbankrecht. Dadurch behindert die Behörde die Erstellung von Onlineangeboten, die letztendlich der Allgemeinheit zugutekommen. Ob die fraglichen Geodaten überhaupt geschützt sind, ist bereits nach geltender Rechtslage alles andere als offensichtlich.

Zukünftig können sich dank dem Datennutzungsgesetz öffentliche Stellen zumindest nicht mehr auf das Schutzrecht für Datenbanken berufen, um die Weiterverwendung öffentlicher Datensätze zu unterbinden. Diesen Missbrauch von wirtschaftlichen Exklusivrechten durch den Staat verbietet die Open Data-Richtlinie ausdrücklich. Leider findet sich aber keine entsprechende Regelung für das Urheberrecht, das deutsche Gerichte äußerst weit auslegen. So wurde sogar bei einem Mietspiegel bereits von Urheberrechtsschutz ausgegangen, obwohl dieser mit kreativem Schaffen äußerst wenig zu tun hat.

Zwar sind amtliche Werke nach dem deutschen Urheberrecht gemeinfrei, dazu gehören beispielsweise Gesetzestexte. Die zugrunde gelegte Definition amtlicher Werke ist jedoch so eng, dass bereits bei Parlamentsbeschlüssen oder staatlichen Studien eine erhebliche Rechtsunsicherheit besteht. Zwar gibt es auch progressive Gerichtsentscheidungen, so hat kürzlich das Oberlandesgericht Köln entschieden, dass die Veröffentlichung eines Glyphosat-Gutachtens durch die Initiative FragdenStaat rechtmäßig war. Doch gegen dieses Urteil könnte das Bundesinstitut für Risikobewertung noch Revision einlegen, Aktivist:innen schweben also in ständiger Rechtsunsicherheit.

Fehlende Klarstellung

Es wäre dem Bundestag ein Leichtes, das Problem im Rahmen der Umsetzung der Open-Data-Richtlinie ein für alle Mal zu lösen. Dazu braucht es lediglich eine Klarstellung im Urhebergesetz, dass alle Inhalte, die im Verantwortungsbereich der öffentlichen Hand entstanden sind, grundsätzlich gemeinfrei sind. Die USA haben bereits eine solche Regelung. Deshalb können sich offene Projekte wie die Wikipedia an zahlreichen Bildern von NASA-Weltraummissionen und anderen wichtigen historischen Ereignissen erfreuen. Die Bundesregierung schadet sich nur selbst, wenn sie solche Möglichkeiten für die Bestände deutscher Behörden ausschließt.

Lizenzgebühren behindern Datennutzung

Eine weitere Verfehlung des Entwurfs für das Datennutzungsgesetz besteht darin, dass Verwaltungen und insbesondere öffentliche Unternehmen weiterhin Lizenzgebühren verlangen können, wenn Dritte öffentliche Daten nachnutzen wollen. Auch hier reizt der Gesetzesentwurf die Ausnahmebestimmungen der Richtlinie vollständig aus. Demnach dürfen öffentliche Verwaltungen Gebühren erheben, um Kosten auszugleichen, die ihnen im Zusammenhang mit der Bereitstellung der Daten entstehen. Dadurch werden gerade zivilgesellschaftliche Nutzer:innen leicht abgeschreckt. Öffentlichen Unternehmen ist auch darüber hinaus die Erhebung von Lizenzgebühren erlaubt. Obwohl die Inhalte, die öffentliche Stellen vorhalten, in aller Regel bereits durch Steuergelder finanziert wurden, muss man für deren Nachnutzung also nochmal zahlen, ohne dass öffentliche Verwaltungen die Sinnhaftigkeit dieser Praxis hinterfragen.

Dabei verdienen Behörden in den seltensten Fällen mehr Geld mit der Lizenzierung von Inhalten als sie für die Verwaltung dieser Geschäfte ausgeben, oftmals bezahlen verschiedene Behörden einander gegenseitig Gebühren – das ist unwirtschaftlicher als ein Nullsummenspiel. Die Lizenzgebühren behindern den Wettbewerb zwischen kommerziellen und gemeinnützigen Projekten, damit nützen sie letztendlich nur großen Unternehmen. Google kann es sich jederzeit leisten, Geodaten von deutschen Behörden für Google Maps einzukaufen, freie Alternativen wie OpenStreetMap haben das Nachsehen.

Zusammenarbeit mit Privatwirtschaft verhindert Open Data

Der Open Data-Gesetzesentwurf tut zu wenig, um die Hürden für Open Data abzubauen, die im Rahmen von Privatisierungen und staatlicher Zusammenarbeit mit privaten Dienstleistern entstehen. Informationen von allgemeinem Interesse, wie beispielsweise die Datenbank der deutschen Postleitzahlen, sind seit der Privatisierung der Post in privater Hand und werden als kommerzielles Produkt angeboten. Wenn staatliche Stellen Lizenzen für diese Informationen einkaufen und sie in eigenen Datensätzen nutzen, lässt sich oft nicht mehr zwischen öffentlichen und privaten Daten trennen – der gesamte Datensatz wird der Nachnutzung durch Open Data-Projekte entzogen.

Hier könnte der Bundestag Abhilfe schaffen, indem er Behörden verpflichten würde, öffentliche und private Daten getrennt zu führen, damit er erstere jederzeit zur Nachnutzung bereitstellen könnte. Besser noch würde er dafür sorgen, dass es staatlich geführte Datenbanken für so wichtige Informationen wie Postleitzahlen gibt, die unentgeltlich der Allgemeinheit zur Verfügung stehen. Im öffentlichen Beschaffungswesen, etwa bei IT-Projekten, darf sich die öffentliche Hand nicht von Software-Dienstleistern abhängig machen, die ihrerseits mit Verweis auf Urheberrecht oder Geschäftsgeheimnisse einer Offenlegung von Quellcode oder Datenbankschemata widersprechen könnten.

Noch ist unklar, ob der Bundestag auf Nachbesserungen beim Datennutzungsgesetz bestehen wird. Die Zeit vor der Bundestagswahl ist denkbar knapp. Es bleibt jedoch zu hoffen, dass die Fraktionen die letzten Wochen für eine ambitioniertere Reform nutzen, das Zensurheberrecht abschafft und der Blockadehaltung bei öffentlichen Verwaltungen und Unternehmen ein Ende macht. Sonst bleibt Deutschland im europäischen Vergleich weiterhin digitalpolitisches Schlusslicht.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Kampagne: Großes weltweites Bündnis fordert Verbot biometrischer Überwachung

netzpolitik.org - 7 Juni, 2021 - 19:43

Es ist ein großes internationales Bündnis, wie es selten zustande kommt: Über 175 namhafte zivilgesellschaftliche Organisationen, Wissenschaftler:innen und Aktivist:innen fordern in einem offenen Brief ein weltweites Verbot von biometrischer Überwachung im öffentlichen Raum.

„Einige Überwachungstechnologien sind so gefährlich, dass sie unweigerlich weit mehr Probleme verursachen, als sie lösen. Der Einsatz von Gesichtserkennung und biometrischen Technologien in öffentlich zugänglichen Räumen ermöglicht Massenüberwachung und diskriminierende gezielte Überwachung“, heißt es in der Erklärung. Das Missbrauchspotenzial dieser Technologien sei zu groß und die Folgen zu schwerwiegend.

Die Organisationen Access Now, Amnesty International, European Digital Rights, Human Rights Watch, die Internet Freedom Foundation und das Brasilianische Institut für Verbraucherschutz haben den Brief initiiert. Unterschrieben wurde er dann von den wichtigsten Menschenrechts- und Digitalorganisationen auf der ganzen Welt. Nun ist er als Petition geöffnet für weitere Einzelpersonen und Organisationen, die das Anliegen unterstützen wollen.

Im Fokus stehen Technologien zur Gesichtserkennung und zur biometrischen Fernerkennung. Damit meinen die Verfasser:innen alle Technologien, die anhand des Gesichtes, der Stimme, des persönlichen Auftretens oder anderer biometrischer Kennzeichen identifizieren können und gezielte Massenüberwachung ermöglichen. Es gebe dabei zu viele Möglichkeiten für Missbrauch, das habe sich in der Vergangenheit bereits in verschiedenen Ländern gezeigt.

Festnahmen, Unterdrückung und Diskriminierung

So nennt der offene Brief elf Staaten, die Gesichtserkennung zur Überwachung von Protestierenden bereits eingesetzt und damit die Versammlungsfreiheit und Privatsphäre verletzt haben. In den Vereinigten Staaten, Argentinien und Brasilien sei es so zu Festnahmen Unschuldiger gekommen. In China, Thailand und in Italien würden durch die Überwachungstechnologien religiöse Minderheiten unterdrückt und diskriminiert, so der Brief.

Biometrische Überwachung führe zu häufig dazu, dass grundlegende Menschenrechte wie Meinungs- und Versammlungsfreiheit sowie das Recht auf Privatsphäre und Datenschutz untergraben werden. „Keine technischen oder gesetzlichen Sicherheitsvorkehrungen könnten je dieses Risiko vollständig ausschließen“, heißt es in dem Brief. Dazu komme, dass viele Anwendungen, die mit Biometrieklassifizierungen arbeiten, falsche Rückschlüsse auf bestimmte Eigenschaften wie beispielsweise das Geschlecht ziehen und so diskriminieren.

Appell an Regierungen, Gerichte, Behörden und Unternehmen

Deshalb sollten weder Regierungen noch private Firmen solche Technologien im öffentlichen Raum – also beispielsweise in Parks, Schulen, Bibliotheken, öffentlichen Transportmitteln und sozialen Medien – nutzen dürfen, fordern die Unterzeichner:innen. Sie richten ihren Appell insbesondere an Politiker:innen und Gesetzgeber. Diese sollen den rechtlichen Rahmen schaffen, der die biometrische Überwachung selbst, aber auch die Investition in die Forschung an entsprechenden Technologien verbietet.

Außerdem appelliert das Netzwerk an Gerichte, Menschenrechtsverstöße durch biometrische Überwachung in ihrer Rechtsprechung zu berücksichtigen. Behörden für Verbraucher- oder Datenschutz fordert es dazu auf, auf einen Stopp biometrischer Anwendungen bei Unternehmen zu drängen. Abschließend nimmt der Brief auch die Vereinten Nationen, private Firmen, Investoren und Mitarbeiter:innen von Tech-Konzernen in die Pflicht, sich gegen biometrische Massenüberwachung einzusetzen.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Digitale-Märkte-Gesetz: Ein CDU-Mann steckt Europas digitale Grenzen ab

netzpolitik.org - 7 Juni, 2021 - 16:00

Gesetzgebungsprozesse in der EU sind ein komplexes Geschäft. So mancher Zwischenschritt dient vor allem dazu, den Raum des Möglichen abzustecken. Genau diese Gebietsbestimmung nahm das EU-Parlament vergangene Woche bei einem digitalpolitische Schlüsselprojekt vor. Abgeordnete in den federführenden Ausschüssen legten Berichtsentwürfe zu den Gesetzen für digitale Dienste und für digitale Märkte vor.

Das Gesetzespaket, das in Brüssel als „Digital Services Act“ bekannt ist, soll eine Grundlage für die Regulierung von Online-Diensten in der EU schaffen und die Macht von großen Plattformen wie Google, Facebook und Amazon einschränken. Einen Vorschlag legte die EU-Kommission im Dezember vor, seither wird im Rat der EU-Staaten und im Parlament eifrig um das Gesetz gefeilscht. Während das Digitale-Dienste-Gesetz vor allem den Umgang mit Inhalten auf Plattformen wie Google, Youtube oder TikTok regelt, widmet sich das Digitale-Märkte-Gesetz den Geschäftspraktiken der Plattformen.

Chefverhandler des Digitale-Märkte-Gesetzes ist der CDU-Abgeordnete Andreas Schwab aus Baden-Württemberg. Der 48-Jährige machte zuletzt vor allem als führende Stimme des EU-Parlaments in den Beziehungen zur Schweiz von sich reden, nun kommt ihm eine tragende Rolle in der Digitalpolitik zu.

Schwab legte vergangene Woche einen ersten Bericht vor, der die Richtung für die Verhandlungsposition des Parlaments in den Gesprächen mit Rat und Kommission über den finalen Text vorgibt. Ein Zwischenschritt also, aber einer, der schwer wiegt. Denn andere Abgeordnete können mit einzelnen Ergänzungsanträgen Änderungen an Schwabs Bericht vornehmen, müssen aber für jede Änderung eine Mehrheit im zuständigen Binnenmarktausschuss finden. Was Schwab sagt, hat Gewicht.

Gatekeeper-Definition soll verengt werden

Eine wesentliche Änderung von Schwabs Bericht zum Vorschlag der Kommission ist die Definition von „Gatekeeper“-Diensten, also den Schlüsseldiensten der digitalen Welt, die mit dem Gesetz besonders streng reguliert werden soll. Schwab möchte die Definition verengen. Die EU solle sich auf die „fünf größten Tech-Firmen konzentrieren“, fasst die Financial Times Schwabs Definition zusammen.

Die Kommission definierte in ihrem Aufschlag Gatekeeper als Anbieter, die einen Jahresumsatz von 6,5 Milliarden Euro in den vergangenen drei Jahren hatten oder an der Börse einen Wert von 65 Milliarden Euro erreichten. Schwab setzt in seinem Textvorschlag diese Werte auf 10 Milliarden Euro Jahresumsatz oder einen Börsenwert von 100 Milliarden Euro. „100 Milliarden ist eine schöne Zahl, die ich mir gut merken konnte“, sagt Schwab gegenüber netzpolitik.org.

Der höhere Schwellenwert könnte etwa im Fall von Twitter relevant sein – das soziale Netzwerk ist an der Börse derzeit deutlich niedriger bewertet als Facebook (770 Mrd. Euro) oder Google (1.330 Mrd. Euro). Twitter kratzte in den vergangenen Jahren an der 65-Milliarden-Euro-Grenze, damit fällt der Konzern nach dem Vorschlag Schwabs nicht unter die Gatekeeper.

Auch möchte der CDU-Abgeordnete als Gatekeeper nur Plattformen definieren, die zumindest zwei sogenannte „Kerndienste“ anbieten. Als solche zählen etwa Suchmaschinen, soziale Netzwerke, Cloud-Dienste, Instant-Messenger oder Online-Werbung. Nach dem Vorschlag der Kommission können schon Plattformen unter die Definition fallen, die nur einen solchen Dienst anbieten.

Schwab betont allerdings, seine Definition schließe die Regulierung kleinerer Plattformen nicht aus. Denn die Kommission könne sich auf Artikel 3 des Gesetzesentwurfes stützen und selbstständig Plattformen als Gatekeeper festlegen. Seine Verengung der Definition komme aber der Kommission entgegen, sagt der CDU-Abgeordnete. Diese könne sich aufgrund ihrer beschränkten Ressourcen ohnehin „nur um die Größten“ kümmern.

Skepsis gegenüber Interoperabilitätsverpflichtungen

In der Praxis soll das Digitale-Märkte-Gesetz der Kommission und den Mitgliedsstaaten die Instrumente in die Hand geben, um unfaire Taktiken zu bestrafen. Beschwerden gab es in den vergangenen Jahren etwa gegen Google und Apple, die in ihren App-Stores Software-Entwickler:innen die Bedingungen diktieren können. Apple schreibt Apps unter anderem vor, nur das eigene Bezahlsystem Apple Pay für bestimmte Käufe über die App nutzen zu dürfen.

Das neue EU-Gesetz soll dagegen verschiedene neue Instrumente schaffen. Etwa könnten Gatekeeper-Plattformen dann gezwungen werden, verschiedenen Zahlungsdiensten Zugang zu gewähren. Auch soll das Gesetz sogenanntes Multi-Homing erleichtern – ein Anbieter wie Booking.com könnte dann eventuell Hotels in Europa nicht mehr so leicht über Bestpreisklauseln verbieten, Zimmer auf der eigenen Seite billiger anzubieten. Wer gegen die neuen Regeln verstößt, soll Geldbußen von bis zu zehn Prozent seines Jahresumsatzes zahlen müssen.

Skeptisch zeigt Schwab sich hingegen gegenüber einem Werkzeug, auf das manche Stimmen aus der Zivilgesellschaft drängen. Unter dem Stichwort „Interoperabilität“ soll die EU Plattformen dazu zwingen, ihre Dienste für den Austausch mit anderen zu öffnen. Facebook-Nutzer:innen könnten dann etwa in ihrem Feed auch Tweets entdecken.

Die Kommission ermöglicht in ihrem Textvorschlag solche Interoperabilitätsverpflichtungen allerdings nur für Nebendienstleistungen, etwa Bezahldienste in App-Stores. Kernfunktionen wie etwa der Austausch von Nachrichten bei WhatsApp oder Posts bei Facebook bleiben von solchen Vorschriften unberührt. Schwab hält diese Einschränkung für den richtigen Weg. „Wenn wir das machen würden, dann stellen wir womöglich die Sicherheits- und Datenschutzsstandards bei Signal in Frage.“

Schwab äußert damit ähnliche Bedenken wie Signal-Gründer Moxie Marlinspike. Dieser argumentiert, dass offene Standards schwer weiterzuentwickeln seien und interoperable Dienste wie E-Mail daher bis heute auf standardmäßige Ende-zu-Ende-Verschlüsselung verzichten müssten.

„A bissle“ mehr Macht zur Entflechtung

Festhalten will der CDU-Abgeordnete allerdings an der grundsätzlichen Möglichkeit, große Plattformen zur Entflechtung ihrer Dienste zwingen zu können. Solche „strukturellen Lösungen“ möchte die Kommission als letztes Mittel einsetzen, wenn Plattformen hartnäckig an unfairen Geschäftspraktiken festhalten. Dann könnte etwa Facebook gezwungen sein, Instagram aufzugeben. „Die Kommission muss da mit dicken Hosen auftreten können“, sagt Schwab. Sein Textvorschlag soll das der Kommission sogar „a bissle“ leichter machen als ihr eigener Entwurf.

Abgeordnete anderer Fraktionen halten den Bericht von Schwab für nicht für weitgehend genug. Es sei „enttäuschend, dass der Berichtsentwurf vor weiteren strukturellen Maßnahmen zurückschreckt“, sagt der Grüne Rasmus Andresen. Dass der CDU-Abgeordnete die Definition von Gatekeeper-Plattformen auf die größten Digitalkonzerne einschränke, könne dazu führen, dass Europa beim Entstehen neuer Digitalmonopole tatenlos zusehen müsse.

Nachdem Schwab mit seinem Bericht das Territorium abgesteckt hat, beginnt nun das Feilschen um die Verhandlungsposition des EU-Parlaments. Im hauptzuständigen Binnemarktausschuss sitzen Schwab mit Evelyne Gebhardt von der SPD und Martin Schirdewan von der Linken zwei weitere deutsche Politiker als Schattenberichterstatter gegenüber.

Ihre Vorschläge für Ergänzungsanträge können entscheidende Passagen von Schwabs Bericht noch umschreiben. Einigt sich das Parlament auf eine Position, feilscht Schwab als Chefverhandler des Parlaments mit dem Rat der EU-Staaten und der Kommission über einen endgültigen Gesetzestext. Eine Abstimmung darüber wird allerdings nicht vor nächstem Jahr erwartet. Bis dahin geht das Ringen um Europas digitale Zukunft weitgehend hinter verschlossenen Türen voran.

Korrektur vom 8. Juni 2021: Ein irrtümlicher Verweis auf eine „Vermutungsregel“ in Absatz 9 wurde nachträglich gestrichen. In Absatz 11 wurde klargestellt, was Multi-Homing in Bezug auf Plattformen wie Booking.com bedeuten kann.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Lobbyregister: Kampagne will Lobbykontakte der Bundesregierung offenlegen

netzpolitik.org - 7 Juni, 2021 - 14:00

FragDenStaat und abgeordnetenwatch.de starten eine Kampagne, um Lobbykontakte der Bundesregierung offenzulegen. Damit kritisieren sie das Lobbyregister der Bundesregierung: „Echte Transparenz über Lobbyismus stellt es nicht her“, heißt es im Ankündigungstext der Kampagne. Diese Transparenz soll die Kampagne durch hunderte Auskunftsanfragen an die Ministerien nun herstellen.

800 Anfragen zu möglichen Kontakten der größten und wahrscheinlichsten Verbände und Unternehmen, mit denen die Ministerien gesprochen haben könnten, stehen bereits vorformuliert auf der Kampagnenplattform. Wer mitmachen möchte, kann dann zum Beispiel zwischen „Gespräche mit Deutscher Zigarettenverband (DZV) 2021 im Gesundheitsministerium“, „Gespräche mit Rheinmetall AG 2018 im Kanzleramt“ oder „Gespräche mit Verein der Zuckerindustrie e. V 2018 im Landwirtschaftsministerium“ auswählen.

Aus den Antworten wird ein selbstgemachtes Lobbyregister

Alternativ können Teilnehmende eigene Auskunftsanfragen über ein freies Formular stellen. Alle Anfragen verschickt FragDenStaat dann automatisiert an die entsprechenden Ministerien. Die Antworten werden dann als „selbstgemachtes Lobbyregister“ veröffentlicht.

Pro Person kann nur eine Anfrage mit Bezug auf einen konkreten Lobbykontakt in einem der vergangenen vier Jahre gestellt werden. Mit diesen kleinteiligen Fragen möchte FragDenStaat vermeiden, dass es zu Gebühren kommt. „Wir haben im Vorfeld der Kampagne Test-Anfragen verschickt, die kostenfrei geblieben sind“, heißt es in der FAQ. Falls die Ministerien dennoch Gebühren verlangen, könne jede:r selbst entscheiden, diese zu bezahlen oder die Anfrage zurückzuziehen.

Mit der Kampagne möchten die beiden Organisationen Druck auf die Bundesregierung ausüben, das im März beschlossene Lobbyregister-Gesetz zu verschärfen. Dies sieht zwar vor, dass sich Lobbyist:innen in das Register eintragen müssen. Sie müssen aber keine Auskunft darüber geben, mit welchen Personen sie gesprochen haben. „Gerade die Angaben zu einzelnen Kontakten sind aber notwendig, um problematische Einflussnahme nachvollziehen zu können“, so FragDenStaat.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Zensur in Suchergebnis: Microsoft sperrt ikonisches Bild von Tiananmen-Massaker

netzpolitik.org - 7 Juni, 2021 - 11:43

Microsoft hat zum Jahrestag des Tiananmen-Massakers auf seiner Suchmaschine Bing weltweit Fotos und Videos gesperrt, die den „Tank Man“ zeigen. Der „Tank Man“ ist eines der bekanntesten Fotos der Demokratieproteste in China von 1989. Es zeigt einen einzelnen Mann mit schwarzer Hose und weißem Hemd, der sich in einem Akt des zivilen Ungehorsams mehreren Panzern entgegenstellt.

Das Bild wurde von zahlreichen Fotografen und Fernsehteams festgehalten, der bis heute nicht identifizierte Tank Man wurde zur Ikone der Protestbewegung. Bei dem Massaker tötete der chinesische Staat mehrere tausend Menschen und schlug damit die Protestbewegung nieder.

Dieses Ergebnis gab Bing für „Tank Man“ heraus. - CC-BY 2.0 Screenshot netzpolitik.org

Laut einem Sprecher von Microsoft handelte es sich bei der Entfernung des Bildes um ein Versehen, das Unternehmen sprach von einem „menschlichen Fehler“, berichtet CNN. Im Gegensatz zur Suchmaschine Google operiert Bing auch in China. Für die Suchmaschine bedeutet das, dass sie sich den chinesischen Zensurreglungen unterwerfen muss. Offenbar wurden durch das Versehen die Regeln für China für einen längeren Zeitraum weltweit angewendet.

Westliche Unternehmen machen Zensur mit

Auch Unternehmen wie Apple unterwerfen sich der Zensur des Landes. So speichert Apple die Kundendaten seiner chinesischen Kunden in China und wirft Apps aus seinem Store, die Inhalte zu Tibet oder dem Tiananmen-Massaker enthalten. Seit 2017 sind so 55.000 Apps, die sonst in anderen Ländern erhältlich sind, aus dem chinesischen Markt verschwunden. Die meisten von ihnen waren Spiele, aber auch LGBT-Dating-Plattformen oder Apps zur verschlüsselten Kommunikation gehören zu den Programmen, die der chinesische Staat nicht haben will. Um weiterhin Geschäfte im Land zu machen, spielen westliche Unternehmen mit und machen sich zum Handlanger des autoritären Regimes.

Im vergangenem Jahr hatte ein Mitarbeiter von Zoom sogar Meetings abgebrochen, die sich mit dem Jahrestag des Massakers beschäftigten, obwohl die Teilnehmenden gar nicht in China waren. Um das Datum des Massakers herum fährt China die Schärfe der Zensur immer etwas höher. So wurde dieses Jahr auf dem chinesischen Messengerdienst „Weibo“ sogar das Kerzen-Emoji zensiert, wie WhatsOnWeibo berichtet. Laut Radio France Internationale sperrte China auch eine Shopping-App, weil dort angeblich ein Posting zum Massaker erschienen sei. In Hongkong verhinderte die Polizei das traditionelle Gedenken an das Massaker, das Halten von Kerzen oder schwarze Kleidung wurden als verdächtig eingestuft und von der Polizei unterbunden. 

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs
Inhalt abgleichen