Blogs

Reise zu Protest verweigert: Innenministerium mauert bei politischem Reiseverbot

netzpolitik.org - 23 März, 2023 - 16:04

Die Bundespolizei verweigerte im Februar dem Vorsitzenden eines antifaschistischen Verbandes die Ausreise zu einer Demo nach Bulgarien. Auf eine schriftliche parlamentarische Frage zu dem Vorfall antwortet das Innenministerium ausgesprochen schmallippig.

Beamt:innen der Bundespolizei an einem Flughafen. – Alle Rechte vorbehalten IMAGO / localpic

Am 24. Februar verweigerte die Bundespolizei dem Vorsitzenden der Vereinigung der Verfolgten des Naziregimes – Bund der Antifaschistinnen und Antifaschisten (VVN-BdA), Florian Gutsche, am Flughafen in Berlin die Ausreise nach Bulgarien. Dort wollte der 34-jährige an einer Demo gegen einen Nazi-Aufmarsch teilnehmen. Stattdessen erwartete ihn am Flughafen ein Zivilpolizist, später durchsuchten und befragten Gutsche Beamte und erteilten ihm ein sechstägiges Reiseverbot – nicht nur nach Bulgarien.

Nach Informationen des VVN-BdA wurde die Verfügung damit begründet, dass damit zu rechnen sei, dass Gutsche „das Ansehen der Bundesrepublik Deutschland im Ausland erheblich schädigen“ würde. Indizien sah die Polizei in „mitgeführter Kleidung und Utensilien, die klar dem linken Phänomenbereich zuzuordnen sind“. Laut Pressemitteilung des VVN-BdA waren diese Gegenstände ein schwarzer Pulli, eine schwarze Jacke, eine Fahne und eine Broschüre der Organisation. Auf dieser Grundlage unterstellte die Polizei Gutsche eine mögliche Teilnahme an gewalttätigen Protesten. Gutsche selbst sagt der taz, dass er nie für irgendetwas verurteilt wurde in seinem Leben.

Wurden PNR-Daten genutzt?

Fraglich ist, wie die Polizei überhaupt dazu kam, dass sie Gutsches Reise auf dem Radar hatte. Denkbar ist, dass Gutsche – ohne Verurteilung – in einer Datei für politisch motivierte Gewalttäter gelandet ist und seine Reise mittels der Vorratsdatenspeicherung von Flugdaten (PNR) den Behörden bekannt wurde. Die Bundespolizei hat auf Presseanfragen von taz und nd bislang nicht geantwortet.

Im Jahr 2020 hat das Bundespolizeipräsidium 25.280 Personendaten aus der Fluggastdatenspeicherung vom Bundeskriminalamt (BKA) mit einer Aufforderung für sogenannte Folgemaßnahmen erhalten. Diese Maßnahmen sind hoch umstritten: Das Verwaltungsgericht Wiesbaden hatte die Fluggastdatenspeicherung im vergangenen Dezember für rechtswidrig erklärt: Dem BKA fehle eine grundrechtskonforme Rechtsgrundlage. Zuvor hatte schon der Europäische Gerichtshof die Datensammlung moniert.

Zugeknöpfte Antwort

Auf eine schriftliche Frage der linken Bundestagsabgeordneten Martina Renner antwortete das Bundesinnenministerium nur mit einer allgemeinen Antwort zur Rechtsgrundlage (§ 10 Absatz 1 Satz 2 in Verbindung mit § 7 Absatz 1 Nummer 1 des Passgesetzes) und verweigerte sonst jede Auskunft zum Fall Gutsche. In der Antwort heißt es:

Die mit der Fragestellung gewünschten Auskünfte zu etwaigen durch die Bundespolizei bei der Ausreise einer Person festgestellten die vorgenannte Gefahr begründenden Tatsachen berühren das Persönlichkeitsrecht Dritter. Unter Abwägung des parlamentarischen Fragerechts und des damit einhergehenden öffentlichen Informationsinteresses mit dem gleichzeitig hier notwendigen Schutz der Persönlichkeitsrechte des Betroffenen kommt die Bundesregierung vorliegend zu dem Ergebnis, dass diesbezügliche Auskünfte nicht und – wegen des höchstpersönlichen Charakters der angefragten Daten – auch nicht eingestuft übermittelt werden können. Ob und inwieweit eine Auskunft an den Betroffenen möglich ist, obliegt auf dessen Anfrage der Entscheidung der zuständigen Sicherheitsbehörde im konkreten Einzelfall.

Weiter heißt es: Die Bundespolizei prüfe bei allen Personen, d. h. auch aus allen Phänomenbereichen der Politisch Motivierten Kriminalität, soweit diese bei der Ausreise angetroffen werden, ob einzelfallspezifisch gefahrenbegründende Erkenntnisse vorliegen, die in der Gesamtbetrachtung unter Berücksichtigung des Grundsatzes der Rechtsgüterabwägung Ausreiseuntersagungen an der Grenze erforderlich machen würden.

Gutsche selbst erwägt laut dem nd eine Klage gegen das Ausreiseverbot.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Blogs

NetzDG-Reform ungültig: Meta muss keine Widerspruchsmöglichkeit anbieten

netzpolitik.org - 22 März, 2023 - 17:49

Deutschland hätte Instagram und Facebook nicht einfach vorschreiben dürfen, dass sie ein Gegenvorstellungsverfahren bei Löschentscheidungen anbieten müssen. Auch wenn Meta vor Gericht Erfolg hatte: Dank des Digital Services Act kommt die Widerspruchsmöglichkeit gegen Löschungen bald für die gesamte EU.

Die Einführung eines Widerspruchsverfahrens gegen die Löschung mutmaßlich rechtswidriger Inhalte war europarechtswidrig – Alle Rechte vorbehalten ThomasxTrutschel photothek.netx

Social-Media-Plattformen mit Sitz im EU-Ausland können vom deutschen Gesetzgeber nicht einfach verpflichtet werden, Nutzer:innen einen Widerspruchsmechanismus gegen die Löschung mutmaßlich rechtswidriger Inhalte bereitzustellen. Eine Vorgabe des Netzwerkdurchsetzungsgesetzes (NetzDG) für dieses sogenannte Gegenvorstellungsverfahren verstößt gegen Europarecht und ist ungültig. Das entschied das Oberverwaltungsgericht Nordrhein-Westfalen nach einer Klage des US-Konzerns Meta in letzter Instanz.

Facebook und Instagram müssen die vom NetzDG vorgesehenen Widerspruchs- und Wiederherstellungsmechanismen bei mutmaßlich strafrechtlich relevanten Inhalten nun nicht umsetzen (§ 3b Abs. 1 und 2 NetzDG). Gültig bleiben Gegenvorstellungsverfahren bei Inhalten, die aus sonstigen Gründen gelöscht wurden, etwa weil sie gegen die Community-Richtlinien oder Geschäftsbedingungen von Social-Media-Unternehmen verstoßen (§ 3b Abs. 3 NetzDG).

Diese neuen Regeln für Plattformanbieter hatte der Bundestag erst im Mai 2021 in einer Reform des NetzDG beschlossen. Sie sollten die Nutzer:innen vor Overblocking schützen und so die Meinungsfreiheit im Netz stärken. Auch diejenigen sollten ein Widerspruchsrecht bekommen, die einen Inhalt gemeldet haben, der nicht gelöscht wurde.

Gravierende Formfehler

Für die ehemalige Bundesregierung und vor allem die damalige Justizministerin Christine Lambrecht ist die Entscheidung eine herbe Schlappe. Über die grundsätzliche Zulässigkeit von Widerspruchs- und Wiederherstellungsmechanismen auf Social-Media-Plattformen sagt das Urteil nichts.

Das Oberverwaltungsgericht begründet den Schritt vielmehr mit formalen, europarechtlichen Verstößen der Bundesregierung. Konkret verstößt die Vorgabe gegen das Herkunftslandprinzip: Die e-Commerce-Richtlinie der EU sieht vor, dass Diensteanbieter grundsätzlich nur dem Recht des Mitgliedstaats unterliegen, in dem sie niedergelassen sind. Im Fall von Meta ist das Irland, weil dort der europäische Ableger des Konzerns seinen Sitz hat.

Abweichungen vom Herkunftslandprinzip sind zwar möglich, doch die Bundesregierung hat es laut Oberverwaltungsgericht verpasst, diese geltend zu machen. So habe Deutschland weder die EU-Kommission noch die betroffenen Mitgliedstaaten vor der Einführung der Regeln informiert und dazu aufgefordert, selbst entsprechende Maßnahmen zu ergreifen.

Digital Services Act sieht Beschwerdeverfahren vor

Das Netzwerkdurchsetzungsgesetz war eine Maßnahme der Bundesregierung im Kampf gegen Hassrede im Netz. Seit 2017 soll das NetzDG dafür sorgen, dass Social-Media-Anbieter mutmaßlich rechtswidrige Inhalte konsequenter löschen. Falls die Plattformen nicht schnell genug sind, drohen empfindliche Strafen. Zivilgesellschaft und Wissenschaft hatten Widerspruchsmechanismen lange Zeit zum Schutz der Meinungsfreiheit gefordert, damit Nutzer:innen sich wehren können, wenn Inhalte zu Unrecht gelöscht werden.

Auch wenn die späte Reform nun gekippt wurde: Die Idee des Gegenvorstellungsverfahrens lebt weiter und gilt ab 2024 sogar EU-weit. Dann entfaltet der Digital Services Act (DSA) seine Wirkung, mit dem die EU unter anderem einheitliche Regeln für die Inhalte-Moderation in Sozialen Medien geschaffen hat.

„In der Sache folgt aus der Entscheidung wenig“, kommentiert Benjamin Lück von der Gesellschaft für Freiheitsrechte gegenüber netzpolitik.org. Nach dem DSA müsste Meta bald sowieso ein internes Beschwerdemanagementsystem vorhalten, das dem Gegenvorstellungsverfahren des NetzDG weitgehend entspreche „Die Europäische Kommission dürfte diese Pflicht sogar wesentlich hartnäckiger und schneller durchsetzen als das bisher zuständige Bundesamt für Justiz.“

Wie viel Spielraum bleibt für nationale Plattformregulierung?

Allerdings könnten die Ausführungen des Gerichts zur Auslegung des Herkunftslandprinzips wichtig werden, so der Jurist weiter. Die Frage, welchen Spielraum einzelne EU-Staaten bei der Regulierung von Internetkonzernen mit Sitz im EU-Ausland haben, werde etwa beim Gesetz zum Schutz vor digitaler Gewalt relevant. SPD, Grüne und FDP hatten im Koalitionsvertrag verabredet, ein solches Gesetz einzuführen. Die Entscheidung des Oberverwaltungsgerichts könnte die Möglichkeiten hierfür deutlich einschränken.

Lück sieht im Digital Services Act jedoch gute Argumente „gegen ein so starr verstandenes Herkunftslandprinzip.“ Anders als die e-Commerce-Richtlinie stelle dieser „wesentlich stärker den Schutz der Nutzer:innen in den Mittelpunkt und nicht mehr vornehmlich die freien Diensterbringung durch Online-Anbieter.“ Zu diesem Schluss komme ein Gutachten, welches die Gesellschaft für Freiheitsrechte in den kommenden Wochen veröffentlichen werde.

Für die NetzDG-Reform der Großen Koalition war die Entscheidung des Oberverwaltungsgerichts unterdessen schon die zweite Schlappe. Eine andere Neuerung hatte das Verwaltungsgericht Köln zuvor bereits gekippt: Die Verpflichtung für Social-Media-Dienste, ihre Plattform nach potenziell strafbaren Inhalte zu durchsuchen und die Daten der Ersteller:innen an das BKA zu melden. Eine ähnliche Vorgabe findet sich allerdings ebenfalls im DSA.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Blogs

EU-Kommission: Reparaturpflicht mit Lücken

netzpolitik.org - 22 März, 2023 - 17:47

Die EU-Kommission hat heute ihren lang erwarteten Vorschlag für ein Recht auf Reparatur vorgestellt. Hersteller sollen in Zukunft bestimmte Geräte reparieren müssen. Günstiger wird das vorerst nicht. Und auch den Zugang zu Ersatzteilen will die Kommission nicht erleichtern. Umwelt- und Verbraucherschützer*innen zeigen sich enttäuscht.

Elektrogeräte zu reparieren ist oft aufwendig und teuer. – IMAGO / ingimage

Heute hat die EU-Kommission – nachdem sie den Termin mehrfach verschoben hatte – ihren Vorschlag für ein Recht auf Reparatur vorstellt. Das Vorhaben ist Teil des European Green Deal, ein Maßnahmenbündel, mit dem die EU bis zum Jahr 2050 klimaneutral werden will.

Verpflichtungen für die Hersteller

Der Vorschlag sieht vor, dass Händler technische Geräte innerhalb der gesetzlichen Gewährleistungszeit, also innerhalb der ersten zwei Jahre nach deren Kauf, kostenlos reparieren müssen – allerdings nur, wenn die Reparatur günstiger ist als der Komplettaustausch des defekten Produkts.

Die Händler stehen aber nur in der Pflicht, wenn die Kund*innen den Schaden nicht selbst verursacht haben. In solchen Fällen oder nach Ablauf der zwei Jahre Gewährleistung sollen künftig neue Verpflichtungen für die Hersteller greifen. Sie müssen demnach, abhängig vom Produkt und sofern dies technisch möglich ist, weitere fünf bis zehn Jahre Reparaturen anbieten. Von dieser Regelung sind jedoch vorerst nur bestimmte Haushaltsgeräte, Server, Festplatten, Schweißgeräte, Bildschirme sowie in naher Zukunft auch Handys und Tablets betroffen.

Damit Verbraucher*innen Reparaturangebote leichter finden und vergleichen können, soll es in jedem EU-Mitgliedsstaat eine Suchplattform für etwaige Angebote geben. Außerdem müssen Anbieter etwa den Preis und die Dauer von Reparaturen transparent kommunizieren.

Auch wenn es in Zukunft damit einfacher wird, ausgewählte elektronische Geräte reparieren zu lassen, sieht der Entwurf weder Maßnahmen vor, um Reparaturen günstiger zu machen, noch will die EU-Kommission offenkundig den Zugang zu Ersatzteilen und Reparaturanleitungen erleichtern. Außerdem lässt der Kommissionsvorschlag Regelungen missen, die Unternehmen daran hindern, die Lebensdauer ihrer Produkte absichtlich zu verkürzen oder Reparaturen zu erschweren.

Kritik von Umwelt- und Verbraucherschützer*innen

Damit bleibt der Vorschlag hinter den Erwartungen von Verbraucherschützer*innen und Aktivist*innen zurück.

Die Kampagnen Runder Tisch Reparatur und Right to Repair Europe, denen unter anderem Umweltorganisationen und Reparaturinitiativen angehören, beklagen in einer gemeinsamen Pressemitteilung den mangelnden Ehrgeiz der Kommission. „Eine wirklich nachhaltigere Nutzung von Ressourcen können wir nur erreichen, wenn die Reparaturkosten sinken. Und im Gegensatz zu dem, was die EU-Kommission kommuniziert, geht der heutige Vorschlag nicht auf die Bezahlbarkeit von Reparaturen ein“, sagt Katrin Meyer, Koordinatorin bei Runder Tisch Reparatur.

Auch der Europäische Verbraucherverband BEUC zeigt sich enttäuscht. Der Verband hatte im Vorfeld gefordert, die gesetzliche Gewährleistung für besonders langlebige Produkte zu verlängern, damit kostenlose Reparaturen über einen längeren Zeitraum möglich sind. „Es ist bedauerlich, dass die Kommission diesem Punkt keine Aufmerksamkeit schenkt“, kritisiert BEUC-Direktorin Monique Goyens.

Die EU-Kommission wirbt derweil für ihren Vorschlag: Mit dem Recht auf Reparatur würden europäische Verbraucher*innen über die Dauer von 15 Jahren rund 177 Milliarden Euro einsparen. Zudem fielen im gleichen Zeitraum schätzungsweise circa 18,5 Millionen Tonnen weniger Treibhausgasemissionen und drei Millionen Tonnen weniger Schrott an. Pro Jahr sammeln sich in der Europäischen Union etwa 4 Millionen Tonnen Elektroschrott an.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Blogs

Videoüberwachung auf Demos: Hessen verabschiedet umstrittenes Versammlungsgesetz

netzpolitik.org - 22 März, 2023 - 13:05

Die schwarz-grüne Koalition in Hessen hat ein neues Versammlungsgesetz beschlossen, das die polizeiliche Videoüberwachung von Demonstrationen im Land weitgehend legalisieren wird. Das kritisierte auch die Opposition in einer emotionalen Debatte im Landtag.

Die Polizei in Hessen hat in Zukunft mehr Befugnisse auf Demonstrationen. Die schwarz-grüne Landesregierung sieht darin eine Stärkung der Versammlungsfreiheit. (Symbolbild) – Alle Rechte vorbehalten IMAGO / brennweiteffm

Am Dienstagabend hat die schwarz-grüne Koalition in Hessen gegen die Stimmen der Oppositionsparteien das neue Versammlungsgesetz beschlossen, welches das bislang geltende Bundesgesetz ablöst. Im Vorfeld hatten Bürgerrechtsorganisationen kritisiert, dass das von der Koalition „Versammlungsfreiheitsgesetz“ genannte Gesetz die Versammlungsfreiheit nicht erweitere, sondern einschränke. Mehrfach hatten Menschen auch auf der Straße gegen das Gesetz protestiert.

Die Grünen haben laut einem Bericht der FAZ (€) in der Debatte im Landtag das Gesetz verteidigt. Es stärke die Rechte der Demonstrierenden und sei liberaler als das Bundesgesetz. Dem widersprachen im Landtag die Oppositionsparteien. Abgeordnete der SPD, FDP und Linken kritisierten, dass das Gesetz die Versammlungsfreiheit beschneide und dass der Titel des Gesetzes „irreführend“ sei.

Die Linke hält das Gesetz für verfassungswidrig und kündigte eine Klage vor dem hessischen Staatsgerichtshof an. Die FDP kritisierte das neue Versammlungsrecht, unter anderem weil es der Polizei das Recht einräume, Übersichtsaufnahmen von Demonstrationen aufzunehmen.

„Schlag gegen die Versammlungsfreiheit“

Der Rechtsprofessor Clemens Arzt hatte schon in der Sachverständigenanhörung darauf hingewiesen, dass es heute technisch keine reinen Übersichtsaufnahmen mehr gebe: Man könne alles immer „heranzoomen und herausdestillieren“. Solche Übersichtsaufnahmen seien deswegen ein schwerer Eingriff in das Grundrecht auf informationelle Selbstbestimmung. Durch die Videoüberwachung auf Demonstrationen sei das nicht mehr gewährleistet, die Folge sei eine „sehr hohe Abschreckungswirkung“, so Arzt. Amnesty International Deutschland bezeichnete das Gesetz als „Schlag gegen die Versammlungsfreiheit

Michèle Winkler vom Grundrechtekomitee hatte schon vor Wochen in einem Interview kritisiert, dass das Gesetz „sehr stark mit polizeilichem Blick geschrieben“ worden sei. Die Polizei bekomme im Entwurf zu viele Befugnisse, sie dürfe Demo-Teilnehmer:innen ausschließen oder Ordner:innen ablehnen. Denn die Versammlungsleitung muss im neuen Gesetz in bestimmten Fällen Daten und Namen von Ordner:innen nennen. „So wird das demokratische Wesen einer Demonstration zugunsten der Gefahrenabwehr gestutzt“, sagt Winkler weiter.

Das Gesetz enthält auch ein neues „Militanzverbot“, das nicht nur einschüchternde Uniformierung umfasst, sondern auch gegen thematisch-programmatische „Demo-Blöcke“ zielen könnte. Winkler kritisiert: „Das Ziel solcher Blöcke ist ja, bei Großdemonstrationen, an denen unterschiedliche Spektren teilnehmen, unterschiedliche inhaltliche Ausrichtungen sichtbar zu machen. Das ist von der Versammlungsfreiheit gedeckt“. Sie befürchtet, dass das Gesetz zu zusätzliche Beschränkungen gegen thematische Blöcke auf Demos führen könnte.

Innenminister Peter Beuth (CDU) hält das Gesetz hingegen für „zukunftsweisend“ und „modern“, die Kritik an diesem sei „überwiegend falsch“.

Inhalt von Twitter anzeigen

In diesem Fenster soll ein Twitter-Post wiedergeben werden. Hierbei fließen personenbezogene Daten von Dir an Twitter. Aus technischen Gründen muss zum Beispiel Deine IP-Adresse übermittelt werden. Twitter nutzt die Möglichkeit jedoch auch, um Dein Nutzungsverhalten mithilfe von Cookies oder anderen Tracking-Technologien zu Marktforschungs- und Marketingzwecken zu analysieren.

Wir verhindern mit dem WordPress-Plugin „Embed Privacy“ einen Abfluss deiner Daten an Twitter so lange, bis Du aktiv auf diesen Hinweis klickst. Technisch gesehen wird der Inhalt erst nach dem Klick eingebunden. Twitter betrachtet Deinen Klick als Einwilligung in die Nutzung deiner Daten. Weitere Informationen stellt Twitter hoffentlich in der Datenschutzerklärung bereit.

Zur Datenschutzerklärung von Twitter

Zur Datenschutzerklärung von netzpolitik.org

Inhalt von Twitter immer anzeigen

Inhalt direkt öffnen

var _oembed_823e500037ec00ee389515e71c89d682 = '{\"embed\":\"<blockquote class="twitter-tweet" data-width="550" data-dnt="true"><p lang="de" dir="ltr">Soeben hat der Hessische Landtag mit den Stimmen von CDU und Grüne das verfassungswidrige <a href="https:\\/\\/twitter.com\\/hashtag\\/Versammlungsgesetz?src=hash&amp;ref_src=twsrc%5Etfw">#Versammlungsgesetz<\\/a> verabschiedet. Wir haben unseren Protest dagegen auch im Parlament deutlich gemacht. Wir werden nun vor dem Staatsgerichtshof klagen!<a href="https:\\/\\/twitter.com\\/hashtag\\/Nohversfg?src=hash&amp;ref_src=twsrc%5Etfw">#Nohversfg<\\/a> <a href="https:\\/\\/twitter.com\\/hashtag\\/hlt?src=hash&amp;ref_src=twsrc%5Etfw">#hlt<\\/a> <a href="https:\\/\\/twitter.com\\/hashtag\\/hessen?src=hash&amp;ref_src=twsrc%5Etfw">#hessen<\\/a> <a href="https:\\/\\/t.co\\/OsKakYtipW">pic.twitter.com\\/OsKakYtipW<\\/a><\\/p>&mdash; Linksfraktion Hessen (@LinkeLTGHessen) <a href="https:\\/\\/twitter.com\\/LinkeLTGHessen\\/status\\/1638256263204073486?ref_src=twsrc%5Etfw">March 21, 2023<\\/a><\\/blockquote><script async src="https:\\/\\/platform.twitter.com\\/widgets.js" charset="utf-8"><\\/script>\"}'; .embed-twitter .embed-privacy-logo { background-image: url(https://cdn.netzpolitik.org/wp-content/plugins/embed-privacy/assets/images/embed-twitter.png?v=1.6.5); }

Eklat mit Schildern

Die Abgeordneten der linken Fraktion haben laut einem Bericht der Frankfurter Rundschau ihrem Unmut nach der Abstimmung mit Pappschildern mit der Aufschrift „Grundrechte schützen, Versammlungsgesetz stoppen“ Ausdruck verliehen. Solche  Proteste sind im Plenarsaal nicht zulässig. Nachdem Bilder des Protests in den sozialen Medien landeten, erteilte die Parlamentspräsidentin den Abgeordneten einen Ordnungsruf und bezeichnete den Vorgang als „Störung der Tätigkeit eines Gesetzgebungsorgans“.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Blogs

Politische Parteien: Noyb reicht Beschwerden wegen Microtargeting ein

netzpolitik.org - 21 März, 2023 - 19:31

Politische Parteien schalten auf Facebook regelmäßig Wahlwerbung und nutzen dafür auch sogenanntes Microtargeting. Bürgerrechtler:innen haben dagegen nun gleich mehrere Beschwerden beim Bundesdatenschutzbeauftragten eingereicht.

Microtargeting ohne Einwilligung der Nutzer:innen ist nicht erlaubt. – Alle Rechte vorbehalten IMAGO / Panthermedia, Hintergrund: DiffusionBee

Die Datenschutzorganisation None of Your Business (noyb) hat Beschwerden bei den zuständigen Datenschutzbehörden von Berlin und Bayern wegen politischen Microtargetings eingereicht. Unter Microtargeting versteht man zielgerichtete Werbung, die beispielsweise auf dem persönlichen Surfverhalten einzelner Nutzer:innen beruht.

Die noyb-Beschwerden nach Artikel 77 DSGVO richten sich gegen CDU, AfD, SPD, Grüne und die Linkspartei sowie gegen die Ökologisch-Demokratische Partei und gehen auf eine Recherche des ZDF Magazin Royale im April 2021 zurück. Damals hatte Jan Böhmermann in seiner Sendung Zuschauer:innen dazu aufgerufen, Microtargeting mit Hilfe einer Browser-Erweiterung aufzuzeichnen und die auf diese Weise gesammelten Daten an noyb zu spenden.

Noyb hat diese Daten analysiert und auf Datenschutzkonformität überprüft. Die Organisation kam dabei zu dem Ergebnis, dass die oben genannten Parteien Facebook während der Bundestagswahl im Jahr 2021 damit beauftragten, Nutzer:innen auf Grundlage sensibler Trackingdaten gezielt Wahlwerbung auszuspielen.

Die Marketingkampagnen richteten personalisierte, mitunter sich widersprechende Wahlversprechen an potentielle Wähler:innen der Parteien. Demnach wurde etwa FDP-Sympathisant:innen, die sich Facebooks Analysen zufolge für „grüne“ Politik interessierten, ein Werbespot angezeigt, in dem sich die Liberalen für mehr Klimaschutz einsetzen. Eine andere Zielgruppe erhielt hingegen die Botschaft, wonach es keine „staatlichen Maßnahmen, Freiheitsbeschränkungen oder Verbote“ geben dürfe, wenn es um „große Herausforderungen wie den Klimawandel“ gehe.

Politische Ansichten unterliegen besonderem Schutz

Laut Noyb ist diese Form des Microtargetings nicht rechtmäßig, weil die verwendeten Daten Informationen über politische Präferenzen der Nutzer:innen enthalten. Laut DSGVO gelten solche Daten als besonders sensibel und schützenswert. Parteien dürfen diese nur dann für Werbezwecke verwenden, wenn die Nutzer:innen zuvor ausdrücklich einwilligen, was in den untersuchten Fällen allerdings unterblieben sei.

Felix Mikolash, Datenschutzjurist bei noyb, äußert sich in einer Pressemitteilung zu den Beschwerden wie folgt: „Alle Daten über die politischen Ansichten einer Person werden durch die DSGVO besonders streng geschützt. Solche Daten sind nicht nur äußerst sensibel, sondern ermöglichen auch eine groß angelegte Manipulation von Wählern, wie Cambridge Analytica gezeigt hat.“

Dass Microtargeting die Demokratie bedroht, wurde auf EU-Ebene bereits erkannt. Die EU-Kommission legte im November 2021 einen Gesetzesvorschlag vor, der Licht in die undurchsichtigen Kampagnen bringen soll. Das Gesetz würde Parteien dazu verpflichten, transparent zu machen, ob und in welchem Umfang sie politisches Microtargeting einsetzen.

Die angestrebte Verordnung soll zudem die Nutzung persönlicher Daten für derartige Zwecke einschränken. Aktuell befindet sich der Entwurf im sogenannten Trilog-Verfahren, an dem das EU-Parlament, der Rat der Europäischen Union und die EU-Kommission beteiligt sind.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Blogs

Bedenkliche Sogwirkung: Warum TikTok eine Notbremse braucht

netzpolitik.org - 21 März, 2023 - 16:14

Die algorithmisch sortierten Videos auf TikTok können uns berauschen, aber auch beklemmen. Jetzt soll ein neuer Reset-Button Nutzer*innen mehr Kontrolle geben. Das wirft ein Licht auf die nach wie vor unterschätzte Seite von TikTok. Ein Kommentar.

Der Sog von TikTok ist für viele ein Genuss (Symbolbild) – Logo: TikTok; Strudel: StableDiffusion („creepy vortex“)

80 Minuten TikTok am Tag, 40 Stunden im Monat – so viel Zeit verbringen Kinder laut einer Studie durchschnittlich mit der populären Video-App. Aufs Jahr gerechnet sind das schon 20 komplette Tage. Mich wundert das kaum, denn im unendlichen Strom von TikToks optimierten Video-Empfehlungen vergehen die Stunden wie im Flug. Auf der Couch liegen und sich dem Feed hingeben, das halte ich für sehr gute Unterhaltung.

TikTok führt nun eine neue Funktion ein, die Nutzer*innen etwas mehr Kontrolle über den Sog der Videos gibt. Ein Reset-Button soll den persönlichen Empfehlungs-Algorithmus auf Wunsch komplett zurücksetzen. Die Funktion ist nicht nur längst überfällig, sie lenkt auch den Fokus auf eine unterschätzte Seite der Video-App. Während Nachrichtenmedien weltweit spekulieren, welche sensiblen Daten von der App nach China fließen könnten, übersehen sie etwas Größeres. Es ist der gesellschaftliche Einfluss einer Plattform, die Abermillionen Menschen jeden Tag zum Lachen, Tanzen und Weinen bringt.

Die Sogwirkung von TikTok ist beispiellos. Als Nutzer muss ich keine Denkarbeit leisten. Ich kann, aber muss keine Abos verwalten oder Suchbegriffe verwenden. Ich muss mir nicht einmal merken, wer die Creator*innen sind, die ich gerne schaue. Die Startseite, bekannt als For You Page, serviert mir immer neue Videos, bis mein Akku leer ist. Dabei muss ich nichts tun als weiterzuwischen, sobald mir ein Video nicht gefällt. Ohne Mühe trainiere ich damit meinen persönlichen Empfehlungsalgorithmus. Und weil TikTok-Videos sehr kurz sind, liefere ich TikTok in kurzer Zeit eine Menge Infos darüber, was mich bei Laune hält.

Wenn der Sog plötzlich unangenehm wird

Nicht alle genießen diesen Sog gleichermaßen. Dazu gibt es Erfahrungsberichte von Nutzer*innen und journalistische Recherchen. Sie zeigen: Für manche wird die Sogwirkung beklemmend. TikTok bietet nicht nur Tanz-, Tier- und Comedyvideos, sondern auch Videos über Verzweiflung, Depression und selbstverletzendes Verhalten. Wer nach einer schweren Phase endlich besser klarkommt, kann durch solche Empfehlungen immer wieder runtergezogen werden.

Es gibt auch auch weniger drastische Fälle, in denen die Sogwirkung von TikTok ins Negative kippen kann. Vor einer Weile sah ich in meinem Feed ständig Menschen, die lebendige Meerestiere snacken. Ich will das nicht sehen! Aber das habe ich mir wohl selbst eingebrockt. Als so ein Video mal zufällig auf meiner For You Page auftauchte, konnte ich meinen Augen nicht trauen und habe es gleich mehrfach geschaut. Prompt dachte TikTok, man könnte mir mit noch mehr Videos dieser Art einen Gefallen tun.

Schon klar, wenn einem der Sog von TikTok zu unangenehm wird, dann kann man auch einfach sein Handy weglegen. Möglicherweise kommentieren manche Leser*innen unter diesem Artikel, dass TikTok-Nutzer*innen selbst schuld seien und allein deshalb schon Vollpfosten, weil sie sich die App heruntergeladen haben. Ich fände das überheblich.

Ohne schlechtes Gewissen auf TikTok

TikTok bietet eine berauschende Welt aus algorithmisch optimierter Unterhaltung. Das ist echt krass! Ich finde, wer das ausprobieren möchte und TikToks Datensammelei zumindest duldet, sollte TikTok ohne schlechtes Gewissen nutzen können. Außerdem ist TikTok inzwischen zum wichtigsten Schauplatz für Popkultur im Netz geworden. Je nach Umfeld muss man in Sachen Popkultur einfach auf dem Laufenden sein. Wäre ich heute Teenager, der auf dem Pausenhof mitreden will, dann wäre ich aber sowas von jeden Tag auf TikTok. Heute bin ich Tech-Journalist und fast jeden Tag auf TikTok.

Ich finde aber auch, TikTok hat eine Verantwortung gegenüber seinen Nutzer*innen. Sie sollten diese beispiellose Sogwirkung jederzeit stoppen können, wenn sie das möchten. Zumindest eine Maßnahme dafür ist der neue Reset-Button. Er ist wie eine Notbremse. Betätigt man den Button, dann ignoriert der Empfehlungsalgorithmus alles, was er über einen gelernt hat. Die For You Page ist dann nicht mehr voll mit personalisierten Videos. Stattdessen zeigt TikTok jene massenkompatiblen Inhalte, die man als brandneue Nutzer*in zu sehen bekommt.

In Kürze soll dieser Button für alle verfügbar sein: Profil > Drei-Punkte-Symbol > Einstellungen und Datenschutz > Inhaltspräferenzen. Wer gänzlich neu starten möchte, muss darüber hinaus noch händisch den gefolgten Creator*innen entfolgen.

Recht auf Vergessenwerden durch Empfehlungsalgorithmen

Ich finde, einen solchen Button sollte es bei allen vergleichbaren Empfehlungssystemen geben. Menschen sollten selbst entscheiden können, ob sie durch einen vorbelasteten Empfehlungsalgorithmus zurück in die Vergangenheit gezogen werden wollen. Im Reset-Button von TikTok sehe ich ein Beispiel für ein neuartiges Recht auf Vergessenwerden durch algorithmische Empfehlungssysteme. Den Begriff „Recht auf Vergessenwerden“ gibt es bereits in einem anderen Kontext: in der DSGVO (Datenschutzgrundverordnung) handelt dieses Recht davon, wann Nutzer*innen die Löschung ihrer personenbezogene Daten verlangen dürfen.

Neben der Sogwirkung hat TikTok noch eine zweite Besonderheit, und die würde ich als Suggestivkraft bezeichnen. Das Wort finde ich hilfreich, um zu beschreiben, warum Abermillionen Menschen an TikTok kleben bleiben, nicht aber an Kreuzworträtseln. TikTok ist besonders eindringlich. Die prägnanten Videos sprechen in hohem Maß Gefühle und Sinne an. Außerdem haben viele ihr Handy immer bei sich, so begleitet TikTok viele bis ins Bett und auf die Toilette.

Auch auf Handlungen hat TikTok Einfluss: Zahlreiche virale Trends laden Nutzer*innen unmittelbar dazu ein, Gags und Tänze selbst nachzumachen. Die Massen an spontanen Tanz- und Spaß-Videos aus Wohnzimmern, Schulklassen und Büros zeigen: Genau das funktioniert. Neue Musik wird nun oft zuerst auf TikTok groß, von dort landet sie in Spotify-Playlists und auf den Tanzflächen der Clubs. Wenn ein Medium derart stark Denken, Fühlen, Wollen und Handeln beeinflusst, dann hat es eine enorme Suggestivkraft.

Beruhigungspille für die Massen

Während Menschen mit TikTok gute Laune haben und die Welt vergessen, tun sie einige andere Dinge nicht: Sie twittern sich nicht in Rage über die Lage der Nation, sie teilen keine Links zu spannenden Texten auf Facebook und sie organisieren keine Straßenproteste in Messenger-Gruppen. Stattdessen belohnt TikTok Menschen mit Tausenden Likes und Follows, wenn sie sich unbesorgt und munter präsentieren, etwa beim Posen, Tanzen, Kochen, Witze machen, Sporteln oder beim Spiel mit dem Haustier.

Ich glaube, wenn TikTok bedenklich ist, dann deshalb. TikTok zelebriert und fördert eine Welt mit unkritischen Bürger*innen. Eine Welt, von der autoritäre Regime sicher träumen. Pro-chinesische Akteur*innen müssten nicht mal Propaganda-Videos in die Feeds der Nutzer*innen schmuggeln, auch wenn es dafür mitunter Hinweise gibt. Es genügt, wenn sich die Leute mehr für ein Lied über unvorteilhaft fallende Haare interessieren als für verletzte Menschenrechte.

TikToks Angebot an harmloser Unterhaltung ist groß genug, um Nutzer*innen dauerhaft bei Laune zu halten. Twitter und Facebook verlieren ohne aufwühlende Inhalte bald ihren Reiz, TikTok nicht. Ich halte TikTok für besonders geeignet, Menschen zu entpolitisieren. Auch wenn es durchaus Fälle von politischen Inhalten auf der Plattform gibt, die teils unter seltsamen Umständen ausgebremst oder gänzlich blockiert wurden.

Ich glaube nicht, dass TikTok gezielt als Beruhigungspille für die Massen entwickelt wurde. TikTok hat sich wohl einfach so entwickelt. Genauso, wie Twitter zu einer Arena für provokante Behauptungen geworden ist – und LinkedIn ein Laufsteg für lebendig gewordene Motivationsschreiben. Diese und andere Plattformen mögen ihren Einfluss auf Menschen haben, sind aber auch nur einer von vielen Faktoren. Die Generation TikTok ist zum Beispiel dieselbe Generation, die mit bemerkenswerter Entschlossenheit dagegen ankämpft, dass unser Planet in eine ungebremste Klimakatastrophe rast.

Bedenklich, aber nicht gefährlich

Zahlreiche Nachrichtenmedien gehen gerade der Frage nach, ob uns der chinesische Staat mithilfe von TikTok schaden könnte, etwa durch Ausspähen unserer Kontaktbücher und Standorte. Solche Fragen sind ziemlich engstirnig, wie mein Kollege Markus Beckedahl schon im Januar aufgeschrieben hat. US-amerikanische Datensammler wie WhatsApp-Konzernmutter Meta oder Google sind nicht weniger neugierig. Keinem Tech-Konzern sollte man gerne sein Kontaktbuch freigeben, mit China hat das wenig zu tun. Besonders schützen sollten sich etwa Aktivist*innen, Anwält*innen, Journalist*innen.

Für die Mehrheit der Abermillionen TikTok-Nutzer*innen finde ich etwas anderes bedenklich, und zwar die Sogwirkung und Suggestivkraft von TikTok. Ein endloser, algorithmisch optimierter Feed aus einprägsamen Kurzvideos, so etwas gab es vorher noch nicht. Ich halte TikTok allerdings nicht für ein Suchtmittel. Die Pathologisierung von Medienkonsum war schon vor mehr als 200 Jahren überzogen. Ich sehe in TikTok ein Genussmittel, und den guten Umgang damit müssen alle erst mal lernen. Gefährlich würde ich TikTok auch nicht nennen, von Gefahr zu sprechen wäre mir eine Nummer zu groß. Zum Vergleich: Schlafmangel ist gefährlich.

Inzwischen hat TikTok einen Warnhinweis für Jugendliche eingerichtet. Wenn sie länger als eine Stunde am Tag online sind, müssen sie einen Zahlencode eingeben. Mich überzeugen solche technischen Ansätze weniger. Ich habe mir so einen Zahlencode auch eingerichtet und lasse mich davon nicht aufhalten. Wenn man von einer Sache wegkommen will, dann helfen interessante Alternativen. Ich glaube zu den besten Mitteln gegen die entpolitisierende Suggestivkraft von TikTok gehören verblüffend profane Dinge: Familie und Freund*innen, Vereine und Brettspiele, und von mir aus auch ein wenig LinkedIn.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Blogs

Aktionskunst: Bundesverfassungsgericht beschäftigt sich mit Adbusting

netzpolitik.org - 21 März, 2023 - 14:15

Die Berliner Polizei durchsuchte 2019 wegen eines ausgetauschten Bundeswehr-Plakats eine Wohnung. Dagegen wehrte sich die betroffene Studentin mit einer Verfassungsbeschwerde in Karlsruhe. Das höchste Gericht beschäftigt sich nun mit dem künstlerisch-politischen Verändern von Werbung – kann die Beschwerde aber noch ablehnen.

Wegen dieses Plakates ordnete das Landeskriminalamt eine Hausdurchsuchung an. – Alle Rechte vorbehalten Soligruppe plakativ / Unkenntlichmachung: netzpolitik.org

Das Thema Adbusting ist in Karlsruhe gelandet. Eine politische Aktivistin hatte im Jahr 2020 mit prominenter Unterstützung Verfassungsbeschwerde eingelegt, mit der sich das Bundesverfassungsgericht nun beschäftigt. Es wird nun der Berliner Senatsverwaltung für Justiz und der Generalbundesanwaltschaft Gelegenheit zur Stellungnahmen geben, kann die Beschwerde aber immer noch ablehnen.

Unter Adbusting versteht man das künstlerisch-politische Verändern von Werbung in der Öffentlichkeit. Im Mai 2019 hatte die Jura-Studentin Frida Henkel, die tatsächlich anders heißt, ein Plakat der Bundeswehr entsprechend verändert. Das Werbemotiv hatte mit dem Slogan „Geht Dienst an der Waffe auch ohne Waffe?“ nach IT-Kräften gesucht. Henkel änderte den Spruch in „Kein Dienst an der Waffe geht ohne Waffe!“ – und hängte das veränderte Plakat in einen Werbekasten. Polizist:innen beobachteten den Tatvorgang und nahmen Henkels Personalien auf. Die Berliner Polizei ermittelte daraufhin gegen die Studentin wegen versuchten Diebstahls in einem besonders schweren Fall in Tateinheit mit Sachbeschädigung.

Razzia wegen eines veränderten Plakats

Etwa ein halbes Jahr später, im September 2019, stand der Studentin wegen der Aktion unerwartet eine Razzia ins Haus – und zwar in der Wohnung ihres Vaters. Insgesamt ließ das Landeskriminalamt Berlin in Zusammenhang mit der Tat drei Hausdurchsuchungen durchführen. „Der Grund für die Hausdurchsuchungen ist, dass ich die Bundeswehr kritisiert habe“, sagt Frida Henkel laut einer heute verbreiteten Pressemitteilung.

Henkel ließ die Hausdurchsuchung nicht auf sich beruhen und klagte vor dem Landgericht gegen die Razzia. Als das Landgericht die Maßnahme als verhältnismäßig einstufte, reichte Henkel gemeinsam mit den Rechtswissenschaftlern Prof. Mohamad El-Ghazi von der Universität Trier und Prof. Andreas Fischer-Lescano von der Universität Bremen Verfassungsbeschwerde ein. Fischer-Lescano sieht die Aktionsform als grundrechtlich geschützt an.

Inhalt von YouTube anzeigen

In diesem Fenster soll ein YouTube-Video wiedergegeben werden. Hierbei fließen personenbezogene Daten von Dir an YouTube. Wir verhindern mit dem WordPress-Plugin „Embed Privacy“ einen Datenabfluss an YouTube solange, bis ein aktiver Klick auf diesen Hinweis erfolgt. Technisch gesehen wird das Video von YouTube erst nach dem Klick eingebunden. YouTube betrachtet Deinen Klick als Einwilligung, dass das Unternehmen auf dem von Dir verwendeten Endgerät Cookies setzt und andere Tracking-Technologien anwendet, die auch einer Analyse des Nutzungsverhaltens zu Marktforschungs- und Marketing-Zwecken dienen.

Zur Datenschutzerklärung von YouTube/Google

Zur Datenschutzerklärung von netzpolitik.org

Inhalt von YouTube immer anzeigen

„Adbusting: Kunst, Protest oder gefährlicher Extremismus? | Y-Kollektiv“ direkt öffnen

var _oembed_e8d8d08cfab8b21d6376eabe8258cd1f = '{\"embed\":\"<iframe title="Adbusting: Kunst, Protest oder gefährlicher Extremismus? | Y-Kollektiv" width="760" height="428" src="https:\\/\\/www.youtube-nocookie.com\\/embed\\/r5iWCHkyxm8?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" allowfullscreen><\\/iframe>\"}'; [data-embed-id="oembed_e8d8d08cfab8b21d6376eabe8258cd1f"] { aspect-ratio: 760/428; } .embed-youtube .embed-privacy-logo { background-image: url(https://cdn.netzpolitik.org/wp-content/plugins/embed-privacy/assets/images/embed-youtube.png?v=1.6.5); }

Adbusting gerät immer wieder ins Visier von Polizeibehörden. So nahm die Staatsanwaltschaft Frankfurt am Main vor gut einem Jahr Ermittlungen gegen einen Aktivisten wegen „verfassungsfeindlicher Verunglimpfung“ auf. Stein des Anstoßes war ein Plakat, das den ehemaligen Bundesinnenminister Horst Seehofer mit einer Augenklappe auf dem rechten Auge zeigte. Das Motiv kritisierte auf satirische Weise Seehofers Umgang mit Rassismus in polizeilichen Strukturen. Die Staatsanwaltschaft leitete die Ermittlungen eigenmächtig ein, ohne dafür vorab die erforderliche Zustimmung des betroffenen Ministers eingeholt zu haben. Nachdem der Fall öffentlich bekannt wurde, stellte die Staatsanwaltschaft die Ermittlungen ein.

Mit Kanonen auf Spatzen

Im Jahr 2018 stufte der Verfassungsschutz eine andere Adbusting-Aktion als „gewaltorientierten Linksextremismus“ ein. Die politische Kunstform schaffte es in den Jahren zuvor sogar bis ins Gemeinsame Extremismus- und Terrorabwehrzentrum (GETZ), wo man 2018 und 2019 vier Fälle von Adbusting auf dem Tisch hatte. Auch der Militärische Abschirmdienst (MAD), der Geheimdienst der Bundeswehr, beschäftigte sich zwischen 2015 und 2019 insgesamt 13 Mal mit Veränderungen von Bundeswehrplakaten. Ein Fall davon betraf das Peng-Kollektiv, das eine Bundeswehr-Werbung parodierte.

Sollte die Verfassungsbeschwerde in Karlsruhe angenommen werden, könnte sie klären, wie Adbusting als künstlerisch-poetische Aktionsform rechtlich einzustufen ist – und im besten Fall den Scharfmachern bei Ermittlungsbehörden und Geheimdiensten den Wind aus den aufgeblähten Segeln nehmen.

Korrektur 21.3.23, 15:40 Uhr:
In einer ersten Version dieses Artikels hatten wir geschrieben, dass die Verfassungsbeschwerde angenommen worden sei. Dem ist nicht so. Das Bundesverfassungsgericht holt nun Stellungnahmen ein und entscheidet dann, ob sie die Beschwerde annimmt. Wir haben die Textstellen im Fließtext und im Teaser korrigiert.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Blogs

Koalitionsverhandlungen in Berlin: „Die nächste Regierung muss das Transparenzgesetz einfach umsetzen“

netzpolitik.org - 20 März, 2023 - 15:56

Berlin braucht endlich ein Transparenzgesetz, findet Meike Kamp. Dabei dürfe die neue Regierung nicht hinter heutigen Standards zurückbleiben, warnt die Berliner Beauftragte für Datenschutz und Informationsfreiheit im Interview. Auch die Verwaltung sollte das Vorhaben als Chance sehen.

Gut gelaunt und hoffnungsvoll: Die neue Berliner Beauftragte für Informationsfreiheit, Meike Kamp. – Alle Rechte vorbehalten Annette Koroll

Seit 2016 wartet Berlin auf ein Transparenzgesetz. Deutschlands erste Koalition aus SPD, Linken und Grünen (R2G) wollte damals vieles anders machen und schrieb sich das progressive Vorhaben in den Koalitionsvertrag. Ein Transparenzgesetz nach Hamburger Vorbild sollte es werden, bei dem die Behörden Verträge, Urteile, Umweltdaten und andere Informationen proaktiv auf einem Transparenzportal bereitstellen.

Fast sieben Jahre später ist das Gesetz immer noch nicht da. Dabei war Berlin einst Vorreiterin: 1999 führte das Bundesland als zweites überhaupt ein Informationsfreiheitsgesetz ein. Seitdem ist die Berliner Verwaltung verpflichtet, bestimmte Informationen auf Antrag herauszugeben. Das versprochene Update zum Transparenzgesetz wurde in den vergangenen Jahren zu einem der vielen Zankäpfel der Koalition, vor allem die SPD bremste.

Erst eine Initiative für einen Volksentscheid brachte 2019 Bewegung in das Thema. Das zivilgesellschaftliche Bündnis schrieb einen eigenen Gesetzentwurf, nahm mit über 30.000 gesammelten Unterschriften die erste Hürde. Weil R2G nach langem Hinhalten versprach, das Gesetz auf jeden Fall umzusetzen, verzichtete das Bündnis auf eine Volksabstimmung. Doch die Koalitionäre konnten sich bis zur Wahl 2021 nicht einigen. Nach dem Neustart sollte das Projekt deshalb eines der ersten werden, das im Jahr 2022 umgesetzt wird. Auch das scheiterte.

Nun bekommt Berlin vermutlich eine neue Regierung. CDU und SPD führen Koalitionsverhandlungen, und viele haben die Hoffnung auf ein Transparenzgesetz deshalb bereits aufgegeben. Nicht jedoch Meike Kamp. Die Juristin ist seit November 2022 Berliner Beauftragte für Datenschutz und Informationsfreiheit (BlnBDI). Am Telefon ist sie gut gelaunt und hoffnungsvoll.

Kamp gilt als ausgewiesene Datenschutzexpertin, mit Informationsfreiheit hatte sie in ihrer Karriere bislang eher wenige Berührungspunkte. Nach dem Studium der Rechtswissenschaften und Rechtsinformatik arbeitete sie von 2005 bis 2010 beim Unabhängigen Landeszentrum für Datenschutz Schleswig-Holstein. Von 2010 bis 2019 war sie beim BlnBDI für Fragen des internationalen Datenverkehrs zuständig, arbeitete danach bei der Vertretung des Landes Bremen im Bundesrat.

In ihrem ersten großen Interview zum Thema Informationsfreiheit erinnert Kamp nun daran, dass auch Berliner CDU-Politiker ein Transparenzgesetz gefordert haben, solange sie in der Opposition waren. Sie lobt den Gesetzentwurf des zivilgesellschaftlichen Bündnisses und fordert von CDU und SPD ein echtes Transparenzgesetz, ohne pauschale Bereichsausnahmen und Gebühren. Zugleich warnt sie vor einer Überforderung der Verwaltung durch zu viel Eile. Richtig gemacht, könne das Vorhaben ein Motor für die verschleppte Digitalisierung der Verwaltung sein.

“Auf keinen Fall hinter aktuellen Stand zurückfallen“

netzpolitik.org: Frau Kamp, Ihre Amtszeit dauert fünf Jahre. Denken Sie, dass Sie in dieser Zeit noch die Einführung eines Transparenzgesetzes für Berlin erleben werden?

Meike Kamp: Ich habe sehr große Hoffnung, ja.

netzpolitik.org: Die SPD regiert Berlin seit mehr als zwanzig Jahren, seit 2016 verspricht sie, ein Transparenzgesetz einzuführen. Das haben die Berliner Parteispitze und die sozialdemokratischen Innensenator:innen verhindert. Christdemokraten gelten auch nicht als die größten Fans der Transparenz, vorsichtig ausgedrückt. Was macht Sie da so zuversichtlich?

Meike Kamp: Der Druck ist inzwischen so hoch, dass die nächste Regierung das Transparenzgesetz einfach umsetzen muss. Hoffnung machen mir unterschiedliche Aussagen, zum Beispiel des Sprechers der CDU-Fraktion für Digitalisierung und Datenschutz, dass seine Partei das Vorhaben befürwortet. Die SPD tut dies ja ohnehin.

netzpolitik.org: Sachsen hat kürzlich ein Transparenzgesetz erlassen, von dem die Transparenzbeauftragte des Landes sagt, dass es den Namen eigentlich nicht verdient hat. Die Liste der Ausnahmen ist länger als die der veröffentlichungspflichtigen Informationen. Was wäre Ihnen für Berlin lieber: eine schlechte Reform oder gar kein Transparenzgesetz?

Meike Kamp: Das Transparenzgesetz darf auf keinen Fall hinter dem aktuellen Stand zurückbleiben. Was heute bereits per Antrag möglich ist, muss natürlich möglich bleiben.

“Wir haben ein Erklärungsproblem“

netzpolitik.org: Sprechen wir darüber, warum Berlin ein Transparenzgesetz braucht. Es gibt die umgangssprachliche Rede vom „Berliner Sumpf“ für einen Morast aus Vetternwirtschaft und Korruption, gerade im Bereich Bauwirtschaft. Auch zum BER-Desaster hat Korruption einen Teil beigetragen. Hat Berlin ein Problem mit Korruption?

Meike Kamp: Ich glaube nicht, dass wir ein Berlin-spezifisches Problem mit Korruption haben. Dass es bislang mit dem Transparenzgesetz nicht geklappt hat, lag jedenfalls eher an dem politischen Gerangel, das um die konkrete Ausgestaltung entstanden ist, zum Beispiel um Ausnahmetatbestände. Die letzte Regierung hatte offenbar Schwierigkeiten, in den unterschiedlichen Senatsverwaltungen konsequente Transparenz durchzubringen.

netzpolitik.org: Wenn wir kein Korruptionsproblem haben, warum brauchen wir dann ein Transparenzgesetz?

Meike Kamp: Weil wir ein Erklärungsproblem haben. Ich glaube, dass die Menschen bei politischen Entscheidungen viel mehr mitgenommen werden müssen. Da kann das Transparenzgesetz helfen, indem der Staat proaktiv transparent arbeitet und von sich aus die Informationen zur Verfügung stellt, die Grundlage für politische Entscheidungen sind.

Volksentscheid hat Thema vorangebracht

netzpolitik.org: Das aktuelle Berliner Informationsfreiheitsgesetz stammt von 1999. Was muss besser werden?

Meike Kamp: Das Wichtigste ist die proaktive Veröffentlichung von Informationen. Wichtig ist auch, dass die Ausnahmetatbestände konkret gefasst und nicht zu weit gefasst sind. Dann ist da die Automatisierung von Veröffentlichungsprozessen und die Bereitstellung von Schnittstellen, so dass Informationen auch digital und einfach abgerufen werden können. Da haben wir in Berlin ein echtes Problem: Hamburg zum Beispiel ist mit der Verwaltungsdigitalisierung insgesamt sehr viel weiter als wir und hat es leichter. Aber: Das Transparenzgesetz kann auch Motor für die Digitalisierung der Verwaltung sein.

netzpolitik.org: Es gibt den Gesetzentwurf eines zivilgesellschaftlichen Bündnisses für einen Volksentscheid Transparenz, der das alles vorsieht. Wie finden Sie den?

Meike Kamp: Den finden wir schon sehr gut. Der hat viele positive Ideen und Ansätze drin. Die proaktiven Veröffentlichungspflichten zum Beispiel, die Betonung auf die automatisierte Bereitstellung. Dann natürlich mehr Ressourcen und auch Befugnisse für unser Haus für die Aufsicht. Überhaupt gefällt mir die Systematik des Gesetzentwurfes und die sehr vernünftige Auseinandersetzung mit den Ausnahmen und Beschränkungen.

Man muss sowieso sagen: Das Volksbegehren hat das Thema Transparenz in Berlin ordentlich vorangebracht. Was wir als Herausforderungen gesehen haben, waren die kurzen Umsetzungsfristen. Ich könnte mir vorstellen, dass das auch die Bereitschaft in der Verwaltung erhöht, wenn man da ein stückweit entgegenkommen könnte.

„Komplette Bereichsausnahmen gehen nicht“

netzpolitik.org: Die Ausnahmen sind einer der großen Streitpunkte. Der Gesetzentwurf, den die Innenverwaltung vorgelegt hatte, sah relativ weitgehende Ausnahmen vor. Die Zivilgesellschaft fordert unter anderem die Abschaffung von Bereichsausnahmen, die zum Beispiel ganz pauschal sagen: Das Thema Verfassungsschutz ist komplett ausgenommen.

Meike Kamp: Das sehe ich auch so. Komplette Bereichsausnahmen, das geht nicht. Die Default-Einstellung muss sein, dass alles veröffentlicht wird. Davon ausgehend kann man dann überlegen, was konkrete Ausnahmetatbestände sind. Das pauschale Herausnehmen ganzer Verwaltungsbereiche aus dem Gesetz zeugt ein Stück weit von großer Eile, in der man sich keine Wege verbauen möchte. Aber da würde ich von der Politik schon verlangen, dass sie konkret wird.

netzpolitik.org: Wo würden Sie die Linien ziehen und wo nicht?

Meike Kamp: Das muss man sich wirklich für jeden Bereichen ganz konkret anschauen, auch wenn das aufwendig ist und etwas Zeit in Anspruch nimmt. Nehmen wir zum Beispiel den Bereich Bildung und Wissenschaft, für den die letzte Regierung eine pauschale Ausnahme wollte. Das geht nicht. Studierende und Eltern von Schulkindern müssen zum Beispiel erfahren können, wie hoch der Ausfall an Vorlesungen und Unterrichtsstunden ist. Oder der Gesundheitsbereich: Die Corona-Pandemie hat gezeigt, dass es für die Öffentlichkeit wichtig ist, zu erfahren, wie viele Betten mit Patienten belegt sind. Oder im Bereich der Steuerverwaltung: Nicht jedes Steuerberechnungsmodell ist schützenswert. So müssten man das für jeden Bereich durchgehen.

netzpolitik.org: Die von der Verwaltung vorgeschlagenen Ausnahmen für Wissenschaft und Bildung sind Aktivist:innen besonders aufgestoßen. Franziska Giffey hat ja selbst persönliche Erfahrungen mit IFG-Anfragen in diesem Bereich, sie haben 2020 mit dazu geführt, dass sie ihren Doktortitel abgeben musste. Da liegt der Vorwurf nahe, dass persönliche Interessen im Spiel sind.

Meike Kamp: Darüber habe ich keine Informationen. Aber ich möchte hierzu nochmal den Sprecher der CDU-Fraktion für Digitalisierung und Datenschutz zitieren. Der hatte im Juni 2022 in einer Rede zur Schulpolitik gefordert, dass es hier mehr Transparenz gibt und dafür auch das Transparenzgesetz braucht.

Transparenz als Chance für die Verwaltung

netzpolitik.org: Ein anderes Streitthema sind die Gebühren. Auch da lagen Verwaltung und Zivilgesellschaft weit auseinander. Wie stehen Sie zur Forderung der Gebührenfreiheit?

Meike Kamp: Ich kann dem grundsätzlich viel abgewinnen. Ich hoffe, dass durch die aktive Veröffentlichung auf dem Transparenzportal ohnehin weniger Dinge angefragt werden müssen. In dem Zusammenhang muss ich anmerken, dass es offenbar Bestrebungen gibt, die aktuelle Ausnahme für gemeinnützige Anfragen in der Gebührenordnung zu streichen. Das wäre aus meiner Sicht problematisch. Anfragen von gemeinnützigen Organisationen müssen kostenlos bleiben, die Gebührenordnung sollte in dieser Hinsicht eher nachgeschärft werden.

netzpolitik.org: Wenn man mit Leuten aus der Verwaltung spricht, scheinen diese oft Sorge vor dem Arbeitsaufwand und dem Kontrollverlust zu haben, den ein Transparenzgesetz mit sich bringen kann. Was entgegen Sie dem?

Meike Kamp: Dass die Verwaltung den Prozess für sich selbst als Chance wahrnehmen sollte. Die Evaluation zum Hamburger Transparenzgesetz hat gezeigt: Die Verwaltung ist hier oft ihr bester Kunde. Ganz viele Abrufe aus dem Transparenzportal in Hamburg kommen aus der Verwaltung selbst, weil benötigte Informationen hier einfach zugänglich sind.

Dafür muss die Transparenz aber bei Digitalisierungsprojekten von Anfang an mitgedacht werden. Indem zum Beispiel Schnittstellen gebaut oder Schwärzungstools bereitgestellt werden. Also Dinge, die eine effektive Bereitstellung dieser Information durch die Verwaltung ermöglichen, um den Kulturwandel zu beschleunigen und die Hindernisse abzubauen.

netzpolitik.org: Wie halten Sie es denn mit der Informationsfreiheit bei Ihnen im Haus? Sie sind ja als Behörde selbst auch auskunftspflichtig.

Meike Kamp: Ich hoffe, dass wir Informationsfreiheitsanfragen gut und nach Recht und Gesetz beantworten. Wir haben auch für das kommende Transparenzgesetz eine neue Stelle besetzt, um uns in dem Bereich ein bisschen breiter aufzustellen können. Insgesamt versuchen wir, auch proaktiv Dinge auf unserer Webseite zu veröffentlichen. Aber da gibt es sicherlich auch noch Optimierungsbedarf.

netzpolitik.org: Der Bundesbeauftragte für Datenschutz und Informationsfreiheit hat bei sich den Grundsatz eingeführt: Access for one, access for all. Dokumente, die von einer Person angefragt und dann veröffentlicht werden, müssen dann auch einfach proaktiv allen zur Verfügung gestellt. Können Sie sich das auch vorstellen?

Meike Kamp: Das kann ich mir auch vorstellen. Das ist eine tolle Idee.

Wir brauchen Vollstreckungsbefugnisse gegenüber der Polizei

netzpolitik.org: Zum Abschluss kann ich mir eine Frage zum Datenschutz nicht verkneifen, weil auch sie die Koalitionsverhandlungen betreffen könnte: Die EU hat ein Vertragsverletzungsverfahren gegen Deutschland eingeleitet, weil einige Bundesländer die Datenschutzrichtlinie für Justiz und Inneres nicht richtig umgesetzt haben, auch Berlin. Ihre Behörde hat bei Datenschutzverstößen der Polizei keine effektiven Durchsetzungsmöglichkeiten, sondern lediglich die Beanstandung als schärfstes Schwert. Was erwarten Sie hier von der nächsten Regierung?

Meike Kamp: Ich erwarte von der nächsten Regierung, dass sie meine Behörde mit Anordnungsbefugnissen auch gegenüber der Polizei und sonstigen Bereichen der öffentlichen Verwaltung ausstattet. Wir brauchen diese Vollstreckungsbefugnisse gegenüber der öffentlichen Hand.

netzpolitik.org: Vielen Dank für das Gespräch.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Blogs

Strafen für rechtsextreme Polizei-Chats: Eine Frage der Öffentlichkeit

netzpolitik.org - 20 März, 2023 - 09:07

Frankfurter Polizist:innen schickten sich in einer Messenger-Gruppe Hakenkreuze und machten sich über Minderheiten lustig. Es könnte sein, dass sie nicht strafrechtlich belangt werden, denn die Hürden dafür sind hoch. Wir erklären die Rechtslage.

1. Polizeirevier in Frankfurt am Main – Alle Rechte vorbehalten IMAGO / Jan Huebner

Deutschland hat ein Problem mit Rechtsextremen bei der Polizei. Inzwischen vergeht kaum ein Monat, indem nicht rechtsextreme Umtriebe von Polizist:innen Schlagzeilen machen. Das hat oft auch eine digitale Komponente: Beamte geben Daten an Nazis heraus, schreiben selbst Drohbriefe an Linke oder schicken sich in Chatgruppen Hakenkreuze und rassistische oder antisemitische Sprüche.

Währen Innenminister:innen versprechen, mit aller Härte gegen Verfassungsfeinde in den Reihen der Polizei vorgehen zu wollen, bleibt die juristische Aufarbeitung bislang oft hinter den Erwartungen der Öffentlichkeit zurück. Wir haben zwei Expert:innen zur Rechtslage befragt: Sind rechtsextreme Chats von Polizist:innen wirklich nicht strafbar?

Hakenkreuze und Hitlerbilder

Anstoß für diese Recherche gab eine Entscheidung des Landgerichts Frankfurt zu einer rechtsextremen Chatgruppe von Polizist:innen. Mehrere Jahre lang hatten fünf Beamt:innen aus dem 1. Polizeirevier in Frankfurt und die Lebensgefährtin eines Beamten in der Messenger-Gruppe „Itiotentreff“ unter anderem Hakenkreuze, Hitlerbilder und Verharmlosungen des Holocausts ausgetauscht. Auch über Menschen mit Behinderung und People of Colour machten sie sich lustig und verleumdeten diese. Die Staatsanwaltschaft wirft ihnen zudem Gewaltdarstellungen und Besitz sowie Verbreitung pornographischer Schriften vor.

Die Gruppe flog nur durch Zufall auf: Diensthandys der Angestellten wurden untersucht, weil die Daten der Anwältin Seda Başay-Yıldız von einem Computer im 1. Polizeirevier abgerufen wurden, unmittelbar bevor sie einen rassistischen NSU2.0-Drohbrief erhielt.

Im Februar entschied nun das Landgericht, das von der Staatsanwaltschaft geforderte Strafverfahren gegen die Gruppe gar nicht erst zu eröffnen. Dabei besteht offenbar kein Zweifel daran, dass die Polizist:innen verbotene Kennzeichen geteilt und den Holocaust verharmlost haben.

Die Rechtslage ist kompliziert

Fälle wie dieser würden das „Vertrauen in die politische Integrität der Polizei stark beschädigen“, konstatiert im Gespräch mit netzpolitik.org Josephine Ballon von HateAid. Die Organisation unterstützt Opfer von Hasskriminalität. Immer wieder komme es vor, dass Betroffene von digitaler Gewalt die Taten nicht zur Anzeige bringen würden – aus Angst vor der Polizei. „Diese Menschen sorgen sich, dass sie bei der Polizei auf Täter:innen treffen.“ Auch die Angst davor, dass Polizist:innen Schindluder mit den Daten der Opfer treiben könnten, wie es in der Vergangenheit passierte, spiele eine Rolle.

Keine Hoffnung mehr auf weitere Aufklärung

Die Rechtslage ist in Hinblick auf Chatnachrichten durchaus kompliziert. Grundsätzlich können sowohl die Verwendung von Hakenkreuzen als auch die Verharmlosung des Holocausts in Deutschland strafbar sein. Relevante Paragrafen des Strafgesetzbuches sind hier § 86a zum Verwenden von Kennzeichen verfassungswidriger und terroristischer Organisationen sowie § 130 zu Volksverhetzung. Ob die Straftatbestände bei rechtsextremen Chats tatsächlich zutreffen, hängt vom konkreten Fall ab.

Besonders komme es darauf, ob die fraglichen Äußerungen öffentlich oder in einer Versammlung getätigt wurden, erklärt der Düsseldorfer Rechtsanwalt Eren Basar. „Die Abgrenzung, was als Öffentlichkeit und was als Versammlung gilt, kann im Einzelfall sehr filigran sein.“ So habe der Bundesgerichtshof in der Vergangenheit zum Beispiel entschieden, dass das Posten eines Hakenkreuzes im Freunde-Feed auf Facebook mit mehreren hundert Kontakten durchaus als öffentliche Verbreitung gelte. Ein Mann, der ein Hakenkreuz in seinem Hausflur anbrachte, kam jedoch straffrei davon.

Wann ist eine Chatgruppe öffentlich?

„Das Strafrecht ist grundsätzlich sehr zurückhaltend, was Äußerungen und Haltungen angeht“, erklärt Basar, der sich als Mitglied des Deutschen Anwaltvereins regelmäßig mit den Themen Polizei, Sicherheit und öffentliche Ordnung auseinandersetzt. Auch wenn es manchmal schwer auszuhalten sei: Das sei ein wichtiger Grundsatz der liberalen Demokratie, „weil wir sonst Gefahr laufen, unliebsame Meinungen unter Strafe zu stellen.“

Im Fall des „Itiotentreffs“ gehe das Landgericht Frankfurt offenbar von einer eindeutig nicht-öffentlichen Verbreitung aus und sehe den Chat auch nicht als Versammlung an, so Basar. Tatsächlich schreibt die FAZ, dass das Gericht in seiner nicht veröffentlichten Entscheidung darauf abstelle, dass die Chatgruppe exklusiv und jederzeit kleiner als zehn Personen gewesen sei. Offenbar haben sich die Polizisten in der Gruppe sogar darüber ausgetauscht, dass ihr Verhalten strafbar wäre, wenn es einer größeren Öffentlichkeit zugänglich wäre. Von einer öffentlichen Verbreitung könne deshalb nicht die Rede sein, so das Landgericht. Teile der Äußerungen seien zudem satirisch und von der Kunstfreiheit gedeckt.

Auch Josephine Ballon von HateAid räumt ein, dass die Voraussetzungen für eine Verurteilung wegen Messengernachrichten hoch seien. Im Fall der Frankfurter Nazi-Chats sieht sie die Sache jedoch nicht ganz so eindeutig wie das Landgericht. Die Juristin verweist auf mehrere Gerichtsentscheidungen, die Menschen wegen Volksverhetzung in kleinen und nicht-öffentlichen Chatgruppen verurteilten. Der erste Absatz des Volksverhetzungsparagrafen setze nämlich weder Öffentlichkeit noch Verbreitung voraus, sondern stelle auf die Störung des öffentlichen Friedens ab.

Wichtiger als die Frage der Öffentlichkeit sei hier die Frage der Diskretion. Also: Ob sich die Kommunikationsteilnehmer:innen darauf verlassen können, dass die Inhalte nicht den Kreis der Chat-Gruppe verlassen und dann den öffentlichen Frieden beeinträchtigen. Ein Familienchat sei zum Beispiel vertraulicher als einer mit Kolleg:innen. So wurde kürzlich in Fulda ein junger Mann wegen rassistischer Bilder in einem Chat mit zehn Freunden verurteilt und 2020 ein Würzburger Faschingsfunktionär, der volksverhetzende Inhalte in einer 20-köpfingen Chat-Gruppe mit Vereinskolleg:innen geteilt hatte.

Gleiche Maßstäbe für alle

Klar sei jedenfalls, dass Polizeibeamte sich grundsätzlich nicht mit vermeintlicher Unwissenheit herausreden könnten. „Sie bringen eine Vorbildung mit und sind auf die Verfassung vereidigt“, so Ballon. Dass die Chats der Frankfurter Polizist:innen von der Kunstfreiheit gedeckt sein könnten, hält Ballon für unwahrscheinlich. „Hier geht es ja offenbar um eine Gruppe, die dem regelmäßigen Austausch rechtsextremer Inhalte diente.“

Wie es in dem Fall weitergeht, muss nun das Oberlandesgericht entschieden. Die Staatsanwaltschaft hat Beschwerde gegen die Entscheidung des Landgerichts eingelegt, das Verfahren nicht zu eröffnen. „Für die Öffentlichkeit wäre das kein gutes Signal, wenn diese Polizist:innen straffrei bleiben“, findet Josephine Ballon, „auch wenn die öffentliche Signalwirkung natürlich kein Bemessungsmaßstab für Strafen ist.“

Müssten dann vielleicht für die Chatgruppen von Polizist:innen andere Maßstäbe gelten? Das halten weder Ballon noch Basar für eine gute Idee. Einer der Grundsätze des Strafrechts sei es, dass alle Menschen gleich behandelt werden. „Polizist:innen sind auch Bürger:innen“, sagt Ballon. „Daran sollten wir nicht rütteln“, sagt Basar.

Rechtsextreme aus dem Dienst entfernen

Handlungsbedarf sehen die beiden trotzdem: In der konsequenten Anwendung des Disziplinarrechts. Denn unabhängig von Strafverfahren müssten rechtsextreme Beamte dienstrechtliche Konsequenzen zu spüren bekommen. „Im Endeffekt geht es doch darum, dass wir keine Leute als Beamte haben wollen, die eine rechtsextreme Haltung teilen oder mit deren Kennzeichen spielen“, so Basar. „Schon gar nicht als Beamte, die über die rechtliche Befugnis zur Ausübung physischer Gewalt verfügen.“ Wer Volksverhetzung verharmlose, müsse aus dem Dienst entfernt werden.

Basar verweist hier auf die Rechtsprechung des Bundesverwaltungsgerichts. Es hatte im Fall eines Soldaten entschieden, dass dieser aufgrund rechtsextremer WhatsApp-Nachrichten aus dem Dienst entfernt werden könne. Dessen Verteidigung, es habe sich lediglich um geschmacklose Witze gehandelt, hatte das Gericht nicht gelten lassen.

Im Fall der Frankfurter Polizist:innen liegt das Disziplinarverfahren derzeit noch auf Eis. Aus juristischen Gründen muss erst der Ausgang eines möglichen Strafverfahrens abgewartet werden, die Entscheidung des Landgerichts ist wegen der Beschwerde der Staatsanwaltschaft noch nicht rechtskräftig.

Unterdessen bringt Josephine Ballon einen weitere Verbesserungsmöglichkeit ins Spiel: Die Polizei müsse deutlich stärker für Aufklärung unter Polizist:innen sorgen. Regelmäßig veranstalte HateAid Workshops und Vorträge bei der Polizei. Hier nehme sie insgesamt ein gesteigertes Problembewusstsein für Rechtsextremismus in den eigenen Reihen wahr. Von einer ganzheitlichen Antidiskriminierungsbildung und vor allem Sensibilisierung für Extremismus im digitalen Raum sei die Polizei aber noch weit entfernt.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Blogs

Kann Hetenfeindlichkeit enthalten: Ein optimistischer Ausflug in die analoge Welt

netzpolitik.org - 19 März, 2023 - 11:48

Diesen Monat geht es nicht ums Internet, sondern um Blutspenden. Und um eine verhalten positive Hoffnung unseres Kolumnisten, dass sich wirklich etwas verbessert.

Diskriminierung bei der Blutspende soll endlich aufhören. – Charlie-Helen Robinson

Im vergangenen Monat ist meine Kolumne ausgefallen. Ich brauchte eine Pause. Denn ich war es satt, nur über Katastrophen zu schreiben. In der Nachschau stellte ich aber fest, dass mein Blick verengt war. Ich hatte es nicht geschafft, das Schöne zu sehen. Dabei gibt es dafür verschiedene Beispiele, über die ich heute schreiben will. Sie entstammen allerdings nicht der digitalen Sphäre. Deshalb nehme ich euch heute ausnahmsweise mit auf eine Reise in die analoge Welt.

Der Bundestag hat am 16. März das Transfusionsgesetz geändert. Die Tagesschau titelte daraufhin „Diskriminierung beim Blutspenden beendet“. Und auch der Queerbeauftragte der Bundesregierung, Sven Lehmann, jubelte auf Twitter: „Der Bundestag hat beschlossen, die bestehende Diskriminierung bei der #Blutspende beenden.“ (sic!).

Tatsächlich ist diese Reform mehr als überfällig gewesen. Denn die bislang geltende Regelung verlangte von allen Männern, die Sex mit Männern haben, (MSM) vier Monate Enthaltsamkeit, wenn sie nicht gerade in einer monogamen Beziehung lebten. Diese Regelung aus 2021 war schon eine Verbesserung zu den geltenden Regelungen, die sogar ein Jahr Enthaltsamkeit verlangte – auch wenn der schwule Sex in einer monogamen Beziehung statt fand.

Das neue Transfusionsgesetz besagt dementgegen: „Die Bewertung eines durch das Sexualverhalten bedingten Risikos, das zu einem Ausschluss oder einer Rückstellung von der Spende führt, hat auf Grundlage des jeweiligen individuellen Sexualverhaltens der spendewilligen Person zu erfolgen.“

Künftig soll bei Blutspenden also nicht die Frage „Bist du ein Mann, der Sex mit Männern hat?“ im Fokus stehen, sondern der Einzelfall bewertet werden. Die entsprechenden Regelungen arbeitet die Bundesärztekammer in den nächsten fünf Monaten aus.

Wo der Hund begraben ist

Es wird entscheidend darauf ankommen, wie diese Regelungen ausfallen. Denn das neue Transfusionsgesetz schützt noch nicht per se vor Diskriminierung. Dafür braucht es noch ein bisschen mehr.

Konkret heißt es im Gesetz: „Die Bewertung des Risikos, das zu einem Ausschluss oder einer Rückstellung von der Spende führt, ist im Fall neuer medizinischer, wissenschaftlicher oder epidemiologischer Erkenntnisse zu aktualisieren und daraufhin zu überprüfen.“

An dieser Stelle liegt jedoch der Hund begraben. Denn neueste Erkenntnisse sind kein Garant dafür, dass das medizinische Personal diese erstens kennt und sich zweitens auch daran hält. Fast alle meiner queeren Freund*innen haben im Gesundheitswesen Diskriminierungserfahrungen gemacht, für die es keinerlei medizinische oder wissenschaftliche Grundlage gibt. Diskriminierung von queeren Menschen lässt sich somit nicht einfach mit Hilfe neuester Erkenntnisse abstellen – auch nicht im Gesundheitswesen.

Ein Beispiel: Für viele Mediziner*innen gilt nach wie vor nur Sex mit Kondom als „Safer Sex“ – obwohl wir mittlerweile bei „Safer Sex 3.0“ angekommen sind. So können regelmäßiges Testen und die Prophylaxe PrEP ebenfalls eine Safer-Sex-Strategie sein, die gänzlich ohne Kondom auskommt. Oft ist diese Strategie aber nicht hinreichend bekannt oder das medizinische Personal akzeptiert diese nicht.

Hoffen auf eine positive Überraschung

Vor diesem Hintergrund ist es gut, dass das neue Transfusionsgesetz MSM nicht länger pauschal als „unsicher“ abstempelt. Stattdessen nimmt die neue Regelung zu Recht sehr viel mehr Menschen als zuvor in den Blick. Auch cis hetero Personen leben pro­mis­ku­i­tiv und haben verschiedene Safer-Sex-Strategien, von denen einige ohne Kondom auskommen.

Und damit zurück zum vorsichtig optimistischen Ton zu Beginn der Kolumne: Ich hoffe, dass die Verantwortlichen auf dem Schirm haben, dass es fortan auf den Einzelfall ankommt. Sexualmoral und Heternormativität haben in den Regeln zur Blutspende hingegen nichts verloren. Andernfalls müssten nämlich grundsätzlich alle ausgeschlossen werden, die sich bislang noch nie oder nur sehr selten auf sexuell übertragbare Krankheiten getestet haben. Oder es müsste allen eine Blutspende verwehrt werden, die nicht nachweisen können, dass sie in ihrer Beziehung wirklich monogam sind.

Bei der Reform im Mai 2020 haben die Abgeordneten des Bundestages nicht auf wissenschaftlich fundierte Kritik gehört. Aber vielleicht – und das hoffe ich sehr – werde ich dieses Mal positiv überrascht. Das soll es ja auch geben.

Übrigens sind noch zwei weitere schöne Dinge passiert: Zum einen hat das spanische Parlament Mitte Februar ein progressives Gesetzespaket verabschiedet, dass nicht nur einen sogenannten Menstruationsurlaub vorsieht, sondern auch das Recht auf Schwangerschaftsabbruch modernisiert. Außerdem haben die Abgeordneten ein Selbstbestimmungsgesetz eingeführt, dass es Menschen fortan sehr viel einfacher machen wird, ihren richtigen Namen und Geschlechtseintrag zu führen.

Und zum anderen hat Maurice Conrad mit „Männersex“ jüngst einen Track veröffentlicht, der zwar vom Sound her aus der Zeit gefallen scheint, aber inhaltlich mit der Zeile „Mache Rap wieder gay“ treffend zusammengefasst ist. Und auch dieser Anspruch stimmt mich in diesen Zeiten vorsichtig optimistisch.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Blogs

Sicherheitsgesellschaft: Soziale Kontrolle und Geheimdienste

netzpolitik.org - 18 März, 2023 - 09:40

In der Sicherheitsgesellschaft wird schnell zum Risiko, wer sich anders verhält als der Durchschnitt. Dadurch entsteht soziale Kontrolle. Wie Geheimdienste daran mitwirken, analysiert eine nun veröffentlichte wissenschaftliche Arbeit des Autors.

– DALL-E-2 („surveillance at every corner of the futuristic city, vibrant painting by salvador dali)

Wenn ihr eure Freund_innen und Verwandten per SMS oder E-Mail zum Geburtstag einladet, wird das potenziell überwacht. Was macht das mit euch? Schreibt ihr sorgenfrei, dass die Party „Bombe“ wird? Oder würdet ihr ohne Bedenken offen im Netz zum Thema IS-Propaganda recherchieren? Über die genauen Mechanismen der Überwachung ist wenig bekannt und trotzdem haben sie einen Einfluss auf uns.

Die Geheimdienste erfassen alles, was sie bekommen können. Telefonanrufe, Textnachrichten, (Video-)Chats, E-Mails, Webseitenbesuche, in der Cloud abgelegte Dateien, Forendiskussionen – all das und viel mehr speichern und rastern die Dienste in ihren Datenbanken.

Seit den Snowden-Leaks im Juni 2013 sind viele dieser Überwachungsprogramme kein Geheimnis mehr. Sie werden in den Medien und der Öffentlichkeit diskutiert. Es gab (parlamentarische) Untersuchungsausschüsse zu diesem Thema sowie etliche Buchveröffentlichungen, Dokumentationen und vieles mehr.

Eine spannende Frage wird allerdings meist nicht gestellt: Welche Auswirkungen haben die geheimdienstlichen Programme der Telekommunikationsüberwachung auf die einzelnen Menschen? Wirken sie als ein Mittel sozialer Kontrolle? Diesen Fragen bin ich im Rahmen meiner nun veröffentlichten Magisterarbeit mit Theorien der sozialen Kontrolle nachgegangen.

Soziale Kontrolle verändert sich

Was aber ist soziale Kontrolle überhaupt? Gemeint sind damit staatliche und private Mechanismen und Techniken, mit denen eine Gesellschaft oder eine soziale Gruppe ihre Mitglieder dazu anhält, sich an bestehende Normen zu halten.

Wie soziale Kontrolle funktioniert, wandelt sich und hängt von den herrschenden gesellschaftlichen Bedingungen ab. Bis in die zweite Hälfte des 20. Jahrhunderts dominierten disziplinargesellschaftliche Elemente und Techniken. Dabei gab es starre Verhaltensregeln, denen Personen entsprechen mussten. Durch einen ökonomischen, kulturellen und sozialen Wandel geriet die Disziplinargesellschaft in eine Krise und wurde seitdem von Elementen und Techniken der Sicherheitsgesellschaft abgelöst.

In der Sicherheitsgesellschaft gilt der gesellschaftliche Durchschnitt als normal. Einzelne müssen sich dabei nicht mehr an einem festen Ideal ausrichten, sondern können unter einer Vielzahl von Verhaltensoptionen wählen. Allerdings dürfen sie dabei bestimmte Toleranzgrenzen nicht überschreiten – sonst werden sie zum Risiko, dass sicherheitsgesellschaftlich verwaltet werden muss.

Selbstführung statt Selbstdisziplinierung

An die Stelle der Selbstdisziplinierung aus der Disziplinargesellschaft treten in der Sicherheitsgesellschaft die Selbstführungstechniken. Personen passen ihr Verhalten von sich aus und vermeintlich selbstgewollt an antizipierte Standards an. Konformität wird damit nicht länger durch Unterdrückung bestimmter Verhaltensweisen gewährleistet, sondern vielmehr durch inhaltliche Vorgaben mit Freiräumen verbunden. Einzelne können sich auf verschiedene Weise benehmen, müssen aber mit den Konsequenzen ihres Verhaltens leben. Dabei werden bestimmte Verhaltensweisen gefördert und andere erschwert. So wird es letztlich wahrscheinlicher, dass sich Menschen wie erwünscht verhalten.

Neben den Selbstführungstechniken arbeitet die Sicherheitsgesellschaft erstens mit Kontrolltechniken und zweitens mit sozialem Ausschluss. Erstere umfassen zunächst klassische Strategien der Überwachung. Diese werden in zunehmendem Maße technisiert, automatisiert und computergestützt umgesetzt. Mittels der Überwachung sollen Risikopotenziale frühzeitig erkannt und ihnen begegnet werden.

Das Entdecken der Risiken funktioniert dabei zunehmend anlasslos und soll allgegenwärtig wie umfassend erfolgen. Die Kontrolle nimmt zu und damit die Entdeckung neuer Risikofaktoren. Die Folge: Auch die Anzahl der Risikoträger_innen steigt damit kontinuierlich an.

Wurde lange Zeit auf Reintegration gesetzt, kommt mit der Sicherheitsgesellschaft der sozialkontrollierende Ausschluss zurück. Bestimmten Menschen und Gruppen wird die Fähigkeit zu Selbstführung abgesprochen. Da sie nicht mehr mit Kontrolltechniken zu lenken sind, werden sie aus sozialen Strukturen oder Räumen ausgeschlossen beziehungsweise kriminalisiert. Häufig gelten diese Menschen oder (Rand-)Gruppen als ökonomisch „überflüssig“ und werden als für die Gesellschaft gefährlich eingestuft.

Permanente Verunsicherung führt zu Selbstführung

In der Diskussion über internationalem Terrorismus verbinden sich die gesellschaftliche Furcht vor (Gewalt-)Kriminalität und meist migrantische Randgruppen mit Abstiegs-, Zukunfts- und Existenzängsten, die auf diese Gruppen projiziert werden. Diese konstruierten und übersteigerten Ängste schlagen sich in Sicherheitsdiskursen nieder, die von präventiven und bestrafenden Bekämpfungsmethoden geprägt sind.

Das Bedürfnis nach Sicherheit greifen Regierungen auf und reproduzieren es damit zugleich. Sie versprechen ihren Bürger_innen, sie vor Kriminalität, Terrorismus und sonstigen Gefahren zu beschützen – und geben ihnen so das Gefühl, Schutz zu erhalten. Diese Entwicklung führt zu einer fortwährenden Verschärfung des Strafrechts und Strafverfolgungsbehörden, die zunehmend  auf Gefahrenabwehr ausgerichtet werden. Flankiert wird dies durch eine Zunahme geheimdienstlicher Praktiken, die die Bevölkerung als Ganzes ins Auge fassen und bereits weit im Vorfeld strafbarer Handlungen zum Einsatz kommen.

Letztlich stützen Geheimdienste und andere Sicherheitsbehörden diesen Prozess durch stets neue Warnungen vor Terroranschlägen und weiteren Bedrohungen sowie durch Forderungen nach einem Ausbau der Sicherheitsarchitektur. Die Maßnahmen und Warnungen erzeugen bei den Menschen einerseits ein Sicherheitsgefühl, gleichzeitig aber auch ein Gefühl von Unsicherheit. Auf diese Weise beteiligen sich die Geheimdienste daran, die Rahmenbedingungen zur Selbstführung zu schaffen.

Geheimdienstliche Kontrolle und Risikodetektion

Begründet wird die massenhafte Überwachung unter anderem mit der Suche nach Terrorist_innen. Allerdings verwendete der US-Geheimdienst NSA laut Dokumenten aus den Snowden-Enthüllungen nur gut ein Drittel seiner Ressourcen dazu, Terrorismus zu bekämpfen. So spähte die NSA andere Staaten und internationale Organisationen (UN, WTO, OSZE, Internationaler Strafgerichtshof und weitere) aus, sie bekämpfte Kriminalität (Waffenhandel, Drogenhandel) und betrieb Wirtschaftsspionage (durch die Geheimdienste). Die Überwachung richtete sich dabei auch gegen Journalist_innen, Whistleblower_innen und Aktivist_innen. Aber auch die Kommunikation von zig Millionen anderer Bürger_innen gerät Tag für Tag in das Raster der Geheimdienste. So nahm etwa die NSA im Jahr 2013 an nur einem Tag 117.675 aktive Überwachungsziele ins Visier.

Um Risiken oder Risikoträger_innen erkennen zu können, greifen Geheimdienste auf Big-Data-Anwendungen zurück. Dazu gehören Überwachungsprogramme wie SKYNET, MERCURY, KARMA POLICE, SQUEAKY DOLPHIN, XKeyscore, aber auch die strategische Fernmeldeaufklärung des BND.

Diese Programme scannen die Telekommunikationsdaten auf Muster, Raster und Profile – kurz auf Anomalien und Abweichungen, die als nicht tolerierbar gelten. Hinzu kommen zunehmend automatisierte, computergestützte Verhaltensanalysen sowie die Analyse der Lebensumstände Einzelner, um deren Verhalten voraussagen zu können.

Sowohl die NSA als auch der GCHQ und der BND arbeiten mit zum Teil selbstentwickelten Programmen zur Verhaltenserkennung und -vorhersage. Aus den von Edward Snowden geleakten Dokumenten geht hervor, dass die Dienste in diesem Bereich immense Anstrengungen unternehmen und massiv Geld investieren. Die geleakten Dokumente stammen hauptsächlich aus dem Zeitraum zwischen 2009 und 2012.

Es ist davon auszugehen, dass die Geheimdienste die automatisierte, algorithmische Auswertung der Daten zur Verhaltensanalyse und -vorhersage seitdem massiv weiterentwickelt und ausgebaut haben. Eine umfassende Kontrolle – sowie Risikodetektion und Prävention – kann nur dann gelingen, wenn eine ausreichend große Menge an Daten vorliegt, die analysiert werden kann. Dies ist im Falle der massenhaften Telekommunikationsüberwachung gegeben.

Ausschluss per Watchlist oder Drohne

Stuft ein Geheimdienst auf Basis seiner Telekommunikationsüberwachung ein Individuum, eine Gruppe oder einen Raum als Risiko ein, stehen ihm vielfältige Ausschlussmöglichkeiten zur Verfügung. Ein häufig verwendetes Mittel ist das räumliche Fernhalten von den „Gefährlichen“, die neben Terrorverdächtigen auch Geflüchtete, Aktivist_innen oder Journalist_innen sein können. Dies geschieht etwa mit verschiedenen Listen, die auf Basis geheimdienstlicher und polizeilicher Risikodetektion gefüllt werden. In den USA gehört dazu die auch als „Terrorist Watch List“ bekannte „Terrorist Screening Database“ (TSDB). Diese Liste wurde im Sommer 2021 geleakt, die persönlichen Daten von rund zwei Millionen Menschen waren einsehbar.

Dazu kommt die „No Fly List“, die im September 2011 ungefähr 16.000 Einträge hatte. 2013 waren es bereits 47.000, 2016 wuchs die Zahl auf 81.000 Personen, die auf der No Fly List stehen, dürfen weder in die USA, noch den amerikanischen Luftraum überfliegen. Sie werden aktiv räumlich ausgeschlossen.

Durch die Weitergabe von Informationen an Strafverfolgungsbehörden sind die Geheimdienste auch Teil des punitiven Ausschlusssystems Gefängnis. Geheimdienste können hierdurch eine Strafverfolgung initiieren oder die nötigen Beweise liefern. Mit „parallel construction“ steht eine gängige Methode zur Verfügung, um die Geheimdienste als Informationsquelle zu maskieren. Offizielle Zahlen existieren hierzu nicht, allerdings legen interne Dokumente sowie Aussagen von Strafverfolgungsbehördenmitarbeiter_innen nahe, dass diese Praxis zu deren Alltag gehört. Ein Mitarbeiter einer US-Strafverfolgungsbehörde sagte laut der Nachrichtenagentur Reuters: „Parallel construction is a law enforcement technique we use every day […] It’s decades old, a bedrock concept.“

Die Strafverfolgung beginnt offiziell erst zu einem späteren Zeitpunkt oder die von Geheimdiensten besorgten Beweise werden auf anderem Wege – etwa mit einem Gerichtsbeschluss – erneut beschafft. Diese Methode wird auch bei Alltagskriminalität verwendet und dürfte eine nicht unerhebliche Rolle bei der Verbrechenssanktion und dem zum Teil damit verbundenen Ausschluss spielen.

Die finale Form des Ausschlusses stellt die Auslöschung des Lebens dar. Neben den Watchlists existieren weitere Listen, die den finalen Ausschluss realisieren: sogenannte Kill-Listen. Personen die auf diese Liste gesetzt wurden, werden „gezielt getötet“, häufig mittels Drohnen.

Um potenzielle Terrorist_innen zu erkennen, kommen auch automatisierte Mustererkennungsprogramme wie SKYNET zum Einsatz. Werden Menschen auf Basis der Verhaltenserkennungsprogramme getötet, wird dies im Militärjargon Signature Strike genannt. Die Ziele werden hierbei mit Hilfe von Verhaltensauffälligkeiten in Überwachungsdaten ausgewählt.

Sozial kontrollierende Geheimdienste

Die nun veröffentlichte Arbeit zeigt detailliert, dass die Geheimdienste im Bereich der sozialen Kontrolle aktiv sind. Sie nutzen die Techniken der Sicherheitsgesellschaft, um Menschen zum vermeintlich selbst gewollten, „richtigen“ Verhalten zu bewegen. Sie ziehen flexible Toleranzgrenzen und suchen mit einer umfassenden Überwachung nach Personen, Gruppen oder Orten, die ein Risiko darstellen.

Auf diese versuchen sie teils aktiv Einfluss zu nehmen, um sie im Normalbereich zu halten oder zurückzuholen. Klappt dies nicht, triggern die Geheimdienste Maßnahmen des repressiven Ausschlusses. Hierzu gehört beispielsweise die Inhaftierung, vermittelt über Strafverfolgungsbehörden und Watchlists.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Blogs

KW 11: Die Woche der Gesundheitsthemen

netzpolitik.org - 17 März, 2023 - 17:58

Die 11. Kalenderwoche geht zu Ende. Wir haben 21 neue Texte mit insgesamt 131.983 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.

Fraktal, generiert mit MandelBrowser von Tomasz Śmigielski

Liebe Leser:innen,

ab 2024 sollen alle eine elektronische Patientenakte (ePA) bekommen, wenn sie nicht ausdrücklich widersprechen. Das und viel mehr ist Teil der neuen Digitalisierungsstrategie aus dem Gesundheitsministerium. Unsere Kolumnistin Bianca hat sich das Thema vorgenommen und darüber geschrieben, wie viel Vertrauen die Vorhaben von Karl Lauterbachs Ministerium voraussetzen. Denn vieles soll erstmal automatisch passieren – außer man will das nicht.

Bei meinem eigenen Blick in die Digitalisierungsstrategie bin ich an einer der bunten Illustrationen hängengeblieben. „Vision 2030: Digitales Gesundheitsökosystem“ steht darüber. Auf einer Doppelseite sind da all die Akteure aufgezeichnet, die dieses Ökosystem hat. Da musste ich wieder an Biancas Kolumne denken und mir wurde klar: Ich muss nicht nur ganz viel Grundvertrauen mitbringen, sondern auch vielen verschiedenen Stellen gleichzeitig vertrauen. Den Krankenhäusern und Ärzt:innen, die Befunde erstellen. Den Krankenkassen, die Abrechnungen machen. Der Gematik, die für weite Teile der Infrastruktur zuständig ist. Den Hochschulen, die mit medizinischen Daten forschen. Den Technologieanbietern. Und nicht zuletzt meinem Smartphone, auf dem ich meine ePA abrufen kann.

Und dann ist da noch ein Baustein des Ökosystems, der im Wimmelbild fast untergeht. Ein Fähnchen auf einer grauen Kachel, auf der steht: „Anbindung an die EU“. Gesundheitsdaten sollen nämlich nicht nur in Deutschland besser für Forschung genutzt werden können, sondern EU-weit. „Europäischer Gesundheitsdatenraum“ soll das heißen und es hält noch viele offene Fragen bereit.

„Vertrauen ist ein Weg aus vielen kleinen Schritten“, schreibt Bianca und führt uns vor Augen, dass das nicht immer leicht fällt. Vor allem, wenn man bereits die Erfahrung gemacht hat, in unserem Gesundheitssystem diskriminiert und benachteiligt zu werden.

Jetzt sollen wir statt der vielen kleinen Schritte einen großen Sprung machen. Nicht nur ich bin da skeptisch. Deshalb haben meine Kolleg:innen und ich uns vorgenommen, nochmal genauer hinzuschauen. Was passiert bei der ePA genau? Wer spielt da wie eine Rolle? Und was heißt das eigentlich? Es wird also nicht das letzte Mal gewesen sein, dass ihr etwas von uns zur Gesundheitsdigitalisierung gelesen habt.

Ein gesundes Wochenende wünscht euch
anna

#266 On The Record: Wie kann KI dem Gemeinwohl dienen, Theresa Züger?

Theresa Züger erforscht gemeinwohlorientierte Künstliche Intelligenz. Aber was ist das genau? Im Gespräch mit Markus Beckedahl erklärt Züger, wie sich solche KI besser fördern lässt – und welche besondere Rolle Deutschland dabei spielen kann. Von Markus Beckedahl –
Artikel lesen

Netflix-Doku „Money Shot“: Tiefe Einblicke in die Skandale von Pornhub

Darsteller*innen zeigen ihre Studios. Mächtige Porno-Bosse verteidigen ihre Geschäfte. Und ein Whistleblower packt aus. „Money Shot“ präsentiert die wichtigsten Stimmen zur meistgehypten Pornoseite der Welt. Wo die Netflix-Doku brilliert – und wo sie Lücken lässt. Von Sebastian Meineck –
Artikel lesen

Degitalisierung: Vertrauen ist ein Weg aus vielen kleinen Schritten

Das Gesundheitsministerium hat seine Pläne für die elektronische Patientenakte vorgestellt und am besten soll jetzt alles ganz schnell gehen, ohne viel Gezeter um Datenschutz. Aber wir tun gut daran, Gesundheitssysteme nicht aus Sicht der Mehrheit zu denken, sondern aus Sicht derer, die von solchen Systemen diskriminiert werden könnten, schreibt unsere Kolumnistin. Von Bianca Kastl –
Artikel lesen

„Von vorne bis hinten rechtswidrig“: Radio Dreyeckland wehrt sich gegen umstrittene Razzia

Die Staatsanwaltschaft Karlsruhe hatte im Januar die Redaktionsräume von Radio Dreyeckland durchsucht, weil der Sender einen Link auf das Archiv des verbotenen Portals linksunten.indymedia.org gesetzt hatte. Die Razzia hat nun ein juristisches Nachspiel. Von Markus Reuter –
Artikel lesen

Hass-Welle gegen den Volksverpetzer: „Gezielter Angriff auf die Pressefreiheit“

Seit zwei Wochen nehmen Rechtsradikale und Verschwörungsanhänger das Blog Volksverpetzer verstärkt ins Visier. Es geht schon lange nicht mehr nur um hasserfüllte Kommentare. Wir haben den Volksverpetzer-Gründer Thomas Laschyk gefragt, was los ist. Von Markus Reuter –
Artikel lesen

Koalitionsverhandlungen in Berlin: CDU lässt Microsoft-Lobbyistin über Digitalisierung verhandeln [Update]

Seit Jahren steht die Abhängigkeit der öffentlichen Verwaltung von Microsoft in der Kritik. Nun darf die deutsche Chef-Lobbyistin des US-Konzerns in den Reihen der CDU die künftige Berliner Digital- und Verwaltungspolitik mit verhandeln. Das birgt erhebliche Interessenkonflikte. Von Ingo Dachwitz –
Artikel lesen

European Health Data Space: Ein Datenraum voller Ungereimtheiten

Rezepte EU-weit einlösen, mehr Daten für die medizinische Forschung: Das und noch viel mehr soll der Europäische Gesundheitsdatenraum bringen. Aber es gibt da noch viele offene Fragen, findet Bianca Kastl. Von Bianca Kastl –
Artikel lesen

21 Anrufe im Jahr: Berliner „Cyberhotline“ ist teuer und wird kaum genutzt

„Kein Schwein ruft mich an“ ist ein berühmter Song von Max Raabe. Ähnlich geht es der im Frühling des letzten Jahres eingerichteten Cyberhotline in Berlin. Von Markus Reuter, Lennart Mühlenmeier –
Artikel lesen

Werbeverbot für ungesunde Lebensmittel: Ab jetzt nur noch Saures

Ein Gesetzesvorschlag „für mehr Kinderschutz in der Werbung“ verfolgt ein hehres Ziel, doch lässt viele Fragen offen. Denn Online-Werbung lässt sich nicht mit den gleichen Regeln wie Werbespots im Fernsehen regulieren. Von Carla Siepmann –
Artikel lesen

Bericht zu Polizeigewalt: Demonstrationsbeobachter kritisieren „brutale Polizeistrategie“ in Lützerath

In einem ausführlichen Bericht kritisiert das Grundrechtekomitee Polizeigewalt und die Einschränkung der Versammlungsfreiheit bei den Klimaprotesten von Lützerath. Die Organisation beobachtet seit Jahrzehnten Demonstrationen. Von Markus Reuter –
Artikel lesen

Jahresbericht zu Missbrauchsdarstellungen: Löschen ist schnell und effektiv

Darstellungen sexualisierter Gewalt gegen Kinder lassen sich aus dem Netz entfernen. Das zeigt der neue Jahresbericht der Beschwerdestelle eco, die jährlich Tausende Hinweise auf illegale Inhalte bearbeitet. Von Netzsperren hält die Beschwerdestelle dagegen nichts. Von Anna Biselli –
Artikel lesen

Jahresbericht: Bundesdatenschutzbeauftragter watscht Chatkontrolle ab

Der Bundesbeauftragte für den Datenschutz hat seinen Jahresbericht vorgelegt. Drin stehen Hausaufgaben für die Bundesregierung, etwa zur geplanten Chatkontrolle. Hier empfiehlt Ulrich Kelber: deutlich nachbessern – oder in die Tonne kloppen. Von Markus Reuter –
Artikel lesen

EuGH-Verhandlung: Braucht der Perso Fingerabdrücke?

Der Zwang zur Abgabe von Fingerabdrücken für den Personalausweis ist umstritten. In Luxemburg fand gestern eine Sitzung dazu vor dem Europäischen Gerichtshof statt. Ein Bürgerrechtler hatte geklagt. Von Jan Lutz –
Artikel lesen

Data Act: EU-Parlament hofft auf „schier unendliche“ Datenmengen

Das EU-Parlament ist bereit für die Trilog-Verhandlungen zum Data Act. Die geplante Verordnung soll die europäische Datenwirtschaft ankurbeln, aber auch Nutzer:innen mehr Rechte geben. Kritik kommt von Verbraucherschützer:innen und der Industrie. Von Tomas Rudl –
Artikel lesen

Internetaktivist: Ecuador lässt Ola Bini weiterhin nicht ausreisen

Trotz seines Freispruchs Anfang des Jahres gelten für den schwedischen Aktivisten in Ecuador weiterhin Einschränkungen. Die Bürgerrechtsorganisation EFF beklagt den Rückfall in „alte Muster“, durch die sich das Verfahren nun schon vier Jahre hinzieht. Von Markus Reuter –
Artikel lesen

GPT-4: Das nächste große Ding für digitale Zugänglichkeit?

Bedienoberflächen genau beschreiben und komplizierte Texte in leichte Sprache übersetzen: Neue Sprachmodelle können für Nutzer*innen mit Behinderungen Inhalte zugänglicher machen. Aber wir dürfen Inklusion nicht einfach den Maschinen überlassen, kommentiert Casey Kreer. Von Gastbeitrag, Casey Kreer –
Artikel lesen

KI-Forschung: OpenAI ist jetzt ClosedAI

OpenAI hat sein neuestes Sprachmodell GPT-4 vorgestellt. Doch viele in der Forschung sind enttäuscht: Das Unternehmen, das einst als alternatives und offenes Forschungslabor gestartet ist, verschweigt nun aus Angst vor der Konkurrenz, wie die Technologie entstanden ist. Von Chris Köver –
Artikel lesen

Forum Open: Hardware: Mit offener Hardware zur Kreislaufwirtschaft

Open Source geht nicht nur für Software: Auf dem „Forum Open: Hardware“ in Berlin drehte sich alles um offene Hardware und was diese zu einer nachhaltigen Zukunft beitragen kann. Von Franziska Rau –
Artikel lesen

Aus eins mach zwei: Neuer Anlauf für Whistleblowing-Schutz

Der Schutz für Hinweisgeber:innen war an der Union im Bundesrat gescheitert. Nun versucht es die Ampelkoalition erneut und will der Union dabei den Teppich unter den Füßen wegziehen. Von Tomas Rudl –
Artikel lesen

Datenarbeit: Wie Millionen Menschen für die KI schuften

Milagros Miceli erforscht, was Tech-Unternehmen gerne unter den Teppich kehren: Wie Arbeiter:innen hinter den Kulissen von ChatGPT & Co. schuften, und das für eine Handvoll Dollar. Im Interview erklärt die Forscherin, wie viel menschliche Arbeit hinter der angeblich „künstlichen“ Intelligenz steckt. Von Chris Köver –
Artikel lesen

Nach Skandalen: Pornhub wechselt Eigentümer und startet Charme-Offensive

Jahrelang stand Pornhub in der Kritik. Ein neuer Eigentümer soll dem Porno-Imperium jetzt helfen, aus den negativen Schlagzeilen zu kommen. Die Firma heißt „Ethical Capital Partners“, trumpft mit einem diversen Beirat auf – und kommt wie aus dem Nichts. Von Sebastian Meineck –
Artikel lesen

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Blogs

Nach Skandalen: Pornhub wechselt Eigentümer und startet Charme-Offensive

netzpolitik.org - 17 März, 2023 - 14:09

Jahrelang stand Pornhub in der Kritik. Ein neuer Eigentümer soll dem Porno-Imperium jetzt helfen, aus den negativen Schlagzeilen zu kommen. Die Firma heißt „Ethical Capital Partners“, trumpft mit einem diversen Beirat auf – und kommt wie aus dem Nichts.

Die neuen, führenden Köpfe hinter Pornhub – Logo: Pornhub; Screenshots: ethicalcapitalpartners.com; Montage: netzpolitik.org

Steht ein Konzern in der Kritik, gibt es vor allem zwei Strategien: Kopf in den Sand – oder Flucht nach vorn. Pornhub, eine der drei größten Pornoseiten der Welt, setzt inzwischen auf letzteres. Nachdem die alte Chef-Etage schon im vergangenen Sommer ihre Posten geräumt hatte, wechselt Konzern-Mutter Mindgeek jetzt auch den Besitzer.

Zuvor gehörte Mindgeek dem öffentlichkeitsscheuen Investor Bernd Bergmair aus Österreich. Dass Bergmair überhaupt existiert, konnten erst investigative Recherchen von Journalist*innen ans Tageslicht bringen. Verschwiegen waren auch die anderen Mindgeek-Bosse, Feras Antoon und David Tassilo. Sie äußerten sich erst zu den Vorwürfen, als das kanadische Parlament sie zu einer Anhörung vorlud.

Die Geheimniskrämerei war für Pornhub nicht gerade dienlich. Immerhin stand der Konzern international in der Kritik, weil auf der Pornoplattform Aufnahmen sexualisierter Gewalt kursierten, teilweise zeigten sie Minderjährige. Es folgte eine breite Empörungswelle: eine Anti-Pornhub-Petition sammelte mehr als zwei Millionen Unterschriften; Politiker*innen planten strengere Gesetze; Kanzleien feuerten Klagen gegen den Konzern ab – und Zahlungsdienstleiter wie Visa und Mastercard verweigerten Pornhub ihre Dienste.

Seitdem versucht Pornhub, die Krise hinter sich zu lassen, und zwar mit mehr Transparenz. Das zeigt sich auch beim neuen Eigentümer, der die Konzern-Mutter Mindgeek übernommen hat. Die Firma „Ethical Capital Partners“ (ECP) legt auf ihrer Website das sechsköpfige Führungsteam rund um den Vorsitzenden Rocco Meliambro offen. Der Geschäftsmann Meliambro war zuvor im Cannabis-Geschäft tätig.

Geradezu mit dem Holzhammer macht ECP deutlich, dass alles mit rechten Dingen zugehen soll. Das zeigt schon das erste Wort im Namen des Unternehmens: „ethical“. Passend dazu heißt es auf der Über-uns-Seite, bei dem Unternehmen komme Ethik „zuerst“. ECP schreibt, Mindgeek sei weltweit führend in Sachen Sicherheit und Inhaltsmoderation.

Forscher*innen und Bodybuilderin im Beirat

ECP hat sich zudem einen Beirat aus sechs Expert*innen verpasst. Dazu gehört etwa Leah West, die als Assistenzprofessorin an der kanadischen Carleton Universität zu internationalen Beziehungen forscht. Valerie Webber von der kanadischen Dalhousie Universität hat mehrere Paper über Sexarbeit und Sexualität verfasst. Ein weiteres Mitglied ist Kortney Olson, die als Bodybuilderin bekannt ist und sich unter anderem für Empowerment von Mädchen und Frauen einsetzt.

In der Pressemitteilung zur Mindgeek-Übernahme durch ECP sind auch die bisherigen Transparenzberichte von Pornhub verlinkt. Der erste dieser Berichte für das Jahr 2020 war noch wenig aufschlussreich. Es fehlten etwa genaue Zahlen zu nicht-einvernehmlichen Uploads – dabei war genau das der Anlass für die weltweite Kritik. Inzwischen hat Pornhub nachgebessert und schlüsselt das genauer auf.

Demnach hat Pornhub laut aktuellem Bericht im Vorjahr insgesamt 8.730 Videos und 4.591 Fotos gelöscht, weil sie als nicht-einvernehmlich eingestuft wurden. Rund 87 Prozent davon wurden nach Hinweisen von Nutzer*innen gelöscht, rund 13 Prozent hat die Plattform selbst entdeckt. Separate Zahlen gibt es für Aufnahmen, die Minderjährige zeigen: Hier wurden laut Bericht 3.604 Videos und 5.984 Fotos im Laufe des Jahres gelöscht, rund 79 Prozent habe Pornhub selbst entdeckt. Der Konzern legt nun auch offen, wie neue Uploads maschinell und menschlich überprüft werden. Zum Einsatz kommt demnach Erkennungstechnologie von unter anderem Microsoft, Google und Thorn.

Die Botschaft hinter all diesen Bemühungen ist klar: Pornhub will der Saubermann der Porno-Branche sein. Die mächtigen Menschen hinter den Kulissen sind nicht mehr eine Clique aus kamerascheuen Männern, sondern ein diverses Team, das sich offen präsentiert. Dahinter steckt wohl auch eine ausgeklügelte PR-Strategie: Die Bekanntgabe der Mindgeek-Übernahme folgt nur einen Tag nach der Veröffentlichung einer Netflix-Doku über Pornhub.

Umwälzung für die Porno-Branche

Die neue Offenheit unterscheidet Pornhub maßgeblich von seinen zwei mächtigsten Konkurrenten: der weltgrößten Pornoseite XVideos aus Tschechien sowie xHamster aus Zypern. Beide Plattformen setzen vor dem Hintergrund internationaler Kritik auf die Strategie „Kopf in den Sand“. Die Identität der Männer hinter xHamster wurde erst 2021 durch eine Recherche von NDR und SPIEGEL bekannt. Und XVideos-Chef Stéphane Pacaud ist ein Phantom, von ihm gibt es kein bekanntes Bild im Netz.

Die Transparenz-Offensive von Pornhub könnte eine Weichenstellung dafür sein, wie sich Porno-Plattformen künftig selbst regulieren und mit der kritischen Öffentlichkeit umgehen. Pornografie ist eine der prägendsten Unterhaltungsindustrien im Netz, Seiten wie die von Pornhub sind die meistbesuchten der Welt.

Noch lässt sich allerdings schwer beurteilen, was von den Umwälzungen bei Mindgeek Substanz hat und wie viel bloßer Schein ist. Das Unternehmen „Ethical Capital Partners“ kommt praktisch aus dem Nichts. Auch wenn sich ECP auf der eigenen Website für seine „Erfahrung“ lobt, ist die Website brandneu. Die erste Spur der Seite im Internet-Archiv stammt von gestern, dem 16. März 2023. Die Firma selbst ist immerhin seit dem 21. Dezember 2021 in Kanada registriert.

Und die Transparenz hat ihre Grenzen: Zu den Kosten des Mindgeek-Kaufs verrät ECP nichts, wie unter anderem die Nachrichtenagentur Reuters berichtet. Eine entscheidende Frage wird auch sein, inwiefern der divers besetzte Beirat tatsächlich Einfluss auf die Plattform hat.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Blogs

Datenarbeit: Wie Millionen Menschen für die KI schuften

netzpolitik.org - 17 März, 2023 - 13:14

Milagros Miceli erforscht, was Tech-Unternehmen gerne unter den Teppich kehren: Wie Arbeiter:innen hinter den Kulissen von ChatGPT & Co. schuften, und das für eine Handvoll Dollar. Im Interview erklärt die Forscherin, wie viel menschliche Arbeit hinter der angeblich „künstlichen“ Intelligenz steckt.

Der Hintergrund zu diesem Bild wurde vom Generator DiffusionBee erstellt. Hinter solchen KI-Modellen stehen Legionen von Arbeiter:innen. – Alle Rechte vorbehalten Porträt: privat; Hintergrund: Diffusion Bee; Montage: netzpolitik.org

Starten wir mit etwas Erfreulichem: Diese Zeilen hier wurden nicht mit ChatGPT geschrieben, ausnahmsweise, muss man in diesen Tagen fast sagen. Es ist fast unmöglich, der Anwendung des US-amerikanischen Start-ups OpenAI noch zu entkommen, jenem Chatbot, der auf Befehl ausgefeilte Texte ausspuckt. Mehr noch: Der Hype um generative KI ist in den vergangenen Wochen auf einem neuen Höhepunkt angekommen. Solche Anwendungen erschaffen nicht nur neue Texte, sondern auch Bilder und Code – in einer Qualität, die man vor kurzer Zeit nur Menschen zugetraut hätte.

Doch während die Öffentlichkeit debattiert, wann Künstliche Intelligenz etwa Journalist:innen, Anwält:innen oder Illustrator:innen überflüssig macht, können Wissenschaftler:innen wie Milagros Miceli darüber nur den Kopf schütteln.

Miceli leitet ein Team am Berliner Weizenbaum-Institut und forscht seit Jahren zur Arbeit hinter KI-Systemen, unter anderem zur Datenannotation. So nennt man es, wenn Menschen Datensätze sichten, sortieren und mit Etiketten versehen, damit Maschinen sie verstehen. Bevor zum Beispiel eine Bilderkennung das Foto einer Katze erkennen kann, müssen Menschen reihenweise Bilder mit Katzen kennzeichnen. Mit solchen Datensätzen lassen sich dann KI-Systeme trainieren.

Micelis Forschung zeigt: Die Arbeit von Menschen verschwindet in Zeiten von vermeintlich autonomen KI-Modellen wie DALL-E 2 oder ChatGPT sicher nicht. Hinter den Kulissen leisten Legionen von Menschen die Drecks- und Fleißarbeit, ohne die man solche Technologien gar nicht bauen könnte.

Wenn sich Menschen als KI ausgeben

Das passt nicht zur Erzählung von Unternehmen, dass sich mit KI alles wie von selbst erledigt; es passt nicht zur Geschichte vom neuen Zeitalter und dem nächsten großen Ding, das uns demnächst alle in den Ruhestand schicken wird. Die Arbeit dieser Menschen bleibt oft versteckt – zumindest wenn alles nach Plan läuft.

Ein Gespräch mit Miceli in ihrer hellen Büroetage in Berlin Mitte ist deswegen aufregend und erleichternd zugleich. Sie entzaubert die Erzählung von revolutionären Super-KIs. Ihren Blick richtet sie nicht auf die reichen Gründer:innen und Ingenieur:innen im Silicon Valley. Stattdessen erzählt Miceli von den Menschen in Kenia, Argentinien und Bulgarien, von Aufsteiger:innen und Geflüchteten und von ihrer profanen Arbeit im Maschinenraum der großen KI-Systeme.

netzpolitik.org: Seit dem Hype um ChatGPT häufen sich weltweit Berichte darüber, ob sich bald ganze Berufszweige durch KI-Systeme ersetzen lassen. Sind das die richtigen Fragen?

Milagros Miceli: Wir reden viel darüber, was diese Dinge sein könnten. Doch wir versäumen es, darüber zu reden, was sie sind. Sie sind Technologie, das ist unbestreitbar, aber sie sind auch von Menschenhand betriebene Werkzeuge. Das ist der Teil, über den ich gerne mehr sprechen würde.

netzpolitik.org: Was meinen Sie damit?

Miceli: Hinter den Anwendungen stehen Millionen von Menschen, die Inhalte moderieren und Trainingsdaten etikettieren. Sie helfen auch dabei, die Daten überhaupt zu generieren, indem sie Bilder hochladen und Worte einsprechen. Es gibt sogar Mitarbeiter:innen, die sich gegenüber Nutzer:innen als KI ausgeben.

netzpolitik.org: Wie bitte, es gibt KI-Systeme, die gar keine sind?

Miceli: Ja, smarte Kameras sind ein gutes Beispiel dafür. Einige dieser Systeme werden als KI-gesteuert verkauft, aber die Technologie ist noch nicht so weit. Wenn man hinter den Vorhang schaut, handelt es sich nur um eine Gruppe von Menschen, die rund um die Uhr Kameras überwachen. Diese Menschen sind unterbezahlt und arbeiten in der Regel unter furchtbaren Bedingungen, etwa in Afrika oder Süd- und Mittelamerika. Mein Forscherkollege Antonio Casilli hat gerade einen solchen Fall aus Madagaskar vorgestellt: 35 Menschen leben in einem Haus mit nur einer Toilette. Diese Menschen stecken in Wahrheit hinter einem vermeintlich intelligenten Kamerasystem.

Wofür braucht OpenAI so viel Geld?

„Jeder will ethische KI“

netzpolitik.org: Ist das nicht Betrug?

Miceli: Ich würde es nicht als Betrug bezeichnen. Manche finden das skandalös. Aber es ist kein Fehler im System, es ist Teil davon.

netzpolitik.org: Für ChatGPT haben Arbeiter:innen in Kenia gewalttätige, rassistische und anderweitig toxische Inhalte gesichtet, wie eine Recherche des US-Magazins TIME zeigte. Ist das gängige Praxis?

Miceli: Ja, das ist ein Fall wie aus dem Lehrbuch. Heutzutage will jeder ethische KI. Die Unternehmen wissen, dass sie einen Shitstorm ernten, wenn das Modell diskriminierende Ergebnisse liefert. Also versuchen sie verzweifelt, es unter Kontrolle zu bekommen. Und so stellen sie eine Armee von Arbeiter:innen ein, die gewalttätige und unangemessene Inhalte kennzeichnen. Aber dazu müssen sie mit diesen Inhalten konfrontiert werden – und das ist sehr schädlich für ihre psychische Gesundheit.

netzpolitik.org: Kann menschliche Arbeit überhaupt verhindern, dass KI einen Bias, also Voreingenommenheit hat?

Miceli: Nichts kann frei von Vorurteilen sein. Schon hinter der Gestaltung eines KI-Systems stecken die Annahmen und Präferenzen derjenigen, die sie entwickelt haben. Ich selbst spreche deswegen inzwischen gar nicht mehr von Bias, das ist nur eine Ablenkung. Unternehmen sollten ehrlich sein und offenlegen, auf welchen Annahmen ihre Systeme beruhen – und was ihre Systeme nicht können, weil sie dafür kein Geld ausgegeben haben.

netzpolitik.org: Wie sehr sparen die Unternehmen bei den Arbeiter:innen, die zum Beispiel Trainingsmaterial für einen Chatbot sichten?

Miceli: Diese Menschen sind unterbezahlt und arbeiten unter furchtbaren Bedingungen. Viele werden nicht für ihre Arbeitszeit bezahlt, sondern für ihre Leistung. Das heißt, für einen soliden Stundenlohn müssen sie wöchentlich Tausende Textpassagen bearbeiten.

netzpolitik.org: Die Antworten von ChatGPT sind verblüffend menschenähnlich. Wenn ich heute mit dem Chatbot schreibe, sind dann immer noch Arbeiter:innen beteiligt, oder antwortet mir wirklich nur die Software?

Miceli: Die Technologie muss ständig aktualisiert, verbessert und neu trainiert werden. Das heißt, selbst jetzt werten Menschen die Ergebnisse von ChatGPT aus. Dabei kann es sich um dieselben Personen handeln, die schon die Trainingsdaten etikettiert haben. Aber vor allem geht es hier um die unbezahlte Arbeit der Nutzer:innen. Jedes mal wenn man ChatGPT nutzt, hilft man dabei, das Modell zu perfektionieren. Das ist auch Arbeit, wird aber selten als solche anerkannt.

Hilfe oder Ausbeutung?

netzpolitik.org: Wie finden Tech-Unternehmen die vielen Angestellten, die für niedrigen Lohn arbeiten?

Miceli: Hier gibt es vor allem drei Möglichkeiten. Erstens gibt es Plattformen wie Mechanical Turk von Amazon. Sie vermitteln zwischen Unternehmen und Arbeiter:innen. Das ist besonders billig und schnell. Oft wenden sich Unternehmen dorthin zuerst. Wünscht sich ein Unternehmen dann mehr Qualität gibt es externe Dienstleister, sogenannte BPOs. Das steht für „Business Process Outsourcing“. Die sind schon etwas teurer. Und schließlich, wenn ein Unternehmen besondere Expertise benötigt – etwa zur Beschriftung medizinischer Daten –, dann versucht es, die Aufgaben intern zu erledigen.

netzpolitik.org: Erforschen Sie all diese Bereiche?

Miceli: Ich habe mich auf eine besondere Art von BPO spezialisiert, und zwar auf Impact-Sourcing-Unternehmen. Sie bewegen sich zwischen Gewinnorientierung und Gemeinnützigkeit. Ihre Story ist: Wir helfen Menschen und bringen Arbeit in arme Regionen. Aber zur Wahrheit gehört auch: Durch die geringen Lohnkosten haben die Unternehmen dann eine gute Position auf dem Markt.

netzpolitk.org: Das klingt nach dem Unternehmen aus der Recherche des TIME-Magazins. Die kenianischen Arbeiter:innen waren bei Sama beschäftigt, das seinen Sitz in San Francisco hat.

Miceli: Ja, Sama ist ein solches Unternehmen.

Geflüchtete als Billigarbeiter:innen

netzpolitik.org: Können Sie mir mehr über die Menschen erzählen, die für solche Unternehmen arbeiten?

Miceli: Argentinien und Bulgarien sind zwei Länder, in denen ich Feldforschung gemacht habe. In den argentinischen BPOs waren es Jugendliche aus den Armenvierteln der Stadt. Einige von ihnen haben die Schule nicht abgeschlossen. Die Väter arbeiten auf dem Bau, die Mütter putzen Häuser. Für die Jugendlichen ist so ein Schreibtischjob im Büro beeindruckend.

In Bulgarien war die Situation anders. Das Unternehmen, in dem ich forschte, hatte es auf Geflüchtete aus dem Nahen Osten abgesehen, vor allem aus Afghanistan, Irak und Syrien. Sie sollten Menschen in Krankenhäusern via Kamera überwachen und einen Alarm auslösen, etwa wenn jemand aus dem Bett fiel oder Hilfe brauchte. Sie wurden mit etwa einem US-Dollar pro Aufgabe bezahlt. Einige dieser Aufgaben haben dann bis zu zwei Stunden gedauert. Manche Arbeiter:innen arbeiteten auch direkt von Syrien aus.

netzpolitik.org: Trotz Krieg arbeiten die Unternehmen auch in Syrien?

Miceli: Ja, es gibt kleinere BPOs direkt in Syrien. Andere Arbeiter:innen arbeiten in Syrien für Unternehmen, die ihren Sitz in der Türkei oder Bulgarien haben.

„Das ist der Teil, den viele nicht hören wollen“

netzpolitik.org: Betrachten die Arbeiter:innen ihre Jobs als Ausbeutung?

Miceli: Diese Menschen werden ausgebeutet, das ist unbestreitbar. Die Bezahlung ist sehr niedrig. Manchmal heißt es, ein US-Dollar pro Stunde sei in Ländern wie Bulgarien oder Kenia viel Geld. Aber das ist es nicht. Dennoch sagen die meisten Arbeiter:innen: Diese Tätigkeit ist ihnen lieber als ein anderer Job, zum Beispiel als Reinigungskraft. Das ist der Teil, den viele nicht hören wollen, wenn sie die Ausbeutung der Arbeiter:innen anprangern.

netzpolitik.org: Von welchen Missständen in der Branche haben Sie noch erfahren?

Miceli: Da gab es eine Anwendung, die automatisch gefälschte Ausweise erkennen sollte. Sie sollte in eine Plattform ähnlich wie eBay integriert werden. Um diese Anwendung zu trainieren, sollten Arbeiter:innen nicht bloß Bilder von echten und gefälschten Ausweisen kennzeichnen. Sie sollten auch neue Daten beschaffen. Das heißt, die Arbeiter:innen sollten ihre eigenen Ausweise fotografieren, und sie sollten sich die Aufnahmen von fünf weiteren Ausweisen besorgen, etwa von Freund:innen und Familie. Dann sollten sie die Aufnahmen manipulieren, zum Beisiel den Namen ändern.

Prekäre Klickarbeit hinter den Kulissen von ChatGPT

„Privatsphäre ist ein Problem der ersten Welt“

netzpolitik.org: Das ist ein extremer Eingriff in die Privatsphäre der Arbeiter:innen und ihrer Angehörigen.

Miceli: Ja, aber Arbeitnehmer:innen in einem Land wie Argentinien kümmern sich weniger um die Privatsphäre als Angestellte in Deutschland. Wenn man mit den Leuten über Datenschutz spricht, sagen sie: Privatsphäre ist ein Problem der Ersten Welt. Zuerst müssen sie etwas zu essen auf den Tisch kriegen.

netzpolitk.org: Wenn man die vielen Arbeiter:innen miteinbezieht, welche Kosten stecken wirklich hinter KI-Anwendungen wie ChatGPT oder DALL-E-2?

Miceli: Ich schätze, die Rechenleistung macht etwa 80 Prozent der Kosten aus, die menschliche Arbeitskraft 20 Prozent. Und das Geld für die menschliche Arbeitskraft fließt zu 90 Prozent an die Ingenieur:innen im Silicon Valley, während Arbeiter:innen etwa in Venezuela oder Kenia fast nichts bekommen.

netzpolitik.org: Können strengere Gesetze die Arbeitsbedingungen verbessern?

Miceli: Ich bin da etwas skeptisch. Die Arbeiter:innen in Argentinien erhielten zum Beispiel einen Mindestlohn und waren angestellt. Sie bekamen Krankenversicherung und Altersversorgung. Das war eine große Sache für sie. Aber der Mindestlohn in Argentinien liegt unter der Armutsgrenze. Regulierung muss die Besonderheiten jedes Ortes, jedes Unternehmens und jeder Tätigkeit berücksichtigen.

„Der Mythos von selbstständigen Technologien“

netzpolitik.org: Was hilft den Arbeiter:innen am meisten?

Miceli: Wenn sie sich selbst organisieren. Das haben auch unsere Gespräche mit den Arbeiter:innen gezeigt. Man muss die Besonderheiten vor Ort berücksichtigen, aber auch die internationale Solidarität fördern. Dann können Arbeiter:innen in anderen Ländern selbst entscheiden, welche Errungenschaften ihnen weiterhelfen können.

netzpolitik.org: Wofür haben die Arbeiter:innen in Argentinien gekämpft?

Miceli: Zuerst war es eine feste Anstellung. Dann kämpften sie dafür, auch von zu Hause aus arbeiten zu dürfen. Einige konnten bei Regen nicht ihr Haus verlassen, weil es in ihrer Gegend dann sehr schlammig wird. Aber das Unternehmen wollte ihnen keine Laptops leihen. Dann kam Corona, und sie mussten von zu Hause aus arbeiten. Heute dürfen sie das zweimal pro Woche.

netzpolitik.org: Glauben Sie, KI-Unternehmen wie OpenAI verbergen absichtlich, wie viele Arbeiter:innen hinter ihrer bahnbrechenden Technologie schuften?

Miceli: Auf jeden Fall. Die Unternehmen verkaufen den Mythos von völlig selbstständigen Technologien. Der Mythos verliert seine Kraft, wenn man zugibt, dass schlecht bezahlte Arbeiter:innen die Technologie am Laufen halten.

„Das ist keine Kleinstarbeit“

netzpolitik.org: Können Arbeiter:innen in Impact-Sourcing-Unternehmen auch aufsteigen?

Miceli: Die Arbeiter:innen sammeln viel Fachwissen. Sie sind sie Expert:innen im direkten Umgang mit Daten, weil sie tagtäglich damit zu tun haben. Niemand hat das Handwerk besser einstudiert, nicht einmal die Ingenieur:innen. Aber ihre Leistung wird bloß anhand von Zahlen bewertet. Bei den Anbietern, die ich mir angesehen habe, gibt es nicht einmal eine Chat-Funktion, über die Arbeiter:innen Fragen stellen können. Wenn sie es dennoch versuchen, stuft ein Algorithmus das als Jammern ein und bewertet ihrer Leistung schlechter. Manchmal werden Arbeiter:innen dann ohne weitere Erklärung von einem Projekt ausgeschlossen.

netzpolitik.org: Wie könnte das besser laufen?

Miceli: Die Arbeiter:innen sollten als Menschen mit Fachkenntnissen verstanden werden. Ich glaube, ihre Ideen und Anmerkungen können die Technologie besser machen. Unternehmen sollten diese Expertise als Qualität betrachten und dafür auch höhere Preise verlangen.

netzpolitik.org: Oft wird diese Art von Arbeit als „Mikroarbeit“ bezeichnet.

Miceli: Ja, solche Begriffe sind Teil der Erzählung von der komplett automatisierten KI. Die Branche erweckt gerne den Eindruck, dass die Expert:innen nur im Silicon Valley sitzen. Aber wenn man sich acht Stunden am Tag Bilder von missbrauchten Kindern ansieht, ist das keine Kleinstarbeit. Ich würde sagen, das ist etwas Großes.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Blogs

Aus eins mach zwei: Neuer Anlauf für Whistleblowing-Schutz

netzpolitik.org - 17 März, 2023 - 09:47

Der Schutz für Hinweisgeber:innen war an der Union im Bundesrat gescheitert. Nun versucht es die Ampelkoalition erneut und will der Union dabei den Teppich unter den Füßen wegziehen.

Die Ampelkoalition spaltet den Hinweisgeberschutz in zwei Gesetze auf, um den Widerstand der Union im Bundesrat zu überwinden. – Vereinfachte Pixabay Lizenz Grafik: Pixabay, Montage: netzpolitik.org

Diesmal soll es endlich klappen: Die Ampelkoalition unternimmt einen erneuten Anlauf, um Whistleblower:innen gesetzlich besser zu schützen. Erreichen will sie das mit einem waghalsigen Manöver, das die Union im Bundesrat ausbooten soll.

Eigentlich hatte der Bundestag bereits letztes Jahr ein Hinweisgeberschutzgesetz beschlossen. Doch weil das geplante Gesetz teils auch die Länder betroffen hat, war die Zustimmung des Bundesrats notwendig. Dort stellten sich die unionsgeführten Länder quer und blockierten das Gesetz. Es schieße weit über das Ziel hinaus und belaste vor allem kleine und mittlere Betriebe, begründete etwa der bayerische Justizminister Georg Eisenreich seine Ablehnung.

Mit den selben Argumenten hatte die Union noch zu Zeiten der Großen Koalition die längst überfälligen Regelungen verhindert. Bereits Ende 2019 trat die EU-Whistleblowing-Richtlinie in Kraft, umgesetzt ist sie hierzulande aber weiterhin nicht – trotz eines inzwischen laufenden Vertragsverletzungsverfahrens der EU-Kommission samt einer Klage vor dem Europäischen Gerichtshof (EuGH).

Aus eins mach zwei

Die Pattsituation soll nun ein neuer Ansatz auflösen. Hierfür hat die Regierung das Vorhaben in zwei Gesetze aufgeteilt, die heute in den Bundestag eingebracht werden: Das erste davon bleibt im Vergleich zum im Februar gescheiterten Entwurf praktisch unverändert. Es klammert aber alles aus, wofür die Zustimmung des Bundesrats erforderlich ist: etwa den Anwendungsbereich auf Landesbedienstete oder auf Körperschaften, die der Aufsicht eines Landes unterstehen.

Somit sollte sich der Löwenanteil des Gesetzes mit einer simplen Stimmenmehrheit im Bundestag beschließen lassen, hofft die Regierung. Es handle sich um ein Einspruchsgesetz, das könne die Union nicht verhindern, sagt eine Sprecherin des Bundesjustizministeriums (BMJ).

Das zweite Gesetz ist nur ganz kurz gehalten und dient allein dazu, die obigen Ausnahmen gleich wieder aufzuheben. Zwar könnte es der Bundesrat – voraussichtlich Ende März – erneut durchfallen lassen, aber immerhin bliebe der Schaden verhältnismäßig begrenzt.

Vor allem aber würden die bisherigen Argumente der Union nicht mehr greifen, sagt der SPD-Abgeordnete Sebastian Fiedler: „Die wesentliche Kritik der Union hat sich ja nur auf Fragen der Wirtschaft bezogen“. Etwaige Kosten für die Wirtschaft oder ob es sinnvoll ist, auch anonyme Meldungen zuzulassen, sei in diesem Gesetzentwurf kein Thema. „Die Union müsste sich neue Argumente einfallen lassen, um das wieder abzulehnen“, sagt Fiedler.

Union hält sich bedeckt

Ob es dazu kommt, bleibt vorerst offen. Aus dem bayerischen Justizministerium heißt es auf Anfrage, dass „zum Abstimmungsverhalten Bayerns im Plenum des Bundesrates vor der Bundesratssitzung grundsätzlich keine Auskunft gegeben werden kann“. Auch Hessen, das zuletzt seine Zustimmung verweigert hat, hält sich bedeckt. Da Justizminister Roman Poseck „selbst im Bundestag dazu sprechen wird, möchte ich seiner Rede nicht vorweggreifen und verweise zunächst auf die morgige Debatte“, beschied gestern eine Sprecherin des Ministeriums.

Bundestag will Whistleblower:innen besser schützen

Druck auf die Union könnte auch von anderer Seite kommen. Denn sollte die Länderkammer das abgespeckte Gesetz abermals zurückweisen, dann würde das schlicht darauf hinauslaufen, dass „die Länder ihre Mitarbeiter schlechter stellen“ als den Rest der Bevölkerung, der unter bestimmten Umständen Rechtsverstöße geschützt melden kann, sagt Kosmas Zittel vom Whistleblower-Netzwerk. „Es wäre geradezu absurd, wenn die Blockadehaltung der Unionsparteien im Bundesrat für ein Zwei-Klassen-Recht im öffentlichen Dienst sorgen würde“, heißt es in einem Blogbeitrag der Nichtregierungsorganisation.

Vertreter:innen der Ampel zeigen sich derweil zuversichtlich. „Es gibt für den Bundesrat keine inhaltlichen Kritikpunkte in diesem Gesetz, sodass es nur aufgrund sachfremder Erwägungen aufgehalten werden könnte“, teilt der Grünen-Abgeordnete Till Steffen mit. Ein solches Vorgehen habe es noch nie gegeben. „Es liegt an der Union, das Gesetz nicht weiter zu blockieren“, so Steffen. Sollte wider Erwarten das Ergänzungsgesetz ohne tatsächliche Begründung abgelehnt werden, „werden wir das weitere Vorgehen erneut diskutieren müssen“.

Denn vom Tisch wäre das Thema dann nicht: Eine Ausklammerung von Landesbeamt:innen vom Anwendungsbereich würde bedeuten, dass Deutschland die EU-Richtlinie weiterhin nicht vollständig umgesetzt hat. Das von der EU-Kommission angestrengte Verfahren würde also weiterlaufen, im Falle einer Verurteilung würde eine saftige Geldstrafe auf Deutschland zukommen. Das findet der SPD-Abgeordnete Fiedler nicht fair. Rechtlich habe er es selbst noch nicht geprüft, aber „wenn sie trotzdem dagegen stimmen, dann könnte man die Strafzahlungen theoretisch an die Länder weiterreichen“, sagt Fiedler.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Blogs

Forum Open: Hardware: Mit offener Hardware zur Kreislaufwirtschaft

netzpolitik.org - 17 März, 2023 - 08:00

Open Source geht nicht nur für Software: Auf dem „Forum Open: Hardware“ in Berlin drehte sich alles um offene Hardware und was diese zu einer nachhaltigen Zukunft beitragen kann.

Das Forum Open: Hardware fand am Montag zum ersten Mal statt. – Alle Rechte vorbehalten Maximilian Voigt

Diese Woche fand in Berlin zum ersten Mal das Forum Open: Hardware statt. Dort haben sich Forscher*innen, Maker*innen und andere Interessierte über offene Hardware ausgetauscht und diskutiert, wie Technologie nachhaltiger und partizipativer werden kann. Dabei haben sich auch einige Projekte vorgestellt und gezeigt, wie Open Hardware in der Praxis aussehen kann.

Open Hardware bedeutet: Die verwendeten Bauteile und der Aufbau einer Hardware sind dokumentiert, sodass andere sie nachbauen können. Diese Informationen werden unter einer freien Lizenz veröffentlicht. Das heißt, jeder kann das Design studieren, verändern, weiterverbreiten, die Hardware nachbauen und sogar verkaufen, ohne mit dem Patent- oder Urheberrecht in Konflikt zu geraten.

Nachhaltige Technologie durch offenes Design

Open Hardware ist ein Gegenentwurf zu proprietärem Design, das die genaue Funktionsweise seiner Erfindungen geheim hält, sie mit Patenten, Marken- und Urheberrechten schützt – und so auf Konkurrenz statt Zusammenarbeit setzt. Manche Verfechter*innen des Prinzips der offenen Hardware stellen geistiges Eigentum deswegen grundsätzlich infrage.

In aller Munde war auf dem Forum das Thema Kreislaufwirtschaft. Offenes Design könne dazu beitragen, Technologie nachhaltiger zu gestalten, in dem dokumentiert wird, wie ein Gerät repariert werden kann und indem Standardbauteile verwendet werden, die man leicht ersetzen oder für neue Projekte wiederverwenden kann. Wenn Entwickler*innen genau offenlegen würden, welche Materialien sie wo verwenden, mache das auch das Recycling einfacher.

Zentral für offene Hardware ist, dass Designs verständlich dokumentiert werden. Seit 2020 gibt es eine DIN-Norm, die festlegt, was eine solche Dokumentation alles enthalten muss.

Raus aus der Nische

Die Idee von Open Hardware ist relativ neu, erst in den späten 1990er-Jahren begannen Teile der Open-Source-Bewegung, das Prinzip hinter Freier Software auch auf Hardware zu übertragen. Bei Software ist der Open-Source-Ansatz längst im Mainstream angekommen, bei Hardware kommt er bis jetzt hauptsächlich in Hobby- und Nischenprojekten zur Anwendung und hat sich in der Breite noch nicht durchgesetzt.

Ein paar Ausnahmen gibt es jedoch. Etwa RepRap, ein Open-Hardware-3D-Drucker, für den es eine Vielzahl von Bauanleitungen im Netz gibt. Einige Firmen bieten auch vollständige Bausätze oder fertige Geräte auf Basis dieses Designs an. Unter Bastler*innen und Entwickler*innen bekannt sind auch die Mikrocontroller der Marke Arduino, deren Hardware und zugehörige Software ebenfalls quelloffen sind.

Laut der Organisation Open Source Medical Supplies produzierten kleinere Unternehmen und Freiwillige in Makerspaces weltweit dutzende Millionen Masken, Faceshields und Schutzanzüge für medizinisches Personal, als diese Anfang 2020 auf dem Markt kaum noch erhältlich waren. Auch Beatmungsgeräte waren dabei. Die Bauanleitungen teilten sie untereinander, ganz nach dem Prinzip der offenen Hardware.

Förderung gesucht

Für große und aufwendige Projekte fehlt allerdings oft Geld. Innovationen in der proprietären Welt seien dagegen oft massiv staatlich gefördert, sagt der Designer Lars Zimmermann auf dem Podium. Aber auch in der offenen Welt bewegt sich langsam etwas: Der Prototype Fund Hardware hat mit Geldern aus dem Bundesministerium für Bildung und Forschung sechs Projekte gefördert, die sich auf der Veranstaltung vorgestellt haben.

Darunter waren ein Heißdampfgeschirrspüler für mobile Küchen und ein Mini-Windkraftwerk für den eigenen Garten. Auch ein Gerät, dass mithilfe eines Lasers Elektronikplatinen herstellen kann, war dabei. Das Ziel ist es hier, für offene Werkstätten und Makerspaces einen bezahlbaren Weg zu schaffen, solche Platinen selbst herzustellen – die wiederum für neue Open-Hardware-Projekte genutzt werden können. Alle der Projekte sind aktuell erst Prototypen, die noch weiterentwickelt und getestet werden.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Blogs

KI-Forschung: OpenAI ist jetzt ClosedAI

netzpolitik.org - 16 März, 2023 - 15:32

OpenAI hat sein neuestes Sprachmodell GPT-4 vorgestellt. Doch viele in der Forschung sind enttäuscht: Das Unternehmen, das einst als alternatives und offenes Forschungslabor gestartet ist, verschweigt nun aus Angst vor der Konkurrenz, wie die Technologie entstanden ist.

Ein Bericht, der keiner ist: Forscher:innen bezeichnen OpenAIs Forschungsbericht als „Maskerade“. – Alle Rechte vorbehalten Logo: OpenAI, Montage: netzpolitik.org

Vorgestern hat Open AI „GPT-4“ vorgestellt, die nächste Stufe seines KI-getriebenen Sprachmodells. Auf sozialen Medien und in der Presse häufen sich seitdem die Berichte und das Staunen darüber, was das Modell alles kann: Aus einer Skizze eine funktionierende Webseite bauen oder in zwei Minuten ein Computerspiel erstellen. Doch während einige begeistert sind, äußern sich viele Forscher:innen derzeit vor allem enttäuscht. Denn die Veröffentlichung markiert einen Wendepunkt in der Strategie von OpenAI. Anders als der Name des Start-ups vermuten lässt, ist GPT-4 kein offenes Modell.

OpenAI zeigt zwar, was sein neuestes Werkzeug alles kann und prahlt auch mit den Ergebnissen, die es bei diversen Prüfungen erzielte, gibt aber zugleich so gut wie gar nichts dazu bekannt, wie es entstanden ist. Vor allem die Frage, welche Trainingsdaten zum Einsatz kamen, bleibt unter Verschluss – für viele aus der Wissenschaft ein No-Go.

Im 98-seitigen Forschungsdokument von OpenAI steht dazu nur: „Angesichts sowohl der Konkurrenzsituation und der sicherheitstechnischen Implikationen von großen Modellen wie GPT-4, enthält dieser Bericht keine weiteren Details über die Architektur, die Hardware, den Aufbau der Trainingsdaten, Datensatzkonstruktion, Trainingsmethode oder Ähnliches.“

Von der NGO zum Milliarden-Start-up

Der technische Leiter und Mitgründer von OpenAI, Ilya Sutskever wird im Interview mit The Verge noch deutlicher: „Der Wettbewerb da draußen ist halt groß.“ Man habe zu viel Arbeit in GPT-4 investiert, um nun der Konkurrenz das Rezept zu überreichen. Die Sicherheitsaspekte, die im Dokument auch genannt werden? Fallen laut Sutskever „nicht so stark ins Gewicht wie der Wettbewerbsaspekt“. Als die Nachfrage des Reporters, wie es zu dem Sinneswandel kommt, sagt Sutskever schlicht: „Wir lagen falsch“. Anders als bei der Gründung angenommen, sei es einfach keine gute Idee, potentiell mächtige KI-Modelle der Öffentlichkeit zur Verfügung zu stellen.

Der Transformation von OpenAI von einem gemeinnützigen Forschungslabor zu einem der wertvollsten Start-ups der Branche ist bereits länger im Gange. Dass jetzt aber ein Mitgründer sagt, der offene Grundsatz war ein Fehler, markiert eine neue Stufe. Gegründet wurde OpenAI 2015 als NGO von einer Handvoll Menschen, darunter der heutige CEO Sam Altman und Tesla- und Twitter-Eigentümer Elon Musk (der später ausstieg).

Die Idee damals: OpenAI sollte die gemeinnützige Alternative sein in einem Forschungsbereich, der von extrem reichen Tech-Konzernen beherrscht wurde. Inzwischen ist OpenAI zu einem „capped profit“-Unternehmen geworden und sammelt Millionen von Investoren ein – zuletzt von Microsoft, das 10 Milliarden investierte und im Rahmen des Deals Produkte von OpenAI exklusiv nutzen darf.

Forschungsbericht ist ein „Hohn“

Forscher:innen bereitet am Kurswechsel vor allem eins Sorge: Die Trainingsdaten sind entscheidend dafür, was ein Transformer-Sprachmodell wie GPT-4 später an Ergebnissen ausspuckt. Solche Modelle sagen vorher, mit welcher Wahrscheinlichkeit ein Wort in einem Satz auf andere Wörter oder Zeichen folgt. Die bisherige Forschung hat gezeigt, dass die Auswahl der Trainingsdaten und wie sie später sortiert und bereinigt werden, dabei entscheidend dafür ist, welche Ergebnisse das Modell ausgibt. Vor allem historische Diskriminierung in Form von Rassismus, Sexismus oder Antisemitismus hatten Vorgänger von GPT-4 oft übernommen.

Ben Schmidt von Nomic AI schreibt dazu auf Twitter: Ohne die Information, welche Vorurteile in GPT-4 eingeflossen seien, sei es kaum möglich einzuschätzen, wo man das Modell einsetzen kann – und wo es zu viele Risiken birgt. In der Vergangenheit hatte OpenAI für das Training von Vorgängermodelle etwa Texte aus Reddit-Foren genutzt.

Der CEO des Start-ups Lightning Ai, William Falcon, wird noch deutlicher: Der Forschungsbericht zu GPT-4 sei ein Hohn, sagte er im Interview mit Venture Beat. OpenAI versuche hier etwas als Forschung auszugeben, das keine Forschung ist.

Falcon weist auch auf ein weiteres Problem hin: Wie soll die Forschungsgemeinschaft Verbesserungen für ein Modell vorschlagen, das gar nicht offen zugänglich ist?

Nur noch handverlesener Zugang

OpenAI verweist im Bericht darauf, dass es plant ausgewählten Dritten Zugang zu technischen Details zu gewähren, damit diese „bei der Abwägung zwischen den oben genannten Wettbewerbs- und Sicherheitserwägungen und dem wissenschaftlichen Wert einer weiteren Transparenz beraten“ könnten. Statt alle in den Bauplan schauen zu lassen, soll offenbar handverlesen werden, wer Zugang bekommt.

Die Diskussion um Offenheit oder Geschlossenheit findet vor dem Hintergrund einer Branche statt, in der sich die Ereignisse überschlagen. Konzerne wie Google, Meta und Microsoft liefern sich derzeit ein Rennen, um Chatbots und andere KI-Technologien in ihre Produkte einzubauen. Ethische Bedenken, die in der Vergangenheit für Zurückhaltung bei der Veröffentlichung neuer Technologien gesorgt haben, scheinen dabei zweitrangig geworden zu sein. Microsoft hat erst vergangene Woche ein ganzes Team entlassen, das für die ethische Umsetzung von Technologien in den Produkten des Konzerns zuständig war.

Gleichzeitig macht die Technologie selbst derzeit offenbar enorme Fortschritte. Nach Jahren der Trippelschritte veröffentlichten Unternehmen im vergangenen Jahr Modelle, die Bilder, Texte oder Code erstellen. Und das in einer Qualität, die man bis vor Kurzem nur Menschen zugetraut hätte.

In dieser Landschaft ist OpenAI nun keine gemeinnützige Alternative mehr, sondern ein kompetitives Milliarden-Start-up in einem umkämpften Markt, das schneller, besser und profitabler sein will als die anderen.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Blogs

GPT-4: Das nächste große Ding für digitale Zugänglichkeit?

netzpolitik.org - 16 März, 2023 - 14:41

Bedienoberflächen genau beschreiben und komplizierte Texte in leichte Sprache übersetzen: Neue Sprachmodelle können für Nutzer*innen mit Behinderungen Inhalte zugänglicher machen. Aber wir dürfen Inklusion nicht einfach den Maschinen überlassen, kommentiert Casey Kreer.

GPT4 erklärt, warum ein fotografierendes Eichhörnchen lustig ist. – Hintergrund: Pixabay; Eichhörnchen: OpenAI; Montage: netzpolitik.org

Casey Kreer ist freiberufliche Beraterin für Barrierefreiheit und Web-Entwicklerin. Sie ist seit ihrer Geburt sehbehindert und nutzt seit ihrem sechsten Lebensjahr assistive Technologien.

Ich habe nicht schlecht gestaunt, als OpenAI kürzlich GPT-4 vorgestellt hat – ein noch größeres Sprachmodell. Anders als seine direkten Vorgänger sollte es sowohl mit Texten als auch mit Bildern umgehen können. In der Demo wurde dem Modell eine handschriftliche Skizze für eine Website gezeigt, zu der es innerhalb weniger Sekunden passenden Code ausspuckte.

„Richtig krass“, meinten einige meiner Bekannten aus IT-Kreisen. Andere sind noch immer skeptisch, denn in der Blase wurde ChatGPT hauptsächlich für seine Fehler und Probleme zerrissen.

Ich selbst bin zwiegespalten – als blinde Nutzerin finde ich die neuen Möglichkeiten großartig. Als Erstellerin von Inhalten bin ich skeptisch. Denn bei meiner Arbeit als Beraterin für digitale Barrierefreiheit fällt mir auf: Schon jetzt verlassen sich viele Unternehmen und öffentliche Stellen immer mehr auf künstliche Intelligenz, wenn es um die Zugänglichkeit ihrer Inhalte geht. Es fehlen an allen Enden Ressourcen und Expertise dazu, ein digitales Angebot wirklich inklusiv zu gestalten.

Bildbeschreibungen können automatisiert werden

Bilder sind für zwischenmenschliche Kommunikation extrem wichtig – deshalb sollte man sie immer auch für Blinde und Sehbehinderte beschreiben, wenn man sie einsetzt. Noch vor zwei Monaten habe ich in einem Vortrag behauptet, künstliche Intelligenz sei noch nicht dazu in der Lage, qualitativ sinnvolle Bildbeschreibungen und Alternativtexte zu verfassen.

Diese Aussage möchte ich jetzt gerne widerrufen oder zumindest mit einem Asterisk versehen. KI-Modelle, die die Beziehungen und Interaktionen von Objekten auf Bildern nicht nur erkennen, sondern auch verstehen können, sind definitiv dazu fähig. OpenAI zeigte eine Demo, in der GPT-4 das User-Interface einer Chat-App beschreiben sollte. Ein Auszug aus dem Ergebnis:

Das Bild zeigt einen Screenshot der Discord-Anwendungsoberfläche. In der oberen linken Ecke befindet sich ein Serversymbol mit der Bezeichnung „GPT-4“. Auf der linken Seite, unter dem Servernamen, gibt es zwei Bereiche: „TEXTKANÄLE“ und “ SPRACHKANÄLE“. Unter „TEXTKANÄLE“ gibt es zwei Kanäle: „#general“ und „#gpt-4-demo“, wobei letzterer der aktuell ausgewählte Kanal ist.

Die Beschreibung war noch länger. GPT-4 beschrieb, welche Chatnachrichten von wem wo zu sehen sind und wer gerade online ist.

Ich bin begeistert. Noch nie zuvor ist mir eine Bildbeschreibung eines Menschen begegnet, die eine grafische Bedienoberfläche so akkurat wiedergegeben hat. GPT-4 demonstriert hier an gleich mehreren Stellen ein echtes Verständnis für den Aufbau der UI und den Kontext eines Chatprogramms. Alles, was dafür notwendig war, ist ein Prompt, der darum bittet, dieses Bild sorgfältig zu beschreiben.

Noch befindet sich dieses Feature in einer geschlossenen Preview – deshalb lässt sich nur erahnen, welche Dinge möglich werden, wenn man den Prompt weiter verfeinern würde. Für viele allgemeinverständliche Bilder und Grafiken wird das Sprachmodell aber auch ohne diese Zusatzinformationen passende Beschreibungen generieren können, die ich als blinde Nutzerin eines Screenreaders vielleicht sogar ganz auf meine eigenen Wünsche anpassen kann.

So könnte ich darum bitten, ein Bild nur kurz und knapp zu umreißen, wenn es nicht so sehr auf seinen Inhalt ankommt. Oder ich entscheide mich für ausführliche Beschreibungen der Fotos in meiner Social-Media-Timeline, um am Leben meiner Freund*innen so teilhaben zu können, wie ich es bisher niemals konnte. Oder visuelle Kunst – mit GPT-4 kann ich Kunstwerke in Geschichten oder Gedichte „übersetzen“ und sie mir so erstmals auch auf einer künstlerischen Ebene zugänglich machen.

GPT-4 macht gravierende Fehler

Natürlich stellt sich dann sofort die Frage, inwiefern Bias und der limitierte Wissensstand des Modells beim Beschreiben von Bildern eine Rolle spielen. Es kann vorkommen, dass das Modell bestimmte Objekte oder Details auf Bildern nicht erkennt oder falsch beschreibt. Darüber hinaus kann das Modell unbeabsichtigt Stereotypen und Vorurteile in seinen Beschreibungen reproduzieren, die dann wiederum zu Diskriminierung führen können. Gerade die Beschreibung von Personen möchte ich hier einmal besonders hervorheben.

Bei allen Beispielen, die OpenAI selbst im Livestream gezeigt hat, gab es gravierende Probleme im Bereich der Barrierefreiheit und bei der korrekten Wiedergabe von Informationen: Die eingangs erwähnte Website wurde zwar funktional umgesetzt, jedoch nicht barrierefrei. Die Bildbeschreibung der Chat-UI enthält in ihrer vollen Länge einige Details wie ein Werbebanner und Schaltflächen, die falsch beschrieben wurden.

In einem vom Publikum ausgewählten Bild beschreibt GPT-4 die Bewegung einer Astronaut*in, als würde sie sich auf ein Raumschiff zubewegen – tatsächlich sieht es eher so aus, als entferne sie sich davon. Im letzten Beispiel erklärt das Sprachmodell, ein Eichhörnchen mache ein Foto einer Nuss. Das sei lustig, weil Eichhörnchen sonst normalerweise Nüsse essen würden. Visuell und ohne Kontext lässt sich hier jedoch nicht erkennen, dass das Eichhörnchen wirklich ein Foto einer Nuss macht.

Menschen können das Modell mit Kontext versorgen

Bei den Bildern wurden hier also kritische Details entstellt, die für blinde Betrachter*innen nicht mehr nachvollziehbar sind. Das ist nicht nur ein Problem von GPT-4, sondern auch eines von allen anderen automatischen Bildbeschreibungs-Tools, die etwa integriert in Apples iOS schon seit einigen Jahren existieren. Was aber jetzt besonders ist, ist eben die Tatsache, dass wir dem Modell nun zusätzlichen Kontext liefern können.

Ich vermute, dass ein Blogartikel oder Social Media-Post über die Erkundung eines neuen Planeten ausreichen könnte, um dem Modell bei der Beschreibung der Astronaut*in einen Stups in die richtige Richtung zu geben.

Auch das Erkennen einer Bedienoberfläche ist keine Neuheit in der KI-Welt. Apple betreibt bereits seit einigen Jahren Forschung dazu, wie sich interaktive Oberflächen aus Screenshots rekonstruieren lassen, wenn eine App von ihren Entwickler*innen nicht barrierefrei gestaltet und mit den notwendigen Tags ausgestattet wurde.

Diese Forschung ist seit mittlerweile zwei Jahren für Nutzer*innen des Screenreaders VoiceOver erlebbar – im Alltag hilft es jedoch nur an sehr wenigen Stellen weiter, weil der KI Kontext und das Verständnis für User-Workflows fehlen. Hier könnte die Integration eines Sprachmodells wie GPT-4 also eine echte Revolution bei der Zugänglichkeit von Programmen bedeuten, solange die Entwickler*innen sich weiterhin selbst Mühe geben, ihre Oberflächen barrierearm zu gestalten.

Sprachliche Feinheiten sind entscheidend

Es gibt noch einen weiteren Bereich, bei dem Sprachmodelle helfen können: Während die Barrierefreiheit von digitalen Inhalten für Blinde und Sehbehinderte oft stark vom korrekten Verständnis von Bildern abhängig ist, sind viele textuelle Inhalte für Menschen mit kognitiven Behinderungen sehr schwer zu verstehen. Die Modelle könnten die Texte in „Leichte Sprache“ übersetzen. Microsoft Bing macht im Edge Browser aus einem aktuellen netzpolitik.org-Artikel zum Thema Internetwerbung für ungesunde Lebensmittel folgendes:

Die Web-Seite ist über ein Gesetz. Das Gesetz will keine Werbung für ungesundes Essen an Kinder. Das Gesetz will, dass Kinder gesund essen. Das Gesetz will auch, dass Kinder nicht zu dick werden. Das Gesetz gilt für Werbung im Fernsehen und im Internet. Aber das Gesetz ist noch nicht fertig. Es gibt viele Fragen zu dem Gesetz. Zum Beispiel: Wie soll das Gesetz kontrolliert werden? Was passiert mit Werbung aus anderen Ländern? Was bedeutet das Gesetz für Menschen, die im Internet über Essen schreiben?

Zwar ist diese Zusammenfassung sehr leicht verständlich, jedoch greift sie das Thema nur rudimentär auf und lässt wesentliche Details weg. Bittet man Bing jetzt um einen Text zu bestimmten Aspekten, sieht das Ergebnis gleich viel besser aus – allerdings patzt das Modell munter weiter. Aus dem BMEL, dem Bundesministerium für Ernährung und Landwirftschaft, wird hier plump „Ministerium für Essen und Land“, was die echte Information entstellt. Weitere sehr wichtige Details bleiben weiterhin, verantwortet durch antrainierten Bias, gänzlich verborgen.

Wie Bing einen Artikel in Leichter Sprache zusammenfasst - Screenshot Unterstützung für Konsument*innen von Inhalten

Was all diese Beispiele und Anwendungsfälle gemeinsam haben: Es braucht immer noch die menschliche Expertise zur Einordnung und zur Überprüfung von Informationen. Ohne diese schaffen wir weiterhin viele neue Barrieren, die Menschen mit Behinderungen aktiv von der Teilhabe am Internet ausschließen.

Man kann jetzt natürlich argumentieren, dass all diese Fähigkeiten einen riesigen Impact auf die Inklusion von Menschen mit Behinderung im Internet haben und man sie deshalb so oft und so weitläufig einsetzen sollte, wie es nur möglich ist. Denn, wie ich selbst seit Jahren predige: „Jede Bildbeschreibung ist besser als gar keine.“

Während diese Technologien in den Händen der Konsument*innen von Inhalten einen großen Unterschied machen können, sollten wir nicht unsere Verantwortung beim Erstellen unserer Inhalte vernachlässigen. Wir sind es, die ihnen Bedeutung geben und die damit einen Mehrwert im Leben unseres Publikums bieten können.

Machine Learning basiert auf Daten, die Menschen erschaffen. Die meisten Websites und Bilder sind bis heute nicht barrierefrei. So wird alles, was Sprachmodelle produzieren, weiterhin durchzogen sein von Barrieren und strukturellem Ableismus – wenn man nicht sehr genau aufpasst. Und diese Schwelle sinkt leider immer weiter.

Als Nutzerin von assistiven Technologien möchte ich selbst entscheiden, inwiefern ich mich auf die oftmals lückenhaften und falschen Informationen verlassen möchte, die mir diese Systeme liefern. Sie sind für mich eine Bereicherung. Und sie funktionieren besser, je mehr die Inhalte-Ersteller*innen sich auch selbst darum bemühen, diese barrierefrei zu gestalten.

Dazu gehört es weiterhin, Bildbeschreibungen zu verfassen, Videos mit Untertiteln zu versehen und Texte in Leichte Sprache zu übersetzen. Keine Bereicherung sind die Technologien, wenn die Ersteller*innen es an die Maschinen delegieren, Inhalte für Menschen mit Behinderung zugänglich zu machen, ohne sich damit auseinanderzusetzen, was Barrierefreiheit eigentlich bedeutet.

Die Menschheit ist an dem Punkt angelangt, an dem künstliche Intelligenz eine denkbare Unterstützung beim barrierefreien Konsumieren und, wenn man das notwendige Fachwissen dafür hat, auch beim Erstellen von Inhalten wird. Nicht an dem, an dem es Inklusion komplett übernimmt und niemand mehr Barrieren im digitalen Raum erfährt. Es erfordert weiterhin eine Menge Expertise und ein Auge für kleinste Details, um wirklich Inhalte zu schaffen, die für alle zugänglich sind.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Blogs

Internetaktivist: Ecuador lässt Ola Bini weiterhin nicht ausreisen

netzpolitik.org - 16 März, 2023 - 11:50

Trotz seines Freispruchs Anfang des Jahres gelten für den schwedischen Aktivisten in Ecuador weiterhin Einschränkungen. Die Bürgerrechtsorganisation EFF beklagt den Rückfall in „alte Muster“, durch die sich das Verfahren nun schon vier Jahre hinzieht.

Ola Bini (Archivbild) – Alle Rechte vorbehalten freeolabini.org

Mehr als einen Monat nach dem Freispruch des schwedischen Netzaktivisten in Ecuador gibt es weiterhin Grundrechtseinschränkungen für Ola Bini, dem von der Staatsanwaltschaft „unbefugter Zugriff auf Computersysteme“ vorgeworfen wurde. Das berichtet die US-Bürgerrechtsorganisation EFF in einem Blogbeitrag. Nun sei „das Muster der Verzögerungen in diesem Fall wieder zu beobachten“, heißt es dort. Der Fall hatte sich über fast vier Jahre hingezogen, in denen Bini auch mehr als zwei Monate im Gefängnis saß.

Das in der Anhörung im Januar mündlich verkündete Urteil sei immer noch nicht schriftlich veröffentlicht worden, schreibt die EFF, und die Maßnahmen gegen Bini blieben in Kraft. So könne der Sicherheitsexperte trotz seines Freispruchs Ecuador immer noch nicht verlassen, seine Bankkonten nicht nutzen und habe einige seiner im Jahr 2019 beschlagnahmten Geräte nicht zurückbekommen. In der Zwischenzeit hätten zudem die Staatsanwaltschaft und die Nationale Telekommunikationsgesellschaft Ecuadors (CNT) bereits ihre Absicht bekundet, in Berufung zu gehen.

Der Freispruch Binis war weltweit mit Erleichterung aufgenommen worden. Amnesty International Schweden bezeichnete das Urteil auf Twitter als einen „Sieg sowohl für die Justiz als auch für alle, die digitale Rechte und persönliche Integrität verteidigen“. Pedro Vaca Villarreal, Sonderberichterstatter für die Meinungsfreiheit bei der Organisation amerikanischer Staaten (OAS), begrüßte das Urteil und twitterte, dass die Verteidigung und Förderung der Privatsphäre von Menschen im Internet über die Garantien des Rechtsstaats erfolge.

Fall steht in Zusammenhang mit Julian Assange

Bini war am 11. April 2019 am Flughafen von Quito, der Hauptstadt von Ecuador, unter dem Vorwurf der Computerspionage festgenommen worden. Wenige Stunden vorher hatte die ecuadorianische Innenministerin auf einer Pressekonferenz ein hartes Vorgehen gegen mutmaßliche Hacker angekündigt. Am Tag davor war Wikileaks-Gründer Julian Assange von Ecuador zur Festnahme an britische Behörden übergeben worden.

Bini hatte den Transparenzaktivisten mindestens zwölf Mal in der ecuadorianischen Botschaft in London besucht. Eine formelle Anklage gegen Bini gab es damals nicht, dafür aber internationalen Protest. Nach seiner Haft lebte Bini über dreieinhalb Jahre in einem Zustand der Ungewissheit.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Blogs

Data Act: EU-Parlament hofft auf „schier unendliche“ Datenmengen

netzpolitik.org - 15 März, 2023 - 18:06

Das EU-Parlament ist bereit für die Trilog-Verhandlungen zum Data Act. Die geplante Verordnung soll die europäische Datenwirtschaft ankurbeln, aber auch Nutzer:innen mehr Rechte geben. Kritik kommt von Verbraucherschützer:innen und der Industrie.

Vernetzte Geräte generieren haufenweise Daten, doch meist bleiben diese in den Datensilos der Hersteller. Das soll der Data Act der EU ändern. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Foto: Luke Chesser / Bearbeitung: netzpolitik.org

Mit breiter Mehrheit hat das EU-Parlament am gestrigen Dienstag seine Position zum Data Act beschlossen. Die geplante Verordnung werde „absolut bahnbrechend“ sein und Zugang zu einer „schier unendlichen Menge hochwertiger Industriedaten“ zu schaffen, sagte die federführende, konservative EU-Abgeordnete Pilar del Castillo Vera aus dem Industrieausschuss (ITRE). Damit ist der Weg beinahe frei für die sogenannten Trilog-Verhandlungen zwischen Parlament, EU-Kommission und Mitgliedstaaten, die ihre Position demnächst im Ministerrat absegnen dürften. Dem Magazin Euractiv zufolge könnte die erste Verhandlungsrunde bereits in zwei Wochen stattfinden.

Die vor einem Jahr von der EU-Kommission vorgestellte Verordnung soll die europäische Datenökonomie neu regeln und dazu führen, dass mehr Daten einfacher ausgetauscht und verwertet werden. Laut Angaben der EU-Kommission würden rund 80 Prozent aller anfallenden Industriedaten niemals genutzt. Künftig soll der Data Act dieses schlummernde Potenzial freisetzen und in den nächsten fünf Jahren das EU-Bruttoinlandsprodukt um 270 Milliarden Euro wachsen lassen, das hofft zumindest die Kommission.

Dabei geht es nur zum Teil um traditionelle Industrieanwendungen. Im Blick hat der Data Act auch das stetig wachsende Internet der Dinge (Internet of Things, IoT), Fitness-Tracker am Handgelenk oder vernetzte Autos. Praktisch überall dort, wo Nutzer:innen Daten generieren, sollen sie mehr Kontrolle darüber bekommen, ob und mit wem sie ihre Daten teilen. Zugleich soll das Gesetz die Stellung vor allem kleiner und mittelständischer Hersteller stärken und sie einerseits zu mehr Datentausch anreizen, andererseits vor der Marktmacht und unfairen Vertragsklauseln großer Datenkonzerne schützen. Auch für öffentliche Einrichtungen und die Forschung soll es einfacher werden, an Datenmaterial zu kommen.

Warnung vor Überforderung für Verbraucher*innen

Doch der im Entwurf stark verankerte Schutz von Geschäftsgeheimnissen stößt auf Kritik. So können etwa Hersteller selbst entscheiden, welche Daten sie zum Teilen freigeben und bestimmte Datenkategorien gänzlich davon ausschließen. Geht es nach dem EU-Parlament, reicht ein Verweis auf Sicherheitsbedenken oder auf „komplexe, proprietäre Algorithmen“ im jeweiligen Produkt, um die Weiternutzung durch Dritte zu untersagen, moniert der europäische Verbraucherschutzverband BEUC.

In der Praxis könnte das bedeuten, dass Verbraucher:innen weiter reichlich wenig Kontrolle über den Zugang und die Weiternutzung von Daten ihrer verbundenen Geräte haben, so BEUC. Der Data Act könnte also das umstrittene Konzept des „Dateneigentums“  zementieren, wobei aber nicht die Nutzer:innen das letzte Wort haben, sondern die Hersteller:innen.

Neues Datengesetz der EU erntet massive Kritik aus der Zivilgesellschaft

Zugleich könnten Verträge über die Datennutzung Verbraucher:innen überfordern, warnt Ramona Pop vom Verbraucherzentrale Bundesverband (VZBV). Verbraucher:innen seien in Vertragssituationen nicht auf Augenhöhe mit Unternehmen und hätten daher ein besonderes Schutzbedürfnis, so Pop: „Sie können unmöglich abschätzen, welche Konsequenzen ein Datennutzungsvertrag etwa mit einem Saugroboter-Anbieter hat“.

Das Gesetz müsse daher klar definieren, zu welchen Zwecken Unternehmen von Verbraucher:innen übermittelte Daten verwenden dürfen. „Das wäre zum Beispiel in Ordnung, wenn Daten sehr konkret helfen, die Wartung oder Reparaturen des Saugroboters zu verbessern“, sagt Pop. Ungelöst bleibt jedoch weiterhin das Problem, dass mehr Informationen nicht notwendigerweise zu besseren Entscheidungen führen und letztlich einzelne Verbraucher:innen systematisch überfordern können.

Wirtschaft sperrt sich gegen zu viel Offenheit

Aus der Wirtschaft kommen hingegen gegenteilige Signale. So warnt der Digitalverband Bitkom davor, dass der Data Act Unternehmen zum Teilen von Geschäftsgeheimnissen zwingen würde. Auch die laut Bitkom „sehr weitgehenden Datennutzungsrechte“ für die öffentliche Hand müssten eingeschränkt werden und „ausschließlich für klar definierte Notsituationen wie etwa eine Pandemie oder eine Flutkatastrophe gelten“. Zudem sei die anvisierte Erleichterung des Anbieterwechsels im Cloud-Bereich mit „maximalen Wechselfristen“ zu starr geraten und werde den Anforderungen der Praxis nicht gerecht.

Ähnlich argumentiert auch eco, der Verband der Internetwirtschaft, der außerdem keine weitreichenden Zugriffsmöglichkeiten für Forschungseinrichtungen im fertigen Gesetz sehen möchte: „Hier gilt es unbedingt sicherzustellen, dass der Aufwand für Unternehmen in einem vertretbaren Rahmen bleibt. Eine Weitergabe von Daten an öffentliche Stellen oder Forschungseinrichtungen sollte nur bei klar definierten Notfällen oder im Rahmen freiwilliger Absprachen erfolgen“.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Blogs
Inhalt abgleichen