Flegel der Gert
gegen Alzheimer in der Politik – Gert Flegelskamp in seiern un-nachahmlichen Art
indymedia
Indymedia ist eine weltweite Plattform unabhängiger Medienorganisationen und hunderter JournalistInnen, die eigenverantwortlich nicht hierarchische, nicht kommerzielle Berichterstattung betreiben.
NachDenkSeiten
Die Nachdenkseiten – Veröffentlichungen von Albrecht Müller und Wolfgang Lieb – der Weg zu einer Gegenöffentlichkeit
US-Behörden wollen Fingerabdrücke und Gesichtsbilder in insgesamt 40 Staaten abfragen, die meisten davon in Europa. Mit einem Kniff setzt sich die EU-Kommission an die Spitze der Gespräche über das Vorhaben.
Insgesamt 40 Länder nehmen derzeit am „Visa Waiver Program“ (VWP) der US-Regierung teil. Washington garantiert damit, dass die Bürger:innen der betreffenden Staaten zu geschäftlichen oder touristischen Zwecken für maximal drei Monate ohne Visum einreisen dürfen. Die Regelung gilt gegenseitig, auch US-Staatsangehörige können die 40 Länder visafrei besuchen. Unter den Teilnehmenden des VWP befinden sich fast alle Schengen-Staaten.
Nun verlangt die US-Regierung, dass die am VWP teilnehmenden Staaten im Rahmen einer „Enhanced Border Security Partnership“ (EBSP) Zugang zu ihren polizeilichen Biometrie-Datenbanken gewähren. US-Grenz- und Polizeibehörden sollen dafür Fingerabdrücke und Gesichtsbilder in Informationssystemen in den Schengen-Staaten abfragen dürfen. Ein solcher Direktzugriff aus dem Ausland ist selbst unter befreundeten Geheimdiensten unüblich.
Es ist nicht die erste derartige Forderung an die VWP-Staaten. Im Jahr 2006 hat die US-Regierung bereits vorgeschrieben, dass nur Länder, die biometrische Reisepässe ausgeben, an dem Programm teilnehmen dürfen. 2008 führten US-Behörden das verpflichtende ESTA-System zur Voranmeldung des Grenzübertrittes ein. Ein Jahrzehnt später mussten alle VWP-Staaten „Preventing and Combating Serious Crime“ (PCSC) für ihre Kriminalpolizeien unterschreiben.
Kontroversen um geforderte „Partnerschaft“
In der EU sorgt die geforderte „Partnerschaft“ für die Herausgabe von Biometriedaten seit über einem Jahr für Kontroversen. Im Februar 2022 hat die US-Regierung einige VWP-Staaten erstmals über die Pläne informiert, darunter auch Deutschland. Demnach soll es sich um bilaterale Abkommen mit den einzelnen Regierungen handeln. Weigern sich diese, ihre Datenbanken zu öffnen, droht ihnen ab 2027 der Rauswurf aus dem US-Programm für visafreies Reisen.
Die EU-Visapolitik gehört seit dem 1997 geschlossenen Vertrag von Amsterdam zum sogenannten Schengen-Besitzstand. Entsprechende Abkommen mit anderen Regierungen müssen deshalb für alle Schengen-Staaten gleichermaßen gelten. Über die Umsetzung und Befolgung der Visafreiheit wacht die EU-Kommission, die deshalb auch Vertragsverletzungsverfahren einleiten kann. Eigentlich müsste Brüssel gegen die US-Regierung vorgehen: Denn Bürger:innen aus Bulgarien, Rumänien und Zypern wird die Teilnahme am visafreien Reisen in die USA weiterhin verwehrt, die drei Staaten werden also benachteiligt.
Anstatt die US-Regierung deshalb zu maßregeln und das daran gekoppelte EBSP auf Eis zu legen, treibt die Kommission dieses noch voran. Brüssel verfolge dazu einen „pragmatischen Ansatz“, indem die geforderte „Grenzpartnerschaft“ als „von Fragen im Zusammenhang mit der Visapolitik getrennt“ behandelt wird. Dies geht aus einem Dokument hervor, das die britische Bürgerrechtsorganisation Statewatch veröffentlicht hat.
Wackliges rechtliches Fundament
Seit September 2022 diskutieren Angehörige der Kommission „technische Details“ in einer dafür eingerichteten Arbeitsgruppe, darunter auch zu „rechtlichen und politischen Implikationen“. Die von der Kommission eigens für diese Gespräche konstruierte Abkopplung des EBSP vom VWP steht auf einem wackligen rechtlichen Fundament. So sieht es auch der Juristische Dienst des Rates, der hierzu von der Kommission Klarheit verlangt, um anschließend ein Rechtsgutachten dazu verfassen zu können.
Tatsächlich könnte die Kommission offiziell mit der US-Regierung über das EBSP verhandeln – allerdings müsste sie hierzu erst vom Rat aufgefordert werden. Laut den EU-Verträgen kann die Kommission einen Vorschlag für einen solchen Ratsbeschluss vorlegen. Für das EBSP gibt es ein solches Mandat aber nicht und ist derzeit auch nicht geplant.
Nun bereitet die Kommission eine Machbarkeitsstudie vor, „um die Durchführbarkeit eines Informationsaustauschs zwischen der EU und den USA im Hinblick auf ein verbessertes Grenzmanagement zu bewerten“. So steht es in der Antwort auf eine parlamentarische Anfrage der Europaabgeordneten Cornelia Ernst. Die Studie soll unter anderem untersuchen, welche Datenschutzregelungen für die US-Behörden gelten würden, darunter etwa die Datenschutz-Grundverordnung und die EU-Polizeirichtlinie.
Bundesregierung zweifelt
Die schwedische Ratspräsidentschaft hatte zu der geplanten Machbarkeitsstudie einen Fragenkatalog an die Mitgliedstaaten versendet, der von mindestens acht Regierungen beantwortet wurde. Auch die Antworten auf dieses Papier spiegeln einen Dissens wider, wie eine Informationsfreiheitsanfrage ergab. So sind einige Schengen-Staaten über die Koordinierung durch die Kommission erfreut. Andere stellen die in Brüssel konstruierte „Abkopplung“ des EBSP von der EU-US-Visapolitik infrage.
Zu den Zweifelnden gehört neben der französischen auch die deutsche Regierung. In der Stellungnahme zu den Fragen des schwedischen Ratsvorsitzes fordert die deutsche Delegation Auskunft zum „pragmatischen Ansatz“ der Kommission. Die Bundesregierung will wissen, ob die „Abkopplung“ der Gespräche zum EBSP vom VWP von der US-Regierung gewollt war oder ob die Kommission diese vorantreibt.
Fraglich ist auch, inwiefern die „Partnerschaft“ im EBSP auf vollständiger Gegenseitigkeit beruht, wie sie auch beim VWP üblich ist. Die Bundespolizei – die in Deutschland für die Grenzsicherung zuständig ist – dürfte demzufolge spätestens ab 2027 Zugang zu allen polizeilich gesammelten Fingerabdrücken und Gesichtsbildern von US-Bürger:innen erhalten.
Erweiterung des EU-US-Datentauschs droht
Als Zweck des Datenaustauschs im EBSP wird die „Grenzsicherheit“ angegeben. Jedoch könnten die geplanten bilateralen Abkommen mit den 40 VWP-Staaten weit darüber hinausgehen. Denn die zuständige Behörde auf US-Seite wäre das Heimatschutzministerium, das die Biometriedaten etwa für die Prüfung von Asylanträgen nutzen will.
Erstmals zeigt das bei Statewatch veröffentlichte Dokument, dass das EBSP im Rahmen der bestehenden PCSC-Abkommen umgesetzt werden könnte. Dann dürfte der Zugriff auf Fingerabdrücke und Gesichtsbilder von EU-Angehörigen auch erfolgen, um schwere Kriminalität zu bekämpfen und zu verhüten.
An einem Datentausch unter Kriminalpolizeien arbeitet auch Europol. Zusammen mit dem US-Heimatschutzministerium will die EU-Polizeiagentur die Weitergabe von Daten zu Einreiseverweigerungen in einem Pilotprojekt erproben. Dies soll Personen betreffen, die unter Terrorismusverdacht stehen.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
NORFOLK (Feb. 11, 2015) An FBI SWAT team provides integrated training assistance during Solid Curtain-Citadel Shield at Naval Station Norfolk. Solid Curtain-Citadel Shield is an annual force protection and anti-terrorism exercise designed to enhance the training and readiness of Navy security forces to respond to threats to installations and units. (U.S. Navy photo by Mass Communication Specialist 2nd Class Justan Williams/Released) 150211-N-NU632-190 Join the conversation: <a href=“http://www.navy.mil/viewGallery.asp“ rel=“nofollow“>www.navy.mil/viewGallery.asp</a> <a href=“http://www.facebook.com/USNavy“ rel=“nofollow“>www.facebook.com/USNavy</a> <a href=“https://www.twitter.com/USNavy“ rel=“nofollow“>www.twitter.com/USNavy</a> <a href=“http://navylive.dodlive.mil“ rel=“nofollow“>navylive.dodlive.mil</a> <a href=“http://pinterest.com“ rel=“nofollow“>pinterest.com</a> <a href=“https://plus.google.com“ rel=“nofollow“>plus.google.com</a>
Das Digitale-Dienste-Gesetz bringt für Anbieter von sozialen Netzwerken mehr Pflichten bei der Inhaltemoderation. Halten sie sich nicht an die Regeln, gibt es Konsequenzen. Doch nachdem EU-Digitalkommissar Thierry Breton von Verboten sprach, sind Grundrechtsorganisationen alarmiert.
Eher ungewöhnlich ist hingegen, dass in der EU Regierungschefs und hohe EU-Beamte laut über Netzsperren als Möglichkeit bei sozialen Unruhen nachdenken. Mehrere Grundrechtsorganisationen sind darüber beunruhigt und verlangen in einem offenen Brief Klarstellung.
Unruhen in Frankreich
Wie es dazu kam: Nach Unruhen in Frankreich redete Präsident Emmanuel Macron im Juli davon, notfalls Zugang zu Internetplattformen abzuschneiden. Nachdem ein Polizist einen Jugendlichen erschossen hatte, kam es zu Protesten, die teilweise gewaltsam verliefen. Macron warf Plattformen wie TikTok und Snapchat vor, dazu beizutragen.
Die Äußerungen des französischen Präsidenten zogen viel Kritik auf sich, die Regierung ruderte zurück. Aus dem französischen Digitalministerium hieß es, es sei zwar eine technische Möglichkeit, Plattformen zu blockieren. In Betracht gezogen habe man das aber nicht.
Ruhig um diesen umstrittenen Vorstoß ist es aber dennoch nicht geworden, auch weil EU-Digitalkommissar Thierry Breton aufsprang und in einem Interview erklärte, das neue Digitale-Dienste-Gesetz der EU würde Verbote im Gebiet der EU ermöglichen. Man könnte neben Geldstrafen auch den Betrieb von Plattformen wie Twitter und Facebook in der EU untersagen, wenn sie rechtswidrige Inhalte bei sozialen Unruhen nicht schnell genug entfernen.
Keine Lösung für vermeintliche Krisen
Zivilgesellschaftliche Organisationen sind über Bretons Äußerungen empört. In ihrem gemeinsamen Brief wenden sie sich an den Digitalkommissar. Sie erinnern daran, dass willkürliche Netzsperren und Internet-Shutdowns Grundrechte verletzen. Das „sollte auf keinen Fall als Lösung für ein Ereignis oder eine vermeintliche Krise in einem Mitgliedstaat oder in der gesamten EU angesehen werden“, schreibt unter anderem die Grundrechte-Dachorganisation EDRi gemeinsam mit 65 weiteren Gruppen.
Sie verlangen von Breton klarzustellen, dass das Digitale-Dienste-Gesetz keine solchen Sperren ermöglicht. Zwar verlangt das Gesetz von Plattformen, Inhalte zu prüfen, und sieht Sanktionen vor, wenn sie ihren Pflichten nicht nachkommen. Für besonders große Anbieter gelten nochmals strengere Regeln. Besondere Maßnahmen wie der „Krisenreaktionsmechanismus“ sind jedoch auf drei Monate begrenzt, erfordern eine Grundrechteabwägung und können auch nicht einfach so von Regierungen verhängt werden.
Halten sich Anbieter nicht an die Regeln im Digitale-Dienste-Gesetz, sind zunächst Bußgelder vorgesehen. Manche Details müssen die EU-Mitgliedstaaten noch auf nationaler Ebene regeln. EDRi und Co. bitten die EU-Kommission, sicherzustellen, dass sie dabei nicht übers Ziel hinausschießen.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Nach Ausbruch der Coronapandemie beschlossen die EU-Staaten, ein Videokonferenzsystem für Top-Secret-Treffen anzuschaffen. Doch auch ein Jahr nach dem geplanten Start lässt das System weiter auf sich warten. Zu den Gründen schweigt der Rat.
Es stecken bereits mehrere Jahre Arbeit und ein Millionenbudget drin – und dennoch scheitert der Rat der EU-Staaten bislang an dem Versuch, ein sicheres System für Videokonferenzen einzurichten. Das neue System sollte für Besprechungen dienen, deren Inhalte den Sicherheitsstufen „Secret“ und „Top Secret“ unterliegen. Doch das System ist weiterhin nicht einsatzfähig. Das geht aus einem Dokument hervor, das der Rat infolge einer Informationsfreiheitsanfrage von netzpolitik.org unter teilweisen Schwärzungen veröffentlichte.
Die Einrichtung eines sicheren Videokonferenzsystems beschlossen die EU-Staaten im September 2020, nur wenige Monate, nachdem die Coronapandemie ausgebrochen war. Ein vertraulicher EU-Bericht hatte damals „dringende Verbesserungen“ bei der Kommunikationsinfrastruktur gefordert.
In der ersten Pandemiewelle waren physische Treffen zumeist nicht möglich. Die EU-Diplomaten griffen daraufhin vielfach auf kommerzielle Anbieter wie Zoom oder WhatsApp zurück. Diese waren mitunter nur ungenügend abgesichert. Besonders peinlich war ein Vorfall im Winter 2020, als ein niederländischer Journalist uneingeladen in ein Treffen der EU-Verteidigungsminister platzte.
Für Besprechungen auf der höchsten Sicherheitsstufe reiche die vorhandene Infrastruktur des Rates nicht aus, hieß es in einem Schreiben des Rates an die Mitgliedstaaten vom Januar 2021. Zwar könne EU-Ratspräsident Charles Michel mit US-Präsident Joe Biden Videotelefonate auf dem Sicherheitslevel „Secret“ führen. Mit den eigenen Staats- und Regierungschefs in Europa sei dies jedoch nicht möglich.
Die Planung sah eine Einrichtungsphase von 18 Monaten vor; der Start sollte im Sommer 2022 sein, ist bislang aber nicht erfolgt. Ob es überhaupt noch dazu kommt, ist aktuell unklar. Auch eine von uns befragte EU-Beamtin, die sich nicht namentlich zitieren lassen wollte, kann keine Angaben dazu machen, wann das System einsatzfähig sein wird: „Der Zeitplan für das Projekt hängt von einer Reihe von Faktoren ab, die derzeit in den Vorbereitungsgremien des Rates erörtert werden.“
Offiziell will sich der Rat nicht zu dem System äußern. Unsere Fragen lässt die Presseabteilung unbeantwortet. Wir wollten unter anderem wissen, wie viel das Projekt bislang tatsächlich gekostet hat, welche Firmen beauftragt wurden und woran es bei der Umsetzung hakt.
Aufschluss darüber geben könnte die vollständige Version des eingangs erwähnten Dokuments. Darin heißt es unter dem Punkt „Planungsupdate und Budget“, das Sekretariat des Rates bemühe sich um „das beste Kosten-Nutzen-Verhältnis für die Mitgliedstaaten der EU“ – also die ordnungsgemäße Verwendung von Steuergeld. Warum das Projekt bislang nicht klappt und ob es dabei eventuell zu Planungsfehlern kam, geht aus der geschwärzten Fassung nicht hervor. Die ungeschwärzte Fassung hält der Rat unter Verschluss – und beruft sich dabei auf den Schutz der öffentlichen Sicherheit.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Große Tech-Konzerne wie Meta und Google haben gemeinsam einen offenen Standard für Messenger-Verschlüsselung erarbeitet. Er könnte künftig den Nachrichtenaustausch zwischen verschiedenen Apps ermöglichen. Wichtige Fragen sind aber noch ungeklärt.
Ein neuer Standard könnte revolutionäre Änderungen für Messenger-Apps bringen. Er ermöglicht verschlüsselte Gruppenchats mit tausenden Teilnehmenden und erlaubt mehr Sicherheit auch bei kompromittierten Mitgliedern. Mehr noch: Als offizieller Standard hat Messaging Layer Security (MLS) gute Chancen, eines Tages die Grundlage für den Austausch verschlüsselter Nachrichten zwischen Nutzer:innen unterschiedlicher Apps zu bilden.
Diese Woche hat die Standardisierungsorganisation IETF das Protokoll in seiner endgültigen Fassung veröffentlicht. Gut fünf Jahre lang arbeiteten Expert:innen aus Unternehmen wie Cisco und Meta mit Forscher:innen aus Oxford oder dem französischen INRIA-Institut daran. Beteiligt waren auch Mitarbeiter:innen von Mozilla, Google, Amazon und Apple.
Das neue Protokoll ist „wirklich eine Gruppenleistung der akademischen Gemeinschaft und der Industrie“, sagt Raphael Robert von der Berliner Softwarefirma Phoenix R&D, der ebenfalls daran mitgearbeitet hat. Dass Konzerne, die einander sonst erbitterte Konkurrenz liefern, zusammengearbeitet haben, spricht aus seiner Sicht für den neuen Standard.
Bauanleitung für Chats über Plattformgrenzen hinweg
Von der IETF abgesegnete Protokolle sind die Grundlage des Internets. Das TCP/IP-Protokoll sorgt etwa dafür, dass Computer unabhängig vom Hersteller oder Betriebssystem Datenpakete über Netzwerke miteinander austauschen können. Ähnlich ermöglicht das HTTP-Protokoll unter anderem das Laden von Websites oder IMAP den Zugriff auf E-Mails. Doch für moderne Messenger-Dienste wie WhatsApp, iMessage oder Signal fehlte bislang ein vergleichbarer offener Standard.
Für Ende-zu-Ende-verschlüsselte Messenger wie WhatsApp, iMessage oder Signal gilt das Prinzip: Nachrichten werden vor dem Versenden verschlüsselt und erst nach dem Empfang entschlüsselt. Das stellt sicher, dass selbst der Betreiber einer App keinen Zugriff auf den Nachrichteninhalt hat. Das neue MLS-Protokoll ist quasi eine Bauanleitung dafür, wie diese Verschlüsselung für viele Nutzer:innen und über Plattformgrenzen hinweg funktionieren kann.
Warum Konzerne wie Google und Meta, sonst erbitterte Konkurrenz, dafür zusammenarbeiten? Bislang nutzen Messenger wie WhatsApp und Skype für ihre Ende-zu-Ende-Verschlüsselung das Signal-Protokoll, dass von Gründern der Messenger-Apps Signal entwickelt wurde. Dieses gilt als „Stand der Dinge“ in der Branche, allerdings sei es kein offener Standard, sagt Raphael Robert.
Der Entwickler sieht klare technische Vorteile von MLS, welches das Signal-Protokoll ablösen soll. Denn im Gegensatz zum Signal-Protokoll bewältige MLS große Gruppenchats kryptografisch viel effizienter, damit spare das Protokoll Rechenleistung und Bandbreite. Was bisher technisch schwierig war, werde dadurch möglich, heißt es von den Entwickler:innen: Verschlüsselte Gruppenchats für tausende, vielleicht sogar zehntausende Teilnehmer:innen.
Bei WhatsApp sind Gruppen bislang auf 1.024 Teilnehmende beschränkt, bei Telegram sind Gruppenchats nicht Ende-zu-Ende-verschlüssselt. Mit dem neuen Protokoll hätten die Konzerne innerhalb der IETF etwas geschaffen, was vermutlich „in der Reife keine Firma alleine hätte erarbeiten können“, sagt Raphael Robert.
Wie die Firmen das MLS-Protokoll nun in ihre eigenen Produkte einbauen, ist noch offen. Vor allem Meta lässt sich bislang nicht in die Karten schauen. Einzelne Anbieter haben allerdings bereits gehandelt, Cisco hat etwa eine Entwurfsversion von MLS bereits in seine Meetingsoftware Webex integriert. Auch Google, das in der Vergangenheit immer wieder mit eigenen Messengerprojekten gescheitert ist, könnte mit MLS einen neuen Anlauf unternehmen.
Puzzlestück für die Messenger-Öffnung
Das MLS-Protokoll ist unterdessen ein wichtiges Puzzlestück für Bestrebungen der Europäischen Union, große Messengeranbieter zur Öffnung ihres Dienste zu zwingen. Das hat die EU im Digitale-Märkte-Gesetz festgeschrieben. Wer einen der großen Messenger nutzt, soll künftig auch Nachrichten von einem anderen Messenger empfangen können.
Im Visier der EU ist dabei insbesondere WhatsApp: Die App des Meta-Konzerns ist weltweit auf rund zwei Milliarden Geräten installiert – viele Menschen kommen im Alltag bislang nicht an ihr vorbei. Indem die EU den freien Nachrichtenaustausch zwischen verschiedenen Apps erzwingt, will sie den Wettbewerb stimulieren und kleineren Anbietern helfen.
Einige dieser Anbieter wie Signal und Threema warnen allerdings, der Nachrichtenaustausch über Plattformgrenzen sei ein Sicherheitsrisiko, ein Konzern wie Meta könnte dadurch außerdem Zugang zu noch mehr Nutzer:innendaten erhalten. Die technische Methode, wie die Interoperabilität zwischen Messengern umgesetzt wird, hat womöglich große Auswirkungen auf Datenschutz und IT-Sicherheit.
Während etwa Signal seinen Nutzer:innen verspricht, möglichst wenige Daten zu sammeln und diese sobald als möglich zu löschen, sammelt WhatsApp die Metadaten seiner Nutzer:innen. Das bietet ein mögliches Einfallstor für Überwachung durch US-Geheimdienste. Auch gibt es seit längerem Befürchtungen, dass Meta die Metadaten von WhatsApp-Nutzer:innen für Werbezwecke nutzen könnte.
Das MLS-Protokoll lässt es denjenigen, die es in ihre Messenger implementieren, grundsätzlich offen, ob und wie viele Metadaten sie speichern wollen, erklärt Raphael Robert. Eine weitere IETF-Arbeitsgruppe, an der Robert ebenfalls mitarbeitet, soll nun offene Fragen zu Interoperabilität wie den Umgang mit Metadaten klären. Ziel sei es, einen Standard mit den „stärksten nutzbaren Sicherheits- und Privatsphäreeigenschaften zu erreichen“. Ob das gelingt und dann auch bei WhatsApp und anderen großen Apps zum Einsatz kommt, ist allerdings noch offen.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Künstliche Intelligenz kann diskriminieren, und Staaten sollten Menschen davor schützen. Das steht in einer neuen Resolution des UN-Menschenrechtsrats. Der Beschluss ist vage, sendet aber ein Signal an viele Regierungen, die gerade neue KI-Gesetze schreiben.
Wenn sogenannte Künstliche Intelligenz Fehler macht, können Unschuldige im Knast landen. Im Jahr 2020 wurde etwa der US-Amerikaner Robert Williams verhaftet, wie die New York Times (NYT) berichtete. Die Polizei war auf der Suche nach einem Ladendieb, und ein KI-System für Gesichtserkennung sagte: Williams sieht aus wie der Verdächtige. „Nein, das bin ich nicht“, sagte Williams, als die Polizei ihm das Foto des Gesuchten zeigte. „Denkt ihr, alle Schwarzen Männer sehen gleich aus?“
Das Beispiel zeigt die typischen Probleme von KI-Systemen: Sie können Leute benachteiligen, die nicht ausreichend in den Trainingsdaten repräsentiert waren, zum Beispiel Schwarze Personen. Und wenn Menschen die Entscheidungen eines KI-Systems unkritisch übernehmen, kann es schnell fatal werden.
Von solchen und anderen Fällen handelt eine neue Resolution des UN-Menschenrechtsrats. In dem Beschluss steht auf Englisch: Künstliche Intelligenz kann diskriminieren, „unter anderem aufgrund von race, Geschlecht, Alter, Behinderung, Nationalität, Religion und Sprache“. Staaten sollen Menschen vor Schäden und Diskriminierung durch KI-Systeme schützen. Sie sollen die Folgen von KI abschätzen und Risiken mindern. Dass solche Dinge wichtig sind, darauf haben sich die Mitgliedstaaten im Menschenrechtsrat am 14. Juli geeinigt.
Der finale Text der Resolution ist noch nicht online, deshalb verlinken wir hier eine Fassung vom 12. Juli. Demnach sollen Trainingsdaten für KI-Systeme „genau, relevant und repräsentativ“ sein. Sie sollen auf Verzerrungen („bias“) geprüft werden.
Wenn der Mensch die Maschine falsch einsetzt
Diskriminierung kann nicht nur passieren, wenn Menschen ein KI-System entwickeln, sondern auch, wenn sie es einsetzen dürfen. Auch davor warnt der Menschenrechtsrat. Anschaulich macht das wieder ein Vergleich mit dem Fall von Robert Williams. Es waren letztlich Menschen, die das Ergebnis des KI-Systems nicht ausreichend hinterfragt haben. Die Polizist*innen haben Williams laut NYT erst einmal festgenommen, fotografiert, über Nacht eingesperrt und seine Fingerabdrücke genommen.
Besonders gefährdet sind laut UN-Menschenrechtsrat auch Personen, die „nationalen“, „indigenen“ oder „sprachlichen“ Minderheiten angehören. Der Rat schreibt von Menschen in „ländlichen Gebieten“, von „wirtschaftlich benachteiligten Personen“ und von Menschen in schwierigen Lebenslagen. Sie alle seien einem größeren Risiko ausgesetzt, dass ihre Rechte übermäßig durch KI-Systeme verletzt werden.
Als Gegenmaßnahme sollen Staaten fördern, dass KI-Systeme transparent sind. Das heißt, KI-basierte Entscheidungen sollen erklärbar sein. Außerdem sollen Staaten den Einsatz von KI-Systemen beaufsichtigen.
Redefreiheit in Gefahr
KI ist ein grober Sammelbegriff, Beispiele für konkrete Systeme nennt der UN-Beschluss kaum. Immerhin schreibt der Menschenrechtsrat ausdrücklich von KI-Systemen, die Desinformation und Hassrede eindämmen sollen, etwa in der Content Moderation.
Große Online-Dienste wie Instagram, Facebook, TikTok und YouTube setzen solche Software ein. Sie soll automatisch verdächtige Inhalte erkennen. Anders wäre die Flut an Inhalten kaum zu bewältigen. An dieser Praxis dürfte sich künftig kaum etwas ändern, im Gegenteil. Auch die deutsche Medienaufsicht fahndet inzwischen mit Software nach beispielsweise Volksverhetzung. Laut UN-Beschluss sollten Staaten in dem Bereich Forschung fördern und sich über transparente Lösungswege austauschen. Bei der Moderation von Inhalten sollten Menschenrechte wie Meinungs-, Rede- und Informationsfreiheit geschützt werden.
Die Probleme von KI-Systemen beschreibt der Beschluss zwar ausführlich. Aber konkrete Pflichten für Staaten stehen in dem Beschluss nicht. Die Mitgliedstaaten „heben“ lediglich die Wichtigkeit der Themen „hervor“. Hervorgehoben wird der „Bedarf“, den Themen „besondere Aufmerksamkeit zu schenken“. Das ist der Sound von gemeinsamen Beschlüssen auf internationaler Bühne: weich und unverbindlich.
Immerhin bringt der Beschluss die grundrechtlichen Probleme von KI-Systemen weltweit auf die Agenda. Im UN-Menschenrechtsrat sind 47 Staaten vertreten, darunter autoritäre Regime. Wie die französische Nachrichtenagentur AFP berichtet, haben Österreich, Brasilien, Dänemark, Marokko, Singapur und Südkorea die Resolution vorgeschlagen. Trotz ihrer Zustimmung im Rat hätten China und Indien gesagt, sie seien mit dem Ergebnis nicht ganz einverstanden.
Die EU verhandelt ihr KI-Gesetz genau jetzt
Aktuell verhandeln das Europäische Parlament, der Ministerrat und die EU-Kommission ein KI-Gesetz für die EU. Es soll sogenannte Künstliche Intelligenz umfassend regulieren. Das Gesetz ist das erste seiner Art, es könnte international Maßstäbe setzen.
Wer könnte sich hier wohl angesprochen fühlen – nschedem sie über sieben Brüclen gehen musste ?
Während die EU im Trilog hinter verschlossenen Türen am finalen Text arbeitet, drängen Bürgerrechtler*innen auf den Schutz von Grundrechten. Über die größten Probleme im KI-Gesetz haben wir hier berichtet. Unter anderem wollen Staaten selbst gefährliche KI-Systeme für die „nationale Sicherheit“ einsetzen. Solche Ausnahmen können Löcher in das eigentlich ambitionierte Gesetz reißen.
Vor allem der Hype um den Chatbot ChatGPT hat KI in den Fokus einer breiteren Öffentlichkeit und vieler Regierungen gerückt. Auch die USA planen neue Regulierungen. Am 17. Juli berichtete die Agentur Reuters, dass die EU in Asien für Regeln nach dem Vorbild des KI-Gesetzes lobbyiert. Demnach soll es Gespräche mit Vertreter*innen aus Indien, Japan, Südkorea, Singapur und den Philippinen gegeben haben. Die Reaktionen seien aber verhalten gewesen; die Regierungen würden demnach lieber erst einmal abwarten.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Berlins CDU-Bürgermeister Kai Wegner führt im Hauruck-Verfahren eine Ausweispflicht für Freibäder ein. Angeblich soll das Gewalt und Randale eindämmen. Zunächst steckt dahinter aber nur Symbolpolitik – und Berlins Datenschutzbehörde hinterfragt den Sinn.
Am gestrigen Donnerstag hatte Berlins Regierende Bürgermeister, Kai Wegner (CDU), Ausweiskontrollen in Schwimmbädern des Landes angekündigt. Jetzt verkündigen die Bäder-Betriebe nur einen Tag später per Pressemitteilung, dass die Ausweiskontrollen sofort losgehen:
Zugang zu den Freibädern ist ab Sonnabend, den 15. Juli, nur noch gegen Vorlage eines Lichtbildausweises möglich. Das kann ein Personalausweis ebenso sein wie ein Führerschein oder ein Schülerausweis. Das Dokument muss am Eingang vorgezeigt werden.
Hintergrund der Maßnahmen sind unter anderem Schlägereien und Straftaten in Berliner Bädern, die für eine bundesweite Debatte gesorgt hatten. Die neue Ausweiskontrolle kommt so schnell, dass offenbar noch niemand überprüft hat, wie das mit dem Datenschutz vereinbar ist. Wir haben hierzu bei der Berliner Beauftragten für Datenschutz und Informationsfreiheit nachgefragt. Der Aufsichtsbehörde sei bislang nichts zur Ausgestaltung der Ausweispflicht bekannt, kündigt jedoch eine Prüfung an.
Unter anderem werde zu prüfen sein, was die Ausweispflicht bezwecken soll: „Soll diese der Erleichterung der Verfolgung von Straftaten dienen oder auch eine präventive Wirkung haben?“, schreibt eine Sprecherin auf Anfrage von netzpolitik.org. Überprüfen will die Datenschutzbehörde auch, ob die Maßnahme überhaupt geeignet ist, die gewünschten Ziele zu erfüllen und Freibäder sicherer zu machen.
Symbolisch auf den Ausweis schauen
Wie die Ausweispflicht eigentlich umgesetzt wird, weiß man bei den Berliner Bäder-Betrieben offenbar selbst nicht genau. Noch am Freitagmorgen schrieben die Bäder-Betriebe auf unsere Fragen zur Datenverarbeitung und Kontrollabläufen:
Wir stecken mit allen diesen Entscheidungen noch sehr am Anfang. Bitte haben Sie Verständnis, dass wir Ihnen zum jetzigen Zeitpunkt nicht auf Ihre Fragen antworten können.
Das ist ein Hinweis darauf, dass die ab sofort geltende Ausweispflicht im Freibad zunächst symbolisch ist, eine Art Sicherheitstheater. Anscheinend werden einfach Ausweise betrachtet – ohne genau zu wissen, was man damit tun soll.
Die Berliner Datenschutzbeauftragte will das genauer wissen, wie aus der Antwort der Behörde hervorgeht. Es stelle sich die Frage, ob die erhobenen Daten an Dritte übermittelt werden, insbesondere an Strafverfolgungsbehörden. Die Datenschützerin verweist hier auf das Personalausweisgesetz. Dort stehen „enge gesetzliche Vorgaben zur Verarbeitung von Ausweisdaten“ durch öffentliche und nicht-öffentliche Stellen.
Zuerst mildere Mittel einsetzen
Maßnahmen für mehr Sicherheit in Freibädern müssten laut Datenschutzbehörde „gesetzlich zulässig und verhältnismäßig“ sein. Zugleich müssten sie geeignet sein, die angestrebte Sicherheit in den Bädern wirklich zu erreichen. Die Ausweiskontrolle greife in der das Grundrecht auf informationelle Selbstbestimmung ein. Man müsse mildere Mittel prüfen, etwa die „Verstärkung des Sicherheitspersonals, der Einsatz von Deeskalationsteams, die Begrenzung der Anzahl von Badegästen, die sicherheitsfördernde Ausgestaltung des Freibad-Areals“.
Zumindest einen Teil dieser Maßnahmen haben die Bäder-Betriebe schon in ihrer Pressemitteilung angekündigt: mehr Sicherheitspersonal und Einlass-Stopps, wenn das Bad zu voll wird. Zusätzlich soll es noch mobile Wachen der Polizei vor dem Freibad geben und eine Videoüberwachung am Eingang – auch das dürfte die Datenschutzbehörde interessieren. Am Problem von vor allem durch Männer ausgeübte Gewalt rütteln Kameras und Ausweiskontrolle derweil wenig.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Wenn die EU das Netz reguliert, dann ist der konservative Parlamentarier Axel Voss nicht weit. Doch sein Abgeordnetengehalt bessert der CDU-Mann mit Nebenjobs auf, die Interessenskonflikte vermuten lassen. Transparenzorganisationen fordern ein Ende dieser Praxis.
Wer Axel Voss trifft, lernt einen freundlichen Herren kennen. Der 60-jährige Jurist aus dem Rheinland ist einer jener unaufgeregten EU-Abgeordneten, die nicht in die Tagesschau drängen, sondern geduldig die Facharbeit in den Ausschüssen des EU-Parlaments erledigen. Voss ist, trotz jahrzehntelanger politischer Tätigkeit, fast nur Eingeweihten in Brüssel ein Begriff.
Lobbyismus-Kritiker:innen ist Voss allerdings schon lange ein Dorn im Auge: Denn in Brüssel wirkt der CDU-Abgeordnete wie ein digitalpolitischer Konzernlautsprecher. Im vergangenen Jahrzehnt hat Voss an mehreren Schlüsselgesetzen der EU mitgeschrieben – und dabei vehement die Positionen von Lobbyisten und Branchenverbänden vertreten. In Deutschland kaum bekannt, scheint Voss einer der wichtigsten Gehilfen der Digitalbranche im EU-Parlament zu sein.
Umso drastischer erscheint in diesem Licht ein offener Brief von Transparenzorganisationen, die Voss einen Interessenskonflikt vorwerfen. Er arbeite nebenher für Firmen mit geschäftlichem Interesse an genau jenen Themen, zu denen er als Abgeordneter Gesetze schreibe – beispielsweise erhält Voss ein Zubrot von der Deutschen Telekom. Welchen Einfluss haben Voss‘ Nebengeschäfte auf seine politische Tätigkeit? Der Brief, der von Transparency International, LobbyControl, Corporate Europe Observatory und Friends of the Earth Europe unterzeichnet wurde, ging vorige Woche an EU-Parlamentspräsidentin Roberta Metsola, eine Fraktionskollegin von Voss.
„Voss hat eine Schlüsselrolle in zahlreichen digitalen Gesetzgebungsprozessen gespielt, von ePrivacy und der Urheberrechtsrichtlinie bis hin zum Gesetz über Künstliche Intelligenz, die alle stark von Unternehmensinteressen beeinflusst wurden“, sagt Bram Vranken vom Corporate Europe Observatory. Die Nebenjobs von Voss würden Fragen darüber aufwerfen, wessen Interessen er vertritt, so Vranken: „Die seiner Wähler oder die seiner Arbeitgeber?“
DSGVO als „völliger Quatsch“
Einen seiner ersten großen netzpolitischen Auftritte machte Voss als Chefverhandler für die Fraktion der Europäischen Volkspartei (EVP) um die Datenschutzgrundverordnung (DSGVO), wo er unermüdlich für mehr Ausnahmen im Gesetz kämpfte. Letztlich war der wirtschaftsfreundliche Christdemokrat dann aber so unzufrieden, dass er die DSGVO in Interviews als „völligen Quatsch“ kritisierte. Das Gesetz gerate zu einem „Behinderungsinstrument für die digitale Wirtschaft in Europa“.
Seinen größten Erfolg fuhr Voss womöglich mit der Urheberrechtsrichtlinie ein. Das umstrittene Gesetz verpflichtet Internetplattformen dazu, von Nutzer:innen hochgeladene Inhalte auf Urheberrechtsverletzungen zu scannen. Bekannt wurde das als sogenannte Uploadfilter. Suchmaschinen sollen außerdem Lizenzgebühren für Teasertexte zu redaktionellen Inhalten zahlen, das Prinzip ist als Leistungsschutzrecht bekannt.
Das Gesetz wurde von Google und anderen Tech-Konzernen bekämpft, fand allerdings große Unterstützung der Film- und Musikbranche sowie von Presseverlagen wie Axel Springer. Als Chefverhandler der Europaparlaments boxte Voss die Reform trotz heftiger Kritik aus der Zivilgesellschaft und großen Protesten durch.
Dabei glänzte der CDU-Abgeordnete nicht immer mit Detailkenntnis seines Vorschlags. Im Gespräch mit netzpolitik.org zeigte Voss sich damals überrascht, dass Nutzer:innen bei Wikipedia Bilder, Tonaufnahmen oder Videodateien hochladen können und die freie Enzyklopädie damit ebenfalls unter die Filterpflicht seiner Richtlinie fällt. Nach der finalen Abstimmung offenbarte Voss Unkenntnis darüber, dass durch sein Gesetz private Fotos und Videos von Sportveranstaltungen zur Urheberrechtsverletzung werden könnten. Von der Verlagslobby wurde Voss‘ Arbeit trotzdem ausdrücklich gelobt.
Seit der Europawahl 2019 widmet sich Voss hauptsächlich einem neuen Thema, der Regulierung Künstlicher Intelligenz. In der Debatte um eine KI-Verordnung war Voss einer der Wortführer seiner Fraktion, erneut vertrat er sie im federführenden Ausschuss und mischte zudem in einem beratenden Ausschuss mit. Unter anderem setzte er sich dafür ein, dass Ermittlungsbehörden KI-Überwachung einsetzen können. Zugleich drängte er vehement auf einen „Raum für Innovation“ für die Wirtschaft, den Entwurf des Parlaments kritisierte er wegen seiner Maßnahmen zur Minimierung von Risiken durch KI-Systeme als unausgewogen.
Während er im Parlament zur KI-Verordnung verhandelte, geriet Voss wegen seiner Tätigkeit im Verband SME Connect in die Kritik. Der Verband gibt vor, kleine und mittelgroße Unternehmen in Brüssel zu vertreten. Kritiker:innen werfen ihm aber vor, sich durch große Technologiekonzerne wie Meta und Amazon unterstützen zu lassen. Gegenüber Corporate Europe Observatory wendet Voss ein, dass SME Connect, wo er im Vorstand vertreten ist, nicht direkt Lobby-Arbeit leiste, sondern lediglich „Diskussion ermögliche“. Gleichwohl findet sich die Gruppierung im EU-Transparenzregister. Dort müssen sich Interessenvertreter:innen registrieren, deren „Tätigkeiten darauf abzielen, Einfluss auf die EU-Politik und den Beschlussfassungsprozess zu nehmen.“
Nebentätigkeiten für Telekom und Sozietät werfen Fragen auf
Der offene Brief der Transparenzorganisationen wirft unterdessen Fragen zu Voss‘ Verbindungen mit der Digitalbranche auf. Laut seiner Erklärung der finanziellen Interessen verdient er zusätzlich zu seinem Abgeordnetengehalt monatlich zwischen 1.001 und 5.000 Euro brutto mit Tätigkeiten für die Sozietät Bietmann Rechtsanwälte Steuerberater. Deren Website nennt als Tätigkeitsschwerpunkte von Voss das Datenschutzrecht sowie Urheber- und Medienrecht.
Für wen Voss genau arbeitet, bleibt unklar. Für die NGOs ist aber insbesondere ein Gespräch des Abgeordneten zu einer geplanten EU-Richtlinie mit der Lobbyfirma B-Connect fragwürdig. Denn B-Connect steht eng mit der Sozietät Bietmann in Verbindung, für die Voss tätig ist. Haben sich hier private Interessen und politische Tätigkeiten Voss‘ vermischt? Dafür gebe es zwar keine Beweise, das Treffen sorge aber für Klärungsbedarf.
Auf Anfrage betont Axel Voss, bei seiner Tätigkeit für Bietmann Rechtsanwälte gehe es um eine rein rechtliche Beratungstätigkeit. „Ich habe für keinen Mandanten gearbeitet, dessen Geschäftsinteressen von meiner politischen Arbeit berührt werden“, so der Abgeordnete.
Eine direkte Verbindung zu B-Connect streitet Voss ab. Bei dem Treffen beziehungsweise Telefonat, das er am 13. September 2021 geführt hatte, sei es um eine „rein rechtliche Interpretationsfrage zum deutschen Lieferkettengesetz“ gegangen. Knapp ein halbes Jahr später stellte die EU-Kommission ihren Gesetzesentwurf über die Sorgfaltspflichten von Unternehmen in ihren Lieferketten vor. Die EVP-Fraktion vertritt in den Trilog-Verhandlungen als sogenannter Schattenberichterstatter: Axel Voss.
Verschwundene Treffen
Ebenso hinterfragt der offene Brief die Tätigkeit von Voss im Datenschutzbeirat der Deutschen Telekom. Dafür erhält er zwischen 501 und 1.000 Euro monatlich. Zugleich arbeite er im Parlament an Themen, die die Telekom direkt betreffen würden. Dazu habe er sich nicht nur mit Vertreter:innen der Telekom ausgetauscht, sondern auch mit Lobby-Gruppen wie GSMA, ETNO und Bitkom, denen der deutsche Telekom-Riese angehört. Voss habe sogar Telekom-Lobbyisten getroffen, die Meetings aber wieder von seiner Abgeordnetenseite nehmen lassen, berichtet der offene Brief. Dadurch riskiere Voss einen Interessenskonflikt.
Bei den aus dem Register verschwundenen Einträgen handle es sich laut Voss um Fehler, denn ursprünglich habe er mehr angegeben, als vom Transparenzregister gefordert wird. „Als Abgeordneter muss ich Treffen veröffentlichen, wenn sie Dossiers betreffen, bei denen ich Schattenberichterstatter oder Berichterstatter bin“, schreibt Voss an netzpolitik.org. „Nun hatte ich zunächst auch andere Treffen veröffentlicht, die keinerlei Verbindung zu einer Berichterstattung hatten, diese wurden wieder rückgängig gemacht.“ Anders gesagt: Die Treffen fanden statt, gelangten aber nur irrtümlich an die Öffentlichkeit.
Den Datenschutzbeirat der Telekom beschreibt Voss als ein Expertengremium, das den Fokus auf die rechtliche Interpretation der Datenschutzgrundverordnung gelegt habe – „die seit meiner Tätigkeit im Beirat abgeschlossen ist“, so Voss. Indes wird der Abgeordnete weiterhin als Mitglied des Beirats geführt, zu den Themenschwerpunkten des vergangenen Jahres zählten unter anderem die ePrivacy-Verordnung, der Data Act oder das KI-Gesetz.
Diese Themen sind auch dem Lobby-Büro der Deutschen Telekom in Brüssel wichtig. Über ein halbes dutzend Angestellte versuchen dort, EU-Gesetze zu beeinflussen, kosten lässt sich das der Konzern geschätzt über zwei Millionen Euro im Jahr – nicht eingerechnet sind die Lobby-Kosten von Verbänden, denen die Telekom angehört. „Voss riskiert einen sehr problematischen Interessenkonflikt, da er Mitglied im Datenschutzbeirat der Deutschen Telekom ist und gleichzeitig Änderungen am KI-Gesetz vorschlägt, die der gleichen Firma zugute kommen könnten“, sagt Bram Vranken vom Corporate Europe Observatory.
Untersuchung läuft, Reformen sollen folgen
All diese Nebentätigkeiten und unklaren Verstrickungen müssen untersucht werden, fordern die Transparenz-NGOs von Parlamentspräsidentin Metsola. Zwar würden sie dem Abgeordneten nicht unterstellen, mit seiner parlamentarischen Arbeit seine Nebenarbeitgeber zu begünstigen. Dafür fehlten die Beweise. Dies sei aber nicht relevant: „Die Situation, gleichzeitig ein EU-Abgeordneter zu sein, der in den Bereichen Lieferketten, KI, Data Act und verwandten Dossiers aktiv ist und diese spezifischen Nebenjobs innehat, ist der relevante Sachverhalt“, schreiben die NGOs. Insgesamt stehe Voss im Verdacht, den Verhaltenskodex für EU-Parlamentarier:innen verletzt zu haben. Dieser gibt sich gegenüber netzpolitik.org gelassen: „Ich stelle mich auch gerne dem Prüfverfahren des Parlaments“, so Voss.
Allein die weltweit führende Rolle, die die EU bei der Netzregulierung inzwischen einnimmt, macht sie zum begehrten Lobbyziel der Digitalbranche. Einen dreistelligen Millionenbetrag investiert sie jährlich, um Einfluss zu nehmen, dabei übertrumpft sie mittlerweile die Ausgaben von Ölfirmen, der Finanzbranche oder der Pharmaindustrie.
Ein Sprecher von Parlamentspräsidentin Metsola bestätigt, den offenen Brief erhalten zu haben, nun werde der Fall untersucht. Zugleich arbeite die EU-Institution daran, die Regeln zu Interessenskonflikten zu präzisieren und zu verschärfen. Das soll die Integrität des EU-Parlaments verbessern, so der Sprecher. Zuletzt litt das Ansehen des Parlaments aufgrund von Korruptionsskandalen, ein nachhaltiges Beben löste etwa jüngst die sogenannte Katargate-Affäre aus.
Wie weit die Transparenzreformen reichen werden, bleibt vorerst offen. Die Transparenz-NGOs wollen jedenfalls so weit wie möglich gehen: In ihrem Brief fordern sie Metsola auf, das bestehende Verbot für Abgeordnete des EU-Parlaments, gleichzeitig Nebenjobs in der Lobbyarbeit auszuüben, vollständig umzusetzen. „Angesichts von Katargate steht das Europäische Parlament wie nie zuvor unter Druck, dafür zu sorgen, dass seine Ethikregeln so robust wie möglich sind und gut durchgesetzt werden.“
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Manchmal hat es auch einen Vorteil, dass die Verwaltung und das Gesundheitswesen in Deutschland so langsam sind, meint unsere Kolumnistin. Etwa, weil sie dann auch mal die Hypes verschlafen, auf die sonst jeder Dödel schon aufgesprungen ist. Ist das ausnahmsweise mal nicht der Fall, sind die Folgen nämlich verheerend.
Wir sollten mal über Hypes sprechen. Oder die Lücken, englisch Gap, die Hypes in ihrer Wirkung und Wahrnehmung in der digitalen Verwaltung oder dem Gesundheitswesen reißen können. Eigentlich generell bei allem, was einen Funken von Bedeutung im Sinne einer Infrastruktur haben kann.
Ganz im Sinne des Themas dieser Kolumne, der Degitalisierung, geht es dabei nicht um eine befürchtete Hypevergiftung, bei der dann am Ende doch wieder alles gut wird. Nein, hier wird erst mal nichts von alleine gut. Und besser wird es erst durch die Zuwendung auf die Probleme, die mit Hype-Technologien allzu gern überdeckt werden sollen. Aber der Reihe nach.
Der Hype-Zyklus
Bei der Betrachtung von Hypes ist es hilfreich, den sogenannten Hype Zyklus zu verstehen. Er wurde von Jackie Fenn geprägt, einer Analystin bei der Marktforschungsfirma Gartner, und beschreibt den Zusammenhang von zeitlicher Entwicklung und der Aufmerksamkeit für eine neue Technologie. Üblicherweise folgt die Aufmerksamkeit für neue Technologien dabei einer bestimmten Kurve: Nach einem extrem schnellen Anstieg der Aufmerksamkeit zu einem „Gipfel der überzogenen Erwartungen“ durchlaufen Technologien das „Tal der Enttäuschungen“ und kommen über einem „Pfad der Erleuchtung“ zu einem „Plateau der Produktivität“.
Anders gesagt: Auf eine Überschätzung von Technologien folgt nach etwas Frustration eine realistische Wahrnehmung und Einschätzung einer neuen Technologie. Damit in Beziehung steht auch der entsprechend sinnhafte Einsatz eben dieser neuen Technologie. Anfangs wird eine neue Technologie als Lösung aller Probleme gesehen. Nach Enttäuschungen bleibt am Ende zumeist nur ein Bruchteil an sinnvollen Anwendungen dieser neuen Technologie übrig.
Für Gesundheitswesen und Verwaltung gilt dieser Hype-Zyklus auch, nur sehen wir in diesen beiden Feldern meist eine stärkere zeitliche Verzögerung. Das passiert sowohl in der Wahrnehmung neuer Hype-Technologien als auch in der Anwendung. Ein Phänomen, das ich als Hype-Gap bezeichnen möchte und das mehrfach negativ wirkt.
Blockchain-KI-Hypermega-Tech
Um das Wirken von Hype-Gaps in Verwaltung und Gesundheitswesen genauer zu erklären, müssen wir uns leider zwei Technologien zuwenden, die wir entweder (hoffentlich) bereits verdrängt oder (hoffentlich) bereits richtig eingeschätzt haben in ihrer Sinnhaftigkeit oder Unsinnigkeit. Ich spreche von Blockchains und sogenannter Künstlicher Intelligenz.
Es gibt in der öffentlichen Verwaltung nicht besonders viele Blockchain-Projekte. Eine Ausnahme: die Blockchain des Bundesamts für Migration und Flüchtlinge, kurz BAMF. Die „Föderale Blockchain Infrastruktur Asyl“ (FLORA) ist eigentlich als „Blockchain-Lösung für die behördenübergreifende Zusammenarbeit im Asylprozess“ gedacht und verspricht eine „Verbesserung der Arbeitsabläufe“ und „eine Reduktion der Anfälligkeit für Prozessfehler“.
Das klingt jetzt erst mal toll. Lässt aber außer Acht, dass diese vermeintlichen Vorteile gar nicht durch den Einsatz von Blockchains allein entstehen oder nur wegen Blockchain allein möglich wären. Schlimmer noch: Durch die Unveränderlichkeit von verketteten Daten-Strukturen wie sie in Blockchains gehalten werden, ergeben sich durch den Einsatz eben jener Technologie Nachteile im praktischen Einsatz. Wie sieht es bei dieser für Geflüchtete relevanten Technologie aus mit einem Recht auf Vergessen? Recht auf Korrektur? In Blockchains ist beides nur mit Umwegen und davon losgelösten Techniken möglich.
Man könnte jetzt das verpönte Wort Datenschutz anbringen, würde dann aber eine Kaskade von Gegenrede à la „Datenschutz verhindert Innovationen“ auslösen. Und am Ende gäbe es zwei Seiten, die isoliert voneinander auf ihrem Standpunkt verharren. Daher zur Nichtsinnhaftigkeit von Blockchains für alles, was mit den Grundrechten von Menschen zu tun hat, nur kurz folgender Aspekt:
Auch bei den Daten von Geflüchteten geht es um die Daten von Menschen. Es mag verlockend klingen, für die Daten von Geflüchteten keine direkte Verantwortung übernehmen zu müssen. Weil die Daten in der Blockchain, also einer dezentralen Datenkette liegen, die rein physikalisch quasi überall und nirgendwo liegt. Am Ende geht es aber auch technologisch darum, Verantwortung für Menschen, deren Grundrechte und daraus abgeleitet Daten zu übernehmen. Eine Blockchain aber ist das genaue Gegenteil von digitaler Verantwortungsübernahme – Hype und damit verbundene vermeintliche Innovation hin oder her.
„Wir lösen das mit KI“
Auch im Kontext sogenannter Künstlicher Intelligenz können Hypes negativ wirken. Beispiel Gesundheitswesen. Hier mag der Eindruck entstehen, dass es durch den Einsatz von KI möglich wäre, analoge Arztbriefe oder Befunde „einfach mit KI“ zu digitalisieren. Dass eine elektronische Patientenakte mit PDFs von eingescannten Papieren und anderen nicht strukturierten Daten kein Problem mehr sei. Dass man einfach mit einer solchen Patientenakte starten könne, den Rest mache ja eine KI.
Nur ist hier abseits vom KI-Hype eines klar festzuhalten: Eine KI, die Texte von Ärzt*innen interpretiert und daraus Befunde mit einer gewissen Fehlerrate ableitet, ist die schlechtere Lösung im Vergleich zu einem klar definierten und von einem Menschen kodierten digitalen Befund. Vermeintliche Innovation und Hype hin oder her.
Der Hype-Gap-Zyklus
In diesen beiden Beispielen zeigt sich auch das Wirken des Hype-Gap. Digitales Gesundheitswesen und digitale Verwaltung in Deutschland möchten ihren technologischen Rückstand aufholen und jetzt am besten mit angesagten und gehypten Technologien auch noch innovativ sein. Dabei sind Verwaltung und Gesundheitswesen aber meistens spät dran im Erkennen von Technologietrends. Es ergibt sich analog zum Hype-Zyklus also meist Phase eins eines Hype-Gap-Zyklus: Verschlafen des Hypes.
Darauf folgt Phase zwei: eine verzerrte Einschätzung der Technologie, die ich als Gipfel der Verkennung bezeichnen möchte. „Die Technik wird das schon lösen.“ Sich bereits abzeichnende Probleme im Einsatz von Hypetechnologien werden oftmals nicht berücksichtigt. Es herrscht auch ein wenig die „Fear of missing out“, also Angst als einzige nicht bei etwas Coolem mit dabei zu sein. „Wenn wir jetzt nicht noch schnell auf den Hype-Zug mit aufspringen, verpassen wir was.“
Weil Projekte in Verwaltung und Gesundheitswesen meist langwierig sind und mehr Zeit in Anspruch nehmen, folgt das lange Tal der Umsetzung, gefolgt von einem Pfad von technischen Schulden. Einmal eingeführte Hype-Technologien in Verwaltung und Gesundheitswesen bleiben da leider oftmals länger als im Rest der digitalen Welt, weil die Laufzeiten von Verfahren länger sind und rechtliche Grundlagen diese Technologien darüber hinaus oft schützen.
Weil sich speziell die Verwaltung aber auch noch besonders schwer damit tut, Fehler nach außen zuzugeben, genießen falsch angewendete Hype-Technologien hier noch mal erhöhten Bestandsschutz. Auch wenn längst klar ist, dass diese Technologien anderswo die eigentlichen Probleme kaum lösen oder, noch schlimmer, mehr Probleme schaffen als sie lösen, lässt man sie nicht los. Sonst müsste man ja zugeben, dass die Idee schlecht war.
Löst eine Hype-Technologie dann das eigentliche Problem nicht und bringt darüber hinaus viele Nachteile mit sich, endet der Hype im Plateau des technischen Rückstands.
Selbstverstärkender Rückstand
Je mehr falsch eingesetzte Hype-Technologien auftreten, desto höher wird der technische Rückstand (und desto verlockender sind wiederum weitere Hype-Technologien). Und leider ist dieser sich selbst verstärkende technische Rückstand die eigentliche Konsequenz des Hype-Gaps. Weil Hype-Technologien auch noch zusätzlich Geld und Zeit binden, bleibt dann meist noch viel weniger Zeit für sinnvolle digitale Basistechnologien oder Infrastruktur.
Eigentlich könnte die etwas träge Art, wie Verwaltung und Gesundheitswesen mit technologischen Trends umgehen, dazu beitragen, Chancen und Risiken von Hypes richtig zu bewerten. Wenn andere Sektoren bereits die Probleme von Hype-Technologien in voller Breitseite abbekommen haben, wäre es töricht, diese Probleme noch einmal durchleben zu wollen. Hype hin oder her.
Vielleicht folgt so auf den Hype-Gap also nicht nur Negatives, sondern ausnahmsweise mal was Positives. Nicht immer muss das vermeintliche Verschlafen von Hypes etwas Schlechtes sein.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Oben — Ein alter Eisenriegel und ein verrostetes Vorhängeschloss auf wettergegerbten Türbrettern sichern die Türe einer verlassenen Fabrik in Dötlingen, Niedersachsen. Die Originalaufnahme entstand in Mai 1980 auf Kodachrome 25 Farb-Diafilm und wurde in Juni 2018 auf einer spiegellosen Kamera mit einem 42 Megapixel-Sensor digitalisiert.
Der Europarat will „Künstliche Intelligenz“ regulieren – allerdings ohne die Zivilgesellschaft. Überraschend hat er zivilgesellschaftlichen Organisationen den Beobachterstatus bei den Verhandlungen zu der KI-Konvention entzogen. Die Organisationen kritisieren die Entscheidung in einem offenen Brief.
Die geplante KI-Konvention soll Staaten dazu verpflichten, keine Menschenrechte zu verletzen, wenn sie KI-Systeme entwickeln oder nutzen. Überraschenderweise hat der Europarat mehrere zivilgesellschaftliche Organisationen, die einen Beobachterstatus bei den Verhandlungen hatten, vor die Tür gesetzt. Das Vorgehen kritisieren zehn zivilgesellschaftliche Organisationen in einem offenen Brief (PDF), unter ihnen die Digitale Gesellschaft Schweiz und AlgorithmWatch.
Die Organisationen bedauern, „dass die verhandelnden Staaten beschlossen haben, sowohl Beobachter der Zivilgesellschaft als auch Mitglieder des Europarates von den formellen und informellen Sitzungen der Redaktionsgruppe des Übereinkommens auszuschließen.“ Damit untergrabe der Europarat seine Transparenz- und Rechenschaftspflichten. Außerdem stehe die Entscheidung im Widerspruch zur gängigen Praxis des Europarats und zum Mandat des CAI, wonach die Zivilgesellschaft zu dessen Arbeit beizutragen habe.
Zu Beginn der Verhandlungen wurde die Wichtigkeit der Transparenz betont. Nun haben sich die aktuell verhandelnden Staaten jedoch dazu entschieden, insbesondere zivilgesellschaftliche Organisationen mit Beobachterstatus von den Diskussionen zur KI-Konvention auszuschließen. Auch die Mitgliedsorganisationen des Europarats, die derzeit nicht direkt an den Verhandlungen beteiligt sind, wurden ausgeschlossen. Diskussionen und Entscheidungen sollen ohne die Anwesenheit von Beobachtern stattfinden. Sie sollen nur noch die Möglichkeit haben, gelegentlich Stellung zu nehmen. Beobachter sollen nicht mehr beobachten dürfen.
Bliebe es bei der Entscheidung, drohe die Konvention zu einem Papiertiger zu verkommen, so die Digitale Gesellschaft Schweiz weiter.
Transparenz untergraben
Trotz ihrer Enttäuschung unterstreichen die zivilgesellschaftlichen Organisationen in ihrem offenen Brief die Notwendigkeit der KI-Konvention:
In den vergangenen Monaten haben sich die Standpunkte der einzelnen Länder dramatisch verändert. Das unterstreicht die Notwendigkeit, rasch ein globales Übereinkommen für den Umgang mit KI zu verabschieden. Sowohl die Gesellschaft als auch der öffentliche und private Sektor fordern nun weltweit neue Regeln für den Umgang mit KI.
Die Organisationen bekräftigen, den Verhandlungsprozess von außen weiter beobachten und kommentieren zu wollen.
So genau wie nie verraten Facebook und Instagram nun, wie und wofür sie unsere Klicks überwachen. Die neue Transparenz von Meta beantwortet unser Autor mit Transparenz über seine Gefühle. Ein Kommentar.
Jetzt lässt sich im Detail nachlesen, was im Prinzip schon lange bekannt ist. Die Meta-Töchter Instagram und Facebook erfassen und verarbeiten so ziemlich alles, was Menschen auf ihren Plattformen machen. Daraus berechnen sie Prognosen über unser Verhalten.
Meta erklärt das auf einer neuen Infoseite, geordnet nach 22 Bereichen wie Facebook-Benachrichtigungen, Facebook-Feed, Instagram-Stories, Instagram-Reels. Für jeden Bereich berechnen Algorithmen ein Bündel aus Prognosen und werten teils dutzende Datenpunkte aus. Passend zum aktuellen KI-Hype spricht Meta von „KI-Systemen“.
Facebook berechnet etwa die Wahrscheinlichkeit, wie lange ich mir ein Foto anschauen werde, ob ich weiterscrolle, like oder kommentiere, ob ich mir weitere Kommentare zu dem Foto durchlese, ob ich mir das Foto später nochmal anschaue, und vieles mehr. Auf dieser Grundlage landen Inhalte in meinem Feed.
Bei vorgeschlagenen Kontakten („Personen, die du kennen könntest“) berechnet Facebook die Wahrscheinlichkeit, ob ich der Person auch wirklich eine Freundschaftsanfrage schicke. Dabei kann Facebook sogar sein Wissen über mir unbekannte Freundesfreund*innen nutzen. Denn Meta bezieht ein, „welcher Prozentsatz deiner Facebook-Freund*innen in irgendeiner Art mit der vorgeschlagenen Person verbunden ist, z. B. als Freund*innen von Freund*innen“. Das heißt: Facebook weiß über mein Umfeld mehr als ich.
Die Resonanz in mir ist Wut
Schon klar, all das sollte heute niemanden mehr überraschen. Wer nicht überwacht werden will, darf solche Dienste nicht nutzen. Ganz einfach. Das war schon vor Jahren bekannt. Aus gutem Grund bin ich längst allen Kontakten bei Instagram und Facebook entfolgt und habe die Apps von meinem Handy verbannt. Mit Genugtuung. Trotzdem ist damit für mich noch nicht alles gesagt.
Mir reicht das nicht, das ganze mit einer Geste der Abgeklärtheit als „no news“ zu deklarieren. Noch vor ein paar Jahren wollten sich Forschende mithilfe von Datenspenden zusammenstückeln, wie genau Facebook uns überwacht und uns Inhalte vorsetzt. Jahrelang haben Politiker*innen um das Digitale-Dienste-Gesetz gerungen, das Plattformen wie Meta mehr Transparenz abtrotzt. Der neue, zunächst freiwillige Blick hinter die Kulissen von Meta lässt sich als Folge von diesem Gesetz interpretieren. Jetzt haben wir die Transparenz, die wir all die Jahre verlangt haben.
Wenn ich darauf achte, welche Resonanz das in mir auslöst, dann bemerke ich Wut. Mich macht bereits wütend, mit welchen Worten Meta-Manager Nick Clegg die neue Infoseite präsentiert. Clegg schreibt von der „Beziehung“ zwischen mir und den Algorithmen. Über diese „Beziehung“ wolle man jetzt „offener“ sprechen. Als wäre Meta ein Kumpel, mit dem es in letzter Zeit etwas schwierig war. Doch jetzt fassen wir uns ein Herz und rücken wieder näher zusammen. Bullshit.
Die wollen meine Aufmerksamkeit ausbeuten
Die Beziehung zwischen Meta und mir ist ein Ausbeutungsverhältnis. Es gibt keine Augenhöhe, sondern ein unüberwindbares Machtgefälle. Der Konzern höhlt meine Privatsphäre aus, um meine Aufmerksamkeit auszubeuten. Meine Aufmerksamkeit wird durch algorithmisch optimierte Inhalte gefesselt und durch Werbung zu Geld gemacht. So ist das. Man kann dabei durchaus Genuss empfinden – das habe ich im Frühjahr am Beispiel von TikTok aufgeschrieben. Es macht mich nur wütend, wenn man das schönredet.
Aber gut, lassen wir uns kurz darauf ein, dass mein Kumpel namens Meta mit mir Beziehungsarbeit machen will. In diesem Fall müsste ich meinem Kumpel sagen: Tut mir leid, das reicht noch lange nicht, damit wir uns annähern. Unsere Beziehung war von Anfang an kaputt.
Jahrelang hat Meta nur vage offengelegt, wie seine Dienste mich überwachen. Dass Meta dazu jetzt mehr verrät, ist nichts wofür man dankbar sein sollte. Es ist das Mindeste, und es kommt zu spät. Selbst heute ist die Transparenz bei genauem Hinsehen nicht ganz aufrichtig. Die langen Listen mit Dutzenden Datenpunkten sind nicht vollständig. Überall steht dabei: „Zu den Signalen, die in diese Prognose einfließen, gehören“. Das heißt, da ist vielleicht noch mehr.
Wie viel Zeit du insgesamt damit verbracht hast, dir Stories dieses*dieser Verfasser*in anzusehen
Auf wie viele Stories du geantwortet oder diese geteilt hast sowie die Zeit, die du im Durchschnitt damit verbracht hast, dir jede einzelne Story anzusehen
Wie viele Stories du dir nicht angesehen hast
Die gesamte Anzahl an Stories in der Collection eines*einer Verfasser*in und wie oft du dir Stories dieser Person angesehen hast
Wie oft du dir Stories wiederholt angesehen hast, indem du zu ihnen zurückgekehrt bist
Ein häufig vorgebrachtes Argument lautet: Selbst wer nichts zu verbergen hat, sollte sich gegen Datensammelei und Tracking stark machen. Aus Solidarität mit anderen, für die Privatsphäre überlebenswichtig sein kann. Etwa Whistleblower*innen, Dissident*innen, Menschen, die wegen Rassismus oder Queerfeindlichkeit verfolgt werden. Ich finde das Argument überzeugend. Doch sogar ohne dieses Argument merke ich, wie sehr mich diese Datensammelei ganz persönlich ankotzt.
Egal, dass ich nichts zu verbergen habe. Egal, dass Meta das nur für Geld macht. Egal, dass kein Mensch Lust und Zeit hätte, all meine Daten mit eigenen Augen zu sichten. Egal, dass mir schon nichts Schlimmes passiert, wenn ich Facebook und Instagram nutze. Ich finde diese umfassende Dauerbeobachtung extrem aufdringlich, übergriffig und grenzverletzend.
Nein sagen
Was für ein Creep muss man eigentlich sein, um einen Dienst anzubieten, der genau erfasst, bei welchen Uploads ich hängen bleibe, weil sie mich vielleicht berühren, aufregen, erregen oder verängstigen? Das hat einfach niemanden etwas anzugehen.
Um es plastisch zu machen: Wenn ich mir durchlese, was Meta über mich erfasst, dann fühle ich mich begafft, als läge ich nackt auf einem OP-Tisch, frostweißes Scheinwerferlicht auf meinem Körper, und jemand schaut sich stundenlang mit der Lupe meine Pickel an.
Ich finde, das gehört verboten. Facebook und Instagram gehören gelöscht. Online-Kontakt mit Menschen habe ich lieber über Messenger, Ende-zu-Ende-verschlüsselt.
Ich will hier aber auch keinem Vorwürfe machen, der entgegnet: „Sorry, ich fühl’s überhaupt nicht. Ich werde weiter Instagram nutzen“. Alle ziehen ihre Grenzen anders, es gibt Schlimmeres. Mit der eigenen Empörungsenergie muss man auch irgendwie haushalten.
Trotzdem finde ich es wichtig, das mal auszusprechen. Ich lehne das ab, von Meta begafft zu werden. Man muss sich nicht damit abfinden, weil Milliarden Menschen das auch tun. Es ist OK, seine Grenzen so streng zu ziehen, und es ist OK mit Blick auf Facebook und Instagram zu sagen: Nein.
In einer kürzlich veröffentlichten wissenschaftlichen Forschung kritisiert Jura-Professor Douwe Korff den Einsatz von KI-Modellen zur Terrorismusabwehr im Rahmen der EU-Richtlinie zur Verarbeitung von Fluggastdaten. Mindestens 500.000 Personen würden demnach jedes Jahr zu Unrecht verdächtigt.
Die PNR-Daten sollen vor allem sogenannte terroristische Gefährder identifizieren – unter anderem mit Hilfe sogenannter Künstlicher Intelligenz (KI). Mehrere europäische Länder (pdf) – darunter auch Deutschland – setzen KI bereits für die Strafverfolgung und die Vorhersage von Verbrechen ein.
Ebendies kritisiert Douwe Korff, Jura-Professor an der London Metropolitan University und Anwalt für Menschenrechte, in seiner kürzlich veröffentlichten wissenschaftlichen Forschung. Er zählt drei grundlegende Probleme auf, die all jenen algorithmischen Verfahren gemein sind, die dem Profiling von potenziellen Gefährder:innen dienen.
500.000 potenzielle Terrorist:innen
Als Erstes benennt er einen statistischen Fehlschluss, den sogenannten Prävalenzfehler. Dieser Fehler beschreibt, dass vermeintlich zuverlässige statistische Modelle dazu neigen, besonders unwahrscheinliche Ereignisse disproportional häufig vorherzusagen.
Selbst wenn beispielsweise ein KI-Modell Terrorist:innen in 99,9 Prozent der Fälle frühzeitig erkennen könnte, würde das Modell viele Unschuldige gleichermaßen verdächtigen, da die absolute Häufigkeit von Terrorist:innen in der Bevölkerung außerordentlich gering ist. Dieses Problem ist weitgehend unabhängig vom Anwendungsfall und beschreibt eine grundlegende Eigenschaft statistischer Verfahren.
Die Auswertung der Fluggastdaten in der EU würde nach Einschätzung des Wissenschaftlers – selbst bei dieser unrealistisch hohen Trefferquote – jedes Jahr etwa 500.000 Personen fälschlicherweise als potenzielle Terrorist:innen kennzeichnen. Bei einer plausibleren Trefferquote geriete eine noch höhere Zahl Unschuldiger ins Visier der Ermittler:innen. Bereits in der Vergangenheit hatte Korff die EU-Kommission auf diesen Umstand hingewiesen, allerdings sei die Warnung folgenlos geblieben.
Software erbt unsere Verzerrungen
Darüber hinaus neigt Profiling-Software dazu, gesellschaftliche Vorurteile zu replizieren und zu verstärken. Ein solcher Bias (Verzerrung) sei allerdings laut EU-Kommission bei der Analyse von Fluggastdaten ausgeschlossen, da Eigenschaften wie Ethnie oder politische Einstellung ignoriert würden. Diese zu verwenden sei gesetzlich auch verboten.
Korff widerspricht und weist erstens darauf hin, dass die entsprechende Richtlinie es den Mitgliedsstaaten erlaube, auch umfangreiche Datenbanken anderer Behörden in die Analyse einzubeziehen. Diese enthielten durchaus auch sensible personenbezogene Daten.
Zweitens wiesen auch Datensätze ohne sensible personenbezogene Daten starke Verzerrungen auf, die dann die statistische Auswertung beeinflussen würden, so Korff. Besonders marginalisierte Gruppen müssten damit rechnen, disproportional häufig und ohne nachvollziehbare Gründe verdächtigt zu werden.
Software ist intransparent
Denn, so kritisiert Korff schließlich, Behörden könnten selbst die Details solcher Software nicht einsehen. Aus diesem Grund seien sie außerstande, die Ergebnisse der Datenanalyse zu hinterfragen. Ihre Verdachtsfälle könnten sie damit auch nur unzureichend begründen. Aus diesem Grund bezeichnet Korff die Profiling-Algorithmen aus wissenschaftlicher Sicht als fragwürdig und für den polizeilichen Gebrauch als ungeeignet.
Korffs Kritik richtet sich in dem wissenschaftlichen Artikel insbesondere gegen die PNR-Richtlinie der EU-Kommission. Sie sei jedoch auf alle KI-basierten Profiling-Verfahren anwendbar, etwa bei der Chatkontrolle.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Ein Grund für zu wenig Open-Source in der Verwaltung ist das Vergaberecht. Es muss auch eine politische Entscheidung sein, welche digitalen Infrastrukturen man betreibt und nutzt.
Wir haben 2023 und die meisten von uns haben, abgesehen von ELSTER, in der Regel noch nie eine funktionierende digitale Behördenanwendung in freier Wildbahn gesehen. Dabei sollte längst alles digitalisiert sein und zwar schon seit Jahrzehnten. Aber das ist nicht das Thema meiner Kolumne und Lilith Wittmann hat auf der vergangenen re:publica schon viel zu diesem Aspekt gesagt.
Mir geht es um den Einsatz von Open-Source-Software in der Verwaltung, einem Thema, das mich schon länger beschäftigt als es dieses Blog mit der passenden Domain gibt. Denn schon am Anfang dieses Jahrtausends gab es eine Debatte darüber, dass der Einsatz von Open-Source-Software bei der Digitalisierung der Verwaltungen viele Chancen biete. Das Bundesinnenministerium hatte dazu sogar einmal ein Referat eingerichtet.
Diskutiert wurde vor allem über den Umstieg bei den Betriebssystemen und Office-Programmen, um unabhängiger von Microsoft zu werden. Das Unternehmen dominierte damals den Markt wie kein anderes und verdiente gut durch die Abhängigkeit und damit verbundene Lizenzgebühren für die Nutzung ihrer Software von der Stange. Vom Unternehmen angeworbene ehemalige CDU-Politiker machten Lobbying für Microsoft gegen Linux und sorgten für viele Jahre dafür, dass sich unter der Merkel-geführten Bundesregierung nichts änderte.
Versprechungen aus dem Koalitionsvertrag umsetzen
Die Ampel-Koalition überraschte mit einem ambitionierten Koalitionsvertrag, der zumindest kurzfristig etwas Hoffnung gab. Diese ist mittlerweile bei den meisten Beobachter:innen weitgehend verschwunden, aber noch immer finden sich spannende Versprechungen im Koalitionsvertrag, die man mal mit Leben füllen könnte, wie z.B.
„Für öffentliche IT-Projekte schreiben wir offene Standards fest. Entwicklungsaufträge werden in der Regel als Open Source beauftragt, die entsprechende Software wird grundsätzlich öffentlich gemacht.“
Das war und ist eine Forderung, die bereits 25 Jahre alt ist und immer wieder aus der Open-Source-Welt und der digitalen Zivilgesellschaft in die Politik reingebracht wurde. „Public Money, Public Code“ heißt die passende Kampagne der Free Software Foundation Europe dazu, hinter der alle stehen. In Kurzform heißt das einfach: Öffentlich-finanzierte Software, also durch Steuergeld finanzierte Software sollte möglichst allen wieder zur Verfügung stehen. Und das als Default und nicht als mögliche Option.
Bisher ist es anders herum und nur in Einzelfällen war es hochmotivierten Menschen manchmal möglich, viele Widerstände zu umgehen. Dabei lagen die Vorteile von Open-Source-Software schon lange auf der Hand: Der Aufbau von Ökosystemen wird erleichtert, Verwaltungen auf allen Ebenen können sich zusammenschließen, gemeinsame Infrastrukturen betreiben und Weiterentwicklungen finanzieren. Daraus ergibt sich auch eine Herstellerunabhängigkeit – oder auf Neudeutsch ganz viel „digitale Souveränität“.
Public Money, Public Code
Eine der größten Hürden war und ist das Vergaberecht. Gegner von Open-Source-Software bezogen sich immer darauf, dass man ja niemand benachteiligen dürfe, der keine Open-Source-Software nutzt und verkauft. Und damit wurde immer das Steuerungselement boykottiert, denn es ist einfach eine politische Frage, auf welcher Basis die eigenen digitalen Infrastrukturen funktionieren sollen!
Die Diskussion über eine Reform des Vergaberechts ist alt und geht weit zurück hinter der Münchener Linux-Entscheidung. In den Nuller-Jahren gab es dazu auch Anhörungen im Bundestag, aber die Microsoft-nahe CDU/CSU verhinderte jede Reform.
Die Folgen kennen wir: Massive Lock-In-Effekte und Abhängigkeiten von Microsoft, das die Lizenzkosten immer weiter anhebt. Es gibt in den Verwaltungen kaum Personal, dass auch mal in anderen IT-Infrastrukturen außerhalb der Windows-Welt denken und klicken kann. Das zusammen ist ein Teufelskreis.
Aber Microsoft ist auch nur ein Nutznießer, wenn auch der mit Abstand absolut Größte. Im vergangenen Sommer veranschaulichten Ulf Buermeyer und Philip Banse in ihrem Podcast Lage der Nation, wie es um Teile unserer eGovernment-Infrastruktur steht: „Keine weiteren Fragen“. Sie besuchten im Rahmen eines Roadtrips für zwei Podcast-Folgen Verwaltungen und ließen sich zeigen, wie die Software vor Ort funktioniert und welche Abläufe damit abgebildet werden.
Eines der Hauptprobleme: Softwareunternehmen verkaufen geschlossene Lösungen für ein Problem und haben bisher kein Interesse, dass ihre Software durch Offene Standards mit anderen Lösungen kommuniziert. Die Folgen sind Ausdrucken und Einscannen zwischen Fachanwendungen. Das klingt wie Realsatire, beschreibt aber den Status Quo in Deutschland in Sachen eGovernment im Jahre 2023.
Man ist nicht mal auf den Gedanken gekommen, die Hersteller solcher Fachanwendungen zu offenen Standards zu verpflichten, was das mindesteste hätte sein müssen!
Das Vergaberecht richtig reformieren
Das muss sind endlich ändern. Die CDU/CSU ist gerade nicht mehr in der Bundesregierung, die Debatte ist wieder eröffnet und das Wirtschaftsministerium arbeitet gerade an einer Reform des Vergaberechts. Im vergangenen Monat zeichnete die Open Source Business Alliance in einem in Auftrag gegebenen Gutachten verschiedene Optionen auf, wo der Gesetzgeber an welchen Stellschrauben drehen könnte. Einige Bundesländer wie Thüringen und Schleswig-Holstein sind da schon weiter und haben das schon längst geregelt.
Der grüne Bundestagsabgeordnete Maik Außendorf beauftragte den wissenschaftlichen Dienstes des Bundestags, in einem Gutachten aufzuarbeiten, wie diese Frage, die ja auch eine europarechtliche Frage ist, in unseren EU-Partnerstaaten gelöst wird. Das Ergebnis gibt Hoffnung, es gibt sehr viele Möglichkeiten, der Tenor ist: Man muss es nur wollen und dann machen.
Was klar ist: Es gibt nicht die einzelne große Schraube, aber der Status Quo muss nicht bleiben. Was fehlt ist erst mal der politische Wille auf allen Ebenen, das Versprechen des Koalitionsvertrages und vieler anderer aktueller Papiere zur Verwaltungsmodernisierung auch umzusetzen. Und Open-Source-Software und Offene Standards überall dort zu bevorzugen, wo es geht. Vielleicht wird es dann auch mal was mit der Digitalisierung der Verwaltung – wenn man parallel den Kompetenzaufbau innerhalb der Behörden nicht vergisst.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
A collection of keys of different types. Upper left is a car key, a pin tumbler key used to start a vehicle. Lower left is a pin tumbler house key. The four keys at right are skeleton keys, used to open antique door locks.
Die Kritik an der sogenannten Chatkontrolle reißt nicht ab, doch die Befürworter:innen bleiben stur. Einige Menschen lassen sich davon nicht entmutigen. Wir wollten von ihnen wissen: Wie können sich Interessierte politisch engagieren, um das Überwachungsgesetz zu stoppen?
Eigentlich will die EU-Kommission mit einem Gesetzesvorschlag aus dem letzten Jahr sexualisierte Gewalt gegen Kinder im Netz bekämpfen. Doch auf der einen Seite zweifeln Expert:innen die Wirksamkeit des Vorschlags an, zum anderen schätzen sie die Pläne als grundrechtswidrig ein. Ein Teil des Vorschlags ist die sogenannte Chatkontrolle: Anbieter von Kommunikations- oder Hostingdiensten sollen auf Anordnung auch die privaten Daten ihrer Nutzenden nach Hinweisen auf mögliches Missbrauchsmaterial oder Grooming scannen. So nennt man es, wenn Erwachsene mit sexuellem Interesse Kontakt an Minderjährige anbahnen.
Seit mehr als einem Jahr bricht die Kritik an den Plänen der EU-Kommission nicht ab, doch die Befürworter:innen bleiben stur. Das ist für Gegner:innen frustrierend. Lässt sich der Kommissionsvorschlag überhaupt noch verändern oder sogar verhindern – und was können Menschen tun, die sich irgendwie engagieren wollen? Wir haben Aktivist:innen gefragt und konkrete Handlungswege aufgeschrieben.
Herausfinden, wo gerade verhandelt wird
Tom Jennissen engagiert sich beim Bündnis „Chatkontrolle stoppen“ und dem Verein Digitale Gesellschaft – und er ist optimistisch. „Wir haben auf jeden Fall noch die Möglichkeit, die Pläne zur Chatkontrolle zu verhindern“, schreibt er auf Anfrage von netzpolitik.org. „Dazu müssen wir jetzt den Druck erhöhen, denn die Zeit bis Ende September wird entscheidend sein.“
Bis Ende September werden die wichtigen Gremien im EU-Parlament ihre Positionen zum Kommissionsentwurf verhandeln. Dort beschäftigt sich federführend der Ausschuss für bürgerliche Freiheiten, Justiz und Inneres (LIBE) mit dem Gesetzentwurf. Außerdem ist der Ausschuss für Binnenmarkt und Verbraucherschutz (IMCO) relevant. Er hat eine beratende Rolle und will noch vor der parlamentarischen Sommerpause im August seine Position beschließen. LIBE plant, Ende September über die Änderungsanträge aus dem Ausschuss abzustimmen.
Auch Elina Eickstädt engagiert sich bei „Chatkontrolle stoppen“ und ist Sprecherin des Chaos Computer Clubs (CCC). Sie empfiehlt: „Vor der Abstimmung wäre es also sehr gut, nochmal dediziert IMCO-Mitglieder anzuschreiben, besonders die von der Fraktion Renew.“ Renew Europe ist eine Fraktion im EU-Parlament, in der unter anderem Abgeordnete der FDP vertreten sind. Während sich deutsche Renew-Abgeordnete wie Moritz Körner gegen die Chatkontrolle einsetzen, sehe das bei den Kolleg:innen aus anderen Mitgliedstaaten anders aus.
Europa-Abgeordnete identifizieren
Ein erster Entwurf für eine IMCO-Stellungnahme des maltesischen Sozialdemokraten Alex Agius Saliba aus dem Februar adressierte bereits viele kritische Punkte zur Chatkontrolle. Er wandte sich gegen die Schwächung verschlüsselter Kommunikation, gegen Alterskontrollen und gegen die Erkennung von Grooming.
Eickstädt schlägt vor: „Man kann deutlich machen, dass einem Bericht nicht zugestimmt werden darf, der nicht den Schutz von verschlüsselter Kommunikation gewährleistet und Aufdeckungsanordnungen in ihrer aktuellen Form unterstützt. Diese müssen immer gezielt und spezifisch sein.“ Sie gibt zu Bedenken: „Wenn der gute Report von Saliba in der Abstimmung scheitert, geht es wieder zum Kommissionstext zurück.“ Es könnte also helfen, die Abgeordneten auf diese oder andere kritische Punkte hinzuweisen.
Im LIBE-Ausschuss sehe es ähnlich aus, auch hier gehören viele Renew-Abgeordneten zu den Wackelkandidat:innen. Außerdem enttäuschte der erste Berichtsentwurf des konservativen Berichterstatters Javier Zarzalejos die Kritiker:innen. Da bis zur geplanten LIBE-Abstimmung am 21. September noch etwas Zeit ist, schlägt Eickstädt vor, sich zunächst auf die Berichterstatter:innen zu konzentrieren.
Für jeden Ausschuss gibt es eine:n Berichterstatter:in, diese Person leitet den Prozess bis zu einer finalen Ausschussposition. Von den anderen Fraktionen gibt es sogenannte Schattenberichterstatter:innen, die jeweils für ihre Fraktionen versuchen, Kompromisse auszuhandeln.
Europa-Abgeordnete kontaktieren
Alle Mitglieder der jeweiligen Ausschüsse sind auf den jeweiligen Ausschussseiten mit Angabe ihrer Fraktion gelistet. Ihre E-Mail-Adressen, Telefon- und Faxnummern erscheinen bei einem Klick auf ihr Foto in der Übersichtsseite.
Einen guten Überblick bietet auch die Seite Parltrack. Hier lassen sich auch leicht die Berichterstatter:innen und Schattenberichterstatter:innen der einzelnen Fraktionen herausfinden.
Falls man Abgeordnete per Telefon kontaktieren will, wird man meist bei ihren Mitarbeitenden landen. Sie sind aber auch gute Gesprächspartner:innen, weil sie die Positionen der Abgeordneten mit vorbereiten. Es ist gut, sich vorher ein paar Punkte zu notieren, die einem besonders wichtig sind. Ein Kontakt per E-Mail ist natürlich auch möglich. Anregungen für eine solche E-Mail gibt das Team von „Chatkontrolle stoppen!“.
Bundestagsabgeordnete ansprechen
Neben der EU spielt auch Deutschland eine wichtige Rolle. „Die deutsche Politik darf sich nicht wegducken“, schreibt Jennissen. „Die Bundesregierung hat sich immer noch nicht durchringen können, ihr Versprechen aus dem Koalitionsvertrag als Position für die fast schon beendeten Verhandlungen im Rat festzulegen – das Scannen privater Kommunikation abzulehnen.“ Fast ein Jahr hatte die Bundesregierung über ihre Position zur Chatkontrolle gestritten. Nun lehnt sie zwar das Scannen verschlüsselter Nachrichten ab, bei unverschlüsselten Daten jedoch nicht.
Jennissen kritisiert, dass Bundesinnenministerin Nancy Faeser (SPD) „weit davon entfernt“ sei, „die Chatkontrolle aktiv abzulehnen oder auch nur die Minimalposition der Bundesregierung zur Ablehnung von Client-Side-Scanning offensiv zu vertreten.“
Dass Faeser selbst zu einer solchen Ablehnung zu bewegen ist, bezweifelt Jennissen. Doch der Bundestag könne noch etwas tun: „Durch eine Erklärung gemäß Artikel 23 Grundgesetz kann er die Bundesregierung auffordern, die Chatkontrolle abzulehnen und diese Position auch aktiv in Brüssel zu vertreten.“
Schon im Dezember hatten FDP und Grüne im Bundestag einen Entwurf für eine solche Stellungnahme erstellt, doch besonders die Innenpolitiker:innen der SPD blockieren das Vorhaben. Die Position scheint sehr festgefahren. Dennoch gehört der Austausch mit Wähler:innen zum Alltag von Bundestagsabgeordneten. Eine Übersicht von Innenpolitiker:innen der SPD-Bundestagsfraktion gibt es auf der Seite zur Arbeitgruppe Inneres.
Mit ausreichend Druck aus dem Bundestag könnte Deutschland seine Position im Rat ändern. „Damit würde eine Sperrminorität im Rat in greifbare Nähe rücken“, schreibt Jennissen. Sperrminorität heißt: Eine Minderheit kann einen Vorschlag im Rat blockieren. Sie lässt sich etwa mit vier Staaten erreichen, die gemeinsam 35 Prozent der EU-Bevölkerung vertreten. Mitgliedsländer, die Chatkontrolle kritisch sehen, sind Österreich und die Niederlande. Würden diese gemeinsam mit Deutschland gegen den Entwurf stimmen, bräuchte es nur noch ein weiteres Land.
Protest auf die Straße bringen
Neben der Möglichkeit, Abgeordnete zum Handeln aufzufordern, lässt sich auch noch anders für Aufmerksamkeit sorgen. „Solange es keine klare, ablehnende Position der Bundesregierung gibt, die sich auch in den Verhandlungen niederschlägt, müssen wir den Protest weiter auf die Straße tragen“, schreibt Jennissen. „Öffentliche Proteste und Demos – gerade auch außerhalb Berlins – können den Ampelparteien deutlich machen, dass es keine gute Idee ist, mit dem offenen Bruch eines Versprechens in die Europawahl im nächsten Jahr zu starten.“
Interessierte können dich dabei bestehenden Protesten anschließen oder auch selbst etwas auf die Beine stellen. Beim Organisieren der ersten eigenen Demo oder Kundgebung können vor allem 12 Tipps helfen. „Ohne öffentlichen Druck ist weder von den Abgeordneten noch der Regierung etwas zu erwarten“, schreibt Jennissen.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
So schlecht argumentiert das BKA für die Vorratsdatenspeicherung
Frage an Radio Eriwan: „Warum nehmen Politiker-innen einen solchen Job an, wenn sie eine so große Angst um ihre Sicherheit haben?“ Aus reiner Gier – einmal im Blick der Öffentlichkeit zu stehen ? Oder geht es ums Geld?
Das Bundeskriminalamt macht mal wieder Stimmung für die Vorratsdatenspeicherung. Das geht aus Folien einer Präsentation hervor, die wir veröffentlichen. Sie enthält Ungereimtheiten und verschleiert Zusammenhänge.
In der ersten inhaltlichen Folie wird skizziert, wie sich die Fallzahlen bei verschiedenen Straftaten entwickeln. Hier vermischt das BKA Straftaten, die Kinder unmittelbar betreffen – etwa Tötungsdelikte und Missbrauchsfälle – und Straftaten, die mit einer Verbreitung von Inhalten im Internet zu tun haben. Aber nur für manche dieser Straftaten ist eine IP-Adresse relevant.
Aufhellung Dunkelfeld unterschlagen
Eine Grafik sticht besonders hervor. Sie betrifft den Zeitraum zwischen 2016 und 2022 und beschreibt Verdachtsfälle von „Verbreitung, Erwerb, Besitz und Herstellung kinderpornographischer Schriften § 184b StGB“. Hierzu gebe es eine Steigerung von 640 Prozent. Diese Zahl braucht eine genaue Einordnung. Ansonsten entsteht der Eindruck, dass hier ein Kriminalitätsfeld mit unglaublicher Geschwindigkeit wachse. Folgende Einordnungen fehlen auf der Folie:
Mehr als die Hälfte aller Verdachtsfälle sind selbst Minderjährige. Sie geraten in den Fokus von Ermittlungen, wenn sie zum Beispiel beim sogenannten Sexting intime Bilder verschicken. Betreffen kann das auch Jugendliche, die solche Bilder über Messenger weiterleiten oder empfangen, etwa im Klassenchat.
In der zweiten Folie bezieht sich das BKA auf gestiegene Anzahl Verdachtsmeldungen einer US-amerikanischen Organisationen names NCMEC. Die Abkürzung steht für „National Center for Missing and Exploited Children“. Das gemeinnützige NCMEC ist die weltweit wichtigste Quelle für Zahlen rund um sexualisierte Gewalt gegen Minderjährige im Netz. Das Zentrum erhält über 90 Prozent seiner Verdachtsmeldungen vom Meta-Konzern, zu dem Facebook, Instagram und WhatsApp gehören.
Die vom NCMEC veröffentlichten Zahlen werden oftmals falsch wiedergegeben oder in einen falschen Kontext gesetzt, wie unsere Analyse aus dem vergangenen Jahr gezeigt hat. Das heißt: Auch eine höhere Anzahl von Meldungen des NCMEC an das BKA muss nicht bedeuten, dass es wirklich mehr Straftaten gibt.
Erfolgreich ohne Vorratsdatenspeicherung
In der vierten Folie wird präsentiert, mit welchen Fahndungsmethoden das BKA in Folge einer NCMEC-Meldung Erfolg hat. Demnach machen IP-Adressen – auch ohne Vorratsdatenspeicherung – 41 Prozent der erfolgreichen Ermittlungen aus, es folgen Telefonnummern mit 28 Prozent und E-Mail-Adressen mit 6 Prozent. 25 Prozent aller NCMEC-Meldungen führen demnach nicht zu einem Ermittlungserfolg. Die Erfolgsquote nach einer NCMEC-Meldung liegt nach der präsentierten Statistik also bei 75 Prozent. Damit liegt diese Quote um knapp 20 Prozentpunkte höher als der Durchschnitt aller Straftaten: Laut Polizeilicher Kriminalstatistik werden allgemein nämlich 57,3 Prozent aller Fälle aufgeklärt.
In der fünften Folie werden die Erfolgsquoten anderer Fahndungsansätze wie Telefonnummern und E-Mail-Adressen näher untersucht. Sie kommen demnach zum Einsatz, wenn der Ansatz per IP-Adresse nicht funktioniert. Telefonnummern können zum Beispiel bei der Verbreitung von Materialien über Messenger wie WhatsApp oder Signal als Fahndungsmerkmal dienen. Spannend ist hier die niedrige Erfolgsquote von nur 49 Prozent. Immerhin lässt sich über die Telefonnummer per Bestandsdatenabfrage herausfinden, auf welchen Namen der Telefonvertrag läuft. Diese Ermittlungsmethode ist aber nur knapp erfolgreicher als die über eine IP-Adresse, die nach dem Ende der Vorratsdatenspeicherung oftmals nur sieben Tage lang gespeichert wird.
Längere Speicherung bringt nur geringe Vorteile
Die sechste Folie lässt sich ohne weiteren Kontext nicht mit Sicherheit deuten. Eine Tabelle listet das „Alter“ einer IP-Adresse in Tagen auf und ordnet diesem Alter einen Ermittlungserfolg in Prozent zu.
Wir interpretieren das so, dass mit dem „Alter“ der IP-Adresse die Speicherdauer der Adresse beim Provider gemeint ist. In diesem Fall würde die Folie zeigen: Auch wenn Provider die Daten nach sieben Tagen löschen, wären ihre Ermittlungen in mehr als drei Vierteln der Fälle erfolgreich. Eine Verdoppelung der Speicherfrist auf 14 Tage brächte gerade 8 Prozentpunkte mehr Fahndungserfolg. Eine weitere Erhöhung der Speicherfrist auf 26 Tage brächte dann noch einmal 6 Prozentpunkte. Das zeigt: Die längere, grundrechtlich bedenkliche Vorratsdatenspeicherung würde nur minimale höhere Erfolgsquoten erzielen.
Das ist schon lange bekannt; auch eine wissenschaftliche Studie belegt, dass der Wegfall der Vorratsdatenspeicherung nicht zu nennenswert schlechteren Ermittlungserfolgen führt. Einschränkungen für die Polizei, ob nun durch Verschlüsselung oder durch fehlende IP-Adressen, haben bislang immer dazu geführt, dass die Polizei auf alternative Ermittlungsmethoden zurückgegriffen hat und damit auch erfolgreich war. Hinzu kommt, dass die Polizei aufgrund der Digitalisierung auf eine noch nie dagewesene Fülle von Daten zurückgreifen kann.
Ein geplantes Medienfreiheitsgesetz der EU sollte Journalist:innen vor Überwachung schützen. Doch Europas Regierungen planen eine Blankoausnahme für „nationale Sicherheit“, die den Vorschlag praktisch aushöhlen würde.
Kein Journalist darf wegen seiner Arbeit bespitzelt werden. Mit diesem klaren Satz begründete EU-Kommissarin Věra Jourová im vergangenen Herbst ihren Vorschlag für ein Gesetz, das die Pressefreiheit in allen EU-Staaten stärken soll.
Die EU-Kommission reagierte damit auf Enthüllungen über das Ausspähen von Journalist:innen, NGOs und Oppositionspolitiker:innen in mehreren EU-Staaten. In Ungarn ließ die Regierung von Viktor Orban Handys von Reportern hacken, die über Korruptionsvorwürfe berichteten. In Griechenland spionierte die Regierung Journalist:innen aus, die Finanzskandale enthüllten. In Spanien ging es gegen Journalist:innen im Umfeld der katalanischen Unabhängigkeitsbewegung. Die Liste lässt sich fortsetzen. Expert:innen warnen, die sich ausbreitende Überwachung von Journalisten sei eine Bedrohung für die Pressefreiheit.
Das Mittel der Wahl bei den Überwachungsaktionen: Staatstrojaner. Berüchtigt ist insbesondere Pegasus, ein Trojaner der israelischen Firma NSO Group, der Handys praktisch unbemerkt infiltrieren kann. Dadurch kann selbst verschlüsselte Kommunikation über Dienste wie WhatsApp oder Signal ausgelesen werden. Journalist:innen, die mit Pegasus oder anderen Trojanern gehackt wurden, müssen die Preisgabe ihrer Quellen fürchten.
Um solchen Übergriffen einen Riegel vorzuschieben, verbietet der Gesetzesvorschlag der Kommission ausdrücklich den Einsatz von Staatstrojanern gegen Journalist:innen. Das Europäische Medienfreiheitsgesetz sollte außerdem jede Form von Überwachung oder Repressalien untersagen, mit denen die Offenlegung journalistischer Quellen erzwungen werden soll.
Doch die EU-Staaten arbeiten hinter verschlossenen Türen an einem Gegenvorschlag, der diese Vorschläge der Kommission praktisch wirkungslos macht. Das ist das Ergebnis einer gemeinsamen Recherche von netzpolitik.org mit dem Rechercheteam Investigate Europe.
Frankreich drängte auf Blankoausnahme
Der Rat der EU-Staaten will die Schutzbestimmungen für Journalist:innen durch eine generelle Ausnahme für die „nationale Sicherheit“ aushebeln. Das geht aus einem Textentwurf der schwedischen Ratspräsidentschaft vom 7. Juni hervor, den wir durch eine Informationsfreiheitsanfrage erhielten und im Volltext veröffentlichen. Der Rat geht damit über frühere Vorschläge zur Verwässerung des Textes hinaus, über die wir zuvor berichteten.
Schon der ursprüngliche Vorschlag der Kommission sah vor, dass der Staatstrojaner-Einsatz „im Einzelfall“ aus Gründen der nationalen Sicherheit gerechtfertigt sein soll. Aus dem Einzelfall soll nun eine Blanko-Erlaubnis werden, die nicht nur das Trojaner-Verbot aufweicht, sondern auch das generelle Verbot der Überwachung von Journalist:innen zur Ermittlung ihrer Quellen aushebelt. Außerdem schwächt die Ausnahme das Recht, eine Beschwerde bei einer unabhängige Behörde einzureichen, wie es der ursprüngliche Vorschlag vorgesehen hätte.
Diese Blanko-Ausnahme für „nationale Sicherheit“ in Artikel 4 des Gesetzesentwurfs hat Frankreich durchgesetzt. Unterstützung erhielt die Regierung in Paris dafür auch von Deutschland. Das geht aus einem vertraulichen Drahtbericht der deutschen Ständigen Vertretung in Brüssel hervor, den wir ebenfalls im Volltext veröffentlichen. Den Vorschlag unterstützte demnach außerdem Griechenland, wo die Regierung ihre Überwachungsaktionen gegen Journalist:innen mit Verweis auf die „nationale Sicherheit“ rechtfertigte.
Um den Schutz von Medienschaffenden gibt es nicht nur in der EU Streit. In Deutschland gibt es Verfassungsbeschwerden, weil Journalist:innen und ihre Quellen nicht ausreichend vor Überwachung durch den Bundesnachrichtendienst geschützt seien. Eine davon richtet sich auch explizit gegen Staatstrojanereinsatz, insbesondere weil es für Betroffene besonders schwer ist, sich gerichtlich gegen die heimliche Ausspähung zu wehren.
„Nationale Sicherheit als Vorwand“
Der griechische Journalist Thanasis Koukakis, der mit dem Trojaner Predator gehackt wurde, zeigte sich auf Nachfrage empört über die geplante Verwässerung des EU-Gesetzes. „Mein Fall zeigt deutlich, wie einfach die nationale Sicherheit als Vorwand für Drohungen gegen Journalist:innen und ihre Quellen benutzt werden kann.“ Die französische Journalistin Rosa Moussaoui, die Opfer von Pegasus wurde, kritisierte die Haltung Frankreichs. Eine allgemeine Ausnahme für nationale Sicherheit passe „perfekt zur Politik“ der französischen Regierung, sich nicht um den Quellenschutz zu kümmern.
Ein Sprecher der zuständigen grünen Staatsministerin für Kultur und Medien, Claudia Roth, erklärt auf Anfrage, es sei „in keiner Weise“ das Ziel der Bundesregierung, „die Ausspähung von Journalisten zu legalisieren“. Die Ausnahmeregelung zur nationalen Sicherheit im Ratsentwurf soll lediglich sicherstellen, „dass die im Vertrag der Arbeitsweise der Europäischen Union bestimmten Kompetenzen der Mitgliedstaaten im Bereich der nationalen Sicherheit unberührt bleiben.“
Dem hält allerdings der Europäische Journalistenverband entgegen, dass die Blankoausnahme keine Schutzmaßnahmen zur Sicherung von Grundrechten enthalte. Dadurch ignoriere der Rat die Rechtsprechung des Europäischen Gerichtshofs, der klargestellt habe, dass die nationale Sicherheit die EU-Staaten nicht von ihrer Verpflichtung zur Wahrung der Rechtsstaatlichkeit befreie. Durch die Ausnahme werde das geplante Medienfreiheitsgesetz in eine „leere Hülle verwandelt“. Auch Tom Gibson vom Committee to Protect Journalists warnt, der Rat erteile dadurch „willkürlicher Überwachung durch Länder mit geschwächter Rechtsstaatlichkeit“ seinen Sanktus.
Heftige Kritik gibt an den Plänen der EU-Staaten gibt es aus dem EU-Parlament. Die niederländische Abgeordnete Sophie in ‚t Veld aus der liberalen Fraktion Renew nennt den Ratsvorschlag eine „Katastrophe“. Die SPD-Politikerin Katarina Barley betont, „pauschale Ausnahmen ohne weitere Vorkehrungen gehen gar nicht“.
Der Bedenken zum Trotz planen die EU-Staaten einen Beschluss noch im Juni. Kommt kein entschiedener Widerstand aus dem EU-Parlament, das bislang noch keine eigene Position festgelegt hat, dann könnte das Medienfreiheitsgesetz die Blankoausnahme für Überwachungsmaßnahmen zur „nationalen Sicherheit“ festschreiben. Die Absicht von Kommissarin Jourová, Journalist:innen in ihrer Arbeit vor Überwachung zu schützen, bliebe damit ein frommer Wunsch.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
GemeinfreiDieses Bild enthält einen Inhalt, der Thema von Markenrechten sein könnte.
File:Committee to Protect Journalists logo.svg
Erstellt: Unbekanntes DatumUnknown date
******************************
Unten — Plastische Darstellung des Bundestrojaners vom Chaos Computer Club im Profil. Originalbeschreibung: im Chaos Computer Club Berlin: the Federal Troian Horse
Wir sind Menschen aus verschiedenen Städten, mit guten Kontakten zu Menschen in Köln, die Zugriff auf einige der Informationen haben, die auch K3 für ihre Untersuchung genutzt hat.
Lange Zeit standen wir der Arbeit von K3 sehr wohlwollend gegenüber. Umso mehr, weil die IL ein Nichtverhalten an den Tag legt, das uns ebenso wütend macht wie K3! Zudem haben wir eine grundsätzliche Kritik an Inhalt und Praxis dieser „postautonomen“ Organisation.In letzter Zeit kommen uns aber auch Zweifel an der Vorgehensweise von K3. Von aussen betrachtet scheint es uns, als ob K3 nun genauso mit Tricks, Halb- und Unwahrheiten zu arbeiten beginnt, wie wir es von Anfang an bei der IL erlebt haben.Anders als K3 halten wir das Schreiben des Anwalts von X., datiert auf den 28.4.2023, für höchst bedeutsam. Hierbei werden wir uns zunächst auf vier Aspekte beschränken:
Was ist mit der Sprachnachricht, die „Täterwissen“ offenbart?
Doch keine gefälschte Mail mit den zwei Fotos?
Doch keine Unkenntnis über korrekte Namensschreibung?
Wie viele Personen wussten etwas?
Zu 1. Der Anwalt von X. weist darauf hin, dass C. in einer Sprachnachricht vom 3.1.2022 „Täterwissen“ offenbart habe. Nach den uns vorliegenden Informationen wird die Echtheit dieser von C. an X. übermittelten Sprachnachricht von keiner Seite in Frage gestellt. Der Anwalt von X. führt aus:
Nach den bisherigen Darstellungen soll es im Oktober 2021 auf einem Treffen der IL eine Warnung vor C. gegeben haben. Dabei sollen mehrere Namen von FLINTA genannt worden seien. Ein Name war demnach der von X., die weiteren Namen sind nach unserem Kenntnisstand nirgends jemals erwähnt worden.
Wenn C. in der Sprachnachricht jedoch Namen nennt, stellt sich für uns die Frage, woher er diese kennt, wenn die bisherige Darstellung von K3, dass die gesamte Geschichte eine Konstruktion von X. oder der IL sei, korrekt wäre.
Sollte die Darstellung des Anwalts von X. aber der Wahrheit entsprechen, so müsste K3 einräumen, dass Teile der C. belastenden Darstellungen zutreffend sein könnten.
Während wir bislang davon ausgingen, dass C. zu unrecht beschuldigt sein könnte, erschüttert dieser Umstand, der vom Anwalt als „Täterwissen“ eingeordnet wird, unsere Annahme. Hier sehen wir unbedingt Aufklärungsbedarf.
Zu 2) K3 hat in ihren Veröffentlichungen nahegelegt, dass die Mail von JH an X vom 14.01.2022 nicht existieren würde oder manipuliert sei oder keine Fotos als Anhang gehabt habe. Hierzu müssen wir selbstkritisch feststellen, dass diese Position, die wir bisher geglaubt haben, nach dem Schreiben des Anwalts von X, dem der Ausdruck einer Mail mit korrektem Header beigefügt wurde, nicht mehr aufrecht zu erhalten ist.
Zu 3)
Wir gingen nach den Veröffentlichungen von K3 bislang davon aus, dass X. keine Kenntnis von der korrekten Schreibweise des Namens von C. habe und ebenso wie JH die falsche Schreibweise mit Q. benutzt. K3 hatte seinerzeit geschrieben:
Nun kann der Anwalt von X. jedoch nachweisen, dass X. die korrekte Schreibweise sehr wohl in Kommunikationen benutzte.
Die bisherige Darstellung von K3 lässt sich deshalb nicht aufrechterhalten
Zu 4)
Ausweislich des Schreibens des Anwaltes von X., das sich auf beigefügte Kommunikation zwischen X. und C. stützt, wird deutlich, dass C. unterschiedliche Versionen darüber verbreitet, ob er überhaupt mit anderen Menschen über seinen Sex mit X. gesprochen hat bzw. mit wie vielen Menschen:
Für uns bleibt die Frage offen, wer im Vorfeld und im Nachgang des Treffens zwischen X. und C. welche konkreten intimen Informationen von C. erhalten hat und an wen diese Informationen weitergegeben wurden. Hinzu kommt, dass der Anwalt von X. geltend macht, dass JH in diesem Zusammenhang Prognosen über das zukünftige Verhalten von C. macht, die sich seiner Ansicht nach bewahrheitet hätten:
Wir fragen uns, ob K3 genügend Anstrengungen unternommen hat, um auszuschliessen, dass JH eine der von C. selbst informierten Personen ist.
Alles in allem sind wir verunsichert. Gewissheiten, die wir nach dem Schweigen der IL und den Veröffentlichungen von K3 hatten, existieren nicht mehr. Wir sehen auf ALLEN Seiten den Versuch, selbstkritische Fragen bezüglich diverser Behauptungen, Indizien und Fakten zu vermeiden.
Wir haben hier nur einige wenige Punkte herausgestellt und wir erheben auch keinen Anspruch auf Vollständigkeit. Wir sind keine Ermittlungsgruppe und in einigen Punkten fehlt uns schlicht die technische Expertise, um qualifizierte Aussagen treffen zu können. Wir halten jedoch anders als K3 die Recherche und die Bewertung derselben nicht für abgeschlossen.
Nachtrag 13. Juni:
Wir sind in den letzten Tagen von verschiedenen Personen und Gruppen angesprochen worden, ob wir an einer Zusammenarbeit interessiert sind. Dafür reicht unser Vertrauen nicht aus und wir sind auch keine klassische Ermittlungsgruppe. Aber wir haben den Anspruch an IL und K3, dass sie ihre Arbeit gründlich und transparent machen. Wir haben einige Punkte genannt, werden jetzt abwarten und uns zu gegebener Zeit wieder melden.
Soweit nicht anders angegeben und keine Quellenangabe (Name einer Organisation oder Internet-Adresse) vorhanden ist, gilt für die Texte auf dieser Webseite eine Copyleft (Public Domain) Lizenz.
Der US-Kongress verhandelt derzeit, wie US-Geheimdienste weltweit Menschen überwachen und Daten auswerten dürfen. Trotz Reformen stehen missbräuchliche Abfragen auf der Tagesordnung. Die EU-Kommission will den transatlantischen Datentransfer wohl trotzdem weiter zulassen.
Doch laufen mit Ende des Jahres die Befugnisse für die US-Behörden aus. Schon seit Monaten ringt der US-Kongress darum, wie es mit dem umstrittenen Gesetz weitergehen soll. Im Zentrum der Debatte stehen freilich nicht die Sorgen europäischer Datenschützer:innen, das zeigte einmal mehr die Anhörung im Rechtsausschuss des US-Senats am Mittwoch.
Dort warben hochrangige US-Beamte, unter anderem der stellvertretende NSA-Chef George Barnes, für eine Verlängerung der Überwachungserlaubnis. Vor allem Cyberangriffe aus dem Ausland – und nicht mehr Bombenanschläge – habe das geheime Anzapfen von Datenströmen in den letzten Jahren vereitelt oder aufgeklärt, heißt es. „So wichtig die 702-Berechtigung heute schon ist, sie wird in den nächsten fünf Jahren nur noch wichtiger, da ausländische Cyberangriffe immer raffinierter und häufiger werden“, sagte der stellvertretende FBI-Chef Paul Abbate.
Massenhafter Missbrauch
Dass besagte Section 702 verlängert wird, steht kaum außer Frage. Offen bleibt aber vorerst, unter welchen Vorzeichen. Er werde dem nur zustimmen, wenn es bedeutsame Reformen gebe, sagte der Ausschussvorsitzende Dick Durbin. Insbesondere brauche es bessere Schutzmaßnahmen, um US-Bürger:innen vor illegaler Überwachung zu schützen sowie eine bessere Aufsicht durch den Kongress und Gerichte, so der Demokrat aus Illinois.
An sich erlaubt Section 702 nicht, US-Bürger:innen oder Menschen innerhalb der US-Grenzen zu überwachen. Dennoch kommt es ständig zu missbräuchlichen Abfragen der Datenbank. So hatte jüngst ein Gerichtsdokument enthüllt, dass massenhaft Daten illegal abgefragt wurden, etwa von Black-Lives-Matter-Demonstrant:innen, Spender:innen politischer Kandidat:innen oder auch Protestierender, die am Sturm des Kapitolgebäudes teilgenommen hatten.
Allein im Jahr 2022 habe das FBI über 200.000 unberechtigte Anfragen abgesetzt, um an Informationen über US-Bürger:innen zu gelangen, lässt sich dem jüngsten Bericht der zuständigen Aufsichtsbehörde entnehmen. Zwar beteuert das FBI, seine internen Prozesse inzwischen geändert zu haben. Aber nicht nur dem Demokraten Durbin reicht das nicht, auch manche Republikaner:innen drängen auf tiefgreifende Reformen.
NGOs fordern harte Reformen
Konkrete Vorschläge kommen aus der Zivilgesellschaft, darunter einem breiten Bündnis von Grundrechteorganisationen, etwa der American Civil Liberties Union, der Electronic Frontier Foundation und Wikimedia. Unweigerlich würden die globalen Spionagetätigkeiten unter Section 702 auch viele Daten von US-Bürger:innen aufsaugen, wie die NGOs darlegen.
Die Reformen aus dem Jahr 2018, als das Überwachungspaket zuletzt verlängert wurde, seien jedoch weitgehend erfolglos geblieben und müssten künftig deutlich härter ausfallen. Dabei gewonnene Daten müssten möglichst minimiert werden, zudem dürfe die Kommunikation von US-Bürger:innen nur mit einem Durchsuchungsbefehl abgefragt werden. Außerdem müsse es bessere Möglichkeiten geben, sich vor Gerichten zu wehren.
Auch sollen sich US-Behörden nicht mehr an Gesetzen vorbei bei Datenbrokern bedienen, um massenhaft Daten zu horten. Die Praxis, aus Smartphone-Apps oder sonstigem Online-Verhalten gewonnene Daten in staatliche Überwachungssysteme einfließen zu lassen, hat in den letzten Jahren stark zugenommen. Dies würde eine „einzigartige Gefahr für die Privatsphäre“ darstellen und müsste klar begrenzt sowie reguliert werden, fordert das Bündnis.
Mit Blick auf die EU müssten aber auch die Auswirkungen auf Wirtschaft und Privatsphäre bedacht werden, die mit ausufernder Überwachung einhergehen, schreiben die NGOs. Bereits zwei Mal hat der Europäische Gerichtshof die Rechtsgrundlage für den Datentransfer aus der EU in die USA gekippt. Dem noch nicht final abgesegneten Nachfolger des Rechtsrahmens, der das Datenschutzniveau in den USA erneut für angemessen erklärt, dürfte das gleiche Schicksal drohen, erwarten Beobachter:innen. Und es drängt sich die Frage auf: Wenn die USA nicht einmal die Grundrechte ihrer eigenen Bürger:innen schützen können, wie soll ihnen das bei EU-Bürger:innen gelingen?
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Ist so viel selbst aufgeblasene Intelligenz nicht schon zu viel für das Volk ?
Ein Schlagloch von Georg Diez
Die Machtfrage wird bei KI zu verengt gestellt. Es geht nicht nur um den technologischen, sondern auch um den ökonomischen Aspekt.
Wir leben in einer propagandistischen Periode. Das heißt, dass das Verhältnis von Wahrheit und Lüge durch die Interessen der Macht gekennzeichnet ist, vor allem derjenigen von Politik und Kapital, und sich stark zur Lüge hin verschiebt. Der Unterschied zum vorangegangenen Regime der Wahrheit besteht darin, dass sich die Wahrheit damals im politisch-medialen Raum in einem elastischeren Verhältnis zur Lüge verhielt. Man nannte das Spin, also den entscheidenden Dreh, der aus der Wahrheit etwas anderes machte als die Wahrheit selbst.
„Die Rente ist sicher“ ist so ein Spin-Satz oder „Merkel rettet Griechenland“ oder auch „Wir schaffen das“: Wahrheit plus Intention plus Interessen gab der Aussage einen Drall, aber die Verbindung zur Wahrheit war, im Unterschied zur Lüge, nicht vollständig gekappt. Ein Beispiel für Propaganda aus den letzten Tagen ist zum Beispiel der Satz von Innenministerin Nancy Faeser von der SPD, wonach die harsche neue EU-Richtlinie zur Migrationspolitik ein „historischer Erfolg“ sei „für den Schutz der Menschenrechte“.
Von ähnlich propagandistischer Qualität ist so gut wie alles, was in den vergangenen Wochen und Monaten von Google, Microsoft oder Sam Altman von OpenAI zum Thema künstliche Intelligenz gesagt wurde – hier warnten Menschen vor den Folgen der Technologie, die sie gerade selbst entwickeln, als hätten sie es nicht selbst in der Hand, diese Technologie so zu gestalten, dass sie nicht gefährlich ist.
Mehr noch, es sind mächtige Privatunternehmen wie Google, die seit Jahren genau die Stimmen stigmatisieren oder aus dem eigenen Unternehmen drängen, die bei der Entwicklung etwa von KI vor Rassismus oder Sexismus warnen – und daraufhin entlassen wurden, Kate Crawford etwa oder Timnit Gebru.
Ungleichheit durch unregulierten Einsatz von KI
Die Straßen sind nicht privat kontrolliert, warum sollte es die Infrastruktur im Digitalen also sein?
Seltsamerweise verbreiten fast alle Medien diese Propaganda ziemlich unhinterfragt und eins zu eins: Wenn sehr viele weiße Männer einen mahnenden Brief unterschreiben und davon raunen, dass die Technologie, noch mal, die sie selbst entwickeln, zur „Auslöschung“ der Menschheit führen könne – und diese Aussage eben nicht nur sci-fi-haft vage und unpräzise ist, sondern vor allem gegenwärtigen Machtmissbrauch genau dieser Firmen verschleiert – etwa in Bezug auf Kooperationen mit dem Militär oder der Überwachungspraxis auch in demokratischen Staaten oder auch mit Blick auf die „Auslöschung“ von Arbeitsplätzen oder die plausible Perspektive exponentiell wachsenden Reichtums verbunden mit massiv zunehmender Ungleichheit durch den unregulierten Einsatz von KI.
Wenn nun etwa Sam Altman einen PR-Blitz mit dem US-amerikanischen Kongress und Ursula von der Leyen und allen möglichen Staatschefs vollführt und davon spricht, dass seine Industrie dringend reguliert werden sollte, dann muss man eigentlich kein Gedankenkünstler oder Hardcore-Marxist sein, um zu vermuten, dass er sicher nicht meint, dass er etwas von der Macht oder dem Einfluss oder dem Gewinnpotenzial der Firma OpenAI abgeben will, die er mitbegründet hat.
Aber weil der Diskurs über Digitalisierung im Allgemeinen und künstliche Intelligenz im Speziellen so einseitig und kurzatmig geführt wird, bleiben die Fragen der politischen Ökonomie weitgehend ausgeblendet: Wer profitiert also von „Regulierung“, die ja am Ende doch weitgehend selbst gestaltet sein sollte, so die Logik, und vor allem den technologischen und nicht den ökonomischen Aspekt betrifft.
Technologie nicht von Ökonomie zu trennen
Tatsache ist aber, dass die Technologie nicht von der Ökonomie zu trennen ist. Gefährlich wird die künstliche Intelligenz auf absehbare Zeit vor allem dadurch, dass sie eben kapitalistischen Profitinteressen unterworfen ist: Erst dadurch entsteht die eklatante Intransparenz bei der Entwicklung, das Zukunftsversprechen als „Blackbox“.
Erst dadurch ergeben sich das manipulative Potenzial und die private Kontrolle über einen gewaltigen technologischen Entwicklungssprung, der wie alle technologischen Entwicklungen letztlich eine Form von Infrastruktur annimmt. Die (allermeisten) Straßen sind auch nicht privat kontrolliert, warum sollte es die Infrastruktur im Digitalen also sein?
Die beiden Wirtschaftswissenschaftler Daron Acemoglu und Simon Johnson haben auf diese notwendigen marktwirtschaftlichen Fragen der Regulierung von KI gerade in einem Essay für die New York Times hingewiesen. Letztlich kommen sie zu dem Schluss, dass nicht in erster Linie die Macht von KI, sondern die Macht- und vor allem die Kapitalkonzentration der Firmen wie Microsoft oder Google das drängendste Problem sind.
Eine neue Überwachungstechnik im Straßenverkehr deutet sich im bundesweiten Einsatz an. Rheinland-Pfalz geht mit Kamera und Computerauswertung gegen Smartphonenutzer am Steuer vor. Doch ist dieser Eingriff wegen einer Ordnungswidrigkeit gerechtfertigt?
Die Polizei in Rheinland-Pfalz setzt ohne Rechtsgrundlage seit mehr als einem Jahr sogenannte „Handy-Blitzer“ ein, die eine verbotene Nutzung des Smartphones im Straßenverkehr dokumentieren sollen. Dabei wird mit einer Kamera anlasslos in alle vorbeifahrenden Autos hineingefilmt. Eine Software wertet die Aufnahmen aus und speichert dann die Fahrer:innen, die angeblich ihr Smartphone benutzen.
In einem Artikel im Spiegel wird die Technik folgendermaßen beschrieben:
Das System, die Monocam, besteht aus einem leistungsfähigen Laptop, einer Kamera und einer KI-gestützten Software, die sogenannte Ablenkungsverstöße voll automatisiert erkennt, also wenn jemand am Steuer ohne Freisprechanlage telefoniert oder in sein Handy tippt. Das Programm wurde vorher mit rund 20.000 Fotos von Fahrzeugführern gefüttert, die das taten. Die Kamera filmt dann den fließenden Verkehr, die Software gleicht das Geschehen auf der Straße mit den Bildern der Handysünder ab. Ist da ein Mobiltelefon im Bereich des Fahrers? Und falls ja, wird es von einer Hand umschlossen? Trifft das zu, signalisiert das Programm einen Treffer. Den schauen sich dann Kontrollkräfte vor Ort an. Am Ende entscheidet immer der Mensch, ob ein Verstoß vorliegt oder nicht.
Keine Rechtsgrundlage
Doch das Verfahren ist derzeit noch umstritten. Laut einem Bericht des ADAC dürfen nach geltender Rechtslage für Verkehrsverstöße verwertbare Foto- und Videoaufnahmen nur bei konkretem Tatverdacht, also nicht verdachtsunabhängig erstellt werden. Genau das passiert aber mit der neuen Überwachungstechnik aus den Niederlanden, bei der alle Autos gleichermaßen und verdachtsunabhängig überwacht werden. Rheinland-Pfalz will deswegen demnächst dafür eine Rechtsgrundlage schaffen.
Juristisch unklar ist auch, ob das bloße in der Hand Halten eines Smartphones ausreicht oder ob das Handy auch bedient werden muss, damit es strafbar ist. Klar ist: Wer kurz auf die Messenger-Nachricht antwortet oder mal eben mit einer Freundin telefoniert, dem drohen 100 Euro Bußgeld und ein Punkt in Flensburg. Bislang konnte die Polizei diese Art der Verkehrssünder nur überführen, wenn sie es selbst sah und dann einschritt. Mit der neuen Technik dürfte die Zahl der überführten Autofahrer:innen deutlich steigen.
Klar ist allerdings, dass die neuen Blitzer die Dichte der Überwachung im Straßenverkehr weiter erhöhen. Während für den Einsatz der Kennzeichenerfassung enge rechtliche Grenzen gelten und diese Fahndung nur bei schweren Straftaten eingesetzt werden darf, filmt der neue Handy-Blitzer grundrechtsinvasiv ins Auto hinein und wertet dann aus, was wir dort tun. Und das zur Verfolgung einer Ordnungswidrigkeit. Hinzu kommen andere Überwachungsmethoden, wie die Section Control, bei der Kennzeichen erfasst werden und auf einer Strecke die Durchschnittsgeschwindigkeit ermittelt wird. Durch all diese Technologien wird das Netz der Überwachung auf den Straßen immer enger – die Überwachung, die in modernen Autos selbst und meist ohne unser Wissen stattfindet mal ganz außen vor.
Digitalcourage warnt vor Ausweitung
Die Datenschützer:innen von Digitalcourage lehnen das Vorhaben ab, so Konstantin Macher, ein Sprecher der Organisation: „Damit wird eine technische Infrastruktur installiert, die sich einfach auf andere Zwecke anpassen lässt.“ Während jetzt noch nach Handys gesucht werde, könnten mit einem Update auch nach anderen Gegenständen gesucht werden. Auch sei, wenn Kameras und „KI“ schon vorhanden seien, die automatisierte Gesichtserkennung nicht weit.
„Es ist besonders problematisch, so einen Eingriff in das Recht auf informationelle Selbstbestimmung ohne Rechtsgrundlage umzusetzen. Das macht eine demokratische Kontrolle der eingesetzten Überwachungstechnik schwierig“, so Macher weiter. Man sei zwar dagegen, dass Menschen durch unaufmerksames Fahren andere Menschen gefährden, eine anlasslose Massenüberwachung sei aber keine verhältnismäßige Maßnahme, um dagegen vorzugehen.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Oben — Automatic Number Plate Recognition (ANPR). ANPR (Automatic Number Plate Recognition) is now the world rage use of this software and camera. Now, parking and highway traffic management have become easier with the ANPR camera and the software. It also knows as license plate recognition(LPR). Now I discuss in detail the ANPR Camera and software. Advantages of ANPR camera and software. 1. Car Parking Management. We can manage our parking system with the ANPR camera when a car came to the front of the camera automatically scan the Number plate or license plate of this car and then store it in the database. 2. Journey Time Analysis. The camera keeps the data of the coming and going of the cars and give you the data when it came and when it goes. 3. Traffic Management An ANPR system can manage traffic also because if any vehicle breaks the rule of traffic then the camera automatically detects the car and keep the data in the case files. It can count the number of cars or vehicles that pass through the ANPR camera.
Am Mittwoch möchte das EU-Parlament über die weltweit bislang umfassendste Regulierung von KI abstimmen. Expert:innen fordern schon Nachbesserungen.
Es ist ein düsteres Szenario, das Meredith Whittaker da malt. Eine Welt, in der wenige große Unternehmen Systeme mit künstlicher Intelligenz (KI) herstellen und kontrollieren. Eine Welt, in der unterbezahlte Arbeiter:innen diese KI-Systeme kuratieren und ihnen zuliefern müssen. In der die Interessen und Rechte der Nutzer:innen und das Wohl der Gesellschaft sekundär sind. Mit diesem Szenario warnt Whittaker davor, die Unternehmen und den Markt einfach machen zu lassen: „Die KI-Systeme werden von Firmen gebaut, deren primäre Ziele Profit und Wachstum sind.“
Whittaker, einst Google-Mitarbeiterin, ist heute Präsidentin der Signal-Stiftung, die mit der gleichnamigem Messenger-App verbunden ist. Und sie ist Expertin in Sachen KI: Als Mitgründerin des AI Now Instituts an der New York University beschäftigt sie sich auch wissenschaftlich mit der Technologie. Auf der Bühne bei der Digitalkonferenz re:publica spricht sie vor einem Publikum, das tendenziell der Digitalisierung gegenüber aufgeschlossen eingestellt ist.
Doch KI – das ist kein klassisches Digitalisierungsthema. Anders als neue Plattformen, von denen alle paar Jahre mal eine neue zum Star wird, wie aktuell Tiktok, anders als die permanente digitale Überwachung, an die sich die meisten längst gewöhnt haben, ist KI etwas grundlegend Neues. Etwas, das Hoffnungen weckt. Und Ängste.
Es ist nicht einmal zwei Wochen her, dass eine Reihe Expert:innen, darunter etwa Sam Altman, Chef des ChatGPT-Herstellers OpenAI, vor möglichen Risiken gewarnt hat: „Das Risiko einer Vernichtung durch KI zu verringern, sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes sein, wie etwa Pandemien und Atomkrieg.“
OpenAI-Chef tingelt durch die Politikwelt
Dass die Warnung es bei diesem einen Satz beließ, sorgte umgehend für Kritik. Sie würde damit eher weitere Ängste auslösen, statt einen Weg für einen konstruktiven Umgang mit der neuen Technologie aufzuzeigen. KI-Expertin Whittaker bezeichnet die Idee der Überlegenheit von KI als „Mythos“. „Je mehr wir glauben, dass diese Systeme übermächtig sind, desto mehr Macht geben wir den Firmen dahinter“, sagt sie.
Zum Beispiel die Macht, gehört zu werden. So trifft Altman aktuell die Staatschef:innen zahlreicher Länder – und nahm auch am Treffen eines transatlantischen Kooperationsforums teil, auf dem Vertreter:innen von EU und USA sich über gemeinsame Standards für KI-Anwendungen austauschten.
Tatsächlich ist die EU, was die KI-Regulierung angeht, ausnahmsweise mal nicht allzu weit hinter einer Technologieentwicklung zurück. Am Mittwoch soll das Parlament über den Artificial Intelligence (AI) Act abstimmen. Es ist die weltweit bislang umfassendste Regulierung zu künstlicher Intelligenz.
Die Abstimmung ist ein wichtiger Zwischenschritt, denn die Zeit drängt: Bis zum Jahresende sollen sich Parlament, Rat und EU-Kommission in den Trilog genannten Kompromissverhandlungen geeinigt haben. Weil es wegen Übergangsfristen danach noch zwei bis drei Jahre dauern wird, bis die Regelungen letztlich greifen, kündigten EU und USA nach dem Kooperationstreffen einen „freiwilligen Verhaltenskodex“ an, der diese Zeit überbrücken und die Weichen in Richtung der europäischen Regelungen stellen soll.
Positive Reaktionen auf Regeln
Tatsächlich haben nicht nur die EU, sondern auch die USA Interesse an gemeinsamen Regeln, die sich andere Länder zum Vorbild nehmen könnten. Doch was taugen die europäischen Regeln in der Form, wie sie aktuell geplant sind?
Spricht man mit Expert:innen für IT-Recht und -Ethik über den AI Act, sind die Reaktionen zumeist erst einmal positiv. Zum Beispiel, dass die EU einen sogenannten risikobasierten Ansatz verfolgt. Das heißt: Die Anwendungen sollen in Risikoklassen eingeteilt werden – je höher das Risiko, desto umfassender und strenger die Regeln.
Damit wird beispielsweise eine KI im Bereich Strafverfolgung stärker reguliert als ein Chatbot. Dazu kommen Vorschriften zu Transparenz und Erklärbarkeit der Systeme sowie Rechte für Betroffene, die sich gegen KI-Entscheidungen wehren wollen. Die beiden federführenden Ausschüsse des EU-Parlaments hatten zuletzt noch einmal nachgeschärft und weitere Anwendungen in die Kategorie „inakzeptables Risiko“ aufgenommen, in der sich die verbotenen Einsatzzwecke befinden, – unter anderem Systeme zur biometrischen Massenüberwachung.
„Der Schutz der Menschen steht im Mittelpunkt“, beschreibt Matthias Kettemann, Professor für Innovationsrecht an der Universität Innsbruck, den Geist des Gesetzesvorhabens. Und: Weil die Regulierung nicht bei technischen Vorgaben stehen bleibt, sondern die Auswirkungen auf die Gesellschaft im Blick habe, drohe der AI Act nicht von den technologischen Entwicklungen überholt zu werden.
Wer lässt sich zur Rechenschaft ziehen?
Auch Sandra Wachter, Professorin am Oxford Internet Institute der gleichnamigen Universität sieht viel Positives – aber in einigen Punkten auch deutlichen Nachholbedarf. Zum Beispiel sei aktuell vorgesehen, dass die Hersteller im Rahmen der vorgesehenen Zertifizierung selbst bewerten sollen, ob ihre Produkte den Regeln entsprechen, statt dafür externe Prüfer:innen heranziehen zu müssen. Oder die Haftungsfrage, also: Eine KI richtet Schaden an – wer lässt sich dafür zur Rechenschaft ziehen? „Momentan liegt der Fokus der EU bei der Haftung noch sehr auf den Entwicklern der Foundation Models und das ist meines Erachtens nicht ausreichend“, sagt Wachter.
Oben — Automatic Number Plate Recognition (ANPR). ANPR (Automatic Number Plate Recognition) is now the world rage use of this software and camera. Now, parking and highway traffic management have become easier with the ANPR camera and the software. It also knows as license plate recognition(LPR). Now I discuss in detail the ANPR Camera and software. Advantages of ANPR camera and software. 1. Car Parking Management. We can manage our parking system with the ANPR camera when a car came to the front of the camera automatically scan the Number plate or license plate of this car and then store it in the database. 2. Journey Time Analysis. The camera keeps the data of the coming and going of the cars and give you the data when it came and when it goes. 3. Traffic Management An ANPR system can manage traffic also because if any vehicle breaks the rule of traffic then the camera automatically detects the car and keep the data in the case files. It can count the number of cars or vehicles that pass through the ANPR camera.
Der IT Konzern Apple Inc. will seinen Dienst „Apple Look Around“, was mitunter von kriminellen Personen und ebensolchen international operierenden Organisationseinheiten zur Vorfeldaufklärung von Straftaten wie Eigentumsdelikte verwendet wird. Niemand braucht sich das gefallen zu lassen.
Deshalb ist es sinnig das alle Menschen welche es wollen, bei dem US Konzern Apple Inc. indem der „USA Patriot Act“ gilt hier in der Bundesrepublik Deutschland gratis gegenüber dem Unternehmen, Apple GmbH proaktiv und schriftlich zu widersprechen. Apple war kein Freund, Apple ist kein Freund, Apple wird niemals ein Freund werden. Es ist eine profitorientierte juristische Person des privaten Rechtes welches persönliche Daten kultiviert, speichert und im Gegensatz zu dem US SIGINT Militärnachrichtendienst, National Security Agency obendrein monetarisiert.
Ungeachtet dessen in wessen Eigentum ein Grundstück, Objekt sich befindet, wie viele Personen darin wohnen. Bei einem gegen den Dienst, Apple Look Around schriftlich eingereichten Widerspruch aus dem Haus muss gesetzlich verpflichtend das gesamte, Grundstück und Gebäude im Internet unkenntlich gemacht werden. Diese rechtmäßige Macht sollte von allen sicherheitshalbar frühzeitig in Anspruch genommen werden. Deshalb wird ein juristisches Musterschreiben angeboten, welches durch meine Person zuvor gegenüber dem Apple Konzern in der Bundesrepublik Deutschland schriftlich eingereicht worden ist.
hiermit widerspreche ich der Aufnahme, auf jeden Fall aber der Wiedergabe, von Abbildern meines Hauses in Ihrem Dienst „Apple Look Around“. Betroffen ist die Anschrift (Straße, Hausnummer) in (Postleitzahl), (Ort). Dezidiert erwarte und verlange ich von Ihnen die sofortige und entgültige Entfernung der Aufnahme meines Hauses aus dem “Online – Angebot”, beziehungsweise “Online – Dienst” und aus ihrem Datenbestand.
Ich erwarte und verlange von Ihnen eine zeitnahe und schriftliche Bestätigung meiner Willenserklärung welche eindeutig ist, Löschung der von mir oben genannten Daten.
Im Fall einer Zuwiderhandlung wende ich mich schriftlich an:
Landesbeauftragte für Datenschutz und Informationsfreiheit Nordrhein – Westfalen
Von dem Gebrauch dieses Rechtes ist allen natürlichen Personen anzuraten. Das gilt mitunter für Eigentümerinnen, Eigentümer, Mieterinnen, Mieter ohne Ansehen der Person. Das gilt auch für jüngere Menschen.
Der Mensch ist nicht frei geboren worden, um als ein Produkt zu Enden.
Big Tech hat eine bequeme Hängematte aufgespannt, in der die halbe deutsche Verwaltung baumelt. Um da wieder rauszukommen, bräuchte es Willenskraft und Ideen, schreibt unsere Kolumnistin. Stattdessen deklarieren wir die Abhängigkeit von Microsoft, T-Systems und Google als „Souveränität“.
„Bianca, du könntest doch mal eine Kolumne dazu schreiben, was du auf der re:publica so erlebt hast, so was Einfaches.“ Mal was ganz Einfaches schreiben in dieser Ausgabe von Degitalisierung. Nach der re:publica 2023, Leitmotto Cash. Ich könnte mir das ja bequem machen. Also eigentlich.
Nun, leider ist gerade ein ziemlich schlechter Zeitpunkt für Bequemlichkeit. Oder anders gesagt: Auf dieser re:publica wurde mir noch stärker bewusst, was Bequemlichkeit zum falschen Zeitpunkt für verheerende Folgen hat. Die Auswirkungen von schlecht getimter Bequemlichkeit merken wir heute aller Ort am Zustand der Digitalisierung in Deutschland. Aber nicht nur dort. Es geht weit tiefer. Letztlich betrifft uns ein bequemer Umgang mit Digitalisierung zum falschen Zeitpunkt als Gesellschaft.
Leider fürchte ich, dass uns diese Bequemlichkeit im Umgang mit Digitalisierung zu immer mehr Problemen führen wird. Auch wenn wir das noch so nett mit Floskeln wie digitaler Souveränität zu übertünchen versuchen. Der schwammige Begriff der digitalen Souveränität sei in diesem Text eher gelesen als die Möglichkeit, Kontrolle über Abhängigkeiten von digitalen Technologien oder Unternehmen selbstbestimmt ausüben zu können.
Selbstverstärkende Systeme
Aus der Eröffnungskeynote von Signal-Präsidentin Meredith Whittaker ist für mich vor allem ein Abschnitt wesentlich: „Die Technologieunternehmen, die das Geschäftsmodell der computergestützten Überwachung frühzeitig verfeinert haben, bauten massive Infrastrukturen, riesige Datenspeicher und große Nutzerbasen auf. Konkurrenten konnten das nicht einfach nachahmen oder kurzerhand einkaufen. Auf diese Weise verstärkte sich das System selbst.“
Big Tech hat systematisch ein feingliedriges Gesamtkonstrukt aufgebaut, das im Wesentlichen nichts wirklich besser kann in individuellen Aspekten, nur eben alles wesentlich bequemer als Gesamtpaket.
Beispiel Microsoft: IT-Infrastruktur auf Basis von Microsoft-Produkten ist nichts, was sich nicht auch mit anderen Produkten oder Open-Source-Lösungen anders umsetzen ließe. Es ist nur sehr bequem auf das ganze Ökosystem zu setzen. Microsoft Exchange als Basis zur Verwaltung von Unternehmenskonten, Office für Dokumente, dazu jetzt auch noch sogenannte KI mit ChatGPT. Selbstverstärkende Systeme auf vielen zueinander passenden Ebenen. Eine ganze Abhängigkeitskaskade.
Am Ende kommt dann aber wieder das große Wehklagen, wenn die finanzielle Abhängigkeit von Microsoft-Produkten etwa in der Bundesverwaltung von Jahr zu Jahr größer wird.
Versteckte Bequemlichkeit
Nun naht aber Abhilfe: eine Cloud, mit der „der öffentliche Dienst souverän“ bleibe. So zumindest die Ankündigung auf der Webseite von Delos, einer Cloudplattform auf Basis von Microsoft Azure und Microsoft 365 für die Verwaltung. Falls man nun meinen könnte, das sei doch wieder nur Microsoft, nein, nein. Das ist alles – ganz souverän – in deutschen Rechenzentren und unter eigenem Betrieb.
Bemerkenswerterweise übersetzt Delos-Chef Georges Welz die postulierte Souveränität eher als „Wahlfreiheit“. Das ist bemerkenswert anhand der tiefen Verzahnung einer Cloud-Office-Suite wie Office 365 mit allen Abhängigkeiten. Insbesondere dem De-Facto-Stillstand von Behörden ohne Zugriff auf Microsoft Office in eben dieser vermeintlich souveränen Cloud. Aber die Verfehlungen der letzten 20 Jahre könne man nun mal nicht „mit einem Fingerschnippen“ umkehren, befindet der Delos-Chef. Kannste nichts machen. Aber immerhin kann alles so bleiben wie es ist und das auch noch in der Cloud.
Klar, Clouds und deren zugrundeliegende Software gingen auch anders. Ebenfalls auf der re:publica gelernt habe ich, dass es problemlos möglich wäre, selbst aufgebaute Clouds in echten physikalischen Containern direkt in einem Wärmekreislauf aus Photovoltaik und Nahwärme zu Wohngebieten einzubinden.
Nur müsste man sich dann sehr genau damit beschäftigen, wie sich das mit „der Cloud“ in unsere gesellschaftliche Umgebung angemessen einfügen kann. Bequem ist das nicht. Stattdessen setzt der Markt lieber auf so fadenscheinige Produkte mit Spuren gefühlter Unabhängigkeit wie eine „T-Systems Sovereign Cloud powered by Google Cloud“.
Die in letzter Zeit oft beschworene digitale Souveränität geht also eigentlich in dem Moment verloren, an dem verzweifelt versucht wird, einen Weg zu finden, die eigenen kaum aufzulösenden Abhängigkeiten als „souverän“ zu deklarieren.
Schlimmer noch: Mit den bequem verzahnten Technologiestacks aus Clouds, Datenspeichern und darauf aufbauender sogenannter KI wird es immer schwieriger, eine wirklich selbstbestimmte und damit im eigentlichen Sinne souveräne Alternative zu wählen. Geht ja so bequem alles miteinander zusammen.
Wann sind wir falsch abgebogen?
Ein Hinweis, wann wir technologisch etwa in der Verwaltung abgebogen sind und aus Bequemlichkeit den Anschluss verloren haben, gab mir der kurzweilige Talk von Lilith Wittmann zum Thema Verwaltungsdigitalisierung. 1999 erschien ein Konzept namens Bund Online 2005. Ziel: Verwaltung digital bis 2005. Mit frappierender Ähnlichkeit zu aktuellen Vorhaben wie dem Onlinezugangsgesetz, auch in Version 2.0.
Im Konzept zu Bund Online lassen sich – neben der schon angesprochenen Abhängigkeit von Microsoft schon damals – folgende Perlen finden, die heute unverändert zutreffen: „Ein wichtiger Aspekt ist die zentrale Koordination der gesamten Aktivitäten. Zum einen müssen die einzelnen Aktivitäten in einer integrierten Gesamtarchitektur münden. Zum anderen können durch eine zentrale Koordination bzw. Bereitstellung einer Reihe von Basiskomponenten erhebliche Einsparungspotenziale bei gleichzeitig gesteigerter Qualität realisiert werden.“
Eigentlich wurde damals schon die Problematik des gebündelten Betriebs in Clouds heute und der Mangel an architektonischer Gesamtplanung klar umrissen. Eigentlich war alles absehbar, schon damals. Aus Bequemlichkeit und Verantwortungsdiffusion haben wir uns aber stattdessen tiefer in Abhängigkeiten und digitalen Zugzwang begeben. Immerhin hat das Tradition: „Das haben wir schon immer so gemacht“.
T.I.N.A.?
Technologie und ihre Abhängigkeitsfallen entwickeln sich aber weiter. Cloud-Infrastrukturen etwa sind gar nicht mehr die einzige Abhängigkeit, die wir auflösen müssten. Wir haben das Thema Clouds in der Digitalisierung in Deutschland auf einer so basalen Ebene verschlafen, dass der Verwaltung oder dem Gesundheitswesen droht, beim Hype-Thema KI nicht mehr hinterher zu kommen.
Die Entwicklung digitaler Technologien suggeriert oft, dass es keine Alternative gäbe. There is no alternative. T.I.N.A. Kannste nichts machen, musste hinterhergehen dem Trend.
Jedem technologischen Trend folgen zu müssen ist aber genauso gefährlich wie sich nicht verändern wollen. Es gilt einen sinnvollen Mittelweg zu finden zwischen den Polen „Haben wir schon immer so gemacht“ und „Hilfe, wir haben technologische Veränderungen verschlafen und müssen jetzt schnell unreflektiert Technologien einführen – obwohl sich gar kein gesellschaftlicher Mehrwert ergibt“.
Für mich ist die wesentliche Botschaft zur re:publica 2023 die aus tantes fabulösem Talk: Nichts, absolut nichts ist alternativlos.
Es ist mühsam und beschwerlich, sich ernsthaft mit technischen Entwicklungen und ihren Konsequenzen zu beschäftigen. Speziell wenn die Digitalisierung von Verwaltung und Gesundheitswesen Jahrzehnte im Rückstand ist. Aber diesen digitalen Rückstand werden wir nicht durch das hastige Aufbauen neuer versteckter Abhängigkeiten aufholen. Auch wenn es der vermeintlich einfache und bequeme Weg wäre.
Also ran an die Details neuer und verschlafener Technologien. Denn jetzt ist ein ganz und gar schlechter Zeitpunkt für Bequemlichkeit.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
International Dunhuang Project – This file has been provided by the International Dunhuang Project from its digital collections, from original file IDP1_167.jpg.
Digitisation of a Dunhuang manuscript in the IDP UK studio. (De Vere 480 Copy Camera)
Der IT Konzern Google will seinen Dienst „Google Street View“, was mitunter von kriminellen Personen und ebensolchen international operierenden Organisationseinheiten zur Vorfeldaufklärung von Straftaten wie Eigentumsdelikte verwendet wird, ab dem 22. Juni 2023 beginnen seine dreizehn Jahren alte Bildmaterialien zu aktualisieren. Alte Widersprüche welche in der Vergangenheit gegenüber dem Google Konzern in Deutschland eingereicht worden sind, gelten nicht mehr. Niemand braucht sich das gefallen zu lassen.
Deshalb ist es sinnig das alle Menschen welche es wollen, bei dem US Konzern Google LLC indem der „USA Patriot Act“ gilt hier in der Bundesrepublik Deutschland gratis gegenüber dem Unternehmen, Google Germany GmbH proaktiv und schriftlich zu widersprechen. Google war kein Freund, Google ist kein Freund, Google wird niemals ein Freund werden. Es ist eine profitorientierte juristische Person des privaten Rechtes welches persönliche Daten kultiviert, speichert und im Gegensatz zu dem US SIGINT Militärnachrichtendienst, National Security Agency obendrein monetarisiert.
Ungeachtet dessen in wessen Eigentum ein Grundstück, Objekt sich befindet, wie viele Personen darin wohnen. Bei einem gegen den Dienst, Google Street View schriftlich eingereichten Widerspruch aus dem Haus muss gesetzlich verpflichtend das gesamte, Grundstück und Gebäude im Internet unkenntlich gemacht werden. Diese rechtmäßige Macht sollte von allen sicherheitshalbar frühzeitig in Anspruch genommen werden. Deshalb wird ein juristisches Musterschreiben angeboten, welches durch meine Person zuvor gegenüber dem Google Konzern in der Bundesrepublik Deutschland schriftlich eingereicht worden ist.
hiermit widerspreche ich der Aufnahme, auf jeden Fall aber der Wiedergabe, von Abbildern meines Hauses in Ihrem Dienst „Google Street View“. Betroffen ist die Anschrift (Straße, Hausnummer) in (Postleitzahl), (Ort). Dezidiert erwarte und verlange ich von Ihnen die sofortige und entgültige Entfernung der Aufnahme meines Hauses aus dem “Online – Angebot”, beziehungsweise “Online – Dienst” und aus ihrem Datenbestand.
Ich erwarte und verlange von Ihnen eine zeitnahe und schriftliche Bestätigung meiner Willenserklärung welche eindeutig ist, Löschung der von mir oben genannten Daten.
Im Fall einer Zuwiderhandlung wende ich mich schriftlich an:
Landesbeauftragte für Datenschutz und Informationsfreiheit Nordrhein – Westfalen
Von dem Gebrauch dieses Rechtes ist allen natürlichen Personen anzuraten. Das gilt mitunter für Eigentümerinnen, Eigentümer, Mieterinnen, Mieter ohne Ansehen der Person. Das gilt auch für jüngere Menschen.
Der Mensch ist nicht frei geboren worden, um als ein Produkt zu Enden.
Jimmy Bulanik
Nützliche Links im Internet:
Die EUDSGVO konforme Gesellschaft aus den Niederlanden, Startpage B.V. ist die sicherste Suchmaschine der Welt, dessen Alleinstellungsmerkmal es ist Suchergebnisse durch deren Proxy Server anonym aufrufen zu können.
Aus der Bundesrepublik Deutschland stammt die EU DSGVO konforme Gesellschaft, Ecosia GmbH welche ebenfalls die Privatsphäre der Menschen respektiert und dessen Nutzung zur Pflanzung von Bäumen beiträgt. Ab fünfzig Suchanfragen wird ein Baum mittels Spende gepflanzt werden.
Die Öffentlich-Rechtlichen machen sich plötzlich locker
Eine Kolumne von Steffen Grimberg
Die Plüschmaus patrouillierte über die Digitalmesse re:publica. Ansonsten waren die Öffentlich-Rechtlichen aber offen für digitale Tranformation.
„Re:publica 23: Weniger Katzenbilder, mehr Hiobsbotschaften“, titelte die Berliner Zeitung zum alljährlichen Hochamt der Digitalcommunity, das diese Woche über die Bühne ging. Das versprühte ein Gefühl von „Die fetten Jahre sind vorbei“. Gut, re:publica-Mitgründer Markus Beckedahl gab in seiner Rede zur Lage der Digitalnation schonungslose Einblicke in die Abgründe eines der reichsten Länder.
Pro Jahr geht es digital gerade mal ein paar Meter Glasfaserkabel weiter. Dafür öffnet Deutschland zum „Ausgleich“ seinen geheimen Diensten fürs Datensaugen immer weiter Tür und Tor. Aber es gab auch beruhigende Nachrichten! ChatGPT kann Wörter raten, manchmal sogar mit Zusammenhang. Mehr aber nicht. Journalismus wird also nicht überflüssig, und ob bei dem ganzen Spaß wirklich wenigstens bessere Überschriften rauskommen, bleibt abzuwarten.
So richtig fett haben dafür endlich die Öffentlich-Rechtlichen die re:publica für sich entdeckt. Also nicht nur Arte, die wegen der französischen Rechtslage digital eh schon immer mehr durften und praktisch von Anfang an dabei sind. Auch ARD und ZDF waren mit gut gemachten Ständen und vor allem eigenen Programmstrecken präsent. Und während frühere ARD-Vorsitzende als leichte Fremdkörper durch die Hallen geschleift wurden, kam Kai Gniffke im coolen schwarzen T-Shirt und sah überhaupt nicht nach ARD-Vorsitzendem aus.
Übung im Dialog führen
Was ja dringend in dem Laden mit seinen ganzen Anstalten, Arbeitsgruppen, Kommissionen, GSEAs (Gemeinsame Einrichtung ARD), neuen Kompetenzzentren und vor allem Befindlichkeiten dringend gebraucht wird, hat hier locker-flockig funktioniert. Es geht um einen unbürokratischen Dialog aller auf Augenhöhe.
Und das Führen dieses Dialogs muss nicht nur mit den ÖRR-Konsument*innen und Beitragszahlenden gelernt werden, sondern er findet offenbar auch intern immer noch viel zu wenig statt. „Na, dafür muss ja erst noch ein Konzept für internen Dialog in der ARD-ZDF-Medienakademie entworfen und mit allen abgestimmt werden“, meint die Mitbewohnerin.
Wenn die öffentliche Verwaltung Software entwickelt oder einkauft, sollte sie diese unter freie und offene Lizenzen stellen. Die von der Bundesregierung angestoßene Reform des Vergaberechts bietet jetzt eine gute Gelegenheit, das im Gesetz zu verankern. Für ein echtes Umdenken braucht es aber mehr als eine Gesetzesreform.
Proprietäre Software bedeutet, dass die entsprechende Lizenz die Möglichkeiten der Nutzung, Weiter- und Wiederverwendung sowie die Änderung des Quellcodes durch Dritte stark einschränkt. Diese Abhängigkeit verhindert, dass Verwaltungen ihre IT-Architektur selbst gestalten und kontrollieren sowie zwischen verschiedenen Anbietern wechseln können.
Freie und Open Source Software (FOSS) ermöglicht einen Weg aus dieser Abhängigkeit. Denn FOSS-Lizenzen erlauben es prinzipiell allen Menschen, Einblick in den Quellcode zu nehmen, diesen frei und uneingeschränkt zu verwenden, zu verändern und auch in einer veränderten Form wieder weiterzuverbreiten. Die in der Verwaltung eingesetzte FOSS-lizenzierte Software ist dadurch unabhängig überprüfbar, gestaltbar und austauschbar und ermöglicht potenziell ein höheres IT-Sicherheits- sowie Datenschutzniveau.
Die Hürden für FOSS in der Verwaltung
Der Koalitionsvertrag der Ampelregierung formuliert ein klares Ziel: „Entwicklungsaufträge werden in der Regel als Open Source beauftragt, die entsprechende Software wird grundsätzlich öffentlich gemacht.“ So würde der Einsatz von FOSS in der Verwaltung dem Prinzip „Public Money, Public Code“ folgen: Öffentlich finanzierte Software muss der Allgemeinheit zur Verfügung stehen, da sie auch von der Allgemeinheit bezahlt wird.
Doch bisher ist FOSS in der Verwaltung weiterhin eher eine Ausnahme als die Regel. Oft scheitern öffentliche Stellen schon daran, dass ihnen unklar ist, wie sie FOSS beauftragen können und dürfen. Das Vergaberecht gibt strenge Regeln dafür vor, wie die Verwaltung Produkte und Dienstleistungen einkaufen muss, meist über Ausschreibungen.
Das ist auch sinnvoll, damit der Staat seine Mittel mit Bedacht verwendet und nicht ausschließlich auf bereits bestehende Anbieter zurückgreift oder einen Auftrag nach beliebigen Kriterien vergibt Doch die komplexen und langwierigen Prozesse und die bisher angelegten Kriterien legen gerade FOSS einige besonders große Steine in den Weg.
Denn FOSS schafft Mehrwerte, die in der etablierten Vergabe meist keine Berücksichtigung finden. Proprietäre Software können naturgemäß nur diejenigen nutzen, die die entsprechende Lizenz einkaufen. Bei FOSS ist das anders: Wenn eine öffentliche Stelle die Entwicklung von FOSS beauftragt oder sogar selbst entwickelt, vergrößert sich damit der Pool an Software, der auch anderen öffentlichen Stellen sowie der Wirtschaft und Gesellschaft allgemein zur Verfügung steht.
Dieser weitreichende positive Effekt auf die Gesellschaft kann von der auftraggebenden Stelle nicht berücksichtigt werden, wenn sie nur Preis und Nutzen für sich selbst bewerten darf. Auch können Behörden FOSS frei anpassen und mit anderen Diensten kombinieren. Das stellt zwar auf dem Papier keinen Mehrwert dar, der für ein FOSS-Angebot den Ausschlag geben kann, doch diese Interoperabilität schafft mehr Möglichkeiten, andere Dienste einzubinden. Und damit insgesamt mehr Gestaltungsfähigkeit für die Verwaltung.
Ein Funken Hoffnung: die Vergabetransformation
Das Bundesministerium für Wirtschaft und Klimaschutz will aktuell das Vergaberecht reformieren, um öffentliche Vergabeverfahren zu vereinfachen, zu professionalisieren, zu digitalisieren und zu beschleunigen. Außerdem soll die Vergabe wirtschaftlich, sozial, ökologisch und innovativ ausgerichtet werden. Über 400 Verbände, Organisationen, Unternehmen und Einzelpersonen haben dazu Stellungnahmen eingereicht. Auch Wikimedia Deutschland und die Open Source Business Alliance erklären dabei, wie FOSS in der Verwaltung auf die Ziele der Vergabereform einzahlt. Diese Reform ist eine ideale Gelegenheit für eine Gesetzesänderung, um es Behörden zu ermöglichen, rechtssicher bevorzugt FOSS zu beschaffen.
Wie genau soll das funktionieren? Ein von der Open Source Business Alliance in Auftrag gegebenes Gutachten zeigt, wie es gehen kannt: Wann immer die Verwaltung Software einkaufen oder entwickeln möchte und die Wahl zwischen zwei oder mehr gleich gut geeigneten Lösungen hat, soll FOSS Vorrang vor proprietärer Software haben. Der Gutachter Prof. Andreas Wiebe schlägt vor, den Vorrang für FOSS im E-Government-Gesetz des Bundes oder in der Vergabeverordnung für öffentliche Aufträge festzulegen. Auf Landesebene haben Thüringen und Schleswig-Holstein mit ihren E-Government-Gesetzen bereits diesen Weg gewählt.
Mehr Kompetenz in den Behörden
Eine Bevorzugung von FOSS ist jedoch nicht das einzige, was es für eine erfolgreiche digitale Transformation in der Verwaltung braucht. Mitarbeitende in Behörden müssen unbedingt lernen, geeignete Software auszuwählen und zu verwenden. In einem Beschluss zur Erarbeitung einer Open-Source-Strategie der sächsischen Landesregierung ist daher auch einer von sechs Punkten „die Förderung der Umgewöhnung und der Akzeptanz der Mitarbeiterinnen und Mitarbeiter der sächsischen Verwaltung in Open-Source-Software.“
Aber auch eine Umgewöhnung reicht noch nicht aus, um beim Einsatz von FOSS in der Verwaltung das volle Potenzial auszuschöpfen. Die Menschen in der Verwaltung müssen verstehen, welche aktuellen Technologien am besten die Anforderungen ihrer Behörde erfüllen. Erst mit einem solchen tiefergehenden Verständnis können sie selbstständig Software vergleichen, sie für ihre Zwecke anpassen, zwischen Anbietern wechseln und informiert FOSS von anderen öffentlichen Stellen einbinden und wiederverwenden.
Der behördliche Kompetenzaufbau ist daher neben der Reform des Vergaberechts die größte Herausforderung für eine effektive Verwaltungsdigitalisierung mit FOSS. Dazu gehört nicht zuletzt auch, dass die Einstellungsbedingungen bei Behörden dringend angepasst werden müssen: Gehälter, geforderte Abschlüsse und sonstige Benefits. Nur so wird es überhaupt attraktiv, als IT-Expert*in in einer Verwaltung zu arbeiten.
Die Bundesregierung hat sich in Koalitionsvertrag und Digitalstrategie zu freier und offener Software bekannt. Jetzt muss sie handeln!
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Die Bundesregierung strebt „einen umfassenden digitalen Aufbruch“ für Deutschland an. Unterstützen soll sie dabei ein 19-köpfiger Beirat. Dessen Mitglieder zeigen sich jedoch überaus frustriert. Sie mahnen eine einheitliche Strategie, klare Zuständigkeiten und ministerielle Führung an.
Nicht weniger als einen radikalen Kurswechsel forderte Bundesdigitalminister Volker Wissing (FDP) im vergangenen Sommer. „Wir müssen […] rein in die konkrete Umsetzung“. Keinesfalls dürfe man sich beim Thema Digitalisierung wieder „in großen Visionen verlieren“, so der Minister.
Auf Nachfrage von netzpolitik.org vermissen etliche der Mitglieder zur Halbzeit eine einheitliche Strategie, klar geregelte Zuständigkeiten und eine koordinierte Führung durch das Bundesministerium für Digitales und Verkehr (BMDV).
Ein Kessel Buntes an vermeintlichen Lösungen
Vor allem die fehlende strategische Ausrichtung erschwere die Arbeit, sagt Henriette Litta von der Open Knowledge Foundation. Sie ist eine von sechs Mitgliedern, die die Zivilgesellschaft in dem Beirat repräsentieren. „Bei den einzelnen Themen wird es sehr schnell technisch. Dann unterbleibt oftmals die gesellschaftliche Einbettung – und damit die politische Zielsetzung“, so Litta. „Daher wissen wir zum Teil nicht einmal, welches Problem ein bestimmtes Leuchtturmprojekt der Digitalstrategie lösen soll.“
Als Beispiel nennt Litta die Nationale Bildungsplattform, die zwar über ein beachtliches Budget von 630 Mio. Euro verfügt. Was aber genau die Ziele von Bildung in Zeiten der Digitalisierung seien und wie die Plattform etwa zu mehr Bildungsgerechtigkeit führen kann, sei bislang völlig unklar.
„Ich habe nicht den Eindruck, dass wir an einer Digitalstrategie mitwirken“, sagt Litta, „sondern vielmehr eine To-do-Liste mit ganz unterschiedlichen Aufgaben abarbeiten.“ Die Leuchtturmprojekte seien ein „Kessel Buntes“ mit Vorhaben unterschiedlicher Tragweite und Relevanz. Tatsächlich reichen diese von der Nationalen Bildungsplattform über ein „Ökosystem digitale Identitäten“ und dem „Digitalraum Kultur“ bis zur Digitalisierung des Spendennachweisverfahrens. „Eine Koordinierung des BMDV könnte hier helfen, mehr Struktur reinzubringen, aber das passiert bislang nicht“, so Litta.
„Ich bin begeistert über den Teamgeist im Beirat. Wir haben alle sehr unterschiedliche Sichtweisen und schaffen es dennoch, immer wieder gemeinsame Positionen zu finden“, so Fischer gegenüber netzpolitik.org. Allerdings hapere es „an der Wirkung nach außen“, gerade in Richtung des BMDV und anderer Ministerien. „Wir müssen immer wieder darum ringen, Einfluss nehmen zu können, auch strategisch.“
Gerade Letzteres sei jedoch bitter nötig. Denn es fehle erkennbar an einer „verbindenden Klammer“ und Gesamtstrategie, so Fischer. Zum Teil mache das BMDV den Eindruck, nicht einmal genau zu wissen, was es von dem Beirat erwarte, sagt der Gewerkschafter.
In der Rolle eines Sekretariats
Das BMDV betont dementgegen gerade die Unabhängigkeit des Gremiums. Das Ministerium nehme vor allem „eine Sekretariatsfunktion wahr“, so ein BMDV-Sprecher auf Anfrage von netzpolitik.org, etwa indem es die inhaltliche Vor- und Nachbereitung von Beiratssitzungen unterstütze.
Gründe dafür, den Prozess stärker zu strukturieren und zu koordinieren, sieht das Ministerium offenbar nicht. Sowohl die Zusammenarbeit zwischen den Ressorts als auch die Kooperation mit dem Beirat seien laut Sprecher „sehr konstruktiv“.
Erste Meilensteine der Digitalstrategie habe man bereits erreicht. So werde es ab September 2023 möglich sein, „Fahrzeuge bequemer online zuzulassen“. Auch die Entwicklung der Bund-ID verlaufe vielversprechend, außerdem seien Verbesserungen bei der Smart eID in Vorbereitung. „Damit bewerten wir den Umsetzungsfortschritt insgesamt als gut“, so das Fazit des BMDV.
Politiker-innen ? Sie hören und sehen nichts.
Zu wenig Ressourcen in den Ministerien
Gerade an den vom Ministerium genannten Vorhaben entzündete sich jedoch zuletzt zum Teil massiveKritik. Und auch einige der Beiratsmitglieder kommen zu einer anderen Einschätzung als das BMDV.
Ann Cathrin Riedel ist als Wissenschaftlerin und Vorsitzende von LOAD e.V. in den Beirat berufen worden. Als Geschäftsführerin bei der gemeinnützigen Plattform NExT setzt sie sich zudem für eine „digitale Transformation der Verwaltung“ ein. Aus dieser Warte kritisiert sie ebenfalls, dass die Umsetzung der Digitalstrategie mehr schlecht als recht koordiniert werde: „Das Digitalministerium steuert da nichts – aber sicher nicht aus Böswilligkeit, sondern wegen der fehlenden Übertragung der Aufgabe.“
Riedel wünscht sich nicht nur einen klaren Gestaltungsanspruch seitens des Digitalministeriums, sondern auch mehr Ressourcen in den Ministerien. Nur eine Handvoll Beamt:innen sei in verschiedenen Ressorts etwa für das Thema „Digitale Identitäten“ zuständig. Das sei entschieden zu wenig, so die Verwaltungsexpertin.
Zusammenarbeit per E-Mail
Weil bei alledem das große Ganze nicht erkennbar sei, drängt Ridel – wie auch andere Mitglieder des Beirats – auf baldige Gespräche mit der Staatssekretärsrunde Digitalstrategie. Die Staatssekretärsrunde begleitet und steuert, unter Vorsitz des BMDV, das Monitoring der Digitalstrategie. Laut Digitalministerium tagte sie erstmals am 30. März dieses Jahres. Auf der Agenda standen dabei unter anderem eine Aktualisierung der Digitalstrategie und die Arbeit des Beirats, so ein Ministeriumssprecher gegenüber netzpolitik.org.
Ann Cathrin Riedel würde diese Agenda gerne erweitern, um den aus ihrer Sicht zähen Austausch zwischen den Ministerien zu beschleunigen. „Im Koalitionsvertrag ist das Ziel festgehalten, dass die Ampel das Silo-Denken zwischen den einzelnen Ministerien überwinden wolle. Der digitale Aufbruch ist ein Querschnittsthema und wäre dafür eigentlich wunderbar geeignet. Im Beirat merken wir, dass das bisher kein Thema ist“, sagt Riedel zu netzpolitik.org.
Offenkundig gebe es nicht einmal eine Kollaborationsplattform, auf der die unterschiedlichen Ressorts untereinander Dateien austauschen können. „Die schicken sich dann E-Mails hin und her“, so Riedel. „Eine effektive ressortübergreifende Zusammenarbeit ist so kaum möglich. Um Effizienzen zu haben, die es auch zwischen den 18 Leuchtturmprojekten gibt, müssen wir das Thema Kollaboration und Austausch zwischen den Ministerien dringend priorisieren und überhaupt auf die Agenda setzen.“
Ernüchternder Blick unter die Motorhaube
Alexander Rabe äußert sich nach dem Blick „unter die Motorhaube der Politik“ ähnlich gegenüber netzpolitik.org. Der Geschäftsführer bei eco – Verband der Internetwirtschaft e.V. ist einer von sechs Vertreter:innen der Wirtschaft im Beirat. Seit Jahren fordere eco ein starkes Digitalministerium, so Rabe, „und ich muss sagen: zu Recht.“
Er habe den Eindruck gewonnen, die Ministerien hätten oftmals nur wenig Überblick darüber, was andere Ressorts täten. „Das ist entweder so gewollt oder systemimmanent“, sagt Rabe. Auf jeden Fall erschwere dies einen „Konsistenz-Check“ bei den angestrebten Leuchtturmprojekten.
Auch die Digitalstrategie selbst hat die Bundesregierung im Laufe der vergangenen Monate verändert, ohne dies den Beiratsmitgliedern vorab mitzuteilen. Das BMDV bestätigte gegenüber netzpolitik.org, dass „die Digitalstrategie von den Ressorts regelmäßig auf Aktualität überprüft [wird], um in begründeten Fällen Anpassungen zu ermöglichen.“ Der Beirat „ist an diesem Verfahren nicht unmittelbar beteiligt“, so ein Ministeriumssprecher.
Ein Vergleich beider Versionen zeigt, dass etwa das „interoperable Bildungsökosystem“, das einen chancengleichen und barrierefreien Zugang zu digitaler Bildung anstrebt, nur noch „prototypisch“ etabliert werden soll. Wenn aber die Leuchtturmprojekte am Ende nur noch Modellcharakter haben, dann muss Digitalminister Volker Wissing eine Sorge zumindest nicht mehr umtreiben: Dass man sich bei der Umsetzung der Digitalstrategie in „große Vision“ verlieren könnte.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Oben — re:publica 2022: Volker Wissing (Bundesminister für Digitales und Verkehr) bei der Session ‚Das Momentum nutzen!‘
Steffen Prößdorf
CC BY-SA 4.0This image contains persons who may have rights that legally restrict certain re-uses of the image without consent.
File:2022-06-09 re-publica 2022 IMG 5011 by Stepro.jpg
Created: 9 June 2022
****************************
Unten — MANAMA, Bahrain (Sept. 1, 2012) Machinist’s Mate 3rd Class Whitney Collins, right, assigned to the aircraft carrier USS Dwight D. Eisenhower (CVN 69), blindfolds a resident of the Philippine Embassy Women’s Shelter while playing ‚pin the tail on the donkey‘ during a community relations project. Dwight D. Eisenhower is deployed to the U.S. 5th Fleet area of responsibility conducting maritime security operations, theater security cooperation efforts and support missions for Operation Enduring Freedom. (U.S. Navy photo by Mass Communication Specialist 2nd Class Julia A. Casper/Released) 120901-N-RY232-064 Join the conversation www.facebook.com/USNavywww.twitter.com/USNavy navylive.dodlive.mil
Der ehemalige Staatstrojaner-Hersteller FinFisher muss sich vor Gericht verantworten. Die Staatsanwaltschaft hat vier ehemalige Geschäftsführer angeklagt. Sie wirft ihnen vor, Überwachungstechnologie ohne Genehmigung an den türkischen Geheimdienst verkauft zu haben. Anlass ist unsere Strafanzeige.
Die Staatsanwaltschaft München I hat Anklage gegen die Staatstrojaner-Firmengruppe FinFisher erhoben. Vier Geschäftsführer des ehemaligen Firmengeflechts müssen sich jetzt vor dem Landgericht München I verantworten. Ihnen wird vorgeworfen, ihr Staatstrojaner-Produkt ohne die dafür notwendige Genehmigung in die Türkei verkauft zu haben.
Anlass ist unsere Strafanzeige, die wir 2019 gemeinsam mit der Gesellschaft für Freiheitsrechte, Reporter ohne Grenzen und dem Europäischen Zentrum für Verfassungs- und Menschenrechte verfasst und eingereicht haben. Bisher hat FinFisher die Vorwürfe immer bestritten.
Die Staatsanwaltschaft hat über drei Jahre ermittelt und 15 Liegenschaften durchsucht, darunter auch die Firmenzentrale in München. Zudem haben sie Schweden, Zypern, Malaysia, Bulgarien und Rumänien um Rechtshilfe gebeten.
Laut Anklage haben die Angeschuldigten neue Exportrichtlinien nach 2015 umgangen, indem sie „die Ausfuhr der Überwachungssoftware auf dem Papier ohne Genehmigung über eine in Bulgarien sitzende Gesellschaft“ abgewickelt haben. „Die Entwicklung der Überwachungssoftware fand tatsächlich aber weiterhin durch das Entwicklungsteam der FinFisher Labs GmbH, federführend in Person des Angeschuldigten H. in München, unterstützt durch die in Rumänien tätigen Entwickler, statt.“
Im Januar 2015 haben die Angeklagten laut Anklageschrift einen Vertrag über fünf Millionen Euro mit der Türkei abgeschlossen. Leistungsempfänger war demnach der türkische Inlandsgeheimdienst MİT. Laut Staatsanwaltschaft hat FinFisher den Empfänger verschleiert und „eine tatsächlich nichtexistierende ‚Generaldirektion für Zollkontrolle‘ in Ankara benannt“. Der Staatstrojaner von FinFisher wurde im Sommer 2017 gegen den Gerechtigkeitsmarsch der türkischen Zivilgesellschaft um den aktuellen Präsidentschaftskandidat Kemal Kılıçdaroğlu eingesetzt.
Jetzt müssen sich die Angeklagten vor Gericht verantworten. Seit einem Jahr sind die dazugehörigen Firmen bereits insolvent und aufgelöst. FinFisher ist für Stellungnahmen nicht mehr erreichbar.
Update (17:20): Die beteiligten NGOs haben eine gemeinsame Pressemitteilung veröffentlicht.
FinFisher hat offenbar jahrelang Überwachungssoftware illegal an autoritäre Regierungen verkauft, und damit weltweit zur Überwachung und Unterdrückung von Menschenrechtsverteidiger*innen, Journalist*innen und Oppositionellen beigetragen. Dass die Verantwortlichen nun endlich belangt werden, ist ein längst überfälliges Signal, dass solche Verstöße nicht ungestraft bleiben dürfen.
Bislang konnten Firmen wie FinFisher trotz europäischer Exportregulierung fast ungehindert weltweit exportieren. Die heutige Anklageerhebung ist längst überfällig und führt hoffentlich zeitnah zur Verurteilung der verantwortlichen Geschäftsführer. Aber auch darüber hinaus müssen die EU und ihre Mitgliedstaaten viel entschiedener gegen den massiven Missbrauch von Überwachungstechnologie vorgehen.
Verletzungen der Pressefreiheit gehen heute in vielen Fällen mit dem Einsatz von Überwachungssoftware einher. Für die Betroffenen bedeutet jeder einzelne Fall einen massiven Eingriff in ihre Persönlichkeitsrechte. In autoritären Staaten kann das für Journalisten und ihre Quellen, für Aktivistinnen und Oppositionelle dramatische Folgen haben.
Anklageerhebung wegen gewerbsmäßigen Verstoßes gegen das Außenwirtschaftsgesetz durch den nicht genehmigten Verkauf von Überwachungssoftware an Nicht-EU-Länder
Die Staatsanwaltschaft München I hat mit Anklageschrift vom 03.05.2023 Anklage wegen gewerbsmäßigen Verstoßes gegen das Außenwirtschaftsgesetz in drei tateinheitlichen Fällen in Mittäterschaft zum Landgericht München I – Große Strafkammer – gegen insgesamt vier Angeschuldigte erhoben. Ihnen wird vorgeworfen, als Verantwortliche der FinFisher-Unternehmensgruppe durch den Verkauf von Überwachungssoftware an Nicht-EU-Länder vorsätzlich gegen Genehmigungspflichten für Dual-Use-Güter verstoßen und sich damit strafbar gemacht zu haben.
Die spezialisierte Abteilung für politische Strafsachen der Staatsanwaltschaft München I hat in dem Themenkomplex umfangreiche und aufwändige Ermittlungen durchgeführt. Ermittlungsinitiierend für das Verfahren gegen die Angeschuldigten war eine gemeinsame Strafanzeige vom 05.07.2019 von vier Nichtregierungsorganisationen, die sich für Pressefreiheit und Menschenrechte einsetzen. Mit ihrer Strafanzeige legten sie Analysen von IT-Experten vor, welche zu dem Schluss kamen, dass die Überwachungssoftware FinSpy im Jahr 2017 über eine gefälschte Webseite der türkischen Oppositionsbewegung unter Vorspiegelung falscher Tatsachen zum Download angeboten wurde, um diese auszuspähen.
In Zusammenarbeit mit dem Zollkriminalamt und unter Unterstützung weiterer Strafverfolgungsbehörden hat die Staatsanwaltschaft München I am 06.10.2020 insgesamt 15 Objekte (Geschäftsräume und Privatwohnungen) rund um München und ein Unternehmen aus der Unternehmensgruppe in Rumänien durchsucht. Im Laufe der Ermittlungen wurden Rechtshilfeersuchen an Schweden, Zypern, Malaysia, Bulgarien und Rumänien gerichtet.
Die Staatsanwaltschaft geht in ihrer Anklage von folgendem, vor Gericht noch zu beweisenden Sachverhalt aus: Der Hauptgeschäftszweck der FinFisher Gruppe bestand in der Entwicklung und dem weltweiten Vertrieb von Software zum Einsatz durch Strafverfolgungsbehörden und Nachrichtendienste. In diesem Bereich zählte die Gruppe weltweit zu einem der führenden Unternehmen. Hauptprodukt war die als „FinSpy“ bezeichnete kommerzielle Spähsoftware, mit deren Hilfe es möglich war, die volle Kontrolle über PCs und Smartphones zu erlangen und dabei auch die laufende Kommunikation zu überwachen. Abnehmer waren Staaten in der EU, aber auch sog. „EU001“-Staaten (für die durch die EU eine Allgemeine Ausfuhrgenehmigung erteilt wurde: Australien, Island, Japan, Kanada, Neuseeland, Norwegen, Schweiz, Liechtenstein, UK, USA) und insbesondere sog. „Nicht-EU001“-Staaten, mit denen der wesentliche Teil des Umsatzes der FinFisher Gruppe erzielt wurde.
Mit der zum 01.01.2015 in Kraft getretenen Änderung der Verordnung (EG) Nr. 428/2009 (sog. Dual-Use-Verordnung) wurde die Ausfuhr von Überwachungstechnologien aus der EU der Genehmigungspflichtigkeit unterstellt, was für die FinFisher Gruppe eine existentielle Gefährdung bedeutete, da hierunter auch die von ihr entwickelte und verkaufte Überwachungssoftware fiel. Durch eine global verzweigte Firmenstruktur sollte der Anschein erweckt werden, dass auch nach Inkrafttreten der gesetzlichen Beschränkungen zum 01.01.2015 der Vertrieb der Überwachungssoftware in Ländern außerhalb der EU rechtskonform fortgeführt werde. Tatsächlich wurden alle geschäftlichen Aktivitäten der verschiedenen Unternehmen fortwährend von München aus gesteuert, geleitet und koordiniert. Die Angeschuldigten G., H., T und D. waren jeweils Geschäftsführer von GmbHs der FinFisher-Gruppe. D. war zudem der Finanzchef und Verantwortlicher der Exportkontrolle der Firmengruppe.
Um dennoch weiterhin Verträge mit sog. Nicht-EU001-Ländern abwickeln zu können, beschlossen die Angeschuldigten, die Ausfuhr der Überwachungssoftware auf dem Papier fortan ohne Genehmigung über eine in Bulgarien sitzende Gesellschaft R. abzuwickeln. Nach außen, d.h. durch Schaffen einer entsprechenden Papierlage, sollte der Eindruck entstehen, dass Verträge mit Kunden aus dem Länderkreis Nicht-EU001 mit Änderung der Rechtslage nicht mehr über die in München sitzenden Gesellschaften bedient wurden. Die Entwicklung der Überwachungssoftware fand tatsächlich aber weiterhin durch das Entwicklungsteam der FinFisher Labs GmbH, federführend in Person des Angeschuldigten H. in München, unterstützt durch die in Rumänien tätigen Entwickler, statt.
Ende Januar 2015 wurde ein Vertrag über die Lieferung von Überwachungssoftware, Hardware, technischer Unterstützung, Schulungen etc. in die Türkei im Wert von 5,04 Mio. EUR geschlossen. Zur Verschleierung, dass die vertraglich vereinbarten Lieferungen tatsächlich von den Angeschuldigten aus München bestimmt wurden und Leistungsempfänger der türkische Geheimdienst MIT war, waren in dem Vertragsdokument als Verkäuferin die bulgarische Gesellschaft R. und als Empfängerin der Lieferung eine tatsächlich nichtexistierende „Generaldirektion für Zollkontrolle“ in Ankara benannt.
In der Folge kam es ab dem 01.03.2015 zu drei Tathandlungen durch die jeweilige Übermittlung eines Links für den Download an den türkischen Geheimdienst MIT. Zugunsten der Angeschuldigten werden diese rechtlich als tateinheitlich begangen gewertet, da alle drei Tathandlungen auf dem einheitlichen Vertragsschluss beruhten. Die Software wurde in der Türkei auf zuvor breitgestellte Hardware heruntergeladen und aufgespielt, im Anschluss daran wurden Schulungen zur Anwendung durchgeführt.
Wie allen Angeschuldigten bewusst war, wurde die für die Ausfuhr der Überwachungssoftware erforderliche Exportgenehmigung bis zur Einstellung des Geschäftsbetriebs der FinFisher Gruppe zu keinem Zeitpunkt erteilt, und zwar auch nicht durch die bulgarischen Exportbehörden. In Deutschland wurde eine Exportgenehmigung nicht einmal beantragt. Den Angeschuldigten war ebenfalls bewusst, dass Geschäfte mit Ländern der Ländergruppe Nicht-EU001 der FinFisher Unternehmensgruppe und damit mittelbar auch ihnen selbst erhebliche Einnahmen brachten, sie handelten in der Absicht, sich durch diese Geschäfte eine fortlaufende Einnahmequelle von erheblichem Umfang zu verschaffen.
Über die Eröffnung des Hauptverfahren und damit über eine mögliche Terminierung der Hauptverhandlung wird die zuständige Große Strafkammer des Landgerichtes München I entscheiden.
Allgemeiner Hinweis zum Zeitraum zwischen dem Datum der Anklageerhebungen und der Veröffentlichung der Pressemitteilung: Nach den Richtlinien für das Straf- und Bußgeldverfahren (Nr. 23 Abs. 2 RiStBV) darf eine Anklageerhebung der Presse erst dann bekannt gegeben werden, wenn die Anklageschrift einem Angeschuldigten bzw. dessen Verteidigung nachweislich zugegangen ist.
Im Rahmen der seit Jahrzehnten andauernden Digitalisierung der Gesellschaft werden stetig neue Sachbereiche daraufhin abgeklopft, wie die vorliegenden Daten nutz- und gewinnbringend ausgewertet werden können. Die Gesundheitsdaten der deutschen Bevölkerung sind da keine Ausnahme.
Unter der Ägide des damaligen Gesundheitsministers Jens Spahn beschloss der Deutsche Bundestag im Dezember 2019 das sogenannte Digitale-Versorgung-Gesetz (DVG). Auf dessen Grundlage wurden die Gesundheitsdaten aller 73 Millionen gesetzlich Versicherten im sogenannten Datentransparenzverfahren (DTV) seit Oktober 2022 zusammengeführt und zentral gespeichert. Begründet wurde das Vorhaben damit, dass dadurch neue Möglichkeiten für die medizinische Forschung, die Versorgungsforschung, die Gesundheitsberichterstattung und die Steuerung des Gesundheitswesens entstehen sollen.
Auch wenn dies berechtigte Anliegen sind, dürfen die Grundrechte der Betroffenen bei der Umsetzung nicht auf der Strecke bleiben: Bei der Verarbeitung hochsensibler Gesundheitsdaten von Millionen Versicherten braucht es angemessene Schutzstandards und Widerspruchsrechte, beides fehlt im DVG.
Zentrale Speicherung birgt unnötige Risiken
Die Datentransparenzverordnung vom 26. Juni 2020 sieht vor, dass spätestens am 1. Oktober 2022 alle Versichertendaten von den gesetzlichen Krankenkassen zur Datensammelstelle, dem Spitzenverband Bund der Krankenkassen (BdK), fließen sollten. Zu jeder Person werden u. a. folgende Gesundheitsdaten als zusammenhängender Datensatz verarbeitet: Diagnosen, Behandlungen, Operationen, Arzneimittel, Zuzahlungen, Krankengeld-Informationen und viele andere Kosten- und Leistungsdaten sowie Geburtsjahr, Geschlecht und Postleitzahl.
Für die beschriebenen Zwecke, insbesondere die medizinische Forschung, würde es genügen, wenn die Daten dezentral gespeichert und nur projektbezogen temporär zusammengeführt würden. Stattdessen werden die Gesundheitsdaten aller Versicherten nun zusätzlich zur Speicherung bei den Krankenversicherungen in einer zentralen Datenbank vollständig, gemeinsam und bis zu 30 Jahre lang vorgehalten.
Eine solche zusätzliche zentrale Speicherung erhöht die Risiken eines Datenmissbrauchs oder eines unbefugten Datenzugriffs. Ein erfolgreicher Angriff oder eine Fehlbenutzung betreffen in einem zentralen System zudem potenziell schnell alle Daten und können verheerende Folgen haben für die Versicherten (Identifikation, Stigmatisierung und Arbeitsplatzverlust nach Veröffentlichung, Verletzung der Selbstbestimmung) und auch für den Betreiber (Haftungsansprüche). Zudem bedeutet eine unnötige Datenzentralisierung immer eine unverhältnismäßige staatliche Machtkonzentration, denn liegen die Daten einmal vor, können sie schnell auch für andere Zwecke verwendet werden, etwa für individualisierte Versicherungstarife oder gar zur Strafverfolgung.
Aus dem im Grundgesetz verankerten Recht auf informationelle Selbstbestimmung und aus dem Grundrecht auf Datenschutz in Artikel 8 der EU-Grundrechtecharta ergibt sich die staatliche Schutzpflicht, Menschen bei der Verarbeitung sensibler Daten adäquat vor negativen Folgen zu schützen. Auch die EU-Datenschutz-Grundverordnung (DSGVO) sieht einen hohen Schutzbedarf bei Gesundheitsdaten vor. Für die IT-Sicherheit gilt die Faustregel, dass sich erfolgreiche Sicherheit dadurch auszeichnet, dass der Aufwand eines Einbruchs größer ist als der vermutete Wert. Die umfangreiche Speicherung und das dauerhafte Vorhalten der Gesundheitsdaten einer ganzen Bevölkerung würde es nach dieser Faustregel nicht geben. Sie stellt ein lohnendes Angriffsziel dar und erhöht die dafür nötigen Sicherheitsvorkehrungen daher immens.
Fragwürdige Pseudonymisierung
Eine der wesentlichen Schutzvorkehrungen des Verfahrens ist die Pseudonymisierung der Datensätze. Konkrete Namen werden im Zusammenführungsprozess durch dauerhafte Pseudonyme ersetzt. Das Robert Koch-Institut tritt dabei als Vertrauensstelle auf und verwaltet die vom BdK genutzten Lieferpseudonyme, Arbeitsnummern und dauerhaften Pseudonyme. Nach der Pseudonymisierung fließen die Daten dann vom BdK zum Forschungsdatenzentrum (FDZ), das beim Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) angesiedelt ist, wo die eigentliche zweckmäßige Datenverarbeitung vorgenommen werden kann.
Die Pseudonymisierung – Namensverschleierung – soll verhindern, dass konkrete Personen aus den Datensätzen re-identifiziert werden können. Sehr detaillierte Datensätze sind jedoch schwer sinnvoll durch Namensersetzung zu maskieren, weil Menschen im Detail doch sehr individuelle Biographien haben. Zudem sind gerade die zusammenhängenden individuellen Krankengeschichten und Sachhergänge für die medizinische Forschung relevant – dies gilt umso mehr bei seltenen Diagnosen und Krankheiten. Dabei genügen dann die Postleitzahl und das Krankenbild für eine Identifikation der Person. Inwiefern auswertbare Gesundheitsdaten überhaupt sinnvoll pseudonymisierbar sind, ist somit hochgradig fragwürdig.
Unklare Zweckbestimmung und keine Widerspruchsmöglichkeit
Aus Datenschutzsicht steht vor allen Datenverarbeitungsverfahren die Zweckfrage, also die Frage danach, welches Problem das Verfahren lösen soll. Datenschutzrechtlich muss der Zweck konkret, festgelegt und eindeutig sein. Je nach Zweck ergeben sich daraus die nötigen Verfahren, Risikoabwägungen und Schutzvorkehrungen.
Im vorliegenden Fall wird als Zweck die Verbesserung der medizinischen Forschung, der Versorgungsforschung, der Gesundheitsberichterstattung und der Steuerung des Gesundheitswesens angesehen. Dieses Zweckbündel wirkt weder festgelegt noch eindeutig und erschwert dadurch die Risikoabschätzung. Hier muss dringend nachgeschärft werden, um Beliebigkeit zu verhindern. Auch andere grundsätzliche Datenschutzfragen sind noch offen. Die Umsetzung von Auskunfts- und Korrekturrechten sind im aktuellen Modell technisch schwer bis gar nicht umsetzbar und ein Widerspruchsrecht ist explizit ausgeschlossen.
Das Digitale-Versorgung-Gesetz vor Gericht
Im Mai 2022 klagten die Informatikerin und Sprecherin des Chaos Computer Clubs, Constanze Kurz, und eine weitere Person mit Unterstützung der Gesellschaft für Freiheitsrechte (GFF) vor den Sozialgerichten Berlin und Frankfurt am Main gegen die zentrale Speicherung ihrer Gesundheitsdaten. Constanze Kurz befürchtet, dass die bestehenden konzeptionellen Sicherheitsmängel früher oder später zu einem gefährlichen Datenabgriff führen könnten. Der zweite Kläger hat eine seltene Krankheit und Sorge, trotz Pseudonymisierung seiner Daten leicht re-identifiziert zu werden. Im Oktober 2022 fand der erste Verhandlungstag in Berlin mit einer Anhörung von diversen Sachverständigen statt.
Im Kern sehen die zwei klagenden Personen also schwere und unnötige grundrechtliche Risiken beim aktuellen Datentransparenzverfahren, etwa die IT-Sicherheitsrisiken durch Zentralisierung, die unzureichende Pseudonymisierung, die unklare Zweckbestimmung und die fehlende Widerspruchsmöglichkeit.
Die beabsichtigten Ziele des Datentransparenzverfahrens – die Forschung mit Gesundheitsdaten – können auf verschiedenen technischen Wegen verfolgt werden. Die Informatik bietet dafür viele Gestaltungswerkzeuge, um Daten sicher und sinnvoll dezentral auszuwerten. In der aktuellen Ausgestaltung des DTV werden jedoch konkret Grundrechte missachtet für einen theoretischen zukünftigen Nutzen. Aber das müsste nicht so sein; die Auswertung könnte durchaus mit einer anderen Datenarchitektur und besseren Schutzmechanismen technisch grundrechtskompatibel ausgestaltet werden.
Abschließend bleibt die grundsätzliche Frage, ob das Datentransparenzverfahren angesichts seiner immensen Risiken für Grundrechtsverletzungen tatsächlich einen Beitrag zur besseren Gesundheitsversorgung leisten kann. Denn wenn die proklamiert missliche Gesundheitsdatenlage gar kein zentrales Nadelöhr der Gesundheitsversorgung wäre, so wäre das aktuelle Datentransparenzverfahren nicht nur aus Datenschutzsicht unverhältnismäßig, sondern auch ein weiterer Beleg dafür, wie sich politische Akteur*innen durch moderne Informationstechnik ablenken lassen von sozialpolitischen Problemen.
Rainer Rehak ist wissenschaftlicher Mitarbeiter am Weizenbaum-Institut für die vernetzte Gesellschaft (WZB) und Ko-Vorsitz des Forums InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FIfF ). Der Beitrag erschien im Grundrechte-Report 2023. Der „alternative Verfassungsschutzbericht“ wird am 23. Mai im Haus der Demokratie und Menschenrechte in Berlin sowie im Livestream vorgestellt. Veröffentlichung mit freundlicher Genehmigung des Fischer Verlages. Alle Rechte vorbehalten.
Grundrechte-Report 2023. Herausgegeben von: Benjamin Derin, Rolf Gössner, Wiebke Judith, Sarah Lincoln, Rebecca Militz, Max Putzer, Britta Rabe, Rainer Rehak, Lea Welsch, Rosemarie Will ISBN: 978-3-596-70882-6. 224 Seiten. E-Book und Taschenbuch. S. Fischer Verlag.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Das Landgericht Karlsruhe hat Staatsanwaltschaft und Amtsgericht wegen der umstrittenen Razzien und Ermittlungen gegen den freien Sender „Radio Dreyeckland“ zurückgepfiffen. Der Sender hatte in einem Artikel auf die Archivseite des verbotenen Portals indymedia.linksunten verlinkt. Das Gericht sieht solche Verlinkungen als Teil der journalistischen Aufgaben.
Das Landgericht hat nun in einem laut der Gesellschaft für Freiheitsrechte (GFF) „wegweisenden Beschluss“ verkündet, dass die Verlinkung Teil der journalistischen Aufgaben und daher keine strafbare Unterstützung einer verbotenen Vereinigung sei. Damit stehe laut der Bürgerrechtsorganisation auch fest, dass die im Januar angeordneten Durchsuchungen von Wohnungen und Redaktionsräumen rechtswidrig waren. Das Landgericht ordnete außerdem wegen der hohen Bedeutung für das Redaktionsgeheimnis und den Informant:innenschutz an, dass die Polizei die angefertigten Kopien der ursprünglich beschlagnahmten Datenträger löschen muss.
Die GFF unterstützt den betroffenen Redakteur juristisch – und hatte auch eine Beschwerde beim Landgericht eingereicht, die allerdings noch nicht entschieden ist. Offen bleiben vorerst noch Beschwerden eines weiteren RDL-Mitarbeiters sowie von RDL gegen die Durchsuchung der Privaträume der Journalisten sowie der Redaktionsräume und der Beschlagnahme von Arbeitsmitteln und Speichermedien.
Wichtiges Signal für Pressefreiheit
Dennoch scheint das aktuelle Urteil klar die Richtung vorzugeben. „Die Entscheidung ist ein wichtiges Signal für freie und kritische Presseberichterstattung in ganz Deutschland. Das Gericht begründet ausführlich, dass vage Strafnormen mit Blick auf die Presse- und Rundfunkfreiheit einschränkend ausgelegt werden müssen“, sagt David Werdermann, Jurist und Verfahrenskoordinator bei der GFF. Der Beschluss sei wegweisend. „Er stellt klar, dass Verlinkungen zum geschützten Bereich der freien Berichterstattung gehören und Medien für die verlinkten Inhalte nicht ohne Weiteres strafrechtlich belangt werden können.“
„Der Staatsanwaltschaft und dem Freiburger Staatsschutz muss klar gewesen sein, dass sie sich juristisch auf äußerst dünnem Eis bewegen. Es ging ihnen offensichtlich von Anfang an um Einschüchterung und Ausforschung eines kritischen linken Mediums“, erklärt Andreas Reimann, dessen Privatwohnung wegen seiner Funktion als Verantwortlicher im Sinne des Presserechts ebenfalls durchsucht wurde, in einem Bericht des Senders.
Hintergrund der Razzien und Ermittlungen war, dass RDL im Juli 2022 über das Verbot von linksunten.indymedia.org 2017 durch das Bundesinnenministerium berichtet hatte. Dabei verlinkte der Sender auf die Archivseite des verbotenen Portals. Die zuständige Staatsanwaltschaft Karlsruhe warf dem freien Radiosender nicht bloß vor, dieses Archiv verlinkt zu haben, sondern mit der dazugehörigen Nachrichtenmeldung auch eine Straftat nach Paragraf 85 begangen und damit gegen ein Vereinigungsverbot verstoßen zu haben – und ordnete die Durchsuchung der Redaktionsräume sowie der Wohnungen zweier Redakteure an. Bei der Razzia beschlagnahmte die Polizei mehrere Laptops und versuchte sogar an die IP-Adressen der Menschen heranzukommen, welche die Website des Senders besucht hatten.
Mit der heutigen Entscheidung sei klar, dass dieses Vorgehen einen rechtswidrigen Eingriff in die Presse- und Rundfunkfreiheit darstelle, sagt die GFF. Journalist:innen machten sich in der Regel nicht strafbar, wenn sie im Rahmen der Berichterstattung auf rechtlich umstrittene Websites verlinken würden. Das Landgericht ziehe zudem in Zweifel, ob der verbotene Verein linksunten.indymedia überhaupt noch existiert. Ein nicht mehr existenter Verein könne auch nicht unterstützt werden.
Schon Verbot von indymedia.linksunten war umstritten
Linksunten Indymedia war bis zum Verbot im Jahr 2017 ein wichtiges Informationsportal für Teile der linken Szene und eine Plattform für unter anderem Demonstrationsaufrufe und Bekennerschreiben. Das Innenministerium stufte die Site damals allerdings nicht als Medium ein, sondern als Verein, um sie daraufhin mithilfe des Vereinsgesetzes zu verbieten. Schon damals verurteilte das etwa „Reporter ohne Grenzen“ als Angriff auf die Pressefreiheit. Vergangenes Jahr wurden Ermittlungsverfahren gegen Linksunten Indymedia eingestellt; das heißt, der Vorwurf der Bildung einer kriminellen Vereinigung ist viele Jahre später geplatzt. Ob das Verbot von linksunten.indymedia die Pressefreiheit verletzt, wurde gerichtlich nie überprüft. Darauf bezogene Klagen vor dem Bundesverwaltungsgericht sowie eine Verfassungsbeschwerde wurden aus formalen Gründen abgewiesen.
Nur mit einem Taschenspielertrick gelang es der Bundesregierung, die Nutzungszahlen des elektronischen Personalausweises zu erhöhen. Hindernisse, die dem Vorhaben im Wege stehen, geht sie indes nur im Schneckentempo an.
Die Nutzung des elektronischen Personalausweises (ePerso) geht weiterhin nur schleppend voran. Die Antworten auf zwei schriftliche Fragen der Linkspartei-Abgeordneten Anke Domscheit-Berg zeigen, dass sich die Bundesregierung viel Zeit lässt, um die grundlegenden Probleme des mehr als zehn Jahre existierenden Systems anzugehen. Schon im Januar hatte netzpolitik.org berichtet, dass es den beteiligten Ministerien an einer einheitlichen Strategie bei der digitalen Identität fehlt.
Als eines der Hindernisse beim elektronischen Personalausweis gilt die Quasi-Monopolstellung der Bundesdruckerei. Sie gibt die Zertifikate aus, die für Anwendungen des ePersos erforderlich sind und für welche die Unternehmen viel Geld bezahlen müssen. Im Januar hatte das Bundesinnenministerium (BMI) gegenüber netzpolitik.org gesagt, dass es die Kostenstruktur prüfen wolle.
Laut der Antwort auf die erste der beiden schriftlichen Fragen (PDF) von Domscheit-Berg ist das BMI inzwischen zu dem Schluss gekommen, dass eine „Neugestaltung des Kostenmodells im Bereich Berechtigungszertifikate bis hin zur kostenlosen zur Verfügungstellung“ die Attraktivität des ePerso langfristig steigern würde. Aus diesem Grund erwägt der Staat laut BMI entstehende Kosten für Unternehmen fortan subventionieren.
Das wird allerdings dauern. Denn „auf Grund der Komplexität der Thematik“ sei eine kurzfristige Umsetzung nicht zielführend, heißt es weiter in der Antwort. Angepeilt sei diese erst für Mitte des Jahres 2024. Domscheit-Berg geht das zu langsam. „Fast ein Jahr nach Feststellung der verschiedenen Barrieren für Anbieter des ePersos als eID Option ist immer noch vor allem von Plänen, Konzepten und Prüfungen die Rede“, sagt die Digitalpolitikerin. „Die Mühlen der Verwaltungsdigitalisierung mahlen wirklich langsam im Bund“, so Domscheit-Berg weiter.
Kampagne irgendwann dieses Jahr geplant
Ein weiteres Problem ist – neben den teuren Zertifikaten und fehlenden nützlichen Anwendungen – vor allem die geringe Bekanntheit des Verfahrens bei den Bürger:innen. Bisher bewirbt das BMI die Ausweis-eID eher verhalten und vor allem nur bei Behördenmitarbeiter:innen, zum Beispiel bei einer „Roadshow in Ratzeburg“.
Der Antwort auf die zweite schriftliche Frage (PDF) zufolge will das BMI „noch im Jahr 2023“ eine „bundesweite, crossmediale Kommunikationskampagne“ umsetzen, die den Online-Ausweis bei den Bürger:innen bewerben soll. Die Kampagne soll laut einer Sprecherin des Innenministeriums insgesamt eine Million Euro kosten und ein Jahr lang andauern. Domscheit-Berg sagt, es dauere so lange, weil die Ampel sich nicht entscheiden könne, welche Ausweis-App sie bewerben wolle.
In der Antwort verweist das Innenministerium auch auf steigende Nutzer:innenzahlen des ePerso. Verantwortlich dafür ist allerdings eine Art Taschenspielertrick, bei dem die Bundesregierung eine „Einmalzahlung“ an Studierende an die Nutzung des elektronischen Ausweises knüpfte. So konnten die Nutzer:innenzahlen im vergangenen März auf etwa 2.700.000 erhöht werden – fast acht Mal mehr als im Vorjahr, was das BMI als Erfolg seiner Bemühungen verkauft.
Auf diesen Zahlen ruhe sich die Ampel nun aus, sagt Domscheit-Berg. „Das klingt leider auch nicht danach, als hätte man verstanden, dass sich schnellstmöglich an den Strukturen etwas ändern muss, will man dem elektronischen Personalausweis endlich zum Durchbruch verhelfen.“
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Zusammen mit vier Amtskolleg:innen aus Liechtenstein, Luxemburg, Österreich und Schweiz hat Bundesjustizminister Marco Buschmann einen Brief an die Justizminister:innen der EU-Länder geschrieben. Sie sollen sich gegen die Chatkontrolle in die Diskussion einbringen – auch wenn die Innenministerien die Verhandlung führen. Wir veröffentlichen den Brief im Volltext.
Die Chatkontrolle sorgt weiterhin für Streit in der Ampel-Koalition. Bundesjustizminister Marco Buschmann hat zusammen mit den Justizminister:innen aus Österreich, der Schweiz, Luxemburg und Liechtenstein einen Brief an die Amtskolleg:innen in der Europäischen Union geschickt. In dem Brief, den wir im Volltext veröffentlichen, geht der Justizminister auf Distanz zur Verhandlungsposition des Bundesinnenministeriums, die nach dem Verständnis der FDP nicht dem Koalitionsvertrag der Ampel entspricht.
In dem Schreiben, das die Logos der Justizministerien der fünf Länder im Kopf trägt, verweisen Buschmann und seine Kolleg:innen auf Gutachten des Juristischen Dienstes des Rates und des Wissenschaftlichen Dienstes des Europäischen Parlaments, die sich beide gegen die Chatkontrolle aussprechen. Die bisherigen Pläne seien laut diesen Gutachten nicht mit Artikel 7 und 8 der Grundrechtecharta der EU vereinbar (Recht auf Schutz des Privatlebens und privater Kommunikation sowie Schutz personenbezogener Daten). Zugleich könne sich die Verordnung negativ auf die Verfolgung von Kindesmissbrauch im Netz auswirken, etwa wegen fälschlich gemeldeter Inhalte und einer möglichen Überlastung der Strafverfolgungsbehörden. Buschmann fordert seine europäischen Amtskollegen im Brief auf, sich in die Diskussion einzubringen, auch wenn die Innenministerien der meisten EU-Mitgliedstaaten bei den Verhandlungen zur Chatkontrolle federführend seien.
Der FDP-Bundestagsabgeordnete Maximilian Funke-Kaiser sagt gegenüber netzpolitik.org: „Ich begrüße es, dass unser Justizminister Marco Buschmann das Heft in die Hand nimmt und auf europäischer Ebene eine Allianz gegen die Chatkontrolle formiert.“ Gerade Deutschland müsse aus historischer Verantwortung einen solchen Eingriff in die persönlichen Freiheitsrechte verhindern und die Speerspitze der Gegenbewegung bilden. „Staatliches Mitlesen von persönlicher Kommunikation erinnert an dunkle Zeiten in Deutschland. Die Chatkontrolle ist mit den europäischen Grundrechten unvereinbar“, so Funke-Kaiser weiter. Die FDP werde als „Schützerin der Bürgerrechte“ deshalb sämtliche Register ziehen, um dieses Vorhaben zu stoppen.
Sehr geehrte Kolleginnen und Kollegen EU-Justizministerinnen und Justizminister,
am 7. und 8. Mai 2023 haben sich im österreichischen Langenlois die Justizministerinnen und Justizminister von Österreich, Deutschland, der Schweiz, Luxemburg und Liechtenstein getroffen. Auf der Tagesordnung stand u.a. der Vorschlag der Europäischen Kommission für eine Verordnung zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern, die alle Anbieter von Hostingdiensten und interpersonellen Kommunikationsdiensten, die ihre Dienste auch in der Europäischen Union anbieten, sowie alle ihrer Nutzerinnen und Nutzer betreffen wird. Die Wirkungen der Verordnung werden daher nicht auf Anbieter sowie Nutzerinnen und Nutzer innerhalb der Europäischen Union beschränkt sein.
Die Bekämpfung von sexuellem Kindesmissbrauch im Internet hat für uns alle große Bedeutung, denn es gilt, von den Kindern großes Leid und Traumatisierungen abzuwenden. Die Justizministerinnen und Justizminister betonen die Notwendigkeit für ein entschiedenes Vorgehen bei der wirksamen Bekämpfung ebendieser. Zugleich ist in liberalen Gesellschaften der Schutz der Bevölkerung vor anlassloser Überwachung ein hohes demokratisches Gut. Der vorliegende Verordnungsentwurf findet aus unserer Sicht hier nicht die richtige Balance und könnte möglicherweise sogar für den Kinderschutz kontraproduktiv sein. Dies haben vor kurzem zwei Gutachten des Juristischen Dienstes des Rates und des Wissenschaftlichen Dienstes des Europäischen Parlaments bestätigt.
In seiner Stellungnahme vom 26. April 2023 prüft der Juristische Dienst des Rates die Vereinbarkeit der in dem Entwurf vorgesehenen Aufdeckungsanordnung für interpersonelle Kommunikationsdienste, die die Anbieter dazu verpflichten soll, sämtliche Kommunikation auf das Vorhandensein von bekanntem und unbekanntem Kindesmissbrauchsmaterial sowie Cybergrooming zu durchsuchen, am Maßstab der Artikel 7 und 8 der EU-Grundrechtecharta (Recht auf Schutz des Privatlebens und privater Kommunikation und Schutz personenbezogener Daten). Der Juristische Dienst des Rates stellt unter anderem fest, dass die vorgesehene Regelung mit Bezug auf interpersonelle Kommunikation geeignet ist, den Wesensgehalt von Artikel 7 und 8 der Charta anzutasten. In jedem Fall sei die vorgesehene Aufdeckungsanordnung aber nicht verhältnismäßig. Zu denselben Ergebnissen kommt eine ergänzende Folgenabschätzung des Wissenschaftlichen Dienstes des Europäischen Parlaments gleichfalls von April 2023. Beide Gutachten stellen fest, dass diese Eingriffe noch verstärkt werden, wenn es sich um verschlüsselte Kommunikation handelt. Aus unserer Sicht sind daher umfassende Änderungen an der Ausgestaltung der Aufdeckungsanordnung notwendig, um eine EU-Grundrechtskonformität zu erreichen.
Überdies prognostiziert der Wissenschaftliche Dienst des Europäischen Parlaments, dass die Wirkung des Vorschlags begrenzt sein werde. Die Mehrheit der befragten Expertinnen und Experten komme zu dem Ergebnis, dass der Einsatz von Technologien zur Erkennung von sog. unbekanntem Kindesmissbrauchsmaterial und Cybergrooming aufgrund ihrer geringen Genauigkeit zu einem Anstieg der fälschlich gemeldeten Inhalte (,false positives“) und zu einem Rückgang der Treffsicherheit führen werde. Dies werde sich erheblich auf die Arbeitsbelastung der Strafverfolgungsbehörden auswirken. Durch die im Verordnungsvorschlag vorgesehenen Instrumente ist somit eine Überlastung der Behörden in den Mitgliedstaaten zulasten der Kinder zu befürchten.
Uns ist bewusst, dass in den meisten Mitgliedsstaaten die Innenministerinnen und -minister für den Vorschlag federführend sind. Da der Vorschlag jedoch wie aufgezeigt ernsthafte grundrechtliche Bedenken aufwirft, halten wir es für sehr wichtig, dass auch wir Justizministerinnen und Justizminister uns in die Diskussion einbringen.
Wir setzen uns nachdrücklich dafür ein, dass die Aufdeckungsanordnung und ihre Auswirkungen auf die Grundrechte von den Mitgliedsstaaten eingehend erörtert werden. Dabei ist von entscheidender Bedeutung, dass die Erkenntnisse des Juristischen Dienstes des Rates und des Wissenschaftlichen Dienstes des Europäischen Parlaments vom Rat diskutiert werden und in die Beurteilung des Vorschlags einfließen können, bevor eine allgemeine Ausrichtung zum Verordnungsvorschlag angestrebt werden kann.
Mit freundlichen Grüßen
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Immer mehr Rechtsexpert:innen bezweifeln, dass die sogenannte Chatkontrolle mit EU-Recht vereinbar ist. Der Kritik schließt sich nun der Juristische Dienst des EU-Ministerrats an. Doch an der EU-Kommission perlt die Kritik bislang ab.
Ein heute bekannt gewordenes Rechtsgutachten des Juristischen Dienstes des EU-Ministerrats äußert Zweifel an der Vereinbarkeit der geplanten Chatkontrolle mit EU-Recht. So lasse etwa der bewusst technologieoffen und breit gestaltete Vorschlag der Kommission zu viel Interpretationsspielraum, um die Bedenken in Hinblick auf Grundrechte ausreichend einzuschätzen.
Dies stehe im Widerspruch zu den Entscheidungen des Europäischen Gerichtshofes (EuGH), dem zufolge etwaige Vorgaben für Überwachung klar formuliert und zielgerichtet sein müssten. Dies sei im Gesetzentwurf nicht gegeben, denn der Anwendungsbereich von Anordnungen sei „weiter gefasst als die Aufdeckung krimineller Handlungen“, heißt es unter anderem im Gutachten.
Für den EU-Piratenabgeordneten Patrick Breyer wird damit jede Form der Chatkontrolle „endgültig unhaltbar“. Niemand helfe Kindern mit einer Verordnung, die unweigerlich vor dem Europäischen Gerichtshof scheitern wird, schreibt der Abgeordnete in einer Pressemitteilung. „Die Flut an meist falschen Verdachtsmeldungen würden außerdem effektive Ermittlungen erschweren, Kinder massenhaft kriminalisieren und an den eigentlichen Missbrauchstätern und Produzenten solchen Materials vorbei gehen“, heißt es weiter.
EU-Datenschutzbehörden kritisieren das Vorhaben
Die Kommission wird sich aller Voraussicht nach davon nicht beirren lassen. Selbst die harte Kritik der EU-Datenschutzbehörden ließ sie bislang an sich abprallen. Die Datenschutzbehörden hatten im Juli vergangenen Jahres ihre Einschätzung zu dem umstrittenen Vorschlag für die sogenannte Chatkontrolle vorgelegt – keine drei Monate, nachdem die EU-Kommission diesen vorgestellt hatte. Auf 36 Seiten kritisieren sie den Gesetzentwurf scharf, weil er Grundrechte wie das Recht auf Privatsphäre nicht ausreichend schütze, nicht verhältnismäßig sei und zu viel Raum für potenziellen Missbrauch lasse.
Die schweren Bedenken der Datenschützer:innen hätte die Kommission zum Anlass nehmen können, um eine Atempause einzulegen. Schließlich zählt zu den Aufgaben des Europäischen Datenschutzausschusses (EDSA), die Kommission „in allen Fragen im Zusammenhang mit dem Schutz personenbezogener Daten und neuen vorgeschlagenen Rechtsvorschriften in der Europäischen Union zu beraten“.
Doch die Kritik hat die Kommission bislang nicht zum Umdenken bewogen, sie bleibt bei ihrer Linie. „Die Kommission beabsichtigt nicht, den Vorschlag zurückzuziehen oder zu ändern“, antwortete jüngst die EU-Innenkommissarin Ylva Johansson auf eine Frage des EU-Abgeordneten Moritz Körner (FDP). Körner wollte wissen, ob die Kommission gedenke, die Änderungsvorschläge der EU-Datenschutzbehörden aufzugreifen und den Vorschlag zur Chatkontrolle „entsprechend zurückzuziehen und zu ändern“.
EU-Kommission weist Kritik zurück
Bereits im Februar dieses Jahres hatte die EU-Kommission in einer Stellungnahme an den federführenden EU-Parlamentsausschuss für bürgerliche Freiheiten, Justiz und Inneres (LIBE) die Kritik der Datenschutzbehörden zurückgewiesen. Demnach verpflichte ihr Vorschlag Online-Dienste nicht zu einer anlasslosen und massenhaften Überwachung, da die Vorgaben zur Durchleuchtung privater Inhalte unter anderem erst nach einer behördlichen Anordnung greifen würden, risikobasiert und zielgerichtet seien sowie nur für einen beschränkten Zeitraum gelten würden.
„Die EU-Kommission igelt sich ein und wird für Expertenkritik blind“, sagt Körner gegenüber netzpolitik.org. „Ihre Ignoranz gegenüber den europäischen Datenschutzbehörden schwächt diese Institutionen nachhaltig.“
Noch ist unklar, inwieweit das Rechtsgutachten ihres Juristischen Dienstes in die Position der EU-Mitgliedstaaten einfließen wird. Derzeit verhandelt das EU-Gremium über seine Ausrichtung, eine Reihe an EU-Ländern – darunter Belgien, Spanien und Italien – folgt dabei weitgehend der Linie der EU-Kommission. Staaten wie Deutschland und Österreich hingegen wollen etwa verhindern, dass Ende-zu-Ende-Verschlüsselung mit Techniken wie Client-Side-Scanning ausgehebelt wird.
Aus dem EU-Parlament kommen bislang ablehnende Signale, wobei auch hier noch keine abschließende Position feststeht. Erst danach können die sogenannten Trilog-Verhandlungen zwischen Kommission, Ministerrat und Parlament beginnen, die zum fertigen Gesetz führen.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
424 Millionen Datensätze von 121 Millionen Passagieren in nur einem Jahr. So viele Fluggastdaten fielen 2022 beim Bundeskriminalamt an. Zu Treffern in polizeilichen Datenbanken führten nur wenige. Nach einem Gerichtsurteil muss das Bundesinnenministerium die Speicherung nun einschränken.
Die Daten von 121 Millionen Fluggästen landeten im zurückliegenden Jahr bei der Fluggastdatenzentralstelle im Bundeskriminalamt (BKA). Insgesamt übermittelten die Flugunternehmen 424 Millionen sogenannte Passenger Name Records (PNR). Ein Jahr zuvor waren es etwa halb so viele, 2020 noch rund 100 Millionen. Das geht aus der Antwort auf eine Kleine Anfrage der Linken-Abgeordneten Martina Renner hervor.
Die Fluggastdatensätze enthalten neben Informationen zu Namen und Route der Reisenden unter anderem Anschrift, Telefonnummer und den gebuchten Sitzplatz. Die Daten gleicht das BKA automatisiert mit polizeilichen Datenbanken ab und sucht nach Mustern. Dabei kommt es zu vielen Fehlalarmen: 441.608 Datenbanktreffer und 7.446 Mustertreffer gab es im vergangenen Jahr. Doch nur 87.845 hielten einer abschließenden fachlichen Überprüfung stand und führten zu einer Fahndung – also etwa ein Fünftel.
Die entsprechenden Personen haben Zoll und Bundespolizei nur in 19.827 Fällen gefunden. In knapp einem Drittel der Fälle (7.367 Mal) ging es dabei um Aufenthaltsermittlungen. In 1.387 Fällen waren die Personen zur Festnahme ausgeschrieben.
Fluggastdatengesetz muss überarbeitet werden
In Deutschland ist die Fluggastdatenspeicherung im Fluggastdatengesetz geregelt, das die EU-PNR-Richtlinie umsetzt. Doch die geht teilweise zu weit, urteilte der Europäische Gerichtshof (EuGH) im Juni 2022. Es brauche eine Beschränkung der Datensammlung und -auswertung auf das „absolut Notwendige“, urteilte das Gericht. So sei etwa die Speicherdauer der PNR-Daten von fünf Jahren zu lang.
Laut der Bundesregierung arbeite das Innenministerium derzeit an einem Entwurf für eine Überarbeitung des Fluggastdatengesetzes, einen konkreten Zeitplan nannte sie nicht. Ab Ende April sollen Datensätze jedoch in der Regel nur noch sechs Monate gespeichert werden – es sei denn, es handelt sich um verifizierte Treffer.
Ein weiterer Kritikpunkt der Richter:innen bezog sich auf die Datensammlung bei innereuropäischen Flügen. Die Richtlinie schreibt das zwar nicht vor, viele Staaten haben sie aber in ihren nationalen Gesetzen umgesetzt. Sofern jedoch keine „reale und aktuelle oder vorhersehbare“ terroristische Bedrohung bestehe, verstoße dies laut EuGH gegen EU-Recht. Sonst dürfe die Speicherung laut dem Urteil nur für „bestimmte Flugverbindungen, bestimmte Reisemuster oder bestimmte Flughäfen“ erfolgen, „für die es Anhaltspunkte gibt, die eine solche Anwendung rechtfertigen können“. Laut Bundesregierung wurde die deutsche Verarbeitungspraxis mittlerweile so umgestellt, dass eine Datenverarbeitung bei innereuropäischen Flügen „nur noch auf Grundlage entsprechender Einschätzungen erfolgt“.
“Grundproblem besteht weiter“
Angesichts der hohen Speicherzahlen schreibt Fragestellerin Renner gegenüber netzpolitik.org: „Das PNR-System funktioniert noch immer so wie ein Staubsauger der Daten von Millionen unbescholtener Bürgerinnen und Bürger.“ Es seien erste Ansätze zur Einschränkung und Löschung erkennbar, aber das Grundproblem bestehe weiter.
„Eine ernsthafte Beschränkung der Datenerhebung bei rein innereuropäischen Flügen scheint es bislang nicht zu geben. Die Ampel-Koalition hatte sich vollmundig zum Schutz der Bürger und ihrer Daten verpflichtet. Chatkontrolle, Vorratsdaten oder PNR zeigen, wie es wirklich ist“, kritisiert die Bundestagsabgeordnete.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Regierungen präsentieren uns technische Lösungen für komplexe gesellschaftliche Probleme. Doch diese Art des magischen Denkens gefährdet unsere freie Gesellschaft. Wir veröffentlichen die gekürzte Rede der Signal-Chefin Meredith Whittaker zum 20. Geburtstag der Bürgerrechtsorganisation EDRi.
Ich möchte über die Dinge sprechen, die mich nachts wachhalten. Dazu zählt vor allem die derzeitige Flut an Regulierungsvorschlägen, die falsche technische Lösungen für komplexe soziale Probleme anbieten. Diese Lösungen setzen das Recht auf Privatsphäre mit Fehlverhalten gleich. Und sie wollen gegen schlechte Taten vorgehen, indem sie die Privatsphäre abschaffen.
Die Wiederkehr fadenscheiniger Lösungen
In meinen knapp zwanzig Jahren in der Tech-Branche habe ich erlebt, wie die immer gleichen Gespräche aufkamen, abklangen und zurückkehrten – und wie dabei immer wieder die gleiche Form des magischen Denkens aufschien.
Das Muster sieht in etwa wie folgt aus: Ein komplexes, erschütterndes soziales Problem zieht die Aufmerksamkeit von Regulierungsbehörden und Medien auf sich. Jede:r erkennt die Schwere des Problems an und die Dringlichkeit, es zu lösen. Wir sind beunruhigt, besorgt und emotional. Und die Menschen sputen sich, „etwas zu tun“.
Dann wird uns die gleiche fadenscheinige „Lösung“ präsentiert: Um das Unrecht in der Welt zu beseitigen, heißt es dann, müsse man die private Kommunikation einschränken.
Die Gefahren der Massenüberwachung
Die Geschichte der Datenverarbeitung ist gespickt mit Episoden, die die Gefahren der Massenüberwachung veranschaulichen. Sie reicht vom Einsatz der Hollerith-Maschinen von IBM durch die Nazis, die damit den Holocaust organisierten, über den illegalen Zugriff US-amerikanischer Behörden auf die Volkszählungsdaten, um so japanische Amerikaner:innen zu identifizieren und zu internieren, bis hin zu den Bestrebungen des südafrikanischen Apartheidregimes, die Durchsetzung der Segregation zu digitalisieren. Und heute händigen die Technologiekonzerne bereitwillig die Daten ihrer Nutzer:innen aus, die in den Vereinigten Staaten kriminalisierte medizinische Versorgung suchen.
Aber ich glaube nicht, dass ich mich allzu lange mit der Historie aufhalten muss. Wir alle kennen die Gefahren der Massenüberwachung, insbesondere in autoritären Zeiten.
Die Geschichte der Kommunikationstechnologie prägt aber auch das magische Denken zahlreicher Regierungen, die sprichwörtlich ein Omelett zubereiten wollten, ohne dafür Eier zu zerschlagen. Ihr Ziel war es etwa, Hintertüren zu schaffen, auf die nur die „Guten“ zugreifen können. Vor den Bedrohungen, die von „allen anderen“ ausgehen, waren diese Hintertüren angeblich sicher.
Es gibt keine guten Hintertüren
Solche Versuche sind immer gescheitert. Der berüchtigte Clipper-Chip ist nur ein Beispiel von vielen. Millionen von Dollar wurden für derlei Bemühungen verschwendet und entsprechende Projekte sind immer wieder auf Eis gelegt worden. Denn die Wahrheit ist, dass jedes System, das „uns“ Zugang verschafft, genauso schnell von „ihnen“ ausgenutzt werden kann – von feindlichen Akteur:innen, die jene kritischen Infrastrukturen kompromittieren, auf die Regierung, Wirtschaft und zivile Einrichtungen angewiesen sind.
Dennoch taucht diese Art des magischen Denkens immer wieder auch heute noch auf – etwa in den fehlgeleiteten Bestimmungen des britischen Online-Sicherheitsgesetzes, in der EU-Verordnung zur Chatkontrolle oder in den Kämpfen um die Vorratsdatenspeicherung auf Länderebene. Als Beispiele für Letzteres dienen der Angriff auf verschlüsselte Kommunikationsdienste in Belgien oder die Debatten darüber, ob die Vorratsdatenspeicherung privater Kommunikationsdaten zulässig oder auch nur eine kluge Idee ist.
Nicht immer fällt in diesen Debatten das Wort „Hintertür“. Tatsächlich sind die Überwachungsvorschläge, zumindest was das politische Framing betrifft, in den vergangenen Jahren ausgefeilter geworden. Bei der CSAM-Gesetzgebung der EU behaupten beispielsweise viele, dass ihre Vorschläge mit der Ende-zu-Ende-Verschlüsselung vereinbar seien – ohne dafür Belege zu liefern. Dabei wollen sie Praktiken etablieren, welche die Ende-zu-Ende-Verschlüsselung faktisch schwächen, wenn nicht gar abschaffen.
Ein faustischer Pakt
Andere schlagen eine ebenso gefährliche, aber neuere Variante des magischen Denkens vor. Sie räumen zwar ein, dass Hintertüren nicht der richtige Weg sind. Stattdessen schlagen sie eine Massenüberwachung „außerhalb“ der Ende-zu-Ende-Verschlüsselung vor, wobei sie meist auf clientseitige Scan-Systeme (CSS) verweisen.
Keine Sorge, versichern sie uns, wir werden eure Nachrichten auf euren Geräten scannen, bevor sie verschlüsselt sind. Wir werden sie mit unseren undurchsichtigen Datenbanken verbotener Sprache abgleichen, um sicherzustellen, dass Ihr euch innerhalb der von der Regierung genehmigten Grenzen der Meinungsäußerung bewegt. Und danach? Danach könnt ihr weitermachen wie bisher und eure Daten verschlüsseln.
Das clientseitige Scannen ist ein faustischer Pakt, der die Prämisse der Ende-zu-Ende-Verschlüsselung zunichtemacht. Denn dieser Pakt schreibt eine zutiefst unsichere Technologie vor, die es einer Regierung ermöglicht, buchstäblich jede Äußerung zu überprüfen, bevor sie ausgesprochen wird.
KI ist keine Wunderwaffe
CSS wirft noch weitere Probleme auf. Denn diese Systeme stützen sich auf sogenannte „Künstliche Intelligenz“ (KI). Diese Technologien produzieren jedoch folgenreiche Fehlalarme. Und sie können durch Angriffe gehackt werden, gegen die es nur wenige Möglichkeiten der Verteidigung gibt. Die EU verhandelt derzeit eine KI-Verordnung, um auf diese Herausforderungen zu reagieren. In diesem Zusammenhang halte ich es für unerlässlich, dass wir jene Menschen in die Diskussion über client-seitiges Scannen einbeziehen, die die Fehler und Schwächen von KI-Systemen sorgfältig erforscht haben. Wir müssen anerkennen, dass KI hier wie auch anderswo keine Wunderwaffe ist.
Es ist gleichsam überraschend wie verwirrend, dass Prominente, Meinungsmacher:innen und nicht zuletzt Politiker:innen behaupten, dass es technologische Lösungen gebe, die Inhalte auf verbotene Äußerungen scannen können, ohne dafür die Ende-zu-Ende-Verschlüsselung zu knacken.
Ich bin weder eine Prominente noch eine Influencerin. Aber ich kenne mich mit Technik aus. Und ich möchte betonen, dass es so etwas nicht gibt. Es ist schlichtweg unmöglich.
Das Grundrecht auf Privatsphäre wird ausgelöscht
Jene, die das Gegenteil behaupten, sind daher entweder schlecht informiert oder sie befinden sich in einem besorgniserregenden Zustand der Realitätsverleugnung. Oder aber sie sind auf gefährliche Weise zynisch, weil sie hoffen, dass sie – indem sie unsinnige technische Lösungen versprechen –weitere Überwachungsgesetze verabschieden können, bevor jemand davon Wind bekommt.
Eine Welt ohne Privatsphäre ist jedoch eine Welt, in der Machtasymmetrien wie in Bernstein eingeschlossen sind. Es ist eine Welt, in der Dissens gefährlich und in der Intimität riskant ist. Und es ist eine Welt, in der die Kräfte für das Erforschen neuer Ideen, das Stellen von naiven Fragen oder das Ausarbeiten noch unausgegorener Gedanken verkümmern.
Wenn in einer Welt, die so sehr auf digitale Kommunikation angewiesen ist, die Verschlüsselung gebrochen wird, löscht dies das Grundrecht auf Privatsphäre faktisch aus. Und auch die Sicherheit digitaler Infrastrukturen wird gefährdet, auf die sich Handel, Regierung und Zivilgesellschaft verlassen.
Es ist Zeit, in die Realität zurückzukehren
In Ungarn werden homosexuelle und transsexuelle Menschen diskriminiert und kriminalisiert, ebenso wie LGBTQ-Literatur und -Äußerungen. In den USA, wo ich lebe, sieht ein Gesetzentwurf im Bundesstaat South Carolina die Todesstrafe für Menschen vor, die kriminalisierte reproduktive Gesundheitsdienste in Anspruch nehmen. Und in sämtlichen US-Bundesstaaten gibt es Gesetzesvorschläge, die gleichgeschlechtliche Ehen kriminalisieren. Einige Staaten erwägen gar ein Verbot von Ehen zwischen unterschiedlichen Ethnien.
Warum erwähne ich das? Weil in Zukunft zu viele fordern könnten, mit Hilfe von CSS eine verbotene Meinungsäußerung, eine verbotene Liebe, eine unzulässige Identität aufzuspüren. Weil in Zukunft zu viele forder könnten, dass dafür ihre magischen Hintertüren verwendet werden und ihr Massenüberwachungsregime zur Bestrafung anderer eingesetzt wird.
Jessica Burgess, eine 41-jährige Mutter aus Nebraska, hat bereits einen Vorgeschmack auf diese Zukunft erhalten. Im Jahr 2022 gab Facebook Nachrichten zwischen Jessica und ihrer Tochter an die Strafverfolgungsbehörden weiter. Diese Nachrichten wurden dazu verwendet, um sie wegen einer Straftat anzuklagen. Denn die Mutter hatte ihrer Tochter dabei geholfen, reproduktive Gesundheitsfürsorge in einem Staat zu erhalten, wo diese Fürsorge von einem Tag auf den anderen für illegal erklärt worden war.
Es ist an der Zeit, in die Realität zurückzukehren. Komplexe soziale Probleme müssen ernsthaft angegangen werden. Sie werden aber nicht dadurch gelöst, dass man sie als emotionalisierenden Vorwand einsetzt, um die Privatsphäre abzuschaffen. Mit welch scheinbar noblen Gründen sie auch gerechtfertigt werden: Die Maßnahmen, die derzeit in Europa, im Vereinigten Königreich und darüber hinaus erwogen werden, ebnen den Weg in eine dunkle Zukunft.
Der vorliegende Text ist die gekürzte Fassung einer Rede, die Meredith Whittaker anlässlich des 20-jährigen Bestehens von EDRi gehalten hat. EDRi ist ein Zusammenschluss von Bürgerrechtsorganisationen, die sich dem Datenschutz und den digitalen Freiheitsrechten verschrieben haben.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
House Science, Space, and Technology Committee Hearing: Artificial Intelligence: Societal and Ethical Implications (EventID=109688) 2318 Rayburn House Office Building Washington, DC 20515 Witnesses: Ms. Meredith Whittaker, Co-Founder, AI Now Institute, New York University Mr. Jack Clark, Policy Director, OpenAI Mx. Joy Buolamwini, Founder, Algorithmic Justice League Dr. Georgia Tourassi, Director, Health Data Sciences Institute, Oak Ridge National Laboratory https://science.house.gov/hearings/ar…
File:Meredith Whittaker at House Hearing on Artificial Intelligence.jpg
Erstellt: 26. Juni 2019
****************************
Unten — 3 November 2022; Meredith Whittaker, President, Signal, on Future Societies stage during day two of Web Summit 2022 at the Altice Arena in Lisbon, Portugal. Photo by Sam Barnes/Web Summit via Sportsfile
In Ungarn, Polen und Spanien bespitzelte der Staat Abgeordnete und Journalist:innen mit dem Staatstrojaner Pegasus. Bislang hat das keine Konsequenzen. Nun bereitet Brüssel mögliche rechtliche Schritte vor.
Im Juli 2021 platzt eine Meldung in das Sommerloch. Ein internationale Recherche enthüllt eine Liste von 50.000 Telefonnummern, die im Visier des Staatstrojaners Pegasus gestanden haben sollen. Demnach hat das EU-Land Ungarn mit dem Trojaner Journalist:innen und Oppositionelle bespitzelt. EU-Kommissionschefin Ursula von der Leyen nennt das „komplett inakzeptabel“.
Seither folgen immer weitere Enthüllungen. Inzwischen ist bekannt, dass auch die Regierungen in Polen und Spanien Pegasus gegen Oppositionspolitiker:innen eingesetzt haben sollen. In Griechenland überwachte der Geheimdienst Journalist:innen und Abgeordnete mit Predator, einem anderen Trojaner. Auch die EU-Kommission wurde Opfer von Pegasus.
Das könnte sich ändern. Die Kommission prüft derzeit Klagen gegen Staaten, die Staatstrojaner EU-rechtswidrig einsetzen. Als Teil ihrer Untersuchung hat die Brüsseler Behörde im Dezember einen Brief an alle Mitgliedsländer verschickt.
Die Kommission stellt erstmal nur Fragen
Das Schreiben, das wir durch eine Informationsfreiheitsanfrage erhielten und im Volltext veröffentlichen, enthält Fragen zum Einsatz von „Spyware“. Die Kommission will wissen, auf welcher rechtlichen Grundlage überwacht wird und welche Maßnahmen zum Grundrechtsschutz getroffen wurden. Auch bittet die Kommission um Listen aller nationalen Behörden, die Trojaner einsetzen oder ihren Einsatz anordnen dürfen.
Die Antworten fließen in eine rechtliche Analyse ein. Ist diese fertig, entscheidet die Kommission auf ihrer Grundlage über mögliche Klagen. Voraussetzung dafür ist, dass durch die Überwachung europäisches Recht verletzt wurde, etwa die Datenschutzgrundverordnung. Denn nur dann kann die Kommission vor dem Europäischen Gerichtshof Klagen einbringen.
Das Gericht kann dem Staat dann gegebenenfalls anordnen, den rechtswidrigen Zustand zu beheben. Weigert sich der Staat, kann die Kommission nochmals klagen und vor Gericht Strafzahlungen durchsetzen.
Einige Staaten haben auch zwei Monate nach Abgabefrist den Fragebogen der Kommission noch nicht beantwortet. Dabei handelt es sich um Ungarn, aber auch Dänemark, die Niederlande und Deutschland, sagte ein Kommissionssprecher gegenüber netzpolitik.org. Auch Deutschland nutzt den Staatstrojaner Pegasus, gibt sich dazu aber schweigsam.
Die Kommission hat sich für ihre Untersuchung ohnehin kein fixes Enddatum gesetzt. „Wir werden uns so viel Zeit wie nötig nehmen.“
Seit fast zwei Jahren nur „zaghafte Ermahnungen“
Versuche in einzelnen EU-Ländern, rechtlich gegen die Pegasus-Überwachung vorzugehen, sind bislang ins Leere gelaufen. In Ungarn entschied die Datenschutzbehörde, die Verwendung des Staatstrojaners sei zum Schutze der nationalen Sicherheit passiert und rechtens gewesen. In Polen haben die Regierungspartei PiS und ihre Verbündeten im Justizsystem ein gerichtliches Vorgehen gegen die systematische Überwachung weitgehend verhindert. Zu diesem Schluss kommt ein Bericht der EU-Abgeordneten Sophie in ’t Veld.
In ’t Veld hat die EU-Kommission bereits im November aufgefordert, endlich auf die Enthüllungen zu reagieren. Es scheine so, als habe die EU-Behörde außer „zaghaften Ermahnungen“ wenig anzubieten. Ungarn und Polen berufen sich bei ihren Überwachungsmaßnahmen auf den Schutz der „inneren Sicherheit“, so die niederländische Abgeordnete. Doch dies dürfe nicht als „unbegrenzte Ausnahmeregelung von den europäischen Gesetzen und Verträgen interpretiert werden und zu einem Bereich der Gesetzlosigkeit werden.“
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Oben — The oldest scientific manuscript in the National Library the volume contains various Latin texts on astronomy. The volume, written in Caroline minuscule, consists of two sections, the first (ff. 1-26) copied c. 1000, in the Limoges area of France, probably in the milieu of Adémar de Chabannes (989-1034), whilst the second (ff. 27-50), from a scriptorium in the same region, may be dated c. 1150.
Fünf Monate nach der Übernahme Twitters durch Elon Musk stehen bei der Plattform nun die größten Veränderungen an. Das bisherige Verifikationssystem wird abgeschafft, zukünftig können Privilegien gekauft werden. Willkommen im Kapitalismus.
Vor etwa elf Jahren schickte mir Twitter einmal eine Direktnachricht: „Wir bei Twitter würden gerne Deinen Account verifizieren. Klicke einfach auf den Link und folge der Anleitung.“ Damals war ich dort bereits einige Jahre auf Twitter aktiv und der Dienst hatte einige Zeit zuvor ein Verifikationssystem ausgerollt. Nutzer:innen konnten damit ihre Accounts verifizieren – anfangs durch das Unternehmen kuratiert, später waren auch Anträge möglich. Sie erhielten dann den blauen Haken.
Ich galt aus Sicht Twitters als öffentliche Person und betrieb mit @netzpolitik einen der bekannteren Account im deutschsprachigen Twitter. Ich klickte mich durch die Anleitung und kurze Zeit darauf zierte ein blauer Haken mein Profil. Nach welchen Kriterien das Unternehmen damals die Entscheidung traf, war mir unklar. Ich musste nicht einmal meinen Personalausweis hochladen.
Was der Haken genau bedeutete, war mir damals auch noch nicht klar. Ich sah es als eine Art Qualitätsmerkmal, das Twitter vergab. Der Haken wertschätzte dadurch aber auch viele Nutzer:innen, die zur Wertschöpfung der Plattform und dessen Ökosystem beitrugen.
Seitdem lebte ich mit dem blauen Haken, den auch immer mehr Nutzer:innen erhielten. Dazu gehörten vor allem Journalist:innen, Personen des öffentlichen Lebens und gewählte Abgeordnete, die auf der Plattform aktiv waren.
In der eigenen Twitter-Nutzung bemerkte ich nur einen Unterschied: Ich wunderte mich, wie das Geschäftsmodell von Twitter in der Realität funktionierte, weil ich selten Werbung sah. Irgendwann realisierte ich, dass ich durch den blauen Haken offensichtlich bei Laune gehalten wurde und hier eine Sonderrolle genoss.
Die anderen Privilegien bekam ich weniger mit. Ich war verifiziert und das zeigte Nutzer:innen an, dass hinter meinem Account auch tatsächlich meine Person stand. Und der blaue Haken hatte Auswirkungen darauf, wie mein Account für andere sichtbar war. Meine Inhalte wurden bei den algorithmischen Entscheidungssystemen bevorzugt behandelt, wenn Nutzer:innen eine algorithmisch-kuratierte Timeline wählten, die sogenannte „For you“-Ansicht.
Die zwei Nutzungsarten bei Twitter
Es gab und gibt bei Twitter vor allem zwei unterschiedliche Nutzungsgewohnheiten. Ich selbst bin im „Team Chronologisch“. Ich mag es, die Kontrolle darüber zu haben, was mir angezeigt wird. Bei anderen sozialen Netzwerken fühlte ich mich irgendwann früher oder später unwohl, wenn mir Inhalte bunt und intransparent zusammengewürfelt eingeblendet wurden und ich keinerlei Kontrolle über deren Zusammenstellung hatte. Was interessieren mich die Postings von Bekannten von vor einer Woche?
Aber Nutzer:innenforschung hat inzwischen ergeben, dass ich einer Minderheit angehöre. Viele Menschen ziehen eine vorsortierte Timeline vor, weil sie so ein besseres Nutzungserlebnis erführen. Das „Team Algorithmische Timeline“ ist von der chronologischen Timeline überfordert. Es möchte gerne vorsortiert etwas erleben. Immerhin haben alle bei Twitter – zumindest noch – die Freiheit, zwischen beiden Ansichten zu wählen.
Ob das so bleibt, ist derzeit völlig offen. Vor fünf Monaten hat Elon Musk die Macht bei Twitter übernommen. Und es vergeht kaum ein Tag, an dem es nicht zu Veränderungen kommt. Das allein reicht offenbar aus, um einen fast täglich erscheinenden Podcast zu füllen, wie Dennis Horn und Gavin Karlmeier mit „Haken dran – das Twitter-Update“ beweisen.
Mein Nutzererlebnis blieb seitdem erstaunlicherweise gleich. Nur eine Sache hat sich nachhaltig geändert: Ich sehe Werbung und zwar eine ganze Menge. Das ist umso erstaunlicher, als dass Twitter die meisten seiner Werbekunden in den vergangenen Monaten verloren hat.
Privilegien kann man jetzt kaufen
Eine der größten Veränderungen steht aber aktuell an: Das eingespielte Verifikationssystem wird abgeschafft, um das neue Bezahlsystem Twitter Blue zu promoten. Twitter Blue hatte Elon Musk als Produktneuerung eingeführt, nachdem er die meisten Werbekunden durch sein Geschäftsgebaren und seinen Kommunikationsstil verscheucht hatte. Für acht Euro – Apple-Nutzer:innen zahlen 30 Prozent mehr – kann nun jede:r einen blauen Haken erhalten. Und erhält damit weniger Werbung im eigenen Feed und eine bevorzugte Ausspielung auf der algorithmischen Timeline bei Anderen. Twitter-Nutzer:innen können sich also jetzt ein Privileg kaufen.
Das funktionierte bisher nicht so toll als Geschäftsmodell. Denn es gab bislang nicht allzu viele Menschen, deren Ego einen gekauften blauen Haken benötigt. Wer möchte schon Elon Musk finanziell unterstützen, nachdem er durch schlechte Geschäftsentscheidungen und sein verschwörungsideologisches und aggressives Kommunikationsverhalten die eine Lieblingsplattform kaputt macht? Wir helfen doch bereits mit unseren Inhalten und Daten. Noch. Und überhaupt: weniger Werbung? Wenn dann würde ich dafür bezahlen, gar keine Werbung mehr sehen zu müssen.
Nach dem blauen Haken ist vor dem blauen Haken
Um Twitter Blue weiter zu promoten, sollen jetzt alle bisherigen Haken-Nutzer:innen diesen verlieren. Das aktuelle „Dieser Account wurde im alten System verifiziert. Er ist möglicherweise (aber nicht unbedingt) beachtenswert“ soll bis zum 15. April abgeschaltet werden. Ich verliere dann meine Privilegien und kann sie mir zurückkaufen. Zumindest zum Teil und als Verifikationssimulation. Willkommen im Kapitalismus.
Ich lass mich überraschen, wie Twitter in zwei Wochen aussieht. Vielleicht ändert sich ja weiterhin nichts in meiner Nutzung, weil Twitter Blue eher geringe Auswirkungen auf meine chronologische Nutzung hat. Außer eben der vielen Werbung neuerdings.
Vor allem aber hoffe ich noch immer auf eine richtige Alternative zu Twitter. Dort hätte ich gerne Text in Echtzeit, chronologisch sortiert. Das Fediverse mit Mastodon und Co. sind als mögliche Alternativen herangewachsen – und besser als gedacht. Ein Viertel meiner Twitter-Timeline ist auch bereits drüben. Aber dreiviertel von ihnen sind es offensichtlich noch nicht. Dafür experimentieren WordPress und Meta aktuell mit Schnittstellen ins Fediverse, viele Werkzeuge werden nutzer:innenfreundlicher. Das macht Hoffnung auf eine blühende Zukunft ohne Elon Musk – und hoffentlich dann auch gänzlich ohne blauen Haken und Privilegien.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Unten — Elon Musk thinks that merging humans with AI-machines is the logical path of evolution. A progression of this thought are designer-children in which parents decide the blueprint of how their children should look like or be skilled. Interfaces can connect us to AI, forming a unity between man and machine. In this scenario, humans may live on, but with a drastically altered definition of what is human. So much so that the new human androids may be a completely different species altogether. The narrow interpretation of the cartoon is a a human head, in the tradition of Futurama or Elon Musk, that is kept alive in a kind of fish-bowl, and is connected to an artificial body. This is one of the scenarios Tamingtheaibeast.org has developed in which AI can take control away from humans. The other 5 are: 1. Rogue Malware 2. First Intelligence Explosion 3. Necessary Rescue 4. Ethnic Cleansing 6. Lonely Dictator
US-Behörden dürfen kommerzielle Staatstrojaner nur noch eingeschränkt nutzen. Das ist ein erster Schritt, darf aber nicht der letzte sein. Denn die Probleme mit staatlichem Hacken löst das nicht.
US-Behörden dürfen in Zukunft kommerzielle Staatstrojaner nur noch eingeschränkt nutzen. Das hat US-Präsident Joe Biden am Montag angeordnet. Ein Komplettverbot für die invasiven Hacking-Tools ist es nicht. Vor allem geht es um Staatstrojaner, von denen eine Bedrohung für die nationale Sicherheit der USA ausgeht oder „ein erhebliches Risiko der missbräuchlichen Verwendung durch eine ausländische Regierung oder eine ausländische Person“. Dazu zählt laut der Anordnung, wenn ein Trojaner gegen US-Bürger:innen eingesetzt wurde oder damit Menschenrechtsverletzungen begangen werden.
Das dürfte das Aus für Staatstrojaner wie Pegasus oder Predator in den USA sein. Wie sie ist kaum ein größeres Trojaner-Unternehmen ohne Skandal. Regierungen überwachen mit den Staatstrojanern Dissident:innen oder setzen sie gegen Medienschaffende ein. Erst letzte Woche wurde bekannt, dass die griechische Regierung eine Managerin von Meta mit US-Staatsbürgerschaft abgehört haben soll. Schon vor zwei Jahren wurde bekannt, dass US-Diplomaten auf der Zielliste von Pegasus standen.
Was die Anordnung Bidens nicht verbietet: All die Hacking-Tools, die US-Behörden selbst entwickeln. Und Staatstrojaner von Herstellern, die noch nicht in autoritären Regimen gefunden wurden und die die USA als vertrauenswürdig einstufen.
Die Branche ist außer Kontrolle
Nicht nur der Pegasus-Skandal hat uns gezeigt: Die kommerzielle Staatstrojaner-Branche ist außer Kontrolle. Bidens Anordnung ist daher ein notwendiger erster Schritt, kann aber nicht der letzte sein.
Wenn wir nach Europa blicken, sehen wir: Ein Stopp für den Ankauf und Einsatz von Staatstrojanern ist überfällig. EU-Staaten hacken und überwachen damit ihre eigene Bevölkerung. Offenbar nicht immer nur, um Terrorist:innen zu fangen. In Polen oder Spanien etwa wurden Staatstrojaner bei politische Opponent:innen gefunden.
Doch selbst wenn alle Trojaner-Hersteller und die sie einsetzenden Regierungen Staatstrojaner stets nur zur Bekämpfung schwerster Verbrechen einsetzen würden: Das Grundproblem mit Staatstrojanern löst das nicht. Was bleibt, sind die Sicherheitslücken, die Hersteller nutzen, um Geräte zu infizieren und auszuspähen. Am wertvollsten dabei sind jene Lücken, die der Öffentlichkeit noch nicht bekannt sind. Und die Hersteller von Geräten und Software deshalb nicht schließen können.
Schwachstellen konsequent schließen
Sicherheitslücken offenhalten, um sie auszunutzen, gefährdet uns alle. Egal, wer das tut. Weder Staaten noch Staatstrojaner-Hersteller haben ein Monopol auf dieses Wissen. Sie können genausogut von gewöhnlichen Kriminellen gefunden und zum Schaden aller ausgenutzt werden. Der Handel mit Sicherheitslücken ist ein Markt. Und wer weiter Geld in dieses System spült, macht sich mitschuldig daran, dass es floriert.
Wenn der Pegasus-Ausschuss im Europaparlament seine Arbeit abschließt und einen Bericht und Empfehlungen vorlegen wird, muss ein Moratorium folgen. Und wir brauchen nicht nur ein Verbot kommerzieller Staatstrojaner, wir brauchen ein Verbot, Sicherheitslücken zu verschweigen – egal ob für staatliche oder kommerzielle Akteure.
Die Ampel hat sich vorgenommen, ein wirksames Schwachstellenmanagement einzuführen. Das darf nur heißen: Es muss verboten sein, Sicherheitslücken offenzuhalten. Alle Lücken, gleich wer sie findet, müssen schnellstmöglich geschlossen werden. Die Haltung von Bundesinnenministerin Faeser dazu ist nicht ganz so klar. Und das ist ein Problem. Die deutsche Regierung sollte es besser machen als die USA und Konsequenzen ziehen. Denn Staatstrojaner, die auf Sicherheitslücken beruhen, gefährden uns alle. Auch den Staat selbst.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Oben — Senator Biden gives his opening statement and questions U.S. Ambassador to Iraq Ryan Crocker and General David H. Petraeus at the Senate Foreign Relations Committee Hearing on Iraq.
Die KI orientiert sich ausschließlich an Wahrscheinlichkeiten
Sehen wir so die Politiker auf ihren Parteibühnen oder im Reichstag ?
Ein Debattenbeitrag von Nicolaus Wilder
Die Angst, die Maschine könne den Mensch ersetzen, ist so alt wie die Maschine. Bewahrheitet hat sie sich nie, und das wird sie auch bei der KI nicht. Wahrheit ist für sie kein orientierungsstiftendes Konzept.
Stellen Sie sich Folgendes vor: Eine künstliche textgenerierende Intelligenz – nennen wir sie Skynet – bringt die Menschheit im Jahre 2050 dazu, sich selbst auszurotten. Nun wurde sie aber von den Menschen darauf programmiert, sich weiterzuentwickeln, also zu lernen. Die hinter der KI stehende Logik ist dabei kein Hexenwerk, denn letztlich reagiert sie auf einen gegebenen Input mit einer Aussage, die sich anhand ihrer Trainingsdaten als die wahrscheinlichste ableiten lässt. Jetzt ist die KI so leistungsstark, dass alle von ihr generierten Outputs automatisch in den Trainingsdatensatz einfließen. Dadurch entsteht dann folgender Zirkel: Aus den vielfältigen theoretischen Antwortmöglichkeiten wählt sie die wahrscheinlichste aus. Diese wahrscheinlichste Antwort fließt dann wieder in den Trainingsdatensatz ein und erhöht dadurch die Wahrscheinlichkeit, dass diese Antwort bei der nächsten Anfrage wieder ausgespuckt wird, da diese Wortreihenfolge im Trainingsdatensatz nun noch häufiger vorkommt, damit also wahrscheinlicher wird.
Das bedeutet, dass mit jeder Trainingsrunde die unwahrscheinlichen Möglichkeiten unwahrscheinlicher werden und die wahrscheinlichen wahrscheinlicher. Dieser Prozess führt aufgrund der Hebb’schen Lernregel neuronaler Netze notwendigerweise – metaphorisch gesprochen – zum Big Freeze der Textgenerierung, dem absoluten Stillstand, weil alle zunächst gegebenen Möglichkeiten auf eine einzige reduziert werden. Wenn textgenerierende KIs also anfangen, sich selbst zu trainieren, dann landen am Ende Input, Output und Trainingsdaten alle bei 42, die Antwort auf die – um es mit Douglas Adams Worten zu sagen – „endgültige Frage nach dem Leben, dem Universum und dem ganzen Rest“.
Was aus diesem Gedankenexperiment folgt, soll im Folgenden exemplarisch für Wissenschaft und Journalismus skizziert werden. Generative KIs sind bei der Weiterentwicklung notwendigerweise angewiesen auf menschlichen Input. Sie reproduzieren stets das Wahrscheinlichste, erhalten damit zwingend den Mainstream und können so nicht grundlegend innovativ sein. Eine KI, die ausschließlich mit Daten trainiert wurde, die sagen, dass die Welt eine Scheibe ist, kommt von sich aus nicht auf die Idee, dass sie vielleicht doch eine Kugel sein könnte. Noch weniger macht sie sich mit einem Schiff auf den Weg, um das zu beweisen, denn Wahrheit ist für sie nur eine Zeichenreihenfolge und kein orientierungsstiftendes Konzept. Die KI orientiert sich ausschließlich an Wahrscheinlichkeiten.
Für die Wissenschaft heißt das, dass viele Dinge von KIs übernommen werden können, die in der Auseinandersetzung mit dem Bestehenden liegen: recherchieren, zusammenfassen, sortieren, gewichten sowie mitunter das Verfassen von Standardlehrbüchern oder Rezensionen. Dem Menschen schafft sie dadurch Zeit und Raum, sich auf das Innovative, das im gegenwärtigen Paradigma Unwahrscheinliche, dem Denken in alternativen Möglichkeiten zu konzentrieren. Das ist das Wesen des wissenschaftlichen Erkenntnisfortschritts, die Suche nach dem einen schwarzen Schwan.
Ähnliches gilt für den Journalismus. Niemand muss sich noch mit undankbaren Aufgaben aufhalten, Meldungen großer Nachrichtenagenturen umzuschreiben. Stattdessen wird Raum geschaffen für investigativen und oder lokalen Qualitätsjournalismus, der sich genau darin widerspiegelt, dass er nicht das Übliche reproduziert, sondern das Unbekannte aufdeckt oder über das Einzelne, das lokal Besondere berichtet, was der KI egal ist.
KI richtig eingesetzt hat also das Potenzial, uns von einigen leidigen Dingen des Alltags zu befreien oder zumindest die dafür aufzuwendende Zeit zu verkürzen und uns damit den Raum zu geben, den viele aus ihrem eigenen Berufsverständnis heraus in der Vergangenheit schmerzlich vermisst haben. Richtig eingesetzt können KIs uns sowohl für innovative und kreative Schaffensprozesse als auch für Reflexionsprozesse Zeit verschaffen, was zweifelsfrei beiden oben genannten Beispielen zugutekäme. Ein derartiger Einsatz von KIs kann aber nur dann gelingen, wenn wir anfangen, die jahrhundertelang etablierte dystopisch-dichotome Logik von Mensch gegen Maschine zu überwinden hin zu einer komplementären Logik, deren Fruchtbarkeit genau in der Interaktion von Mensch mit Maschine besteht.
Ein Infokasten wird zum Schleichweg einer Branche: Statt Verantwortung zu übernehmen, drücken sich Redaktionen vor der Diskussion, wie moderner Journalismus aussehen muss.
Die gute Nachricht zuerst: Der Fachjournalismus hat sich in den vergangenen Jahrzehnten ebenso weiterentwickelt wie die Spiele, über die er berichtet. Die schlechte Nachricht: Diese Entwicklung scheint nun an einer besonders sensiblen Stelle zu stagnieren. Ein moralisches Schlupfloch ist zur Stolperfalle für den modernen Spielejournalismus geworden – und ich hoffe, dass ich mich mit dieser Beobachtung täusche.
Auf den ersten Blick alles rosig
Wenn ich mich heute durch die wichtigsten Websites klicke oder die letzten verbliebenen Printmagazine aufschlage, kann ich mehr Reportagen, mehr Hintergrundberichte, mehr Experimentierfreude entdecken als jemals in den fast vierzig Jahren davor. Dabei wird längst immer weiter über die Grenzen der eigenen Branche geblickt: Wissenschaftler*innen, Lehrer*innen, Historiker*innen und viele weitere Expert*innen beantworten Fragen, ordnen ein, kommentieren und erläutern, was der Spielejournalismus selbst nicht weiß. Das Nachfragen bei Menschen, die sich auskennen, ist en vogue.
Aber nicht nur die Riege der Fachleute hat sich vergrößert, auch die Redaktionen selbst sehen heute anders aus: diverser, jünger, weiblicher. Eine überfällige Veränderung, die endlich die bunte Zielgruppe der eigenen Berichterstattung spiegelt. Reine Männertrupps gelten als überholt und altmodisch.
Auch an einer anderen Stelle hat sich der moralische Branchenkompass neu ausgerichtet: Fotostrecken von dickbrüstigen Spielfiguren (industrie-intern poetisch „Tittenklickstrecken“ getauft), Nacktpatch-Anleitungen und Best-ofs der heißesten Messebabes waren einst Eckpfeiler des Klickjournalismus. Sie sind heute fast ausnahmslos aus dem deutschen Spielejournalismus verschwunden. Nicht, weil sie sich nicht mehr lohnen würden, sondern weil sie unhaltbar aus der Zeit gefallen sind (oder saftige Abmahnungen nach sich gezogen haben).
All das sind Umwälzungen, die Kraft und Geld gekostet haben und Lob verdienen. Von dieser Modernisierung auf so vielen unterschiedlichen Ebenen profitieren Redaktionen, ihr Publikum und die Berichterstattung über das Medium selbst. Und doch scheint diese steigende Kurve der Weiterentwicklung nun ein Plateau erreicht zu haben – einen kritischen Punkt, der zu bequem, zu sicher erscheint, um ihn unter neuerlichem Aufwand von Kraft und Geld hinter sich zu lassen. Nach außen könnte es nicht harmloser erscheinen: Ich spreche von einem speziellen Infokasten, der in den vergangenen Wochen immer häufiger zwischen Schlagzeilen und Reportage-Absätzen auftauchte.
Das neue Feigenblatt des Spielejournalismus
Dieser Infokasten, der je nach Website auch als redaktioneller Einschub oder kurzer Absatz entdeckt werden kann, hängt mit einem Spiel zusammen, das noch in diesem Jahr erscheinen soll: Diablo 4, die Fortsetzung eines der bekanntesten und langlebigsten Franchises der Gamingwelt.
Die Vorfreude der Fans ist riesig, die Aufmerksamkeit der Presse für dieses Spiel dem Anschein nach uneingeschränkt. Überall buhlen derzeit News, Vorschauen und Kolumnen über diesen Titel um Klicks und Aufmerksamkeit. Und zwischen all der Vorfreude und Aufregung? Ein kleiner Vermerk, ein kurzer Einschub, der auf das hinweist, womit sich das Entwicklerteam von Diablo 4 in den letzten Monaten herumschlagen musste. Es geht um den Riesenkonzern Blizzard, Missbrauchsvorwürfe von ehemaligen Mitarbeiterinnen, Kündigungswellen und Klagen von Angestellten.
Hier hat der Fachjournalismus im ersten Schritt gute Arbeit geleistet, seinen Job gemacht: Alle wichtigen Redaktionen haben diese Meldungen um Blizzard aufgegriffen, sie eingeordnet und teilweise sogar zum Anlass genommen, größere Reportagen über Sexismus in der Spielebranche und Arbeitsrechte von Angestellten zu veröffentlichen. Aber wie zuletzt bei Hogwarts: Legacy, das untrennbar mit Joanne K. Rowling und ihren transphoben Äußerungen zusammenhängt, stellt sich auch bei Diablo 4 die große Sinnfrage: Wie umgehen mit einem Spiel, das von einem Studio entwickelt wird, gegen das derart schwere Vorwürfe von sexueller Belästigungen und Diskriminierungen erhoben werden?
Es ist absehbar, dass sich diese Frage nach der Trennung von Urheber und Spiel in Zukunft leider immer wieder stellen wird. Eine Antwort, ein Verhaltensmuster für diese Fälle muss also her. Und die Antwort, die nun offenbar redaktionsübergreifend gefunden wurde, ist denkbar unelegant, ethisch fragwürdig – und hoffentlich nur eine vorübergehende Lösung.
Ein Infokasten als Antwort
Diese Antwort ist der Infokasten, ein aufklärender Einschub: Fast alle Berichte über Diablo 4 werden von einem kurzen Hinweis auf die vergangene Berichterstattung zu den Vorwürfen gegen Blizzard unterbrochen. Ein bis drei Zeilen, die mit Links auf bereits geschriebene Statements und Kolumnen verweisen. Danach? Weiter im Text, weiter mit der Vorfreude auf ein Riesenspiel, das getrennt von den Vorwürfen gegen das Entwicklerteam besprochen werden soll.
Dieser formalistische Clou wirkt leider wie ein fauler Spagat zwischen notgedrungen wahrgenommener Verantwortung vor dem Riesenthema „Sexismus“ und der SEO-Gier, einen so großen Titel nicht einfach ignorieren zu können. Der Infokasten mutiert zum Hinweis auf eine Fleißarbeit, die leidig getätigt wurde und nun als erledigt gilt.
Offizielle Begründungen wirken mitunter vorgeschoben und überschätzen den aktuellen Einfluss der Fachpresse, wie zum Beispiel jene des GameStar, wonach mit einem „Boykott“ des Spiels auch Entwickler*innen „bestraft“ würden, die nichts mit den Vorwürfen zu tun haben. Ein herbei gezerrtes Feigenblatt, das die eigene Blöße bedecken soll.
Dabei gäbe es Zwischentöne, die die Existenz des Spiels weder ignorieren noch jegliche Verantwortung auf einen Querverweis-Dreizeiler abschieben: Eine bewusst eingeschränkte Berichterstattung etwa, die nicht über zentrale Formate wie einen Test hinausgeht und die somit ein deutliches Zeichen setzen würde. Oder das Ende einer Trennung von „Spielbesprechung“ auf der einen Seite und Einordnungen von Vorwürfen gegen das Studio auf der anderen Seite, um so der Tatsache gerecht zu werden, dass Werk und Urheber miteinander verbunden sind. Und ich bin mir sicher: Es gibt noch klügere, noch bessere Antworten, die ein Redaktionsteam finden kann, das an anderen Stellen hochwertige Reportagen und Berichte auf den Weg bringt.
Presse, zeige Haltung!
Ohne Haltung ist Journalismus zahnlos. Und mit dem neuen Feigenblatt haben sich Redaktionen vorerst die Möglichkeit genommen, ernste Vorwürfe innerhalb der Industrie auch mit Konsequenzen in der Berichterstattung zu versehen. Stattdessen soll der Mittelweg die Google-Suchanfragen und den Druck zur Positionierung gleichermaßen befriedigen. Das Ergebnis?
Eine Lösung, die bequem erscheint, aber den Spielejournalismus um eine dringend notwendige Gelegenheit beraubt, Rückgrat zu zeigen. Wenn nicht in diesem Fall, wann dann?
Vielleicht tue ich mit diesem Urteil den Redaktionen Unrecht, die sich nicht bewusst sind, wie ihre Lösung für die obige Sinnfrage nach außen hin wirken kann. Denn leicht ist diese Diskussion und die Suche nach einem Umgang mit dem beschriebenen Dilemma in der Tat nicht. Und vielleicht gehöre ich nur zu der verschwindend kleinen Minderheit, die sich am beschriebenen Umgang mit der Causa Blizzard & Co. stört und mehr Konsequenz verlangt.
Vielleicht aber auch nicht. Und dieser Gedanke sollte zum Anstoß genommen werden, schleunigst wieder das Plateau zu verlassen, auf dem es sich zu viele Redaktionen gerade erst gemütlich gemacht haben.
Die Bundespolizei verweigerte im Februar dem Vorsitzenden eines antifaschistischen Verbandes die Ausreise zu einer Demo nach Bulgarien. Auf eine schriftliche parlamentarische Frage zu dem Vorfall antwortet das Innenministerium ausgesprochen schmallippig.
Am 24. Februar verweigerte die Bundespolizei dem Vorsitzenden der Vereinigung der Verfolgten des Naziregimes – Bund der Antifaschistinnen und Antifaschisten (VVN-BdA), Florian Gutsche, am Flughafen in Berlin die Ausreise nach Bulgarien. Dort wollte der 34-jährige an einer Demo gegen einen Nazi-Aufmarsch teilnehmen. Stattdessen erwartete ihn am Flughafen ein Zivilpolizist, später durchsuchten und befragten Gutsche Beamte und erteilten ihm ein sechstägiges Reiseverbot – nicht nur nach Bulgarien.
Nach Informationen des VVN-BdA wurde die Verfügung damit begründet, dass damit zu rechnen sei, dass Gutsche „das Ansehen der Bundesrepublik Deutschland im Ausland erheblich schädigen“ würde. Indizien sah die Polizei in „mitgeführter Kleidung und Utensilien, die klar dem linken Phänomenbereich zuzuordnen sind“. Laut Pressemitteilung des VVN-BdA waren diese Gegenstände ein schwarzer Pulli, eine schwarze Jacke, eine Fahne und eine Broschüre der Organisation. Auf dieser Grundlage unterstellte die Polizei Gutsche eine mögliche Teilnahme an gewalttätigen Protesten. Gutsche selbst sagt der taz, dass er nie für irgendetwas verurteilt wurde in seinem Leben.
Wurden PNR-Daten genutzt?
Fraglich ist, wie die Polizei überhaupt dazu kam, dass sie Gutsches Reise auf dem Radar hatte. Denkbar ist, dass Gutsche – ohne Verurteilung – in einer Datei für politisch motivierte Gewalttäter gelandet ist und seine Reise mittels der Vorratsdatenspeicherung von Flugdaten (PNR) den Behörden bekannt wurde. Die Bundespolizei hat auf Presseanfragen von taz und nd bislang nicht geantwortet.
Auf eine schriftliche Frage der linken Bundestagsabgeordneten Martina Renner antwortete das Bundesinnenministerium nur mit einer allgemeinen Antwort zur Rechtsgrundlage (§ 10 Absatz 1 Satz 2 in Verbindung mit § 7 Absatz 1 Nummer 1 des Passgesetzes) und verweigerte sonst jede Auskunft zum Fall Gutsche. In der Antwort heißt es:
Die mit der Fragestellung gewünschten Auskünfte zu etwaigen durch die Bundespolizei bei der Ausreise einer Person festgestellten die vorgenannte Gefahr begründenden Tatsachen berühren das Persönlichkeitsrecht Dritter. Unter Abwägung des parlamentarischen Fragerechts und des damit einhergehenden öffentlichen Informationsinteresses mit dem gleichzeitig hier notwendigen Schutz der Persönlichkeitsrechte des Betroffenen kommt die Bundesregierung vorliegend zu dem Ergebnis, dass diesbezügliche Auskünfte nicht und – wegen des höchstpersönlichen Charakters der angefragten Daten – auch nicht eingestuft übermittelt werden können. Ob und inwieweit eine Auskunft an den Betroffenen möglich ist, obliegt auf dessen Anfrage der Entscheidung der zuständigen Sicherheitsbehörde im konkreten Einzelfall.
Weiter heißt es: Die Bundespolizei prüfe bei allen Personen, d. h. auch aus allen Phänomenbereichen der Politisch Motivierten Kriminalität, soweit diese bei der Ausreise angetroffen werden, ob einzelfallspezifisch gefahrenbegründende Erkenntnisse vorliegen, die in der Gesamtbetrachtung unter Berücksichtigung des Grundsatzes der Rechtsgüterabwägung Ausreiseuntersagungen an der Grenze erforderlich machen würden.
Gutsche selbst erwägt laut dem nd eine Klage gegen das Ausreiseverbot.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Der Zwang zur Abgabe von Fingerabdrücken für den Personalausweis ist umstritten. In Luxemburg fand gestern eine Sitzung dazu vor dem Europäischen Gerichtshof statt. Ein Bürgerrechtler hatte geklagt.
Schon deutsche Gerichte hatten darauf hingewiesen, jetzt zeichnet sich auch vor dem Europäischen Gerichtshof (EuGH) ein ähnliches Bild ab: Der Fingerabdruckzwang steht auf wackeligen Rechtsbeinen. Gestern wurde der Fall mündlich in Luxemburg verhandelt.
Geklagt hatte Detlev Sieber von der Bürgerrechtsorganisation Digitalcourage, zunächst vor dem Verwaltungsgericht Wiesbaden: Sieber verlangte von der Stadt einen Personalausweis ohne dafür biometrische Daten in Form von Fingerabdrücken zu hinterlassen. Die Richter hatten den Fall dann an den Europäischen Gerichtshof (EuGH) weitergegeben.
Dass die rechtlichen Bedenken aus Wiesbaden kein Einzelfall sind, hat sich in der Zwischenzeit bestätigt: Das Verwaltungsgericht Hamburg hat Ende Februar angeordnet, dass einer Person ein Personalausweis ohne gespeicherte Fingerabdrücke ausgestellt werden soll.
Zweifel aus den eigenen Reihen
Die Sitzung am EuGH fand nun vor der Großen Kammer statt – ein Zeichen, dass das Gericht sich der Dimension bewusst ist. Mehr als 300 Millionen EU-Bürger:innen sind von der Verordnung 2019/1157 betroffen. Sie verpflichtet seit 2021 alle EU-Bürger:innen, zwei Fingerabdrücke abzugeben, sobald sie einen neuen Personalausweis beantragen. Die biometrischen Daten werden anschließen auf einem Chip im Personalausweis gespeichert.
Die EU sagt, die Verordnung diene dem Fälschungsschutz und soll es den Behörden einfacher machen, eine verlässliche Verbindung zwischen einer Person und ihrem Ausweis herzustellen. Laut dem Europäischen Datenschutzbeauftragten ist das allerdings nicht notwendig. Schon 2018 hat dieser empfohlen, auf Alternativen zurückzugreifen, die in gleichem Maße Fälschungen vorbeugen – dabei aber das Grundrecht auf Datenschutz schonen.
Neben dem Fälschungsschutz gibt es noch eine zweites Argument: Mit dem neuen Perso könnten sie EU-Bürger:innen frei in und zwischen den Staaten bewegen. Für Kritiker:innen ist auch diese Begründung vorgeschoben. Schließlich besitzen die meisten EU-Bürger:innen bereits einen Reisepass. Und bei Reisen innerhalb der EU wird der Perso ohnehin kaum kontrolliert.
Vorgeschobene Gründe
Jetzt also Luxemburg. Die Parteien trugen ihre Rechtsansicht am Dienstagvormittag im Grande Salle Palais vor den 15 anwesenden Richter:innen vor. Wilhelm Achelpöhler, der Anwalt des Klägers, begann mit seinem Hauptangriffspunkt: Die Fingerabdrücke dienten nicht ausschließlich dem Zweck, dass sich Unionsbürger:innen frei in und zwischen den Staaten bewegen könnten. Im Gegenteil: Die Verordnung ließe es ausdrücklich zu, dass nationale Behörden aus beliebigen Gründen – beispielsweise für die Strafverfolgung – auf die biometrischen Daten zugreifen. „Die Verordnung begrenzt die Verwendung der Daten nicht auf das erforderliche Maß“, sagte Achelpöhler.
Der Anwalt erklärte auch noch mal, welchen Weg die Daten nehmen. Sobald EU-Bürger:innen einen Antrag für einen neuen Personalausweis stellen, nimmt die zuständige Behörde biometrische Daten in Form von zwei Fingerabdrücken. Danach verbleiben die hochsensiblen Daten bis zu 90 Tage bei der Behörde sowie beim Unternehmen, das den Ausweis anschließend erstellt. Im Regelfall sollen die Daten zwar schon bei Abholung des Ausweises gelöscht werden. Doch auf der Grundlage von nationalen Gesetzen kann der Staat in diesem Zeitraum auf die Daten zugreifen.
Nach 90 Tagen verringert sich die Gefahr eines Zugriffs: Die Daten sind dann nur noch auf einem kleinen Chip im Personalausweis. Auf diesen können Behörden nur noch mit einem speziellen Lesegerät zugreifen. Und nur zu dem Zweck, um den Ausweis und die Identität der Person auf Echtheit zu überprüfen.
90 Tage Wilder Westen
90 Tage sind dennoch eine lange Zeit für die EU, die sich sonst gerne als Vorreiter in Fragen des Datenschutzes positioniert. Achelpöhler sagt in der Verhandlung dazu: „Warum soll man bei der Ausstellung eines Personalausweises Fingerabdrücke der Bürger erheben und diese für 90 Tage zu jedem potentiellen Zweck des nationalen Rechts verwenden?“ Ein solche Regelung verunsichere die Bürger:innen und führe zu der Befürchtung, dass der Staat anlasslos die Daten gegen sie verwendet.
Konstantin Macher, ein Sprecher von Digitalcourage, erhob in einer Pressemitteilung nach der Verhandlung noch einmal ganz grundsätzliche Kritik: „Auch auf mehrere Nachfragen hin konnten EU-Kommission und Rat nicht erklären, wie eine Gefahr für die biometrischen Daten der betroffenen Bürger.innen ausgeschlossen werden soll. Das lässt sich auch gar nicht verhindern: wenn die Daten einmal erhoben werden besteht das Risiko des Datenlecks und des Missbrauchs. Darum sollte es erst gar keine Fingerabdruckpflicht geben.“
Vertreter:innen von Kommission, Parlament und Rat verteidigten den Fingerabdruckzwang vor dem EuGH vehement. Das ist wenig überraschend, schließlich geht die Verordnung auf diese Institutionen zurück. Eine Vertreterin des Rats der Europäischen Union betonte in ihrem Statement immer wieder, dass die Daten vor Zugriff sicher seien.
Der nächste Schritt im Verfahren ist jetzt die Veröffentlichung der Schlussanträge der Generalanwältin am 29. Juni. In den allermeisten Fällen folgt das Gericht diesen Anträgen. Ein Termin für die endgültige Urteilsverkündung steht noch nicht fest.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
A view of the Towers B and C of the Palais de la Cour de Justice of the CJEU, with a sign displaying the emblem of the EU institution in the foreground.
Rezepte EU-weit einlösen, mehr Daten für die medizinische Forschung: Das und noch viel mehr soll der Europäische Gesundheitsdatenraum bringen. Aber es gibt da noch viele offene Fragen, findet Bianca Kastl.
Ab und zu finde ich mich deutsche Digitalisierungskartoffel in Diskussionen wieder, in denen geradezu sehnsüchtig gelungene Digitalvorhaben anderer Länder angehimmelt werden. So eine Patientenakte wie in Estland oder Finnland, das wär doch was, oder? Und als Silberstreif am Horizont so ein großer gemeinsamer Europäischer Gesundheitsdatenraum, der EHDS.
All das wird nur Wunschdenken bleiben, wenn wir nicht die vielen Ungereimtheiten auflösen, die darunter verborgen sind.
Die Pandemie-Phrase
Des Weiteren hat die COVID‑19-Pandemie noch stärker gezeigt, wie wichtig elektronische Gesundheitsdaten für die Entwicklung von Strategien zur Bewältigung von Gesundheitskrisen sind.
Dieser Satz steht in der Präambel des ersten Vorschlags der Europäischen Kommission zum Europäischen Raum für Gesundheitsdaten. Worum geht es da und ist das alles so in sich stimmig?
Der EHDS ist erst einmal vordergründig eine rechtliche Initiative, die europaweit Gesundheitsdaten und Leistungen digital harmonisieren soll.
Die Forderung nach Harmonisierung ist im Kern nicht schlecht. Elektronische Rezepte, die europaweit funktionieren, sind durchaus hilfreich. Wenn Gesundheitsdaten aus Spanien deutschen Ärzt*innen besser nicht mehr spanisch vorkommen und nach internationalen Standards auswertbar sind, ist das auch durchaus hilfreich.
Nun steht im Entwurf zum EHDS aber nicht nur der Wunsch nach stärkerer Interoperabilität und Standardisierung, sondern es geht auch ganz klar um einfacheren Zugang zu Daten. Dabei geht es nicht nur um den sogenannten „primary use“, sondern es gibt noch einen „secondary use“ – also eine Verwendung von Gesundheitsdaten über den eigentlich Primärzweck der Behandlung und Versorgung hinaus. Das kann für die Forschung sein, aber auch zu kommerziellen Zwecken, sofern dies in die möglichen zugelassenen Formen der Datennutzung passt.
Da der EHDS europaweit gedacht ist, ist das Ziel auch ganz klar die Schaffung eines einzigen großen Datenraums im Sinne eines europäischen digitalen Binnenmarktes, des sogenannten Digital Single Market.
Für die Zweitnutzung gab es im ersten Entwurf keinerlei Widerspruchsmöglichkeit. Also gar keine. Aktuell bewegt sich die Diskussion zwar in diese Richtung, es ist aber noch in Verhandlung, ob als Opt-Out oder Opt-In. Also ob die Betroffenen der Nutzung aktiv widersprechen oder ob sie explizit einwilligen müssen, bevor ihre Daten verwendet werden.
Der Witz an der Sache von Seiten der medizinischen Leistungserbringer ist auch, dass der Entwurf darauf abzielt, dass sogenannte Dateninhaber („Data Holders“) Gesundheitsdaten auch bereitstellen müssen, zumindest ab einer bestimmten Größe. Darunter fallen quasi alle Kliniken.
Nun ist die Forschung an Daten auf verschiedenen Wegen vorstellbar. Idealerweise wäre Forschung mit komplett anonymisierten Daten möglich. Das geht aber leider gar nicht mal so häufig, weil manche Datenpunkte, speziell mehrere miteinander kombinierte, eine so individuelle „Daten-Signatur“ haben, dass Personen auch anhand der Datenpunkte allein wieder eindeutig identifiziert werden können.
Je seltener bestimmte Werte innerhalb eines Datensets vorkommen, desto schneller lässt sich eine Person einwandfrei auch aus dann pseudonymen Daten wiedererkennen.
Menschen mit einer seltenen Erkrankung – manche davon kommen im Bereich von 1:1.000.000 vor – und einer bestimmten Blutgruppe gibt es in der Kombination in ganz Deutschland oder Europa gar nicht mal so viele.
Das Problem ist so ähnlich wie bei der Nutzung der Abrechnungsdaten von gesetzlichen Krankenkassen. Dort ruht in Deutschland gerade das Verfahren der Gesellschaft für Freiheitsrechte gegen eine solche Verarbeitung ohne Widerspruchsmöglichkeit – zufriedenstellend gelöst ist das Problem aber noch nicht. Mit dem EHDS könnte das Problem sogar wiederkommen.
Breite Definition von Gesundheitsdaten
Was genau im Sinne des EHDS unter den Begriff Gesundheitsdaten fällt, ist aktuell sehr weit auslegbar. In der ersten Fassung stehen da etwa auch „Wellness-Anwendungen“, deren Daten verfügbar gemacht werden sollen. Oder um es mit den Worten des Netzwerk Datenschutzexpertise zu sagen: „Man kann den Eindruck haben, dass alle Daten, die auch im entferntesten einen Gesundheitsbezug haben, von der Bereitstellungpflicht erfasst sein sollen“.
Neben der sehr großzügigen Definition der Daten selbst, ist auch die erste Definition von Zwecken, zu denen diese Daten genutzt werden können, sagen wir mal, bei kreativer Anwendung für so ziemlich alles anwendbar.
Unter „Training, Erprobung und Bewertung von Algorithmen, auch in Medizinprodukten, KI-Systemen und digitalen Gesundheitsanwendungen, die zur öffentlichen Gesundheit oder sozialen Sicherheit beitragen“ lässt sich dann doch einiges unterbringen. Wenn zwar das „Treffen von Entscheidungen zum Schaden einer natürlichen Person“ verboten ist, stellt sich die Frage, ob das vielleicht vorher erst durch Bewertung von Algorithmen herausgefunden werden müsste.
Da ist also rechtlich noch einiges klar zu fassen und genauer zu definieren. Inklusive der zentralen Frage, inwieweit sich Forschung im Sinne der Allgemeinheit an Daten klar trennen lässt von kommerziellen Interessen.
Erschwerend dazu kommt, dass der EHDS nach Plan Mitte 2023 verabschiedet werden sollte. Mit der Zielsetzung, dass die Mitgliedstaaten 2025 diesem Datenraum quasi beitreten sollen, wird das aus rein technischer Sicht selbst für digital weiter entwickelte Länder nicht unbedingt einfach. Die Aussichten, dass das alles in Deutschland funktioniert, stehen damit nicht unbedingt gut.
Viele schlecht umgesetzte EU-Initiativen auf einmal
Obwohl der EHDS und seine rechtlichen Grundlagen uns alle in Europa betreffen, bleibt das Thema aktuell noch etwas arg unter dem Radar. Der EHDS ist als Vorschlag digitalpolitisch leider etwas neben den Themenfeldern Chatkontrolle und digitale Identitäten untergegangen. Wenn es digitalpolitisch überall brennt, ist es schwer, alles gleichzeitig zu löschen.
Wer sich aus zivilgesellschaftlicher Sicht auf EU-Ebene mehr mit dem EHDS beschäftigen möchte, dem sei das Positionspapier von EDRi empfohlen.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Ein technisches Gutachten soll den sicheren Betrieb der umstrittenen Polizei-Software Palantir belegen. Doch rechtlich fehlt noch immer die Grundlage für einen Einsatz. Für die nicht genutzte Software fließen derweil Lizenzgebühren in Millionenhöhe – nicht nur in Bayern.
Die Palantir-Software, die Bayern bei der Polizei einsetzen will, ist nach Ansicht des Fraunhofer Instituts in Fragen der IT-Sicherheit unbedenklich. Das verkündetete das Landeskriminalamt München unter der Überschrift: „Sicherer Betrieb ist möglich!“ Das Fraunhofer Institut hatte den Quellcode unter anderem auf Hintertüren und Datenabflüsse überprüft. Zuvor gab es Bedenken, ob die Daten von der bayerischen Polizei an das US-Geheimdiensten nahestehende Unternehmen Palantir abfließen könnten.
Mit der Quellcode-Untersuchung wurde das Fraunhofer Institut für Sichere Informationstechnologie (Fraunhofer SIT) beauftragt. Das Gutachten basierte laut dem LKA München auf einer „breiten und fundierten methodischen Vorgehen zur vollumfänglichen Prüfung der Software.“ Im Rahmen der Prüfung sei unter anderem eine umfassende Schwachstellenanalyse durchgeführt worden. Dazu gehöre neben manuellen Prüfungen und Penetrationstests auch ein Code-Scanner zur automatisierten Detektion von Schwachstellen.
Das Gutachten selbst wurde nicht veröffentlicht, sondern steht unter Verschluss, weil es sensible Angaben über die IT-Infrastruktur der Polizei und Geschäftsgeheimnisse von Palantir enthalte. Die technische Prüfung ist allerdings nur für die aktuelle Version gültig. Um zu wissen, was wirklich mit der Software passiert, müsste sie bei jedem Update erneut geprüft werden.
Palantirs Software soll unter dem Namen „Verfahrensübergreifende Recherche- und Analyseplattform“ (VeRA) bei der bayerischen Polizei eingesetzt werden. Das Verfahren in Bayern ist auch für andere Bundesländer von Belang, da Bayern einen Rahmenvertrag mit Palantir abgeschlossen hat. Der Einsatz in weiteren Bundesländern könnte dann auf dieser Grundlage folgen.
Zwar wurde die Software nach der 430.000 Euro teuren geheimen Untersuchung nun rein technisch als unbedenklich eingestuft. Davon unberührt sind aber starke verfassungsrechtliche Bedenken gegen den Einsatz der Software, die Daten aus verschiedenen Datenbanken und Quellen zusammenführt und so ganz neue Möglichkeiten eröffnet, um Menschen ins Visier zu nehmen. Diese Bedenken lassen sich nicht durch eine Überprüfung des Quellcodes ausräumen.
„Kein Zeitplan“ für Rechtsgrundlage
In Hessen und Hamburg hatte das Bundesverfassungsgericht im Februar die rechtlichen Grundlagen für verfassungswidrig erklärt. Auf Anfrage von netzpolitik.org erklärt das Bayerische Staatsministerium des Innern: Die noch zu schaffende Rechtsgrundlage im Bayerischen Polizeiaufgabengesetz werde sich an den im Urteil des Bundesverfassungsgerichts getroffenen Aussagen orientieren.
Das Ministerium geht davon aus, dass „ein Einsatz sowohl zur Abwehr von konkreten oder konkretisierten (drohenden) Gefahren, als auch zur Verhütung von Straftaten im Vorfeld von (drohenden) Gefahren grundsätzlich zulässig ist“. Keine Aussage wollte das Ministerium dazu treffen, wann genau Bayern allerdings die neue Rechtsgrundlage anpeile oder wann VeRA eingesetzt werden könne. Dazu liege „noch kein Zeitplan vor“, schreibt ein Sprecher an netzpolitik.org.
Wann die Software zum Einsatz kommen wird, ist also in Bayern noch offen. Doch selbst wenn die Software nur in der Schublade liegt entstehen dem Bundesland Kosten in Millionenhöhe, wie der Bayerische Rundfunk recherchiert hat. Alleine seit dem Vertragsabschluss im Mai 2022 waren es laut Ministerium rund 3,2 Millionen Euro an Lizenzgebühren. Insgesamt sind in den ersten fünf Jahren bis zu 25 Millionen Euro fällig. Auch in Nordrhein-Westfalen (NRW) wird Palantir teuer, dort haben sich die Kosten gegenüber der Planung verdreifacht. Gegen den Palantir-Paragraf im Polizeigesetz von NRW läuft eine weitere Verfassungsbeschwerde.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Unten — Farbliche Darstellung der Aktivität eines Wikipedia-Bots über einen längeren Zeitraum: typisches Beispiel der Veranschaulichung von Big Data mit einer Visualisierung
Visualization of all editing activity by user „Pearle“ on Wikipedia (Pearle is a robot). To find out more about this project, see (2007). „Visualizing Activity on Wikipedia with Chromograms„. Proceedings of INTERACT.
Der Entwurf liegt auf dem Tisch, die Kritik daran gleich mit: Der hessische Landtag stimmt in kommender Sitzung über das sogenannte Versammlungsfreiheitsgesetz ab. Am Samstag findet in Wiesbaden eine Demonstration dagegen statt.
Mehr Freiheit und mehr Demonstrationskultur? Oder mehr Repressalien und Befugnisse für die Polizei? In der Sachverständigenanhörung im Innenausschuss vor gut einem Monat hatte Clemens Arzt jedenfalls wenig Anstrengungen unternommen, um seine Abneigung gegen den hessischen Entwurf eines Versammlungsfreiheitsgesetz zu verbergen. Schon der Name „Versammlungsfreiheitsgesetz“ sei ein „Euphemismus“, sagte der Staats- und Verwaltungsrechtler. Das Recht sich zu versammeln sei ein Grundrecht – ein neues Gesetz bräuchte es dafür nicht. Schon gar nicht eines, das in Teilen verfassungswidrig sei.
Das kritisierte nach der Expertenanhörung im Februar auch der rechtspolitische Sprecher der Linkspartei, Ulrich Wilken: Das neue Versammlungsgesetz schaffe zu große Hürden für Versammlungen und betrachte Proteste vor allem unter dem Gesichtspunkt ihrer Gefährlichkeit. „Der Begriff Versammlungsfreiheitsgesetz ist für den vorgelegten Entwurf unangebracht – besser würde Gefahrenabwehrgesetz passen.“
Demo gegen Gesetz angekündigt
Inzwischen regt sich auch in der Bevölkerung erster Protest. So ruft eine „Arbeitsgruppe gegen das hessische Versammlungsfreiheitsgesetz“ – für Samstag um 13 Uhr zur Demonstration in Wiesbaden vor dem Hauptbahnhof auf. Im Netz solidarisieren sich unter anderem Antifagruppen, die Partei „Die Linke“ und Fridays for Future Frankfurt. Ihre Forderung: Das Gesetzesvorhaben sofort stoppen. Der Gesetzentwurf würde „zu einer erheblichen Behinderung von einer bunten und vielfältigen Versammlungs- und Demonstrationskultur führen“, heißt es in einer Pressemitteilung. In der Frankfurter Rundschau entgegnet hingegen Lukas Schauder, Mitglied des Innenausschusses im Landtag für die Grünen: Der Arbeitskreis hätte einen „etwas flexiblen Umgang mit der Wahrheit“. Die Grünen sind Teil der schwarz-grünen Landesregierung, welche das Gesetz durchsetzen will.
Sicher ist: In bereits acht Bundesländern gibt es bereits ein Versammlungsrecht auf Länderebene. Seit der Föderalismusreform 2006 ist das grundsätzlich möglich. Die Berliner als auch die Schleswig-Holsteinische Umsetzung gilt gemeinhin als beispielhaft für eine Vertrauenskultur zwischen Demonstrierenden und Staat. Die bayrische Version von Versammlungsfreiheit hat das Bundesverfassungsgericht im April 2022 in Teilen gekippt – vor allem wegen grundrechtswidriger Überwachungsmaßnahmen. Auch in Nordrhein-Westfalen war das neue Versammlungsgesetz stark umkämpft, es gab über Monate Proteste, am Ende bekam die damalige schwarz-gelbe Regierung das Gesetz mit einigen kosmetischen Korrekturen durch den Landtag. Auch gegen dieses Gesetz läuft eine Verfassungsbeschwerde. Nun ist es also das Bundesland Hessen, das die Grenzen der Verfassung austestet. Oder etwa nicht?
Sachverständige haben grundrechtliche Bedenken
Umstritten ist unter anderem das Thema Videoüberwachung. Der Gesetzentwurf gestattet Übersichtsaufnahmen. Bei größeren Demos (ab rund 100 Menschen) darf die Polizei eine Demonstration präventiv abfilmen, um den Überblick über das Geschehen zu wahren. Ob die Demo draußen oder drinnen stattfindet, spielt dabei keine Rolle. Übersichtsaufnahmen legitimieren die Polizei allerdings nicht dazu, die Demo aufzuzeichnen, Daten zu speichern und einzelne Demoteilnehmer:innen zu identifizieren – eigentlich.
In der Anhörung wies Rechtsprofessor Clemens Arzt darauf hin, dass es heute technisch keine reinen Übersichtsaufnahmen mehr gebe: man könne alles immer „heranzoomen und herausdestillieren“. Übersichtsaufnahmen seien ein schwerer Eingriff in das Grundrecht auf informationelle Selbstbestimmung. Danach haben Menschen das Recht, selbständig zu entscheiden, wem gegenüber sie welche Informationen preisgegeben. Durch die Videoüberwachung sei das nicht mehr gewährleistet, die Folge sei eine „sehr hohe Abschreckungswirkung“, sagte Arzt. Denn Demonstrierwillige könnten aus Angst vor staatlicher Überwachung vom Demonstrieren abgehalten werden.
Abschreckungspotentiale
Abschreckungspotential birgt laut einigen Expert:innen auch Paragraph 11 im Gesetzentwurf. Dort wird die Anwesenheit von Polizei während der Versammlung geregelt. Laut dem Grundrechtekomitee darf die Polizei darauf basierend Zivilbeamte entsenden, ohne dass sich die Beamten zu erkennen geben müssten. Für die Entsendung brauche es im neuen Gesetz auch keine konkrete Gefahr: Eine anlasslose Überwachung, „verfassungsrechtlich inakzeptabel“, meint Michèle Winkler von der Bürgerrechtsorganisation. Die Versammlungsfreiheit zeichne sich durch Staatsferne, nicht durch Staatsanwesenheit aus.
Mathias Hong von der Hochschule für öffentliche Verwaltung Kehl sagt hingegen, eine solche Befugnis ergebe sich nicht aus dem Gesetz. Einig sind sich die beiden Parteien hingegen in dem Punkt, dass die Anwesenheit von Polizei nur bei einer konkreten Gefahr legitimiert sein darf. Der Entwurf bleibt an dieser Stelle allerdings sehr vage – ein möglicher Freifahrtschein für polizeiliche Überwachung.
Unkonkret und unbestimmt
Zu unkonkret, zu verschwommen, zu unbestimmt: Eine ähnliche Kritik wie bei den Überwachungsmaßnahmen zeigt sich auch bei der Frage, welche Gegenstände Demonstrierende mitführen dürfen. So sieht der Entwurf sogenannte Anordnungsermächtigungen vor, durch welche die Polizei das Mitführen bestimmter Gegenstände bei einer Demonstration künftig unter Strafe stellen kann. Eine Maßnahme, die darauf abzielt, es Teilnehmer:innen künftig zu verbieten, sich unkenntlich zu machen. Häufig ist in diesem Zusammenhang auch vom Vermummungsverbot die Rede.
Das Problem dabei: „Eine Strafe gibt es nur bei Anfangsverdacht“, sagt Verwaltungsrechtler Hong in der Anhörung. Pauschale Anordnungsermächtigungen hebeln dieses Prinzip aus. Das bestätigt auch Clemens Arzt: Um etwa das Tragen eines Schals im Gesicht unter Strafe zu stellen, müsse eine Demonstrierende vorher überhaupt erst gegen Gesetze verstoßen. Die Polizei habe kein generelles „Identitätsfeststellungsrecht“. „Wenn beispielsweise ein kurdischer Oppositioneller in Deutschland demonstriert, möchte er vielleicht aus guten Gründen nicht, dass der türkische Geheimdienst sein Gesicht sieht, wenn er hier in diesem Lande operiert“, sagt Arzt.
Gefahrenabwehr statt Vertrauen
Der Entwurf offenbart, dass die Regierung das Prinzip Skepsis walten lässt. Das wird an vielen Stellen deutlich. Vieles, was den eigentlichen Kern der Versammlungsfreiheit ausmacht, wird mit der Gießkanne sanktioniert. Neben dem Verbot des Mit-Sich-Führens bestimmter Gegenstände, ist die Anmeldepflicht ein Beispiel. Clemens Arzt dazu: Grundsätzlich treffe Veranstalter:innen erst einmal keine Pflicht, eine Demonstration überhaupt anzumelden.
Im hessischen Entwurf gibt es dennoch eine solche Pflicht – verfassungsrechtlichen Bedenken zum Trotz. Allein sieben Ordnungswidrigkeiten verzeichne das Gesetz beim Verstoß gegen vermeintliche Anmeldepflichten. Laut Arzt wird so die grundrechtliche Versammlungsfreiheit „weitestgehend eingeschränkt“.
Ein ähnlicher Vorbehalt zeigt sich darin, dass auch das Verweigern von Polizeianwesenheit ein Bußgeld nach sich zieht. Dabei könnte man meinen, die hessische Landesregierung hätte ihre Lehren aus der Eilentscheidung des Bundesverfassungsgerichts zum bayrischen Versammlungsgesetz gezogen. Das Gericht hat dort etliche Bußgeldbestimmungen außer Vollzug gesetzt.
Das neue hessische Versammlungsgesetz soll schon in der kommenden Landtagssitzung beschlossen werden.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Demonstration von rechten und verschwörungsideologischen Gruppen gegen die Änderung des Infektionsschutzgestzes, in der sie ein „Ermächtigungsgesetz“ sehen am 18. November 2020 in Berlin. Die Demonstration im Bannkreis wurden verboten, der Protest davor wurde wegen Verstoßes gegen die Infektionsschutzverordnung aufgelöst.
Viele kommunale Akteure befürchten, dass die Bereitstellung von Daten nicht mehr finanzieren können, wenn sie ihren Datenschatz nicht monetarisieren dürfen. Aber genau das regelt das Datennutzungsgesetz aus dem Jahr 2021. Warum die Debatte um die Veräußerbarkeit von Verwaltungsdaten falsch geführt wird, zeigt Stefan Kaufmann in dieser Kolumne auf.
Sind Daten von Bund, Ländern oder Kommunen frei zugänglich, handelt es sich dabei oft um „Turnschuh-Open-Data“ – also Datensätze, die händisch aus den Beständen der Verwaltungen exportiert und in die diversen Datenportale geladen werden. Dieser Prozess müsste dringend modernisiert und automatisiert werden, doch bislang ist den Verantwortlichen die notwendige Investition in IT-Architekturen zu teuer.
Zusätzlich stand manchem kommunalen Kämmerer bei der Aussicht, mit den Datenschätzen der öffentlichen Hand auch handeln zu können, bereits das Eurozeichen in den Augen. Vielleicht liegt es an der schrägen Metapher von Daten als „Öl des 21. Jahrhunderts“. Sie erweckt den Eindruck, dass vor allem Fakteninformationen – also die Abbildung möglichst objektiver Beschreibungen unserer Welt – ein privatisier- und handelbares Gut seien.
Vielleicht liegt das Problem aber auch in den noch nicht ausgestorbenen Denkmodellen des New Public Management. In diesem Verwaltungsmodell aus der ausgehenden Thatcher-Ära wird die Bevölkerung zu „Kund*innen“, denen die Verwaltung Dienstleistungen zuteilwerden lässt – immer auch mit der Überlegung, dass Angelegenheiten außerhalb der unmittelbaren Kernaufgaben der jeweiligen Verwaltungsebene privatisiert werden könnten.
Wenn die Vermessungsabteilung jede verwaltungsintern gewünschte Karte in Rechnung stellt, scheint es nur konsequent, auch Dritte außerhalb der Verwaltung dafür bezahlen zu lassen, wenn sie Daten der öffentlichen Hand benutzen möchten. Vermeintlich ist das ein Win-Win: Durch den Handel mit Daten können die notwendigen Investitionen refinanziert werden.
Wissen als öffentliches Gut
Insbesondere die EU scheint sich mittlerweile ein deutlich ganzheitlicheres Vorgehen zu wünschen, das weitsichtig auch die notwendigen IT-Infrastrukturen für die Wiederverwendbarkeit von Informationen schafft. Über die Jahre hat die EU daher die sogenannte PSI-Richtlinie in die Open-Data-Richtlinie weiterentwickelt.
Besonders hochwertige Datensätze sollen gemäß der im Dezember 2022 vorgelegten Durchführungsverordnung kostenlos und unter freier Lizenz veröffentlicht werden. Und auch die nationale Umsetzung in Deutschland scheint sich nun deutlicher auf das Konzept von Wissen als öffentliches Gut zu fokussieren. Im Sommer 2021 wurde das Informationsweiterverwendungsgesetz durch die Verabschiedung des zweiten Open-Data-Gesetzes vom Datennutzungsgesetz (DNG) abgelöst. Was das in der Praxis bedeuten sollte, schien lange Zeit unklar – an einen eigenen Wikipedia-Artikel für das Gesetz traute sich erst im September 2022 ein Wikipedia-Beitragender.
Eine Einordnung lieferte im Dezember 2022 ein Artikel von Martini, Haußecker und Wagner in der Neuen Zeitschrift für Verwaltungsrecht (NVwZ). Auf zwölf Seiten und mit 160 Fußnoten kommen die Autoren zu dem Schluss, dass Kommunen ihre Daten grundsätzlich nicht gewinnbringend verkaufen dürfen. Nur in wenigen Bereichen bleibt der Handel mit Informationen erlaubt – beispielsweise, wenn Informationen zu rein wirtschaftlichen Zwecken erhoben werden, oder durch öffentliche Unternehmen im Sinne der EU-Definition.
Wo sollen die Mittel für Digitalisierung herkommen?
Wie sich das in der Praxis ausgestaltet, wird die Zukunft zeigen. Das im NVwZ-Aufsatz betonte Diskriminierungsverbot könnte spannende Anwendungsfelder für strategische Klagen mit sich bringen, die darauf abzielen, ebenfalls direkten Zugang zu Informationen zu bekommen. Etwa wenn eine Kommune im Rahmen eines Smart-City-Projekts einer Firma Daten beispielsweise für die Verwendung in einem Dashboard oder einem Datenraum anliefert.
Der NVwZ-Aufsatz schließt etwas nachdenklich mit der Frage, woher denn nun die notwendigen Mittel für Investitionen in die Digitalisierung kommen sollen, wenn der Staat nicht mehr mit Daten handeln darf. Tatsächlich liegt in dieser Regelung eine riesige Chance, mit dem neoliberalen Modell der New-Public-Management-Verwaltung zu brechen und den Fokus auf die überfällige Ertüchtigung der öffentlichen IT-Infrastrukturen für eine nachhaltige Verwaltungsdigitalisierung zu richten.
Tatsächlich gibt es einen reichen Schatz an Informationen aus staatlicher Hand, die bereits an vielen Stellen veröffentlicht und verbreitet werden – die aber derzeit weder behördenintern noch öffentlich automatisiert wiederverwendet werden können.
Ein Hemmschuh auf dem Weg zur Wiederverwendbarkeit dieser Informationen durch die Allgemeinheit sind derzeit noch fehlende Bereitstellungsverpflichtungen als „richtiges“ Open Data, das möglichst viele der 5-Sterne-Kriterien für offene Daten erfüllen muss. Auch der geplante Rechtsanspruch auf Open Data wird erst unter Beweis stellen müssen, wie gut er sich als Motivator und Antrieb zur flächendeckenden Verfügbarkeit weiterverwendbarer Daten eignet.
Die Hürden sind andere
Die viel gewichtigere Hürde dürfte aber im Wildwuchs und der mangelnden strategischen Planung der zugrundeliegenden IT-Architekturen und -Infrastrukturen liegen, auf denen viele vermeintliche Vorzeigeprojekte der Verwaltungsdigitalisierung zwangsläufig aufbauen müssen – vom Dauerbrenner Onlinezugangsgesetz bis zu den Smart-City-Projekten, die von immer mehr Kommunen vollmundig angekündigt werden.
Eine ganzheitliche Herangehensweise würde bedeuten, in den gemeinsamen IT-Unterbau zu investieren, um damit die Wiederverwendbarkeit der ohnehin vorhandenen Informationen so umfassend wie möglich zu gewährleisten. Nicht zuletzt handelt es sich bei vielen dieser vom Staat gehaltenen Informationen entweder um aus Steuermitteln bezahlte Daten oder um pure Faktendaten – an denen es ohnehin keine Eigentumsrechte geben soll.
Die notwendigen finanziellen Mittel dafür scheinen angesichts der vielen öffentlich geförderten Digital-Scheinleuchttürme durchaus vorhanden zu sein – sie werden bisher aber ohne erkennbare Strategie eingesetzt. Mit diesen Scheinleuchttürmen und Klagen gegen Open-Data-Aktivist*innen weiterzumachen wie bisher, wird letztlich teurer sein, als endlich systematisch die Voraussetzungen für eine echte Digitalisierung zu schaffen.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Das Buch „Die Akte Pegasus“ der beiden Journalist:innen Laurent Richard und Sandrine Rigaud beschreibt eindrucksvoll und anschaulich die Recherchen rund um die Staatstrojaner des israelischen Unternehmens NSO. Es ist ein Plädoyer für kollaborativen investigativen Journalismus, für Pressefreiheit und gegen Überwachung.
Es beginnt mit einer Liste mit 50.000 Telefonnummern, die Laurent Richard und Sandrine Rigaud vom kollaborativen Recherchenetzwerk Forbidden Stories von einer Quelle zugespielt wurden. Die Telefonnummern sollen alle Ziele der Staatstrojaner der israelischen Digitalwaffen-Firma NSO sein.
Mit der Liste fliegen sie nach Berlin, um mit Claudio Guarnieri und Donncha Ó Cearbhaill von Amnesty Tech das Pegasus-Projekt zu starten. Die Auswirkungen der Recherche sind heute, nach zwei Jahren immer noch zu spüren.
„Die Akte Pegasus“ der beiden Forbidden-Stories-Journalist:innen ist spannend wie ein Krimi. Und zugleich ein großartiges Plädoyer für die Kraft des investigativen Journalismus. Detailliert beschreiben sie ihre Herangehensweise an eine Recherche, die zum Schluss dutzende Medien in zahlreichen Staaten zusammenschließt und viele Opfer unter den Telefonnummern identifiziert.
Dabei ist das keine herkömmliche Recherche. Es gibt am Anfang nur Telefonnummern aus vielen Staaten und die Personen dahinter müssen identifiziert werden. Gleichzeitig ist stets zu befürchten, dass die Opfer immer noch über ihre Kommunikationswege überwacht werden. Zum Schluss decken sie auf, dass zahlreiche Politiker:innen unter den Opfern sind, aber noch viel mehr Journalist:innen.
Die beiden Autor:innen geben eindrucksvolle Einblicke in die Schicksale vieler betroffener Medienschaffender und ihre jeweiligen individuellen Situationen in ihren Ländern, wo sie wegen ihrer Arbeit mit Repression zu kämpfen haben und gleichzeitig totalüberwacht werden.
In Berlin setzen sich Claudio und Donncha daran, die Spuren der Staatstrojaner forensisch zu finden und Werkzeuge zu bauen, mit den sich (frühere) Infektionen identifizieren lassen. Diese Einblicke in die Entwicklung der Forensik durch Amnesty Tech und die niedrigschwelligen Erklärungen, wie die Trojaner-Mechanismen funktionieren, machen das Buch zusätzlich interessant. Die Leser:innen werden auf die Reise mitgenommen und lernen ebenso die Hintergründe, wie die beiden Journalist:innen sie auch erst verstehen lernen.
In diesem Fenster soll ein YouTube-Video wiedergegeben werden. Hierbei fließen personenbezogene Daten von Dir an YouTube. Wir verhindern mit dem WordPress-Plugin „Embed Privacy“ einen Datenabfluss an YouTube solange, bis ein aktiver Klick auf diesen Hinweis erfolgt. Technisch gesehen wird das Video von YouTube erst nach dem Klick eingebunden. YouTube betrachtet Deinen Klick als Einwilligung, dass das Unternehmen auf dem von Dir verwendeten Endgerät Cookies setzt und andere Tracking-Technologien anwendet, die auch einer Analyse des Nutzungsverhaltens zu Marktforschungs- und Marketing-Zwecken dienen.
Gleichzeitig wird die Geschichte der Staatstrojaner-Industrie beschrieben und wie diese ihre Produkte im vergangenen Jahrzehnt vor allem an Staaten verkauft, die diese Waffen gegen Oppositionelle und Journalist:innen einsetzen. Denn die Nachfrage ist groß und es gibt viel Geld zu verdienen.
„Die Akte Pegasus“ ist eine lesenswerte Heldengeschichte einer kollaborativen globalen Recherche, deren Auswirkungen heute immer noch spürbar sind. Es ist zugleich das beste Buch zum Thema Staatstrojaner. Das Buch endet mit der ersten Welle der Enthüllungen im Sommer 2021. Die Enthüllungen lösten unter anderem einen Pegasus-Untersuchungsausschuss im Europäischen Parlament aus, über den wir seitdem sehr detailliert auf netzpolitik.org berichten.
„Die Akte Pegasus“ hat die ISBN-Nimmer 978-3-426-27890-1, ist 416 Seiten lang und ist im Droemer-HC-Verlag erschienen. Das Buch kostet 22 Euro im Hardcover.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Oben — Deutsch: Serigrafie «Das Wichtige ist nicht immer wichtig» von Adi Holzer aus dem Jahr 1976 (Werksverzeichnis 269).
The copyright holder of this file, Adi Holzer, allows anyone to use it for any purpose, provided that the copyright holder is properly attributed. Redistribution, derivative work, commercial use, and all other use is permitted.
Seit 2008 nutzen deutsche Polizeibehörden ein Gesichtserkennungssystem zur Identifizierung unbekannter Personen. Die dabei abgefragte Lichtbilddatei beim BKA ist im vergangenen Jahr sprunghaft gewachsen.
Die Bundespolizei hat ihre Treffer bei der Personensuche mithilfe von Gesichtserkennung im vergangenen Jahr mehr als verdoppelt. 2022 wurden mit der Technik 2.853 unbekannte Personen identifiziert, im Vorjahr waren es noch 1.334. Die Anzahl der Suchläufe hat sich im gleichen Zeitraum zwar ebenfalls erhöht, jedoch in weit geringerem Umfang. 2022 führte die Bundespolizei 7.697 Recherchen durch, im Vorjahr waren es 6.181.
Die Zahlen stammen aus der Antwort auf eine Kleine Anfrage des Linken-Abgeordneten Andrej Hunko, in der die Fraktion jedes Jahr Zahlen für biometriebasierte Anwendungen abfragt. Das Bundesinnenministerium (BMI) wurde darin auch zu Angaben für das Bundes- sowie die Landeskriminalämter gebeten. Diese liegen aber noch nicht vor, so das Ministerium.
Gesichtsbilder zu 4,6 Millionen Personen
Mit der Gesichtserkennung will die Bundespolizei Straftaten aufklären. Dabei werden etwa Handyfotos mutmaßlicher Täter:innen oder Aufnahmen von Videokameras im öffentlichen Raum genutzt. Die Suchläufe erfolgen dann über das Gesichtserkennungssystem des Bundeskriminalamtes (BKA), das seit 2008 allen deutschen Polizeibehörden zur Verfügung steht.
Dabei werden biometrische Fotos in der INPOL-Datei abgefragt. Diese größte deutsche Polizeidatenbank wird ebenfalls vom BKA für alle Polizeien zentral geführt. Sie enthält Fotos aus erkennungsdienstlichen Behandlungen sowie von Asylsuchenden. Neben der INPOL-Datei verfügt das BKA „zu Staatsschutz-Zwecken“ außerdem über eine Datei „ST-Libi“ mit derzeit 3.571 durchsuchbaren Fotos.
Der Lichtbildbestand in INPOL hat sich im vergangenen Jahr auffällig erhöht. 2021 waren dort noch rund 5,5 Millionen Portraitbilder von 3,6 Millionen Personen recherchefähig gespeichert. Bei der Beantwortung der Kleinen Anfrage waren es rund 6,7 Millionen Bilder zu 4,6 Millionen Personen.
Das BMI nennt auch den Grund für die deutliche Zunahme: So seien 2022 fast 1,5 Millionen Bilder hinzugekommen, aber nur rund 400.00 gelöscht worden. Eine solche Löschung erfolgt etwa nach Ende der Speicherfrist.
Die ungewöhnlich hohe Differenz zwischen neu gespeicherten und gelöschten Personen erklärt das Ministerium aber nicht. Im vergangenen Jahr war die Zahl der Bilder noch um rund 400.000 gesunken.
Mehr „Massendaten“ aus dem öffentlichen Raum
In Zukunft wird die polizeiliche Gesichtserkennung wohl weiter zunehmen. Laut der Antwort des BMI testet die Bundespolizei derzeit zwei Systeme der Firmen Digivod und Idemia Germany zur „teilautomatisierten Videoauswertung“. Dabei werden sogenannte Massendaten verarbeitet, also Aufnahmen aus dem öffentlichen Raum, in denen die Gesichter von Personen erkennbar sind.
Beide Firmen haben zuvor an Forschungsprojekten zur Auswertung von „Bild- und Videomassendaten“ von Bundespolizei oder BKA teilgenommen. Im Projekt PERFORMANCE perfektionierten die Beteiligten eine Upload-Plattform, wie sie die Polizei nach der Silvesternacht in Köln 2015 und dem G20-Gipfel 2017 für die Einsendung von Fotos und Videos öffentlich geschaltet hat.
In FLORIDA wurde neben der visuellen Analyse auch die Erkennung von Mustern in Tonaufnahmen erprobt. Die Firma Idemia war außerdem am Pilotprojekt von Bundespolizei und Deutsche Bahn zur Echtzeit-Gesichtserkennung am Berliner Bahnhof Südkreuz beteiligt.
Die Tests der Bundespolizei zur „teilautomatisierten Videoauswertung“ erfolgen im Rahmen einer neu gegründeten „AG Digitale Kompetenz“, die unter anderem den Aufbau eines „Schmutzdatennetzes“ beaufsichtigt. Dabei handelt es sich um einen Datenspeicher, der vom eigentlichen Datennetz der Polizei getrennt ist und auf dem die öffentlich eingesammelten Massendaten gespeichert und verarbeitet werden.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Das heutige Karlsruher Urteil ist ein Sieg für das Grundrecht auf informationelle Selbstbestimmung. Künftige Gesetze zur polizeilichen Datenanalyse müssen neue Vorgaben erfüllen, um zu starke Eingriffe der Polizei in die Privatsphäre Betroffener zu vermeiden.
Die bislang praktizierte automatisierte Datenauswertung bei der Polizei ist verfassungswidrig, entschied heute das Bundesverfassungsgericht. Natürlich ist das Urteil (pdf) ein Sieg für alle, die das Grundrecht auf informationelle Selbstbestimmung wertschätzen. Denn die Praxis, es durch absichtliche gesetzliche Nicht-Regelung allein der Polizei und deren Dienstleistern zu überlassen, wie weit sie in die Grundrechte von Bürgern eingreifen, ist heute faktisch beendet worden. Beide angegriffenen Regelungen aus Hamburg und Hessen sind zwar verfassungswidrig, allerdings bekommt Hessen eine Gnadenfrist bis September, um nachzubessern. Damit dürfte diese Nachbesserung bei der polizeilichen Datenanalyse in Hessen auch gleich zum Wahlkampfthema werden.
Das Gericht hat die Chance nicht verstreichen lassen, sich mit dem Einsatz von Technologien des maschinellen Lernens und auch prognostischer Software genauer auseinanderzusetzen. Schließlich fehlen in beiden gekippten Gesetzen technische und rechtliche Vorgaben, die das Gericht nun einfordert. Künftige gesetzliche Regelungen der automatisierten Datenanalyse werden nicht nur sehr viel detaillierter ausgestaltet und mit Blick auf die genutzten polizeilichen Datenquellen neu austariert werden müssen, um darzulegen, was konkret die Polizei beim Data-Mining darf und was nicht. Zusätzlich müssen sie auch neue Vorgaben des Gerichts erfüllen, welches die verlässliche Dokumentation von Informationen über die Datenanalyse-Software „in einer öffentlich zugänglichen Weise“ verlangt.
Die Anhörung im Dezember drehte sich vor allem um die Ausgestaltung eines konkreten Softwareproduktes des kommerziellen Unternehmens Palantir. Das bedient seit Jahren Polizei, Geheimdienste und Militär und hat vor einigen Jahren auch die deutschen Polizeien als lukrativen Markt entdeckt. Mit allzu anstrengenden Forderungen nach Transparenz oder auch nur sinnvollen Erklärungen dazu, was die teure Software denn technisch tatsächlich leistet oder was die Verträge mit der Polizei besagen, war Palantir bisher nicht konfrontiert. Das wird das heutige Urteil teilweise ändern, da es für die künftige Umsetzung von gesetzlichen Grundlagen fordert, dass die zuständigen Behörden sie nachvollziehbar dokumentieren und veröffentlichen.
Einschränkungen bei Massendatennutzung
Glaubt man der PR des Unternehmens, handelt es sich eine quasi-magische Software, unverzichtbar für Ermittler. In gewisser Weise spiegelt sich diese Darstellung auch im Urteil. Dass die Polizei seit Jahren solche Software einsetzt, trägt offenbar dazu bei, dass die Nutzung von automatisierter Datenanalyse nicht mehr als solche hinterfragt wird. Es hat sich in den Köpfen festgesetzt: Ohne solche digitalen Auguren könne eine moderne Polizei gar nicht mehr auskommen.
Obwohl der Fokus seitens des Gerichts in der Anhörung stark auf die spezielle Palantir-Anwendung in Hessen gerichtet war, erinnert das Urteil daran, was die gesetzlichen Befugnisse eigentlich erlaubt hätten. Denn was die Gesetze angeht, waren die polizeilichen Nutzer durch nichts daran gehindert, noch invasivere Technologien einzusetzen und auch noch ganz andere Datenarten zu verarbeiten als das aktuell praktiziert wird. Natürlich muss einer gesetzlichen Erlaubnis immer auch eine gewisse Technologienoffenheit innewohnen, allerdings konnte die Polizei qua Gesetz qualitativ und quantitativ ganz neue Kapitel aufschlagen.
Sind Polizisten ohne Fallschirm auch versichert ?
In der Sprache des Gerichts heißt das „daten- und methodenoffene Ausgestaltung“. Mit diesem Wilden Westen beim Data-Mining der Polizei dürfte zunächst Schluss sein, insbesondere auch bei der Massendatennutzung wie bei den Funkzelleninformationen oder was beispielsweise biometrische Daten angeht. Deren Ausschluss bei der Datenanalyse benennt das Urteil explizit als eingriffsmildernd. Daten aus heimlicher Wohnraumüberwachung, von Staatstrojanereinsätzen oder ähnlich eingriffsintensiven Maßnahmen werden künftig nicht in den Systemen von Palantir landen.
Das Urteil fällt in eine Zeit, in der über Künstliche Intelligenz wieder viel gesprochen wird. Man kann sich über den Hype wundern und als technisch Interessierter auch manchmal darüber lachen: Aber aktuell wird vielen Menschen durch das Beispiel ChatGPT sehr bewusst, dass maschinelles Lernen in den Alltag eindringen wird. Da stellt sich durchaus die Frage, warum das Bundesverfassungsgericht zu Fragen des Einsatzes der Künstlichen Intelligenz bei der Polizei nicht grundsätzlicher wird. Es ist ja nicht so, als stünden diese Fragen nicht vor der Tür.
Doch im Grunde liefert das Urteil zahlreiche Details dazu, wie künftige Gesetzgeber Befugnisse bei der automatisierten Datenanalyse zu gestalten haben, was dabei „eingriffsverstärkend“, was „eingriffsmildernd“ ist und auch, wo die roten Linien verlaufen. Es wird und muss in Zukunft eine Art obere Grenze der Datenfracht geben, mit der eine Polizei-KI gefüttert werden darf, und auch eine qualitative Grenze in Bezug auf die Art der Daten. Dazu liegen nun detailreiche verfassungsrechtliche Anforderungen vor, an die sich Gesetzgeber zu halten haben. Das Gericht dürfte dennoch nicht das letzte Mal mit Fragen der automatisierten Datenanalyse beschäftigt sein, denn die Erfahrung lehrt: Gesetzgeber haben die Tendenz, sich an die Vorgaben aus Karlsruhe nicht immer zu halten.
Offenlegung: Ich war technische Sachverständige in dem Beschwerdeverfahren.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Ob auf dem Karneval, in der Schule oder in der Bahn – biometrische Gesichtserkennung ist in Brasilien weit verbreitet. Vor allem marginalisierte Gruppen leiden darunter. Ein geplantes KI-Gesetz könnte die Überwachung einschränken, lässt aber Lücken für die Strafverfolgung.
Brasilien arbeitet an einem Gesetz zur Regulierung künstlicher Intelligenz, das biometrische Gesichtserkennung stark einschränken könnte. Eine Expertenkommission hatte hierzu Ende letzten Jahres einen Bericht vorgelegt, der einen Entwurf für das Gesetz enthält.
Gesichtserkennungssoftware ist in Brasilien weit verbreitet. Die Polizei nutzt die Technologie zur Verfolgung von Straftaten. Etwa filmte sie in Vergangenheit schon mehrfach die riesigen Menschenmengen auf dem Karneval ab, um nach gesuchten Personen zu fahnden. In der Mehrheit der Bundesstaaten nutzen Schulen Gesichtserkennung, um die Anwesenheit ihrer Schüler*innen zu überprüfen. Auch das neue Überwachungssystem der U-Bahn von São Paulo nutzt solche Technologie.
Gesichtserkennung trifft vor allem Schwarze Brasilianer*innen
Wie auch in Europa steht biometrische Gesichtserkennung in Brasilien in der Kritik. Das Forschungsprojekt „O Panóptico“ beobachtet den Einsatz der Technologie durch die Sicherheitsbehörden des Landes. „Die Einführung der Gesichtserkennung in Brasilien ist Teil einer Erweiterung der Überwachungsarchitektur, die schon in der Vergangenheit marginalisierte Personen und Gemeinschaften, insbesondere die Schwarze Bevölkerung, ins Visier genommen hat“, sagt Thallita Lima, die das Projekt mitkoordiniert, gegenüber netzpolitik.org.
Nach Daten des Projekts waren Stand 2019 90 Prozent der aufgrund von Gesichtserkennungssoftware verhafteten Personen Schwarz. Gerade bei Schwarzen Personen und auch bei Frauen ist solche Software besonders fehleranfällig. Das liegt unter anderem an unausgewogenen Trainingsdaten: Maschinelle Gesichtserkennung funktioniert meist am besten bei weißen, männlichen Personen.
Immer wieder gibt es in Brasilien Fälle, in denen Menschen zu Unrecht verhaftet werden, weil Gesichtserkennungssoftware sie fälschlicherweise als gesuchte Straftäter*innen identifiziert hat.
Das ist enorm gefährlich: Laut Amnesty International tötete die brasilianische Polizei 2021 mehr als 6.000 Menschen, 84,1 Prozent von ihnen waren Schwarz. In dem südamerikanischen Land herrscht extreme soziale Ungleichheit, deren Wurzeln in Kolonialismus und Sklaverei liegen.
Ausnahmen für die Strafverfolgung bleiben
Die Bundespolizei hat angekündigt, auch für die Fahndung nach Beteiligten am Putschversuch in Brasilia vor einigen Wochen Gesichtserkennungssoftware einzusetzen. Am 8. Januar stürmten hunderte Anhänger*innen des abgewählten, rechtsradikalen Präsidenten Jair Bolsonaro wichtige Regierungsgebäude des Landes. Einer der Eindringlinge, der in brasilianischen Medien Schlagzeilen machte, weil er im Regierungspalast eine historische Uhr zerstörte, wurde unter anderem mithilfe von Gesichtserkennung gefasst.
„Obwohl die Gesichtserkennung einen symbolträchtigen und öffentlichkeitswirksamen Fall in Brasilien gelöst hat, ändert dies nichts daran, dass die Software weiterhin Fehler macht und eine geringe Genauigkeit aufweist, wenn sie in unserem städtischen Raum eingesetzt wird“, sagt Thallita Lima gegenüber netzpolitik.org. Diese Fehler würden weiterhin zu Gewalt und Einschränkungen, vor allem für die Schwarze Bevölkerung, führen.
Vor allem kommerzieller und wahlloser Gesichtserkennung könnte das geplante Gesetz einen Riegel vorschieben, ganz verboten werden soll die Technologie aber nicht: Zur Verfolgung schwerer Straftaten und zur Suche nach Verbrechensopfern oder vermissten Personen sollen Ausnahmen bleiben.
Initiativen kämpfen für Verbot
Bürgerrechtsorganisationen reicht das nicht: Die Kampagne „Tire Meu Rosto Da Sua Mira“ – auf Deutsch: Nimm mein Gesicht aus deinem Blickfeld – fordert ein generelles Verbot von Technologien zur Gesichtserkennung im Bereich der öffentlichen Sicherheit.
Neben Rassismus in der Strafverfolgung prangert sie an, ständige, wahllose Überwachung verletze Grundrechte wie Privatsphäre, Versammlungsfreiheit und Gleichberechtigung. Auch geschehe der staatliche Einsatz von Überwachungstechnologien in vielen Fällen in intransparenter Zusammenarbeit mit privaten Firmen.
Manche Politiker*innen setzen sich ebenfalls für stärkere Regulierung ein. Im Rahmen der Initiative „Sai Da Minha Cara“ (Weg von meinem Gesicht) haben im vergangenen Sommer gut 50 Abgeordnete auf Bundesstaaten- und lokaler Ebene Gesetzesentwürfe zum Verbot von Gesichtserkennung im öffentlichen Raum vorgelegt.
Geplante Regeln für KI-Systeme
Der Entwurf für das KI-Gesetz enthält noch weitere Regeln für KI-Systeme: So sollen Betreiber*innen für jedes solche System eine Risikobewertung durchführen müssen, bevor sie es auf den Markt bringen. Betroffene, deren Daten verarbeitet werden, sollen verschiedene Auskunfts- und Beschwerderechte gegenüber den Betreiber*innen bekommen.
Auch soll bei einer Reihe von Vorfällen eine Behörde informiert werden, etwa falls das System zur Gefährdung von Menschenleben, kritischer Infrastruktur, schweren Schäden an Eigentum oder der Umwelt oder ernsthaften Menschenrechtsverletzungen geführt hat. Sogenannte Social-Scoring-Systeme sollen gänzlich verboten werden.
Noch steht der Entwurf ganz am Anfang. Welche Regelungen tatsächlich Gesetz werden, bleibt abzuwarten.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Netzbetreiber wie Telekom oder Vodafone könnten von Youtube, Netflix & Co. bald Gebühren verlangen, das plant die EU-Kommission mit einem aktuellen Gesetzesvorhaben. Jetzt zeigt ein internes Dokument: Die breite Kritik stößt bei der EU wohl auf Desinteresse.
Geht es nach Plänen der EU, könnten Online-Dienste wie Netflix oder Youtube künftig Geld dafür zahlen, dass ihre Angebote viel Bandbreite benötigen. Das Vorhaben wird nun konkreter: Noch im Februar soll eine öffentliche Konsultation starten, die den geplanten Gesetzentwurf abrunden soll. Im Vorfeld zirkuliert nun ein Entwurf des Fragenkatalogs, über den zuerst die Nachrichtenagentur Bloomberg berichtet hatte. Wir veröffentlichen das Dokument im Volltext.
Insbesondere große Netzbetreiber wie Telekom Deutschland oder Orange wünschen sich solche Zugangsgebühren. Ihnen zufolge müssten sie die hohen Kosten für den Ausbau von Breitbandnetzen tragen, würden aber nur geringe Erträge einfahren. Abhilfe schaffen soll eine Umverteilung, die aus Sicht der Betreiber für mehr Fairness sorgt: Demnach sollen beliebte und Bandbreiten-intensive Internet-Dienste zur Kasse gebeten werden. Das Modell heißt „Sending Party Network Pays“, kurz SPNP. Kritiker:innen warnen hingegen vor der Abschaffung der Netzneutralität, sollte dieses Modell eingeführt werden.
„In Zeiten, in denen Tech-Konzerne die meiste Bandbreite verbrauchen und die Renditen der Netzbetreiber fallen, stellt sich die Frage, wer für die Infrastruktur der nächsten Generation bezahlen soll“, sagte der EU-Binnenmarktkommissar Thierry Breton gestern in Helsinki. Schon die jüngst verabschiedete Erklärung für digitale Grundrechte habe deutlich gemacht, dass alle Marktakteur:innen einen „fairen und angemessenen Beitrag“ leisten sollten, so Breton.
Schäden für Internet-Ökosystem befürchtet
Die Debatte hatte der Branchenverband ETNO im Vorjahr losgetreten. Seitdem wird darüber gerätselt, ob die EU-Kommission tatsächlich ernsthaft das SPNP-Modell erwägt. Diesen Ansatz hatte die Branche in der Vergangenheit wiederholt vorgeschlagen, war damit jedoch stets gescheitert. Zuletzt nahmen europäische Regulierungsbehörden im Herbst das SNPN-Modell unter die Lupe und warnten erneut vor „signifikanten Schäden für das Internet-Ökosystem“, sollte es eingeführt werden. Bereits mehrfach wurde die Vorstellung eines konkreten Gesetzentwurfs oder einer Konsultation verschoben.
Der Entwurf des Fragenkatalogs gibt nun erstmals einen konkreten Einblick, welche Richtung die EU-Kommission einschlagen will. Abgeklopft werden vor allem für die Industrie relevante Fragestellungen, etwa, um wie viel Prozent sich der jährliche Datenverbrauch erhöht hat oder wie die Umverteilung möglichst effizient ausgestaltet sein könnte. In den Katalog hat es auch eine denkbare Fonds-Lösung geschafft, die der Betreiberverband Breko (Bundesverband Breitbandkommunikation) ins Spiel gebracht hatte.
Gefahren für Netzneutralität ausgeblendet
Die Auswahl der Fragen stößt auf Kritik. „Der Fragebogen der Kommission ignoriert die vielen offenen Fragen im Interesse der Nutzer:innen“, sagt Thomas Lohninger von der Organisation für digitale Grundrechte epicenter.works. „Die Gefahren für die Netzneutralität, den Konsumentenschutz oder für Medienvielfalt bekommen keinen Platz.“ Dies sei keine öffentliche Konsultation, um etwas zu lernen und die Sinnhaftigkeit von möglichen Maßnahmen zu diskutieren, sondern nur um etwas bereits Beschlossenes zu rechtfertigen, so der Netzaktivist.
Auch der EU-Abgeordnete Tiemo Wölken (SPD) erkennt eher „Realitätsverzerrung“ als den Versuch, evidenzbasierte Politik zu machen. Die Fragen würden sich vornehmlich an große Tech-Unternehmen und große Netzanbieter richten. „Das erzeugt den Eindruck, dass es hier um einen Interessensausgleich zwischen zwei Parteien gehe“, so Wölken.
Tatsächlich kritisieren Organisationen aus unterschiedlichen Bereichen den geplanten Vorschlag, von Verbraucherverbänden über Medienunternehmen bis hin zu den Netzregulierern selbst. Das Resultat sei erdrückend, so Wölken: „Außer den großen Netzanbietern scheint niemand viel von den Netzgebühren zu halten.“ Dass die Mehrheit der Kritiker:innen jetzt in der Konsultation durch tendenziöse Fragen mehr oder weniger ausgeschlossen werde, sei bedauerlich.
EU-Kommission will internationale Konzerne stärken
Offenkundig hat die EU-Kommission ein Interesse an möglichst großen, europaweit operierenden Netzbetreibern. In Helsinki kritisierte Breton die „Fragmentation in Europa mit suboptimalen Geschäftsmodellen, die auf nationalen Märkten basieren“. Das hemme das „kollektive Potenzial“ im Vergleich mit anderen Kontinenten.
Breton glaubt an einen „echten Binnenmarkt für Telekommunikationsdienstleistungen“. Dazu seien aber neue Geschäftsmodelle und eine grenzüberschreitende Konsolidierung notwendig, ohne den Wettbewerb zu beschädigen. In anderen Worten: Betreibern wie der Telekom Deutschland soll es einfacher gemacht werden, Wettbewerber aufzukaufen und weiter zu wachsen.
Für Lohninger ergeben viele der Fragestellungen nur Sinn, wenn man davon ausgeht, dass der wirtschaftliche Profit der Telekomindustrie überhaupt ein zentrales Anliegen der EU sein sollte. „Jedoch werden die Netze hauptsächlich von den kleineren Internetanbietern ausgebaut und eben nicht von den großen Multi-Milliarden-Konzernen, die als Aktienunternehmen jedes Jahr enorme Gewinne schreiben“, sagt Lohninger.
EU-Kommissar Breton war ehemals Chef von France Télécom – heute heißt der Konzern Orange und wäre einer der Profiteure des neuen Gesetzes. Lohninger kritisiert: Breton scheine das Interesse einer Multi-Milliarden-Industrie weitaus wichtiger zu sein als das aller anderen Stakeholder. Noch sei es aber nicht zu spät. „Breton braucht für sein Vorhaben Einstimmigkeit innerhalb der EU-Kommission und damit wäre es an allen anderen Kommissar:innen, ihn noch zu stoppen, ein Gesetz vorzuschlagen.“
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
File:2013 Global Conference at Unesco Thierry Breton-2.JPG
Created: 4 June 2013
******************************
Unten — Verbundnetze der Übertragungsnetzbetreiber in Europa
Die Autorenschaft wurde nicht in einer maschinell lesbaren Form angegeben. Es wird Kimdime als Autor angenommen (basierend auf den Rechteinhaber-Angaben). –see file history– – Eigenes Werk
Map of European Transmission System Operators Organizations (Regional Groups) Continental Europe, Nordic, Baltic, Great Britain and Ireland/Northern Ireland (former UCTE, UKTSOA, NORDEL, ATSOI, IPS/UPS).
Bei der SPD werden die Stimmen lauter, eine Vorratsdatenspeicherung für IP-Adressen einzuführen. Das FDP-geführte Justizministerium setzt weiter auf Quick Freeze.
Sowohl Politiker der SPD-Fraktion wie auch die Bundesinnenministerin Nancy Faeser fordern die Einführung der IP-Vorratsdatenspeicherung. Begründet wird dies mit dem Fall der Terrorverdächtigen von Castrop-Rauxel, die einen Giftstoffanschlag geplant haben sollen. Dort konnte ein Terrorverdächtiger nach Angaben der Sicherheitsbehörden mittels einer IP-Adresse ermittelt werden, die der Mobilfunkanbieter Vodafone für sieben Tage gespeichert hatte. Anbieter speichern manche Verkehrsdaten etwa zu Abrechnungszwecken oder zur Fehlersuche für einen begrenzten Zeitraum.
„Der Fall Castrop-Rauxel zeigt, dass es dringend eine klare Regelung für die Speicherdauer von IP-Adressen braucht“, sagte SPD-Innenpolitiker Sebastian Hartmann gegenüber der Rheinischen Post. „Wir sollten mit Ampel-Mehrheit die Rechtsgrundlage schaffen, dass künftig die IP-Adressen immer für 14 Tage gespeichert werden“, forderte er gegenüber der Zeitung.
Laut dem Bericht sieht man das auch im Bundesinnenministerium so. Eine Sprecherin von Nancy Faeser (SPD) sagte, dass der Europäische Gerichtshof ausdrücklich entschieden habe, dass IP-Adressen gespeichert werden dürfen, um schwere Kriminalität bekämpfen zu können. Das vom Bundesjustizministerium präferierte Quick-Freeze-Verfahren sei kein Ersatz, sondern nur eine Ergänzung. Dabei können Daten mit möglichem Bezug zu Straftaten bei den Anbietern „eingefroren“ werden, damit sie nicht routinemäßig gelöscht werden.
Weiter Streit in der Ampel
Der Rheinischen Post sagte ein Sprecher von Marco Buschmanns (FDP) Ministerium: „Aus Sicht des Bundesjustizministeriums ist es besonders wichtig, den Ermittlungsbehörden nach vielen Jahren der rechtlichen Unsicherheit nun ein Instrument zur Verfügung zu stellen, dessen Rechtssicherheit außer Frage steht.“ Im vergangenen September hatte der Europäische Gerichtshof die bisherigen deutschen Regelungen gekippt, da eine anlasslose Speicherung der Daten nicht mit Unionsrecht vereinbar ist. Eine wie von der SPD geforderte Speicherung würde keine Rechtssicherheit bieten, denn die Daten dürfen nur für den absolut notwendigen Zeitraum gespeichert werden. „Die Bestimmung dieses Zeitraums wäre daher erneut mit rechtlichen Unsicherheiten behaftet“, so der Sprecher weiter gegenüber dem Medium.
In der Ampel-Koalition ist man sich also weiterhin alles andere als einig. Während das Justizministerium die Vorratsdatenspeicherung nicht will und stattdessen schon einen Entwurf für das Quick-Freeze-Verfahren vorgelegt hat, will die Innenministerin eine neue Vorratsdatenspeicherung und an das Äußerste gehen, was das Urteil des Europäischen Gerichtshofes zulässt.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
unterschiedliche Wechseldatenträger; links oben eine CompactFlash–, darunter eine SD- und ganz unten eine xD-Speicherkarte, dann oben rechts daneben (grün gefärbt) eine sogenannte 3,5-Zoll-(Floppy-)Diskette (Maße: 9 cm breit und 9,4 cm tief), darunter eine dunkel gefärbte (u.a. mit „MOD“ beschriftete und daher mutmaßlich) Magneto Optical Disk (ohne Schutzhülle; Breite [für gewöhnlich] mit Hülle: 9 cm) und rechts eine Compact Discs (Durchmesser: 12 cm); zudem ganz links unten ein Zündhölzchen (welches wohl als Maßstäbchen dienen sollte)
Sollten Maschinen nicht erst sprechen lernen, damit die Politiker-innen überflüssig und ins All abgeschoben werden können, da bei Diesen nur das Einkommen ohne Arbeit und Risiko zählt, um diesen Barden ein besseres Auskommen zu grantieren.
Von : Nadine Lordick
Eine künstliche Intelligenz, die schreibt – wird der Mensch als Autor-in bald überflüssig sein? Viele sind erschrocken angesichts dessen, was die künstliche Intelligenz (KI) leistet.
In einer Gesellschaft, die zutiefst von Schriftlichkeit geprägt ist, ist der Gedanke unangenehm bedrohlich, dass bald etwas, das als genuin menschliche Domäne galt – die Sprache – von Maschinen übernommen werden könnte. Das Schreiben ist eine Kulturtechnik, deren Bedeutung über einfache Kommunikation weit hinausgeht.
Wir schreiben aus unendlich vielen Gründen: um uns zu verständigen, um Wichtiges festzuhalten, um uns zu erinnern. Um andere zu verstehen, um die Welt zu verstehen, um uns selbst zu verstehen. Um uns Gehör zu verschaffen, um zu lernen, um zu denken, aus Spaß, aus Wut oder aus Trauer. Geht das verloren, wenn Maschinen anfangen, da mitzumischen?
GPT-3, das Sprachmodell, auf dem die meisten textgenerierenden Anwendungen basieren, wurde von Open AI schon 2020 veröffentlicht. Versuche, natürliche Sprache mithilfe von Maschinen zu simulieren, gehen indes noch viel weiter zurück. Der erste „Chatbot“ war ELIZA, eine Rogerianische Therapeutin, die 1966 von Joseph Weizenbaum entwickelt wurde. Fiktionen von künstlichen Menschen, die wie echte sprechen und sich verhalten, gibt es seit Jahrtausenden.
Doch um Androiden oder Gynoiden soll es in diesem Text nicht gehen. Am Beispiel Universität lässt sich zeigen, vor welch komplizierte Aushandlungsprozesse uns die sogenannte schwache KI stellt. In einer Schreibberatung erkundigte sich ein technikversierter Student, ob er kennzeichnen müsse, dass er GPT-3 seine Forschungsfrage gestellt, die Antworten sortiert und die besten in seine Argumentation eingebaut habe.
Ähnlich wie beim Taschenrechner
Unter den Kolleg:innen gingen die Meinungen dazu deutlich auseinander: Nein, wenn ich mich mit Kommiliton:innen austausche, muss ich ja auch nicht jede Idee ausweisen, die im Gespräch aufkommt, genauso wenn ich online in einem Diskussionsforum nachfrage. Natürlich müssen Hilfsmittel gekennzeichnet werden. Aber geben wir auch die Word-Rechtschreibprüfung oder jede Google-Anfrage an? Es geht ganz viel auch um Konventionen.
Dass Studierende sich untereinander austauschen, dass sie das von den Dozent:innen im Seminar Diskutierte verarbeiten, dass sie googeln und Korrekturlesen lassen, ist klar. Wie KI da reinpasst, bleibt vorläufig ungewiss. Die Frage, die sich dabei stellt, lautet: Ist die Kompetenz, aus verschiedenen Argumenten auswählen zu können, gleichwertig dazu, eigene Argumente zu finden? Und daraus folgt schon die nächste Frage: Was ist überhaupt das Ziel der Argumentation?
Der fertige Text, der in sich schlüssig ist und gute Argumente aufweist? Oder der Prozess, bei dem kritisches Denken gefordert ist? KI-basierte Anwendungen wie ChatGPT können an ganz unterschiedlichen Stellen im Schreibprozess zum Einsatz kommen. Im Beispiel mit dem Studenten ging es um Wissen und Ideen: ChatGPT kann mir Sachverhalte erklären, die ich sonst erst recherchieren müsste, und mir Ideen für Argumente liefern, die mir sonst nicht eingefallen wären.
KI-Anwendungen können bei Formulierungen und dabei, meine eigenen Gedanken aufs Papier zu bringen, helfen. Oder lästige Arbeiten loszuwerden, wie das Verfassen von Mails und Abstracts wissenschaftlicher Artikel. Das an eine Maschine auszulagern, wäre eine große Arbeitserleichterung und Zeitersparnis. Ähnliche Diskussionen gab es übrigens bei fast jeder neuen Technologie – man denke an den Taschenrechner.
Nicht für alle Disziplinen geeignet
Wenn die Schüler:innen in Klassenarbeiten umständliche Rechenoperationen nicht mehr selbst ausführen müssen, bleibt mehr Zeit für andere Aufgabentypen und Problemlösen. Andererseits lernen die Schüler:innen trotzdem noch Kopfrechnen, bevor sie mit einem Taschenrechner arbeiten dürfen. Bevor ich mir Abstracts von einer KI schreiben lasse, muss ich selbst erst mal verstehen, was dort reingehört.
Wie beim Taschenrechner sollte die Frage also eigentlich nicht lauten: KI-gestütztes Schreiben – ja oder nein?, sondern vielmehr: ab wann? Wie sinnvoll der Einsatz von KI-basierten Schreibtools ist, lässt sich nicht verallgemeinern. Schaut man allein in die Wissenschaft, wird man mit völlig unterschiedlichen Konzepten über das Schreiben konfrontiert, je nachdem, wen man fragt. In der Psychologie gehört hinter jede Aussage ein Beleg. Die KI bringt da wenig, denn GPT-3 ist nicht in der Lage, richtig zu referenzieren.
Wenn es zitiert, dann nur mit Glück auch tatsächlich existierende Texte. Man nennt das mittlerweile ‚Datenhalluzinationen‘. In der Literaturwissenschaft ist es Teil der Leistung, sich eine gute Forschungsfrage zu überlegen, während sie in anderen Fächern vorgegeben wird. Selbst für den Bereich der Hochschule lässt sich also kein allgemeingültiges Rezept dafür geben, wann und wo der Einsatz von künstlicher Intelligenz irgendwie nützlich wäre.
Schreiben ist ein komplexer Prozess, und es zählt nicht nur der fertige Text. Schreiben kann unendlich viele Funktionen haben, es ist auch Denk- und Forschungsinstrument. So vielfältig wie die Gründe sind, aus denen wir schreiben, so kompliziert wird es auch, wenn wir darüber nachdenken, wie sich künstliche Intelligenz darauf auswirkt.
Geduldige Co-Autorin
In der Wissenschaft spielen Quellen- und Literaturverweise eine wichtige Rolle. Wo habe ich eine Information her? Wie man richtig zitiert, gehört zu den ersten Lektionen eines Studiums. Zitieren dient der Transparenz: Jede:r kann meine Quelle einsehen und nachvollziehen, wo meine Informationen herkommen. Zitieren ist auch eine Absicherung: Das habe ich mir nicht selbst ausgedacht, sondern das geht auf die Forschung anderer zurück. Ich zeige damit auch, dass ich mich im Forschungsdiskurs auskenne und die Erkenntnisse der Wissenschaftler:innen, die ich zitiere, anerkenne.
Vier Stufen – für drei Politiker auf ihren Weg nach Oben ?
Deshalb ist Autor:innenschaft ein zentrales Thema: Wer ist für ein publiziertes Forschungsergebnis verantwortlich. Dabei geht es natürlich auch um Karrieren, die auch an der Zahl der eigenen wissenschaftlichen Publikationen hängt. In diesem Zusammenhang wird KI dann oft als Kollaborationspartnerin gehandelt: Man gibt sie als Co-Autorin an. Aber so einfach diese Lösung erscheint, sie stellt vieles infrage: Kann man eine KI zitieren, wenn das Ergebnis nicht reproduzierbar ist? Braucht eine KI Wertschätzung? Kann eine KI verantwortlich sein für das, was sie ausgibt?
Und wer singt zuerst sein letztes Halleluja ?
Es geht um geistiges Eigentum und Urheberschaft, aber es berührt auch Autor:innenschaft als Idee. Dass Autor:innenschaft ein höchst variables Konzept ist, zeigt ein Blick in die Vergangenheit. Im europäischen Mittelalter – zumindest im deutschsprachigen Raum – gab es keine feste Einheit von Text und Autor:in. Viele Texte sind anonym überliefert, und selbst die, die bestimmten und in der Regel männlichen Autoren zugeschrieben werden, weisen in der Überlieferung sogenannte Varianz auf, das bedeutet, dass sie in verschiedenen Handschriften zum Teil völlig anders erscheinen.
Für Erzählungen wird auf Bekanntes zurückgegriffen, Originalität ist nicht besonders wichtig; das Handwerkliche steht im Vordergrund, und die Verfasser rühmen sich vor allem damit, das Alte in neuem, besserem Gewand zu präsentieren. Die Erfindung der künstlerischen Originalität wird gemeinhin dem Sturm und Drang zugeschrieben, in dem das Konzept der ‚Genieästhetik‘ Form annahm.
Davor gab es in der Frühen Neuzeit einen Boom in der Übersetzungspraxis, wo einerseits der Vorlage mit ihrer Einheit aus Sprache, Form und Autor besondere Wertschätzung zukam, während andererseits trotzdem stark in die Texte eingegriffen wurde. Tatsächlich war es noch viel komplizierter. Im Konzept von Autor:innenschaft einer Epoche zeigen sich die Werte einer Kultur oder Gesellschaft, und es zeigt sich auch, wie heterogen diese sein können. Das macht das Ganze mit der KI nicht einfacher.
Unten — Protest von FridaysForFuture und Anderen, sowie Ankunft der Verhandlungsteilnehmenden an der Messe Berlin zum letzten Tag der Sondierungsgespräche für eine Ampelkoalition.
Gegen tricksende Cookie-Banner gehen die europäischen Datenschutzbehörden bisher eher zögerlich vor. Jetzt veröffentlichen sie einen Bericht, der eigentlich Klarheit bringen soll, aber das Gegenteil bewirkt. Das schadet dem Datenschutz. Ein Kommentar.
Da hat der europäische Datenschutzausschuss schon extra eine „Task Force“ eingesetzt – und dann so etwas! Task Force klingt nach schnellem Handeln und einer klaren Agenda. Herausgekommen ist aber nur ein Bericht mit kleinstem gemeinsamen Nenner. Statt einheitlichen Regeln gegen manipulative Cookie-Banner, die wir als Nutzer:innen Tag für Tag wegklicken müssen, gibt es nur etliche Verweise auf notwendige Einzelfallprüfungen. So werden die Aufsichtsbehörden die Cookie-Krise wohl kaum lösen können.
Seit vielen Jahren sind Cookie-Banner ein Ärgernis für alle, die im Netz unterwegs sind. Besonders nervig sind jene Banner, die uns die Einwilligung mit Designtricks abluchsen wollen. Dazu setzen sie etwa versteckte Ablehn-Optionen oder unnötig komplizierte Auswahlmenüs ein. Das sehen eigentlich auch die europäischen Datenschutzbehörden kritisch. In einer lesenswerten Richtlinie haben sie 2022 diese sogenannten Dark Patterns analysiert und angemahnt, dass diese häufig gegen das europäische Datenschutzrecht verstoßen. Eine ergaunerte Einwilligung ist unwirksam.
Auf ein entschiedenes Vorgehen der Aufsichtsbehörden gegen diese noch immer weitverbreitete Praxis warten wir bis heute. Erst im September 2022 zeigten wir in einer umfassenden Recherche, dass ein Großteil der 100 reichweitenstärksten Websites hierzulande bei ihren Cookie-Bannern auf Tricksereien setzen. Ein Nachhaken bei deutschen Datenschutzbehörden hatte damals ergeben: Es gibt viele Beschwerden über rechtswidrige Cookie-Banner – die aber bislang meist folgenlos bleiben, die Verfahren dauern an.
Das große Zögern
Das mag der Grund dafür sein, dass der Europäische Datenschutzausschuss (EDPB), in dem alle nationalen Aufsichtsbehörden zusammenarbeiten, sich nun erneut zum Thema äußert. Konkret veröffentlichte der EDPB den Abschlussbericht einer Cookie-Banner-Task-Force. Dieser soll einen „kleinsten gemeinsamen Nenner“ abbilden und so für ein einheitliches Vorgehen gegen Einwilligungsschwindeleien im Netz sorgen.
Ein Blick in das Dokument offenbart jedoch, wie klein dieser gemeinsame Nenner ausfällt. Man könnte auch sagen: Die europäischen Datenschutzbehörden können sich nicht auf klare Regeln für das Design von Cookie-Bannern einigen.
Wer als Bürger:in oder Website-Betreiber:in das Dokument liest, um zu verstehen, wie die Einwilligungsdialoge denn nun aussehen oder nicht aussehen sollen, bleibt ratlos zurück. Und zwar nicht nur, weil der Bericht in einer Sprache gehalten ist, die an Unverständlichkeit locker mit den Datenschutzbestimmungen der Tech-Konzerne mithalten kann, sondern weil offenkundig der geeinte politische Wille fehlt, gegen den Missbrauch vorzugehen.
Fehlende Klarheit
Immerhin: Zu offensichtlichen Einwilligungsbetrügereien wie vorausgewählten Checkboxen oder im Design bewusst abseits platzierten Ablehn-Buttons findet der Datenschutzausschuss klare Worte. Beides führe dazu, dass die Einwilligung ungültig sei.
Doch dann endet die Eindeutigkeit auch bereits. So sind beispielsweise nicht alle europäischen Datenschutzbehörden der Meinung, dass es auf der ersten Seite eines Cookie-Banners einen Button mit der Aufschrift „Alles ablehnen“ brauche. Lediglich eine „große Mehrheit“ sehe in dessen Fehlen eine Verletzung der Vorgaben für Einwilligungen, heißt in dem Bericht. „Einige“ Datenschutzbehörden beharren gar darauf, dass die europäischen Datenschutzgesetze nicht vorsähen, dass auf jeder Dialog-Ebene eines Cookie-Banners, die einen „Akzeptieren“-Button einblendet, auch einer mit der Option „Ablehnen“ hingehöre.
In dieser Frage kann man sich immerhin noch an der Mehrheit der Aufsichtsbehörden orientieren. In anderen Fragen kommt der Datenschutzausschuss aber nicht einmal mehr zu eindeutigen Entscheidungen, sondern verweist stattdessen auf die Notwendigkeit einer Prüfung im Einzelfall. So etwa bei der Frage nach der farblichen Gestaltung der Cookie-Banner. Zwar problematisieren die Behörden einmal mehr, dass die Auswahloptionen häufig farblich so angelegt seien, dass der Ablehn-Button weniger gut sichtbar ist. Eine klares Urteil, dass diese Praxis datenschutzwidrig ist, sucht man jedoch vergebens.
Stattdessen verweist die Task Force darauf, dass Anbieter:innen beim Design der Cookie-Banner Spielräume benötigen würden. Übrig bleibt ein einziges Beispiel für unsaubere Farbgestaltung. Demnach sei eine Einwilligung ungültig, „wenn der Kontrast zwischen dem Text und dem Hintergrund des Buttons so minimal ist, dass der Text praktisch unleserlich für nahezu alle Nutzer:innen ist.“
Das ist so banal, dass es fast schon lustig ist. Datenschutzbehörden stellen klar: Nicht erkennbare Ablehn-Buttons gehen nicht. Nein? Doch! Ohh! Bei tatsächlich fiesen Tricks wie etwa dem fälschlichen Deklarieren von Tracking-Cookies als „notwendige Cookies“ vermisst man hingegen klare Ansagen.
Konstruktionsfehler der DSGVO beheben
Wenn das aber der kleinste gemeinsame Nenner ist, wie positionieren sich dann einige der Aufsichtsbehörden in diesen für sie qua Amt hochrelevanten Fragen? Und wenn sie sich auf nichts Relevantes einigen können – warum veröffentlichen sie das dann auch noch in einem Bericht?
Das Scheitern des EDPB an einheitlichen Standards für Cookie-Banner wäre weniger schlimm, wenn man den Eindruck hätte, dass in fast fünf Jahren seit Bestehen der DSGVO große Fortschritte bei der Datenschutzdurchsetzung im Netz erzielt worden wären.
Zwar gibt es bei manipulativen Cookie-Bannern inzwischen deutliche Verbesserungen. Doch diese sind weniger auf das energische Vorgehen der Datenschutzbehörden zurückzuführen, als vielmehr auf Analysen, Aufklärung und Verfahren der Zivilgesellschaft – die vor allem die österreichische Datenschutz-NGO None of Your Business (NOYB) um den Juristen Maximilian Schrems betrieben hat. Mit Hunderten Beschwerden hat NOYB überhaupt erst den Anstoß dazu gegeben, dass sich der Europäische Datenschutzausschuss des Themas Cookie-Banner annimmt.
Allzu gerne betonen Datenschützer:innen wie jüngst der Bundesdatenschutzbeauftragte Ulrich Kelber in seiner Pressemitteilung zum Bericht der Task Force, dass sie gut ohne die nervigen Cookie-Banner leben könnten. Schließlich würden diese nur dann gebraucht, wenn Seitenbetreiber:innen Daten zu Geld machen. Trotzdem sind die Banner heute ein alltäglicher Berührungspunkt für hunderte Millionen Menschen mit dem Datenschutz. Dass manipulatives Design und offensichtliche Rechtsbrüche bei Cookie-Bannern weiterhin an der Tagesordnung sind, ist ein Armutszeugnis für die Aufsichtsbehörden – und schadet der Akzeptanz des Datenschutzes.
Der peinliche Bericht der Task Force erinnert deshalb einmal mehr an einen zentralen Konstruktionsfehler der DSGVO: Die Einwilligung gilt immer noch als heiliger Gral der Datenverarbeitung. Mit nur einem Klick willigen Menschen potentiell in alle möglichen Datenverarbeitungen ein. Das aber setzt falsche Anreize für Seitenbetreiber:innen, solch umfassenden Einwilligungen zu ergaunern und führt damit on- wie offline zu millionenfacher Pseudo-Legitimation ungewünschter Datensammlungen. Besser wäre es, wenn wir gesetzlich endlich klar definieren würden, wofür Daten genutzt werden dürfen – und wofür nicht. Dafür darf es gerne auch ein Task Force geben, die diesen Namen verdient.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Eine Organisation indigener Informatiker:innen aus den USA fordert den Open-Source-Giganten „Apache Software Foundation“ dazu auf, seinen Namen zu ändern. Sie bemängeln einen Verstoß gegen Apaches Verhaltenskodex sowie kulturelle Aneignung.
Die Initiative „Natives in Tech“ ruft die „Apache Software Foundation“ dazu auf, ihren Namen zu ändern. In ihrem Blogpost vom 6. Januar 2023 begründen sie den Aufruf damit, dass die Nutzung des Namens „Apache“ kulturelle Aneignung sei und gegen den eigenen Verhaltenskodex der Stiftung verstoße.
Die gemeinnützige „Apache Software Foundation“ (ASF) wurde 1999 gegründet. Sie ist mit über 350 Projekten ein Vorreiter im Bereich Open Source. „Natives in Tech“ ist ein freiwilliges Netzwerk indigener Informatiker:innen, die unter anderem Konferenzen organisieren und an Open-Source-Technologie für indigene Communitys arbeiten.
Ein Name „aus Ehrfurcht und Wertschätzung“
In der Mitte des Logos prangt eine Feder, der Slogan verspricht „Community-Led Development the Apache Way“. Auf ihrer Website geht ASF tiefer auf die Idee hinter dem Namen ein, der von Gründer Brian Behlendorf stammt. Demnach soll der Name aus „Ehrfurcht und Wertschätzung gegenüber den Stämmen, die sich selbst als ‚Apache‘ beschreiben“ gewählt worden sein.
ASF verweist auf ein Video aus dem Jahr 2020 , das auch „Natives in Tech“ in ihrem Statement aufgreift. In diesem erklärt Behlendorf unter anderem, dass er eine Dokumentation über die „letzten Tage eines indigenen Amerikanischen Volkes namens ‚Apache’“ gesehen habe. Darin, wie sie der Invasion des Westens widerstanden, habe er seine eigene Mission im Kampf gegen Microsoft wiedergesehen. Der Name sei gewählt worden, weil er „aus romantischer Sicht“ gut funktioniere, und gleichzeitig ein Wortspiel mit „a patchy“ Server kreiert.
Zwei Hauptprobleme
In ihrem Statement schlüsselt „Natives in Tech“ schrittweise auf, warum diese Auffassung problematisch sei. Das erste Problem: die Ausradierung der indigenen Erfahrung. Dabei werde die Präsenz indigener Gruppen etwa abgelehnt oder unterlaufen.
Indem Behlendorf von „den letzten Tagen“ der Apache spricht, rechne er sie der Vergangenheit und nicht der Gegenwart zu. Das führe unter anderem dazu, dass er sich der Verantwortung entziehe, indigene Völker in der Gegenwart anzuerkennen. Aktuell gibt es acht staatlich anerkannte Bevölkerungsgruppen namens Apache in Oklahoma, New Mexico und Arizona.
Das zweite Problem: die Romantisierung indigener Kulturen. Eine solche statische Wahrnehmung einer in Wahrheit dynamischen Kultur spiele deren Erfahrung herunter und ignoriere deren Kampf und Schmerz. Unterstützung, die nur auf historischen Stereotypen beruhe, sei keine echte, so „Natives in Tech“.
Gegen den Verhaltenskodex
Diese Basis nutzen „Natives in Tech“ um zu argumentieren, dass ein Verstoß gegen ASFs eigenen Verhaltenskodex vorliege. Punkt 5 fordert, „Worte mit Sorgfalt zu nutzen“. Sie fordern von ASF die Verbundenheit, die sie im Verhaltenskodex ausdrücken, nun umzusetzen.
Der Name „Apache“ steht unter der Trademark der Open Source Foundation. Laut ASFs Website sei es in den letzten 25 Jahren noch zu keiner rechtlichen Auseinandersetzung mit indigenen Gruppen oder anderen Parteien bezüglich des Namens gekommen. Auch hier bemängeln „Natives in Tech“ die Argumentation. Im US-amerikanischen Justizsystem würden selten Fälle zugunsten indigener Gruppen entschieden. Die Folgen eines Urteils seien zu riskant und zu teuer für diese Communitys, so „Natives in Tech“.
Auf Anfrage von netzpolitik.org gibt ASF folgendes Statement: „Wir sehen die Sorgen von den indigenen Bevölkerungsgruppen und hören zu. Da wir eine von Freiwilligen geführte Non-Profit-Organisation sind, werden Änderungen viel Zeit in Anspruch nehmen, da sie sorgfältig mit Mitgliedern, dem Vorstand und dem Rechtsteam abgewogen werden müssen. Unsere Mitglieder suchen nach Alternativen, dies zu adressieren, aber momentan können wir nichts weiteres mitteilen“. Von „Natives in Tech“ haben wir bis zur Veröffentlichung dieses Artikels keine Antwort erhalten.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons
Auch nach Beginn der Räumung in Lützerath behindern Polizei und RWE die Pressearbeit vor Ort. Journalist:innen werden an Kontrollstellen abgewiesen. In einem Fall habe die Polizei sogar einen Fotografen zur Löschung von Bildern aufgefordert, berichtet ein Vertreter der Gewerkschaft dju.
Die Journalist:innengewerkschaft dju hat am Mittwochmittag eine negative Zwischenbilanz beim Umgang von RWE und der Polizei mit der Presse bei der Räumung von Lützerath gezogen. Schon im Vorfeld war es zu Einschränkungen der Pressefreiheit gekommen, die sich nun offenbar fortsetzen. In Lützerath räumt die Polizei derzeit ein von Klimaaktivist:innen besetztes Dorf, damit der Energiekonzern RWE die darunter liegende Braunkohle abbaggern kann.
Nach Berichten des Gewerkschafters Jörg Reichel drohten Beamte der Aachener Polizei gegenüber einem Journalisten polizeiliche Maßnahmen an und hinderten einen Medienvertreter in seiner Bewegungsfreiheit. Ein Fotograf sei zudem von der Polizei aufgefordert worden, Bilder zu löschen. Der Aufforderung kam die Person laut Reichel nach. Der Gewerkschafter stützt sich auf die Aussagen mehrerer Augenzeugen.
Ein Sprecher der Aachener Polizei sagte gegenüber netzpolitik.org, dass ihm der geschilderte Vorfall mit der Löschung nicht bekannt sei. Ein solches Vorgehen widerspräche dem Selbstverständnis der Polizei Aachen hinsichtlich des Umgangs mit Medienvertretern. Die Polizei werde dem Hinweis nachgehen, so der Sprecher.
Auf weitere Fragen zu den Vorfällen und warum Journalist:innen der Zugang verweigert worden sei, antwortete die Polizei Aachen mit einer allgemein gehaltenen Antwort. Diese enthält Auszüge aus dem Kommunikationskonzept der Polizei, die wir im Volltext unter dem Artikel veröffentlichen. So wird dort unter anderem die freie Berichterstattung „im unmittelbaren Einsatzraum“ als „erfolgskritischer Faktor“ für Einsätze einstuft. Nur wenn Medienvertreter:innen „möglichst uneingeschränkt“ ihrer Arbeit nachkommen könnten, sei die Öffentlichkeit auch in der Lage, die Arbeit der Polizei in diesem hochpolitischen Konflikt neutral zu bewerten, heißt es dort weiter.
Zugang nur mit Polizei-Akkreditierung
Dem widersprechen allerdings die Erfahrungen von Journalist:innen am Mittwochmorgen. Nach Beginn der Räumung ließen die Polizei und die RWE-Security an Kontrollpunkten mehrere Journalist:innen nicht passieren – unabhängig davon, ob diese eine polizeiliche Akkreditierung vorzeigen konnten oder nicht. Zwischenzeitlich hieß es, dass nur noch jene Journalist:innen zum Ort des Geschehens dürften, die sich zuvor beim RWE-Sicherheitsdienst akkreditiert hatten. Zuvor hatte die Aachener Polizei verkündet: Die Akkreditierung ist „für alle Journalistinnen und Journalisten freiwillig und ist als Angebot der Polizei Aachen zu sehen, nicht als Verpflichtung“.
Die Journalistengewerkschaft dju hatte diese Praxis auf Twitter und gegenüber netzpolitik.org kritisiert. Die dju halte Akkreditierungen für „grundsätzlich rechtlich bedenklich bei Ereignissen von öffentlichem Interesse“, sagt Gewerkschaftsvertreter Matthias von Fintel. Es müsse immer möglich sein, auch ohne eine Akkreditierung mit dem Presseausweis der journalistischen Tätigkeit nachzugehen, so von Fintel weiter.
Auf Rückfrage der dju hatte die Polizei zuerst bestätigt, dass nur noch akkreditierte Journalist:innen nach Lützerath dürften. Kurz darauf teilte sie mit, dass auch nicht akkreditierte Journalist:innen in den umschlossenen Bereich rund um den Ort Einlass erhielten, so Jörg Reichel auf Twitter.
Aus der Antwort der Pressestelle der Polizei Aachen am 11.01.2023. (Formatierung netzpolitik.org). Auszug aus dem Kommunikationskonzept der Polizei Aachen.
Rahmenbedingungen für den Einsatzraum:
Der Einsatz steht im erheblichen medialen Fokus. Die Polizei Aachen rechnen mit einer Vielzahl von Medienvertretern und Parlamentariern, deren Arbeit wir ermöglichen. Dabei gelten für den besonderen Einsatzraum folgende Rahmenbedingungen:
Der Einsatzraum ist privates Betriebsgelände der RWE Power AG.
Es gibt nur eingeschränkte Verkehrswege, die vom Werksverkehr der RWE Power AG und von Polizeikräften befahren werden.
Die RWE Power AG sieht, wie die Polizei Aachen, die gesellschaftliche Notwendigkeit, im Sinne der Transparenz des Einsatzgeschehens Medienvertreter*innen, Parlamentarische Beobachter*innen und Vertreter*innen sonstiger Institutionen Zugang zum Einsatzraum zu gewähren.
Aus Einsatztaktischen Gründen, können sich externe Fahrzeuge nicht unbegleitet im Einsatzraum bewegen.
Im Einsatzraum bestehen besondere Unfallgefahren, die sich aus den Räumungs-, Abriss- und Rodungsmaßnahmen und der hierfür erforderlichen Nutzung diverser Baufahrzeuge etc. ergeben.
Daher gelten besondere Unfallverhütungsvorschriften, deren Einhaltung die RWE Power AG als Eigentümerin des Betriebsgeländes gewährleisten muss.
Umgang mit Medien:
Proteste gegen den Braunkohleabbau sind Gegenstand der regionalen und überregionalen Berichterstattung. Die Berichterstattung beschränkt sich dabei längst nicht mehr auf „klassische“ Medien wie Zeitung, Radio und Fernsehen sondern erstreckt sich immer mehr auf den Bereich Social Media.
Die Aufgabe der Polizei ist dabei, eine Berichterstattung zu ermöglichen und bei kritischen Situationen den Schutz der Medienschaffenden zu gewährleisten. Andererseits sollen Medienvertretende polizeiliche Einsätze nicht behindern. Auch für sie gelten Recht und polizeiliche Verfügungen.
Sollten Medienvertretende Bereiche betreten wollen, in welchem es zur Eigengefährdung kommen könnte, weisen Sie darauf hin. Die Eigengefährdung ist in der Regel kein Grund, das Betreten zu untersagen.
Akkreditierungskonzept:
Zeitraum ab dem 02.01.2023
Die Polizei Aachen richtet eine Akkreditierungsstelle ein. Diese befindet sich unmittelbar gegenüber der ehemaligen Autobahnmeisterei „An den Teichen 1“ in 52445 Titz auf dem dortigen Parkplatz (Koordinaten: 51.03989331820352, 6.4538897860530895).
In der Zeit vom 02.01.2023 bis zur Fertigstellung einer Medienanlaufstelle im Einsatzraum verbleiben alle Fahrzeuge von Medienvertreter*innen (PKW und Übertragungsfahrzeuge) an der Akkreditierungsstelle. Für alle o.a. Personen wird ein Shuttle-Services von der Akkreditierungsstelle aus bis hin zum Einsatzraum geschaffen. Falls nicht vorhanden, werden seitens der Polizei Warnwesten leihweise zur Verfügung gestellt. Im Einsatzraum nahe der Ortslage Lützerath befindet sich mobile Team Pressesprecher. Der o.a. Personenkreis kann sich zu Fuß frei im Einsatzraum bewegen, ohne die Arbeiten der RWE Power AG oder Einsatzmaßnahmen der Polizei zu stören.
Zeitraum nach Beginn Umstellung Lützerath bis zum Einsatzende
Ab Fertigstellung der Medienanlaufstelle im Einsatzraum bestehen dort ca. 45 Parkplätze für PKW von Medienvertreter*innen, parlamentarischen Beobachter*innen und weiteren institutionellen Besucher*innen. Zusätzlich werden fünf größere Parkplätze für Übertragungsfahrzeuge bereitgehalten. In dieser Einsatzphase werden die o.a. Fahrzeuge vom Shuttle-Service von der Akkreditierungsstelle bis zur Medienanlaufstelle gelotst. Bereits jetzt ist absehbar, dass dieser Parkraum in Hochzeiten des Einsatzes nicht ausreichen wird. Deshalb werden die Parkflächen an der Akkreditierungsstelle weiter bereitgehalten. Über den ohnehin im Einsatz befindlichen Shuttle-Service werden in dieser Phase weiterhin auch Medienvertreter*innen, parlamentarische Beobachter*innen und weitere institutionelle Besucher*innen in den Einsatzraum gefahren. Falls nicht vorhanden, werden seitens der Polizei Warnwesten leihweise zur Verfügung gestellt.
Die Politik zeigt sich natürlich nicht vor Ort und setzt zwecks Ausübung von Gewalt, ihre vom Volk bezahlten Söldner ein.
Wie im ersten Zeitraum gilt, dass sich der o.a. Personenkreis zu Fuß frei im Einsatzraum bewegen kann, ohne die dortigen Arbeiten der RWE Power AG oder Einsatzmaßnahmen der Polizei zu stören. Abgesperrte Bereiche (Ortslage Lützerath und Polizeibereiche) können von o.a. Personenkreis grundsätzlich nicht betreten werden.
In Absprache mit dem Einsatzleiter der Polizei werden in der abgesperrten Ortslage Lützerath (Einsatzort) Flächen gekennzeichnet, die von Medienvertreter*innen und parlamentarischen Beobachter*innen zur Ausübung Ihrer journalistischen Arbeit / Ihres Mandates ausschließlich in polizeilicher Begleitung betreten werden können. Die erforderliche Schutzausstattung (Weste, Helm und Schutzbrille) wird von der Polizei leihweise zur Verfügung gestellt. Das Betreten des Geländes von RWE Power geschieht auf eigene Gefahr. Vor Betreten des Geländes ist eine gesonderte Erklärung („Haftungsvereinbarung“) bei Mitarbeitenden der RWE Power AG zu unterzeichnen. Eine polizeiliche Akkreditierung ist für ein begleitetes Betreten des inneren Einsatzbereiches nicht erforderlich. Die RWE Power AG stellt alternativ einen Besucherausweis der RWE Power AG aus. Die Möglichkeit, das Medien den unmittelbaren Einsatzraum betreten können um sich von der Situation vor Ort ein Bild zu machen, ist erfolgskritischer Faktor des Einsatzes. Nur wenn Medienvertreter*innen und Mandatsträger*innen möglichst uneingeschränkt ihrer Aufgabe nachkommen können, hat die Öffentlichkeit die Möglichkeit, die Arbeit der Polizei in diesem hoch politischen Konflikt neutral zu bewerten.
Soweit die Konzeptionierung des Medienkonzeptes:
Am heutigen Tag wurde das Konzept zugunsten eines erweiterten Zutritts für Medienvertreter angepasst. Von der ersten Einsatzminute an befanden sich Medienschaffende im direkten Einsatzbereich, die durchgängig uneingeschränkt Ihrer Arbeit nachgekommen sind. Selbst in Phasen von Stein- und Molotowcocktail-Würfen wurde Rücksicht auf die unmittelbaren Belange von Medienvertreter*innen genommen.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons
CC BY-SA 4.0Die Persönlichkeitsrechte der abgebildeten Person(en) beschränken bestimmte Weiterverwendungen des Bildes ohne dessen/deren vorherige Zustimmung.Hinweise zur Weiternutzung
Überall ist Krise, doch in fast keinem Bereich haben wir einen Überblick. Wenn sich das für die nächsten fünf Weltkrisen ändern soll, müssen Menschen in unserer Verwaltung schnell umdenken – und für mehr Vernetzung und Austausch sorgen, schreibt unsere Kolumnistin.
Diese sonntägliche Ausgabe von Degitalisierung beginnt mit einer direkten Ansprache: Wir sind mitten in einem Notfall und brauchen einen umfassenden Wandel! Und du bist Teil des Problems! Aber auch Teil der Lösung!
Nun wäre es wesentlich einfacher, wenn wir alle den Klimanotfall, in dem wir uns befinden, in unserem Handeln entsprechend ernst nehmen würden – speziell auch die Generation, die nur noch wenig von den Auswirkungen des menschengemachten Klimawandels mitbekommen wird. Eigentlich ist damit alles Wichtige bereits gesagt. Digitalisierung ist in dem Gesamtkontext im Grunde nur eine Randnotiz.
Pause. Lange Pause.
Zum eigentlichen Thema dieser Kolumne: Es gibt im Kontext der Digitalisierung ebenfalls eine letzte Generation. Eine Generation, die entweder einen sinnhaften digitalen Wandel möglich macht – oder vom digitalen Wandel überrannt werden wird, ohne ihn sinnvoll mitgeprägt zu haben. Und ja, auch diese letzte Generation ist gegenwärtig mitverantwortlich für eine nachhaltige digitale Zukunft.
Multiple Krisen, multiple Probleme
Wir befinden uns aktuell in einer multiplen Krisensituation. Klimakrise, Pandemie, Krieg in der Ukraine, Energiekrise und so weiter. Um mit diesen Krisen umzugehen, brauchen wir funktionierende Strukturen in der öffentlichen Verwaltung und im Gesundheitswesen – auch langfristig.
Wie hoch ist beispielsweise aktuell der Erdgasverbrauch oder auf welchem Level bewegen sich die Corona-Fallzahlen? Ganz genau wissen wir das selten. Wir haben meistens kein aktuelles und umfassendes datenbasiertes Lagebild, unsere Kommunikationswege sind voller Brüche und stocken an zentralen Knotenpunkten. Und so wirklich wissen wir auch nicht, wer dafür zuständig sein soll.
Das ist leider seit Anbeginn der Pandemie mit täglichen Corona-Fallzahlen so. Und es ist keineswegs trivial, den aktuellen Erdgasverbrauch in Deutschland herauszufinden. Ähnliches gilt oftmals auch für andere Krisenlagen. Vor allem in neuen Situationen ist es zunächst eine Herausforderung, einen Überblick zu gewinnen.
Woran liegt das?
Strukturen, die um sich selbst kreisen
Das Problem mit den Daten und der Kommunikation darüber ist in vielen Bereichen strukturell begründet. Genauer gesagt liegt das daran, wie Organisationen Netze und Systeme bauen.
„Organisationen, die Systeme entwerfen, […] sind gezwungen, Entwürfe zu erstellen, die die Kommunikationsstrukturen dieser Organisationen abbilden“, stellte der Informatiker Melvin Conway schon 1968 fest. Das sogenannte Conway’s Law trifft immer wieder zu und wird in Krisen zum erheblichen Problem. Kommunikationswege, die nur nach hierarchischen Baumstrukturen ablaufen können, sind zäh und fehleranfällig, kurz: In Krisensituationen sind sie eher hinderlich.
Verwaltungen, die Dateninfrastrukturen bauen, tun dies meist nur für die eigene Kommune, das eigene Bundesland oder das eigene Ministerium. In einer Krisensituation schnell mit anderen vernetzen und ein allgemeines Lagebild bekommen? Kaum möglich. Ein weiteres Hindernis: Viele der Systeme, die nur aus Organisationssicht entworfen wurden, sind für Außenstehende unbenutzbar.
Brauchen wir also erst einen tiefgreifenden Strukturwandel, damit digitale Transformation gelingen kann? Ja und nein. Eigentlich ja, weil das so viel einfacher machen würde, von null zu beginnen. Und eigentlich nein, denn: Eine langwierige selbst referentielle Beschäftigung mit Organisationsstrukturen führt zu wenig, weil es den Machtanspruch einiger Weniger am oberen Ende dieser Organisationen gefährdet. Organisationen wie die öffentliche Verwaltung fürchten um die mühsam aufgebaute Behörde und den in Stein gemeißelten Stellenplan.
Wir können nicht darauf waren, dass „die Verwaltung“ oder „das Gesundheitswesen“ endlich grundlegend reformiert worden ist, um für ein besseres Handeln im Digitalen einzutreten.
Warum funktioniert eigentlich das Internet?
An der Diskussion über digitalen Organisations- und Strukturwandel ist vor allem auch eines bemerkenswert: Sie findet in einer Zeit statt, in der wir schon seit Jahrzehnten im Internet miteinander kommunizieren. Gerade im Netz haben wir gelernt, durch unterschiedliche Hierarchien und Strukturen sowie über Länder und Kontinente hinweg zueinander zu finden, miteinander zu kommunizieren und Daten auszutauschen.
Wir sollten daher den Wert offener technischer Standards, gemeinsamer Datenformate und flacher Netzstrukturen längst verstanden haben, weil wir täglich von diesen profitieren. Der Minimalanspruch sollte daher lauten: Behalte deine Organisationsstruktur, wenn es unbedingt sein muss und sich darin dein Machtanspruch begründet. Aber sei offen, dich bis auf unterster Arbeitsebene direkt mit anderen zu vernetzen.
Für die letzte Generation, die den digitalen Wandel noch sinnvoll mitprägen kann, wird eines entscheidend sein: inwieweit sie diese Form der Vernetzung und Zusammenarbeit ermöglicht, auch und gerade auf der untersten Arbeitsebene. Selbst wenn dies in einer Organisationsstruktur passiert, die nicht besonders gut dafür geeignet ist.
Standesdünkel
Die Verwaltung muss dazu auch an der eigenen künstlich aufgebauten Fallhöhe arbeiten. Genauer gesagt: am Abbau selbiger. Das hat sich nicht zuletzt in der Corona-Pandemie gezeigt. Jurist*innen oder Mediziner*innen haben in der digitalen Transformation zwar nach wie vor fachlich einen hohen Wert. Nur entstehen bessere digitale Produkte vor allem durch den Einfluss anderer Fachdisziplinen.
Gestalter*innen von Benutzungsoberflächen, Expert*innen für IT-Sicherheit oder Server-Dompteur*innen sind aus wissenschaftlicher Perspektive weniger angesehen als Berufsstände wie Medizin oder Jura, die traditionell mit Zugangshürden versehen sind. Diese Expert*innen sind jedoch essentiell für den Gesamterfolg digitaler Produkte. Produkte, die nur im vielseitigen Austausch auf Augenhöhe entstehen können.
In diesem Prozess braucht es auch das Eingeständnis, selbst nur über wenige oder sogar keine Fähigkeiten zu verfügen, um die eigene Fachdisziplin im Digitalen zeitgemäß artikulieren zu können. Die best practices, wie Menschen im Digitalen etwa mit Gesundheitsanwendungen interagieren können, liefern nicht die deutschen Krankenkassen, sondern Technologiekonzerne wie Apple. Und gerade in der Abgrenzung zu den wirtschaftlichen Interessen dieser Privatkonzerne gewinnen jene digitalen Produkte an Bedeutung, die ethische Werte und Grundsätze im Digitalen achten.
Das betrifft nicht zuletzt den Datenschutz. „Was ich bei der Behandlung oder auch außerhalb meiner Praxis im Umgang mit Menschen sehe und höre, das man nicht weiterreden darf, werde ich verschweigen und als Geheimnis bewahren.“ So heißt es im Eid des Hippokrates. Mehr als 2.000 Jahre später sollte dieser Eid auch auf das Digitale angewendet werden. Eine bessere Digitalisierung heißt auch, alte Grundsätze konsequent umzusetzen.
Die erste Generation
All diese Herausforderungen erfordern von der letzten Generation fast schon eine komplette Kehrtwende. Jetzt ist der Moment, in dem Digitales sinnvoll mitgestaltet werden kann und muss. Andernfalls haben wir dazu keine Chance mehr, weil digitale Veränderung schnell und umfassend passiert. Und die Folgen werden weitreichend sein. Denn das Vertrauen in die Leistungsfähigkeit von Staat und Gesundheitswesen leitet sich auch wesentlich von deren digitalen Fähigkeiten ab.
Dabei darf eines nicht vergessen werden: Einige, die heute auf Chefposten sitzen und die Weichen für den digitalen Wandel stellen müssen, waren auch schon dabei, als dieser digitale Wandel bei null begonnen hat. Die Generation, die derzeit – wenige Jahre vor dem Ruhestand – noch mit der Digitalisierung fremdelt, ist in Teilen auch jene, welche die aus heutiger Sicht ersten zaghaften digitalen Babyschritte mitgegangen ist. Die letzte Generation ist damit zugleich auch die erste Generation. Es ist wie vieles im Digitalen: Alles ist immer in Veränderung.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Im Jahr 2021 hatten tausende Menschen über Monate gegen das neue Versammlungsgesetz in Nordrhein-Westfalen demonstriert. Das Gesetz schränkt die Versammlungsfreiheit massiv ein und gibt der Polizei mehr Befugnisse. Dagegen wehrt sich nun die GFF zusammen mit weiteren Bürgerrechtsinitiativen mit einer Verfassungsbeschwerde.
Die Gesellschaft für Freiheitsrechte (GFF) erhebt heute gemeinsam mit dem Bündnis „Versammlungsgesetz NRW stoppen!“ Verfassungsbeschwerde gegen das seit Januar 2022 geltende Versammlungsgesetz in Nordrhein-Westfalen. Das umstrittene Gesetz war trotz schwerwiegender Bedenken von Sachverständigen und monatelanger Proteste auf der Straße fast unverändert von der schwarz-gelben Landesregierung im Jahr 2021 verabschiedet worden. Die schwarz-grüne Nachfolgeregierung hat in ihrem Koalitionsvertrag keine Änderungen am Versammlungsgesetz festgelegt.
Die nun vor dem Verfassungsgerichtshof von Nordrhein-Westfalen eingereichte Beschwerde greift vor allem neue Straftatbestände, erweiterte Überwachungsbefugnisse und das präzedenzlose Totalverbot von Versammlungen auf Autobahnen an, heißt es in der Pressemitteilung der GFF. In der Kombination schreckten diese verfassungswidrigen Regelungen Menschen davon ab, ihr Grundrecht auf Versammlungsfreiheit auszuüben, so die Grundrechteorganisation. Sie will erreichen, dass das Gericht die angegriffenen Vorschriften für nichtig erklärt. Per Eilantrag sollen einige Normen zudem bereits vorläufig außer Kraft gesetzt werden.
Autobahnen stärker geschützt als der Landtag
Laut der GFF sind die neuen Regelungen des Versammlungsgesetzes NRW zum Störungsverbot, zum Vermummungsverbot sowie zum Militanzverbot sehr weitreichend und unbestimmt formuliert, sodass Protestierende nicht wissen könnten, wann sie sich strafbar machen. Daneben weite NRW die Befugnis zur staatlichen Videoüberwachung von Versammlungen enorm aus, so die Bürgerrechtsorganisation. Auch das könne einschüchtern und von der Teilnahme an Protesten abschrecken. Das bundesweit einmalige Pauschalverbot aller Versammlungen auf Bundesautobahnen nimmt zudem einen Teil des öffentlichen Raumes prinzipiell von der Versammlungsfreiheit aus. Autobahnen werden damit stärker geschützt als der NRW-Landtag und NS-Gedenkstätten, so die Bürgerrechtsorganisation.
Besonders betroffen sei die Klimabewegung. Bei der Verschärfung des Militanzverbots verweise die Gesetzesbegründung auf Klimaproteste und ziele insbesondere auf diese ab.
Die damalige Landesregierung hat das im Versammlungsgesetz des Bundes enthaltene Uniformierungsverbot, das wegen der Erfahrungen von SA-Aufmärschen in der Weimarer Republik eingeführt wurde, weiter verschärft. Sie hat es es zu einem sogenannten Militanzverbot ausgeweitet. In der Begründung des Gesetzes heißt es, dass damit auch eine einheitliche farbliche Kleidung oder weiße Maleranzüge gemeint sind.
Auch das Versammlungsverbot auf Autobahnen richtet sich eindeutig gegen Aktivist:innen, die dort protestieren, um auf die sich zuspitzende Klimakrise aufmerksam zu machen. Der nordrhein-westfälische Gesetzgeber habe hier seine staatliche Neutralität gegenüber zulässigen Versammlungsanliegen aufgegeben und schränke so die Grundrechte aller Aktivist:innen verfassungswidrig ein, sagt die GFF.
Unterstützung durch weitere Bürgerrechtsorganisationen
Laut der GFF hat kein anderes Bundesland ein derart restriktives Versammlungsgesetz. Mit der Verfassungsbeschwerde will die GFF nach eigener Aussage ähnlichen Tendenzen bei der Gestaltung künftiger Landesversammlungsgesetze vorbeugen und so eine schrittweise Aushöhlung der Versammlungsfreiheit verhindern. Die acht Beschwerdeführenden sind Mitglieder unterschiedlicher zivilgesellschaftlicher Organisationen aus Nordrhein-Westfalen, die ihr Engagement durch das Versammlungsgesetz in Gefahr sehen. Sie werden vertreten durch Professor Tristan Barczak von der Universität Passau. Die Verfassungsbeschwerde wird unterstützt vom Komitee für Grundrechte und Demokratie e.V., der Vereinigung Demokratischer Juristinnen und Juristen (VDJ) und dem Republikanischen Anwältinnen- und Anwälteverein (RAV).
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Heute ist „Public Domain Day“. Der Aktionstag richtet sich gegen die Monopolisierung kulturellen Schaffens als „geistiges Eigentum“. Statt dieses über Jahrzehnte marktwirtschaftlichen Zwängen zu unterwerfen, sollten wir die Idee des Gemeinguts stärken – im Interesse aller.
An jedem 1. Januar wird der „Public Domain Day“ gefeiert. Das ist ein internationaler Aktionstag, an dem Werke von Kreativen, deren Sterbedatum mehr als 70 Jahre zurückliegt, gemeinfrei werden. Auch wir bei Wikimedia Deutschland würdigen an diesem Tag die Kreativität der lange Verstorbenen. Zugleich bringen wir eine milde Form des Protests dagegen zum Ausdruck, dass kreative Erzeugnisse noch viele Jahrzehnte nach ihrer Entstehung als wirtschaftliche Assets fungieren sollen.
Was als Sicherung des Lebensunterhalts der Kreativen gerechtfertigt wird – und des Lebensunterhalts ihrer Enkel und Urenkel –, gilt in Wahrheit fast immer der Wahrung langfristiger Vermögenswerte. Und zwar im Portfolio von Verwertungsunternehmen.
Schon während der Lebenszeit der Kreativen ist ein Monopol auf kulturelles Schaffen als „geistiges Eigentum“ nur mit den Zwängen eines marktwirtschaftlichen Systems zu rechtfertigen. Damit Menschen in einer Marktwirtschaft von kreativer Arbeit leben können, liegt es nahe, ihre Werke als handelbares Gut zu behandeln. Und das sind sie nur dann, wenn ihre Nutzung rechtlich eingeschränkt wird.
Everything is a Remix
Wer aber diese Regeln als zwingend ansieht, verkennt, was Kreativität eigentlich ausmacht: Das Neu-Zusammenfügen bestehender Versatzstücke. Das geschieht mal mit einer impliziten Aussage und mal ohne. Aber stets passiert es gefiltert durch die Erfahrungen und spezifischen Perspektiven der zusammenfügenden Personen – mit einem Ergebnis, das es in dieser Form bis dato nicht gab.
Neu ist dieses Verständnis von Kreativität nicht. Detailliert dargestellt wird es in der berühmten, 2021 wiederaufgelegten Dokumentation Everything is a Remix von Kirby Fergusson.
Je weiter dieser Remix am Ende vom Bekannten entfernt ist, desto größer wird üblicherweise der persönliche Anteil der Kreativen eingeschätzt – und mit ihm die Originalität und kreative Leistung insgesamt. Problematisch ist daran vor allem, dass sich mit zunehmendem zeitlichen Abstand das gesellschaftliche Gedächtnis immer mehr auf wenige Einzelne verengt, deren Schaffen dann als besonders bahnbrechend gilt. Derweil fallen die Namen vieler Anderer aus dem Who’s Who der Kreativen heraus, das die meisten Menschen im Kopf haben. Das befördert den Mythos vom kreativen Genie, das nur aus sich selbst heraus die großen Werke der Kulturgeschichte schafft.
Grundlage der Kreativität: Die Public Domain
Kreativität und Kulturschaffen sind komplex. Sie funktionieren, indem eine Person Werke schafft, die auf den Arbeiten einer anderen aufbaut. Auch die „Erfinderin“ eines „ganz neuen“ Malstils oder der Designer eines nie da gewesenen Sitzmöbels schöpfen nicht aus dem Nichts. Ihr Fundament sind alle ihnen bekannten, zuvor entstandenen Dinge – das Gemeingut, auf Englisch: Public Domain. Auf diesem stetig wachsenden Bestand basiert ein wesentlicher Teil der Kreativität. Und eben diese Public Domain ist kein Konzept nur des Urheberrechts.
Die damit bezeichnete Sphäre ist weit größer als der juristische Raum. Sie umfasst Ideen und Ansichten, die mathematischen wie die physikalischen Gesetzmäßigkeiten und folglich alle technischen Lösungen, die Farben genauso wie die Gerüche. Und damit übrigens auch sämtliche Kochrezepte und sonstigen chemischen Anleitungen einschließlich ihrer Kodierung.
Manche horchen hier auf: Sind technische Lösungen nicht patentierbar? Und warum ist auf Rezepte-Seiten im Netz so oft „Alle Rechte vorbehalten“ zu lesen? Nun, bei Koch-Websites oder -büchern können Rechte nur an den beschreibenden Fließtexten bestehen, niemals aber an der Kochanleitung selbst, ganz gleich wie ungewöhnlich ein Gericht auch sein mag. Und jeder Urheberrechtsschutz ist bei genauer Betrachtung eine Ausnahme, ein zeitlich begrenztes Monopol. Schutzrechte laufen ab, weil sie zwangsläufig ins Gemeingut eingreifen.
Nutzbarkeit für die Allgemeinheit
Es mag Jean-Michel Jarre nicht gefallen – doch ein solcher Eingriff in die Public Domain ist nur so lange zu rechtfertigen, wie es etwas Höherrangiges als das allgemeine Interesse aller an kulturellen Erzeugnissen zu schützen gilt.
Im Urheberrecht ist dieses Etwas nach gängiger Begründung die persönliche Verbindung einer kreativen Person zu ihren Werken sowie die Annahme, dass intensives Kreativsein nur hauptberuflich möglich ist, siehe oben. Was zu der ebenfalls schon aufgeworfenen Frage zurückführt, weshalb noch 70 Jahre nach dem Tod einer Person ein Monopol an ihrem Werk bestehen soll. Im Patentrecht wird beispielsweise ein Schutz von nur 20 Jahren gewährt – ab Anmeldung wohlgemerkt, nicht ab dem Tod der Erfinderin. Dieser kann um maximal fünf Jahre verlängert werden.
Ein beliebter Einwand lautet, dass schließlich viel weniger potentielle Lösungen für technische Probleme existierten als potentielle kulturelle Ausdrücke. Daher falle der Schaden durch eine Monopolisierung hier viel höher aus als beim Urheberrecht. Stimmt das? Oder ist der Schaden im Kulturbereich einfach nur schwieriger zu beziffern als auf dem technisch-wirtschaftlichen Feld? Ein kürzlich online gegangenes Video von Richard Misek legt ebendies nahe und nennt zur Abwechslung auch genaue Zahlen.
Welche exakte Länge von Schutzfristen beim Urheberrecht angemessen wäre, sei dahingestellt. Vieles spricht jedoch dafür, dass die bestehenden Fristen zu lang sind. Darüber hinaus gibt es gute Argumente dafür, dass Inhalte, deren Entstehung die Allgemeinheit maßgeblich mitfinanziert, ohne irgendwelche Fristen für ebendiese direkt nutzbar sein sollten.
Unser Slogan lautet: Öffentliches Geld – Öffentliches Gut! Wir treten damit seit Jahren insbesondere an öffentlich-rechtliche Rundfunkanstalten heran – wo sich inzwischen vieles tut. Unsere Forderung nach Nutzbarkeit für die Allgemeinheit schließt neben den von öffentlichen Einrichtungen selbst erstellten Inhalten auch alle vom Staat in Auftrag gegebenen Studien, Rechtsgutachten und sonstigen Wissensinhalte ein. Und dort, wo es bei der Vergabe öffentlicher Aufträge aus bestimmten Gründen nicht ganz ohne Schutzrechte geht, sollten standardmäßig zumindest freie Lizenzen zum Einsatz kommen.
Das Streiten für den Riesen Public Domain
Dieses Eintreten fürs Gemeinwohl zeigt Wirkung: Nicht nur konnte bislang verhindert werden, dass das völlig irrwitzige Konzept eines „Dateneigentums“ gesetzlich verankert wird. Aktive in ganz Europa haben gemeinsam die erste ausdrückliche Erwähnung der Public Domain in einem Gesetz erstritten. Es regelt, dass rechtefrei gewordene Werke auch dann frei bleiben, wenn sie eins zu eins digitalisiert werden. Ein wichtiger und schöner Erfolg, denn so konnte verhindert werden, dass neue Rechte durch die Digitalisierung von Werken entstehen, die sich ansonsten längst in der Public Domain befänden.
Das aber ist das eigentliche Problem: Wir befinden uns inmitten eines ständigen Verteidigungskampfes. Er richtet sich dagegen, dass der Public Domain Werke entrissen werden, um diese zu privatisieren und zur Handelsware zu machen. Nein, Handel ist nicht per se etwas Schlechtes. Aber er darf auch nicht der Zweck sein, der alle Mittel heiligt.
Zukünftig sollte es darum gehen, die Public Domain grundsätzlich unter Schutz zu stellen – im Interesse aller. Dazu muss sie beim Namen genannt werden. Die Sphäre des Gemeinguts braucht Sichtbarkeit, um zu einem wehrhaften Riesen werden zu können.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Höchste Alarmstufe bei der weltgrößten Suchmaschine: Mit ChatGPT und künstlicher Intelligenz könnte eine neue Ära beginnen.
Google ist durch seine Suchfunktion zu einem der wertvollsten Unternehmen der Welt geworden, nicht unverdient, wenn man die bisher unerreichte Qualität der Ergebnisse betrachtet. Bis heute ist die Google-Suche der Anfang von sehr, sehr vielen Internet-Touren, deshalb ist Google die meistbesuchte Webseite des Planeten.
Weil es dabei besonders oft um Produkte und Dienstleistungen geht, sind Google Ads so erfolgreich. Um es greifbar zu machen: Von Googles 256 Milliarden Dollar Umsatz im Jahr 2021 kamen rund 210 Milliarden durch digitale Werbung zustande, das ist mehr als ein Viertel des gesamten, weltweit für Werbung ausgegebenen Geldes. Die Google-Suche ist die vielleicht ergiebigste Cashcow, die es je gab.
Aber es besteht die Möglichkeit, dass die Ära der klassischen Suche ausklingt, allem Erfolg zum Trotz. Seit geraumer Zeit werden, vor allem durch die sich entwickelnde digitale Gesellschaft, die Unzulänglichkeiten von Google deutlich. Viele junge Menschen nutzen TikTok für die Informationssuche, weil sie dort auf viele Fragen kurze, unterhaltsame Antworten als Videoclip präsentiert bekommen: Wie falte ich T-Shirts, welches Tablet ist das beste, wo kann man im Januar als Veganer*in gut Urlaub machen und so weiter und so fort. Was Ältere selbstverständlich googeln, um sich dann manchmal in endlosen Listen zu verlieren, erfährt die Generation Z als Video.
Auch wenn man professionell mit dem Netz arbeitet, schleppt sich Google bei aller noch immer vorhandenen Qualität mitunter hinter den Bedürfnissen her. Meine häufige Suchaufgabe etwa ist, Inhalte zu finden, die ich irgendwo schon einmal gesehen oder gehört habe. Diese eine interessante Statistik – habe ich die als Screenshot in einem meiner sieben Messenger bekommen? Oder als Mail oder in einer Videopräsentation oder in einem Artikel eines US-Blogs oder auf Twitter oder…? Google hilft da wenig.
Bei der Produktsuche wiederum hat Google gegenüber Amazon verloren, das zudem immer stärker in den Werbemarkt drängt. 2021 konnte Amazon schon 31 Milliarden Dollar für Werbung erlösen.
Die Herausforderungen zeigen, dass Google trotz seiner gigantischen Umsätze nicht mehr alle digitalen Suchprobleme lösen kann und nicht mehr unbesiegbar scheint, was den täglichen Kampf um unsere Suchgewohnheiten angeht.
Jetzt ist, natürlich durch künstliche Intelligenz (KI) und im Besonderen das Modell ChatGPT, sogar die Supercashcow in Gefahr. Das glaubt offenbar zumindest Google selbst. Ein Medienbericht spricht davon, dass ChatGPT bei Google einen »Code Red« ausgelöst habe, die höchste Alarmstufe. Der Grund dafür: Google ist zwar eine hervorragende Antwortmaschine auf alle möglichen Fragen des Alltags. Aber um die besten Antworten zu bekommen, muss man, wenn man genau hinschaut, immer noch sehr Suchmaschinen-spezifische Wortkombinationen eingeben.
Literarisch hat das die Journalistin Emilia Smechowski gezeigt, als sie im Frühjahr 2022 einen Text über die Zeit direkt nach der Geburt ihres Kindes formulierte – ausschließlich in Google-Suchphrasen : »Milcheinschuss wann«, »Definition Schreibaby«, »Studien Saugverwirrung«. Besonders vielsagend waren dabei die aufeinanderfolgenden Suchen, die eine kurze Geschichte des Scheiterns an den Google-Ergebnissen erzählen: »Ab wann Windelgröße 2«, »Welche Windeln für welches Alter«, »Welche Windeln für welches Gewicht«.
Gut googeln zu können, ist eine eigene Fähigkeit, und das wiederum verrät viel darüber, wie weit die Suchmaschine in ihrer gegenwärtigen Form von normaler, menschlicher Kommunikation entfernt ist. Das war so lange halbwegs akzeptabel, wie die Google-Suche die mit Abstand besten Ergebnisse erzielte.
Auftritt ChatGPT, die sprechende künstliche Intelligenz, von der man betonen muss, dass sie eine vorläufige Zwischenform ist und ständig besser werden wird. Es handelt sich um eine Testanwendung des inzwischen zum größten Teil von Microsoft finanzierten Unternehmens OpenAI.
ChatGPT kann menschliche Fragen auf menschliche Weise beantworten, und das in zweifellos spektakulärer, nämlich menschenhafter Sprachqualität. Deshalb haben sich bei OpenAI in den ersten fünf Tagen eine Million Nutzende angemeldet. Dabei ist ChatGPT bisher nicht mit dem offenen Internet verbunden, sondern wurde nur mit Inhalten aus der Zeit bis 2021 trainiert, was bedeutet, dass es keinen aktuellen Informationsstand enthält. Das aber dürfte sich demnächst ändern.
Dass die Chatkontrolle dramatische Folgen für unser aller Grundrechte hätte, ist inzwischen allenthalben bekannt. Dass ihre Einführung aber auch die Open-Source-Community hart treffen würde, wird hingegen noch kaum diskutiert.
Derzeit wird heftig um die Pläne der EU-Kommission und des Bundesinnenministeriums gerungen, eine neue anlasslose Massenüberwachung einzuführen. Im Fokus der öffentlichen Debatte stehen dabei vor allem die Auswirkungen, welche die sogenannte Chatkontrolle für die verschlüsselte Kommunikation, den Datenschutz und unser aller Privatsphäre hätte.
Außen vor sind hingegen die drohenden Folgen einer solcher Überwachung für Programmier:innen und Anbieter:innen von Apps in App-Stores. Diese wären dabei vor allem in der Open-Source-Community zu spüren. EU-Kommission und Bundesregierung zeigen damit zum wiederholten Mal, dass sie die Bedeutung des Open-Source-Ökosystems verkennen. Denn die Chatkontrolle brächte das Prinzip sowie die Herstellungs- und Vertriebsbedingungen freier Software in arge Bedrängnis.
Wer oder was ist ein App-Store?
App-Stores sind nach Artikel 2.14 des Digital Markets Acts (DMA) „Online-Vermittlungsdienste, durch die in erster Linie Software-Anwendungen als Produkt oder Dienstleistung vermittelt werden“. Dafür müssen sie folgende Bedingungen erfüllen: Sie müssen erstens elektronische, nicht-materielle Dienstleistungen anbieten (Art.1 b), zweitens eine Plattform für Anbieter bereitstellen, die Nutzer:innen ihre Produkte zur Verfügung stellen und die dafür notwendigen Transaktionen abwickeln, sowie drittens ein Vertragsverhältnis zwischen Anbietern und Nutzer:innen herstellen.
Der DMA schränkt diese Regelung je nach Zahl der Nutzer:innen und der Umsatzhöhe jedoch auf eine sehr geringe Anzahl von App-Stores ein. Zu diesen zählen nicht zuletzt der App Store von Apple und der Play Store von Google.
Derartige Einschränkungen sieht die CSA-Verordnung der EU-Kommission nicht vor. Sie will vielmehr sämtliche App-Stores in die Pflicht nehmen – unabhängig von ihrer Größe und ihren finanziellen Ressourcen.
Von den Regelungen der Chatkontrolle wären demnach auch alternative App-Stores wie F-Droid und andere Repositories von Open-Source-Software betroffen. Sie erfüllen die oben genannten Bedingungen zum Teil oder – je nach Auslegung – in Gänze. Die Pläne zur Chatkontrolle schaffen damit eine große Rechtsunsicherheit für diese offenen nicht-kommerziellen Angebote, die meist eine Community aus Ehrenamtlichen betreibt.
App-Stores müssten eine Altersverifikation einführen
Besonders deutlich zeigt sich dies bei der geplanten Altersverifikation. Denn die Pläne der Kommission sehen vor, dass App-Stores künftig für jede App separat das Risiko bewerten müssen, ob diese für die Kontaktaufnahme zu Kindern geeignet ist oder nicht. Bei dieser Einschätzung sollen auch die Software-Anbieter behilflich sein, sofern diese eine eigene Risikoeinschätzung erstellt haben.
Kann eine App für die Kontaktaufnahme zu Kindern verwendet werden, müssen App-Stores sicherstellen, dass Kinder unterhalb eines bestimmten Alters auf diese keinen Zugriff erhalten. Das heißt aber nichts anderes, als das App-Stores bei ihren Nutzer:innen eine Altersverifikation ein- und durchführen müssen. Sie sollen zudem transparent anzeigen, wie die Risikobewertung vorgenommen und welche Maßnahmen dafür ergriffen wurden – natürlich ohne die Wirksamkeit der Maßnahmen zu gefährden.
Für die Altersverifikationen könnten App-Stores eine Ausweispflicht einführen. Die Verordnung der EU-Kommission macht diesbezüglich keine konkreten Vorschläge, wie diese erfolgen kann. Und auch das Impact Assessment, das unter anderem die möglichen Folgen eines EU-Gesetzes beschreibt, unterbreitet diesbezüglich keine konkreten Vorschläge. Vielmehr ist lediglich die Rede von bereits bestehenden „robusten Altersverifikationen“, die etwa gewährleisten sollen, dass sich Erwachsene nicht als Kinder ausgeben können.
In der Praxis hat sich jedoch gezeigt, dass die bestehenden Vorkehrungen leicht umgangen werden können oder aber widerrechtlich biometrische Daten abfragen, obwohl das Sammeln und Verarbeiten biometrischer Daten gemäß Art. 9.1 der DSGVO untersagt ist.
Folgen für kleinere App-Stores und freie Linux-Distributionen
Das Problem reicht aber noch tiefer: Denn die App-Stores müssten fortan jede Applikation, die sie anbieten, vorab auf Herz und Nieren prüfen. Insbesondere für App-Stores, die das anonyme Herunterladen von Software ermöglichen, hätte dies weitreichende Folgen: Sie müssten entsprechende Authentifizierungen in ihre Angebotsplattformen einbauen, die gewährleisten, dass Kinder auf bestimmte Applikationen keinen Zugriff erhalten.
Betrachtet man exemplarisch die Distribution Arch Linux, fallen rasch die schwerwiegenden Folgen ins Auge, die eine solche Regelung nach sich zöge – und die ähnlich auch für andere Linux-Distributionen gelten.
Arch Linux legt ein besonderes Augenmerk darauf, möglichst wenig Daten über die Nutzer:innen zu sammeln. Sowohl die Distribution selbst als auch die Packages können von einer Vielzahl sogenannter Mirrors heruntergeladen werden. Ein Mirror (zu Deutsch: Spiegel) beschreibt einen gespiegelten Speicherort von Dateien, die damit an mehreren Orten im Internet verfügbar sind.
Die Mirrors sind wiederum in drei sogenannte Tiers (zu Deutsch: Stufen) eingeteilt: Mirrors des Tiers 0 enthalten die vom Arch-Team selbst erstellten Softwarepakete. Mirrors des Tier 1 sind Kopien von Tier 0, Mirrors von Tier 2 entsprechend Kopien von Tier 1. Diese dezentrale Verteilung der Software verhindert auch, dass Entwickler:innen an zentraler Stelle Informationen über ihre Nutzer:innen sammeln können. Gleiches gilt auch für das Tracken der Downloads von Software-Paketen.
Drohende Zentralisierung
Die Einführung einer Altersverifikation würde eine vollständige Zentralisierung der Infrastruktur erforderlich machen. Gleichzeitig könnte diese ohne Weiteres umgangen werden: Denn die Entwickler:innen geben die Quellen aller Software-Pakete (Git Repositories) an. Damit kann jede:r Nutzer:in den Code eigenständig herunterladen und selbst die Applikation „zusammenbauen“.
Diese Möglichkeit, Programme eigenständig kompilieren zu können, ist eine zentrale Voraussetzung für die Transparenz offener Software. Für eine effektive Umsetzung der Altersverifizierung müssten die Anbieter:innen und Programmier:innen offener Software künftig darauf jedoch verzichten.
Zu guter Letzt würde die zentralisierte Erfassung von Nutzer:innendaten dazu führen, dass ein erheblich größerer Einsatz bei den Datenschutzmaßnahmen erforderlich wäre. Diesen aber kann die Open-Source-Community allein kaum erbringen, betont auch Levente Polyák, Leiter des Arch Linux Projects und dessen Sicherheitsteams, gegenüber netzpolitik.org.
Hinzu komme laut Polyák eine nachträgliche Analyse der rund 13.700 Software-Pakete, die derzeit im Umlauf sind. Dies wäre ebenfalls ein gewaltiger Mehraufwand, der dann in Zukunft auch für jedes weitere Software-Paket erbracht werden müsste. Im Ergebnis würde dies eine extreme Belastung für ehrenamtliche Entwickler:innen bedeuten.
Angesichts dieser drohenden Auswirkungen bleibt nur zu hoffen, dass die EU-Kommission so rasch wie möglich erkennt, welche Folgen die Chatkontrolle für Open-Source-Software und für die Community hat, die diese entwickelt und vertreibt. Deren meist ehrenamtliche Arbeit ruht schon jetzt auf nur wenigen Schultern. Kommt die Chatkontrolle wie geplant, dürfte sie künftig erheblich schwerer werden.
Haben Sie es gemerkt? Die Demokratie ist in Gefahr. Aber nicht wegen jenen AutokratInnen und FaschistInnen dieser Welt, die ihre Zeit gekommen sehen. Sondern wegen der linken Woke-Kultur. Das zumindest wollen uns ansonsten recht besonnene ZeitgenossInnen quer durch die Feuilletons der reichweitenstarken deutschsprachigen Medien glauben machen: im Spiegel, im Tages-Anzeiger, in der Bild-Zeitung, in der NZZ.
Sie führen einen Kampf zur Verteidigung der Meinungsäusserungs-, Kunst und Wissenschaftsfreiheit. Diese sei durch eine «Cancel Culture» in Gefahr – eine Kultur, die keine missliebigen Meinungen akzeptiere. Sie kämpfen für Grundrechte, hüten die aufklärerische Debatte und verteidigen damit etwas ganz Grosses – die Demokratie. Angeblich. Denn ihr Kampf ist verlogen. Es gibt zwar Gründe, die Woke-Bewegung zu kritisieren; auf diese komme ich später zurück. Ihretwegen aber eine Bedrohung für die Demokratie heraufzubeschwören, ist intellektuell fahrlässig und argumentativ abenteuerlich.
Von wem reden wir? Ein paar beliebige Beispiele (es gäbe viele mehr): René Pfister, US-Korrespondent des Spiegel, beschreibt in einem 250-seitigen Buch sowie auf 7 Seiten des Magazins, wie «IdeologInnen im Namen von Gleichberechtigung und Antirassismus Meinungsfreiheit und die offene Gesellschaft bedrohen». Der ehemals linke Politiker Rudolf Strahm forderte im Tages-Anzeiger «Zivilcourage zur Verteidigung der Denk- und Meinungsfreiheit». Die Bild-Journalistin Judith Sevinç Basad schrieb einen Anti-Woke-Artikel nach dem anderen (sowie ein Buch), ehe sie ihren 30’000 Twitter-FollowerInnen mitteilte, dass sie ihre Stelle gekündigt habe, da sie dort «nicht mehr über die Gefahren berichten» könne, «die von der totalitären, radikalen woken Bewegung ausgehen». Und NZZ-Chefredaktor Eric Gujer beklagt «Zensur», eine «Gesinnungspolizei» und einen neuen «Extremismus von links», den er sodann mit den frühen Dreissigerjahren, der Zeit vor der Machtübernahme der Nazis vergleicht. «Wiederholt sich die Geschichte?», sinniert er.
Das ist natürlich dummes Zeug. Noch nie in der Geschichte war es einfacher als heute, jede noch so krude Meinung öffentlich zu machen – zumindest in demokratischen Staaten ohne Internetzensur. Eher scheint es so, als würden zu viele Meinungen geäussert werden, da es zunehmend schwieriger wird, Werbung von Information oder Nachrichten von Fake News zu unterscheiden. Doch das ist lediglich eine weitere Meinung.
Punkt ist: Hier, in der Schweiz, und grösser gedacht im sogenannten Westen, werden keine Meinungen unterdrückt. Meinungsäusserungs- und Kunstfreiheit sind in erster Linie Abwehrrechte gegen den Staat. Und dieser «cancelt» nicht. Das Reggae-Konzert in Bern? Der Veranstalter hat es abgebrochen. Der gecancelte (und nach Kritik erneut anberaumte) Vortrag einer Biologin in Berlin? Entscheid der Hochschulleitung. Die Liste liesse sich weiterführen.
Dann spielen sie halt anderswo
Aufschlussreich, weil besonders banal, ist das Beispiel, das Rudolf Strahm zur Überzeugung kommen lässt, man müsse die «Denkfreiheit» verteidigen: Eine Philosophin hatte im Auftrag einer feministischen Ausstellung einen Text geschrieben und darin den Ausdruck «biologische Geschlechter» verwendet. Die Verantwortliche der Ausstellung wollte das Wort «biologisch» streichen, die Philosophin weigerte sich, der Text erschien nicht.
Kann man blöd finden. Aber wenn ein Ausstellungs-OK einen Text ablehnt, wenn eine Hochschule einen Vortrag absagt oder ein Veranstalter ein Konzert, dann ist das keine Zensur. Zensur ist, wenn die Polizei kommt. Oder ein Gericht einem Medium den Druck verbietet. Die Polizei kommt nicht. Medien werden nicht am Druck gehindert. Und vor allem: Wer «gecancelt» wird, kann seine Meinung jederzeit woanders kundtun – auf seinem eigenen Blog zum Beispiel.
Was für Meinungen gilt, gilt auch für Wissenschaft und Kunst: Mir ist – zumindest aus dem deutschsprachigen Raum – kein Fall bekannt, wo Forschende nach derartiger Kritik nicht mehr weiterarbeiten oder nirgendwo mehr auftreten durften. Auch wird es kein Reggae- und Rastaverbot für Weisse geben. Die Band, die von der Brasserie Lorraine in Bern ausgeladen worden war, spielt nun halt woanders. Ja, man darf sogar behaupten, ohne ihre plötzliche Bekanntheit und den links verursachten Eklat wäre sie wohl kaum ans Betriebsfest der Weltwoche eingeladen worden.
Es braucht keinen intellektuellen Scharfsinn für die Feststellung, dass es bei diesem angeblichen Kampf um Freiheiten, der die Debatten fast aller grossen Medienhäuser im deutschsprachigen Raum beherrscht, in Wahrheit um etwas anderes geht. Wichtig ist zu verstehen, wie die selbsternannten FreiheitskämpferInnen dazu kommen, eine Konzertabsage zu einer Gefahr für die Demokratie zu stilisieren – und wie sie dabei vorgehen.
Ein Hauch von Wissenschaft
Mit der Schweigespirale-Theorie begründet etwa die Ex-Bild-Journalistin Judith Sevinç Basad in ihrem Buch «Schäm dich!» die Relevanz ihres Kampfes: «Die Schweigespirale hat (…) fatale Auswirkungen. So können sich radikale und ideologische Randmeinungen, die nicht der gesellschaftlichen Mitte entsprechen, zur Mehrheitsmeinung entwickeln», behauptet sie. Und die Philosophin Ulrike Ackermann, ihres Zeichens Co-Gründerin des Netzwerks Wissenschaftsfreiheit, das sich gegen Cancel Culture im Wissenschaftsbetrieb einsetzt, hat die angeblich so fatale Theorie gar als Buchtitel gewählt: «Die neue Schweigespirale – Wie die Politisierung der Wissenschaft unsere Freiheit einschränkt». Sie schreibt: «Die neue Schweigespirale funktioniert deutlich drastischer als das, was wir bisher kannten.»
Weder Basad noch Ackermann haben sich aber ernsthaft mit der Theorie auseinandergesetzt. Ich habe die beiden eben zitierten Sätze dem Zürcher Medienprofessor Thomas Friemel geschickt und ihn gefragt, was er davon hält. Beide Aussagen würde er so «nie sagen», er hält sie ausserdem für wenig reflektiert. Zwar liessen wir uns unbestritten von der Wahrnehmung unseres Umfelds beeinflussen. Aber: «Die empirischen Evidenzen für eine Schweigespirale im grossen Stil sind schwach, veraltet und kaum belastbar.» Und bei den sozialen Netzwerken liege das Problem eher in der algorithmischen Selektion und nicht bei der Schweigespirale.
Fakt ist: Die Schweigespirale ist eine Theorie, die wissenschaftlich nie eindeutig bestätigt wurde. Zwar gibt es Indizien, die ein gewisses Konformitätsverhalten von Menschen nahelegen – so sorgt zum Beispiel der Bandwagon- oder Mitläufer-Effekt dafür, dass unentschlossene WählerInnen aufgrund von Umfrageresultaten vor Abstimmungen zur Gewinnerseite wechseln. Diese Effekte sind jedoch nie stark genug, um eine Art kollektives Umdenken zu bewirken. Kommt dazu: Die Öffentlichkeit besteht nicht allein aus sozialen Netzwerken. Einen Konformitätsdruck gibt es nicht nur auf Twitter, wo Woke-AktivistInnen mutmasslich in der Überzahl sind. Am Esstisch einer Bauernfamilie oder am Betriebsfest der Weltwoche würde ich keine Brandrede für das Gendersternchen halten. Wenn überhaupt, dann wirkt die Schweigespirale viel komplexer und mit Bestimmtheit nicht so einseitig wie von den FreiheitskämpferInnen dargestellt. Die dramatische Erzählung von der Schweigespirale überschätzt die Macht der Medien massiv und passt darum in ihr verschwörerisches Weltbild.
Politischer Kampfbegriff
Die Neuen deutschen MedienmacherInnen argumentieren, dass es sich bei der Debatte um Cancel Culture und Identitätspolitik um eine rechtsextreme Erzählung handelt. Diese diene einzig dazu, die Stimmen von FeministInnen, Schwarzen Menschen, MigrantInnen, behinderten oder queeren Menschen usw. zu delegitimieren. In rechtsextremen Foren sei es schon länger gang und gäbe, gegen angeblich allmächtige «identitätspolitische» Minderheiten zu hetzen. Diese Erzählung werde nun durch bürgerliche Medien salonfähig gemacht.
Tatsächlich macht die politische Rechte in Europa und den USA gerade mit der Gesellschaftspolitik mobil. Sie versammelt sich gegen eine «Genderideologie». VertreterInnen rechter Parteien äussern sich mittlerweile häufiger über Feminismus und Gender als solche von links, wie eine Studie aus sieben Ländern Westeuropas zeigt, die zwischen 2016 und 2020 durchgeführt wurde. Die Anti-LGTBQI-Gesetze in Polen, Ungarn und den USA sind erste Folgen dieser Entwicklung. Doch warum lässt sich mit dem Angriff auf die Woke-Kultur derart gut mobilisieren? Und warum lassen sich derart viele Menschen hinter einer offensichtlich antiprogressiven Bewegung versammeln?
Blick auf die Pater Serra Statue und die California Street von den Stufen des Rathauses von Ventura. Die Statue wurde 2020 infolge von Protesten gegen die Cancel Culture entfernt.[1]
Möglicherweise aus zwei Gründen: Der eine ist eine Abwehrhaltung aus Überforderung. Der andere ist der Widerwille, gewisse Privilegien aufzugeben. Zunächst sollten wir uns vom Begriff der Cancel Culture verabschieden. Dieser ist ein politisches Kampfwort, ein recht billiges noch dazu. Sein Erfolg liegt gerade darin, dass es derart vage und diffus bleibt, dass es lediglich anprangert und keine Lösungen präsentiert, ja gar nicht präsentieren kann. Denn: Was könnten wir denn tun, um die Cancel Culture zu stoppen? Wir könnten Hochschulen oder KonzertveranstalterInnen vorschreiben, unter welchen Bedingungen sie Gäste ein- und ausladen dürfen. Oder die sozialen Netzwerke für linke AktivistInnen sperren, damit diese keinen Druck ausüben können. Beides ist natürlich unsinnig, da es tatsächlich einer Zensur gleichkäme.
Immerwoke zu sein ist eine Überforderung
Gibt es, wo es keine Lösungen gibt, überhaupt ein Problem? Es geht, wie gesagt, um etwas schwer Fassbares, um Kultur eben. Und wir ändern unser Verhalten nicht nur aufgrund rechtlicher Verbote, sondern auch wegen sozialem Druck. Und dieser kann sehr unangenehm sein. Ich auf jeden Fall mag ihn überhaupt nicht. Schon so habe ich ständig das Gefühl, nicht zu genügen. Ich sollte mehr und besser arbeiten, müsste mehr Zeit mit den Kindern verbringen, ihnen mehr mitgeben auf ihrem Weg, daneben sollte ich sinnvollere Hobbys pflegen, müsste öfter für Angehörige da sein und mehr in Freundschaften investieren. Dass ich nun auch noch moralisch Fortschritte machen muss, meine Sprache anpassen, mein Verhalten hinterfragen, das empfinde ich schnell als zu viel. Ich bin mit dem Grossziehen von drei Kindern beschäftigt, muss Geld verdienen, dafür sorgen, dass genug Essen im Kühlschrank ist und die Fruchtfliegen in der Küche nicht überhand nehmen. Und ich bin privilegiert, ich bin gesund und verdiene genügend Geld. Andere haben viel existenziellere Sorgen: Schulden, Krankheit, Lebenskrise.
Was ich damit sagen möchte: Immer und überall woke zu sein, überfordert viele. Dieses moralische Wetteifern, immer perfekt sein zu müssen, passt letztlich gut in den Selbstoptimierungswahn unserer neoliberalen Leistungsgesellschaft. Dem möchte ich eigentlich entkommen. Mir dann vorwerfen zu lassen, ich sei ein Rassist, einfach weil ich aus Unwissen einen Fehler gemacht habe, empfinde ich als unfair. Aber nur weil ich mit dem Tempo nicht mitkomme, heisst das nicht, dass ich die Sache per se bekämpfe. Anders gesagt, es ist kein Grund dafür, sich gegen die Anliegen und die Rechte von Minderheiten zu stellen.
Manche verlieren tatsächlich Freiheiten
Der zweite mögliche Grund, warum viele sich dem Kampf gegen «Genderideologie» und andere Minderheitenrechte anschliessen, ist banaler: Weil sie dadurch tatsächlich Freiheiten verlieren. Allerdings handelt es sich dabei nicht um demokratierelevante Grundrechte, sondern vielmehr um das «Privileg», andere ungescholten belästigen oder diskriminieren zu können, also zum Beispiel jemanden abwertend als «schwul» zu beschimpfen, einer Frau ungefragt an den Hintern zu fassen, rassistische Witze zu machen. «Früher eckte man mit sexistischen Gedichten nicht an – das ist Freiheit, aber eben nur aus dieser Perspektive», schreibt der Politologe Karsten Schubert.
Diese Dinge sozial zu ächten, ist nicht antiliberal, sondern entspricht der Umsetzung von Menschenrechten und der Verfassung, die vor ebensolcher Diskriminierung schützen soll. Die Tatsache, dass Emanzipation für manche tatsächlich Privilegienverlust und Einschränkungen mit sich bringt, müsse als solche anerkannt werden, schreibt die Soziologin Franziska Schutzbach im Online-Magazin Republik: «Die Herstellung von Gerechtigkeit, Inklusion und Teilhabe ist nicht einfach ein formaler Verwaltungsakt, über den sich alle freuen und von dem alle gleichermaßen profitieren.» Schließlich geht es nicht allein um die Frage, wie wir möglichst diskriminierungsfrei miteinander sprechen und umgehen. Wenn beispielsweise eine Quote für mehr Frauen in Führungspositionen sorgen soll, bleiben diese Plätze für männliche Aspiranten unerreichbar.
Fehlgeleiteter Kampf für Grundrechte
All jene, die sich aus solchen letztlich selbstgerechten Motiven für die Cancel-Culture-Kampagne einspannen lassen, sollten wissen: Nein, die angeblichen Freiheitskämpfer Innen führen keinen Kampf zur Verteidigung von Grundrechten oder der Demokratie. Sie treten an in einem Kulturkampf, der sich gegen Vielfalt und Gleichberechtigung richtet. Ihr bestes Argument ist dabei eine verschwörerische Erzählung, die von übermächtigen Minderheiten handelt, welche unterstützt durch eine linke Elite angeblich nahe daran sind, Denk- und Sprechverbote durchzusetzen.
Dieser Kulturkampf dürfte zu einer der prägenden politischen Dynamiken unserer Zeit werden, wie der Autor Benjamin Hindrichs bei ZEIT-Campus schreibt. Und er dürfte sich weiter zuspitzen. Aus der Soziologie bekannt ist das sogenannte Tocqueville-Paradox: Debatten um soziale Gerechtigkeit werden umso lauter geführt, je mehr Teilhabe in einer Gesellschaft möglich ist. Der deutsche Soziologe Aladin El-Mafaalani prägte diesen Mechanismus im Zuge der aktuellen Diversitätsdebatte neu als «Integrationsparadoxon». Anders gesagt: Je gleicher eine Gesellschaft wird, desto empfindlicher wird sie zunächst. Denn wenn mehr Bevölkerungsgruppen miteinander den gesellschaftlichen Konsens aushandeln, entsteht auch mehr Reibung. Und zwar ganz einfach darum, weil es überhaupt erst zu Kritik und Empörung kommen kann, wenn die Stimmen von marginalisierten Gruppen gehört werden.
Für Soziologin Schutzbach bringt das eine gute und eine schlechte Nachricht mit sich. Die gute: Die mitunter gehässige Debatte zeige, wie weit wir schon gekommen sind im Kampf für eine gerechtere und inklusivere Gesellschaft. Die schlechte: Es wird noch viel mehr gerungen werden müssen. Die GegnerInnen einer gerechteren Gesellschaft dürften Grundrechte und Demokratie also noch länger als Argumente bei ihrem Versuch missbrauchen, Minderheiten zum Schweigen zu bringen.
Eine jahrzehntealte Kampagne
Cancel Culture ist keine neue Erscheinung, sondern eine jahrzehntealte Kampagne. So argumentiert Stanford-Professor Adrian Daub in seinem Buch «Cancel Culture – Wie eine moralische Panik die Welt erfasst». Die Warnung vor drohenden Denkverboten findet sich bereits im 1985 erschienenen Buch «The Closing of the American Mind» von Allan Bloom. Seither sind zahlreiche Bestseller veröffentlicht worden, die anhand einer kleinen Anzahl von Vorgängen an Colleges oder Universitäten eine angebliche Welle linker Intoleranz diagnostizieren. Diese Bücher hätten alle dieselbe Masche, so Daub. «Die dystopische Zukunft, die sie entwerfen, ist nie Wirklichkeit geworden.» Alles, was man angeblich bald nicht mehr tun dürfe, tue man noch heute.
Dass Cancel Culture ideologisch gesteuert wird, steht für Daub ausser Frage. Schliesslich gebe es dazu keine Daten, sondern ausschliesslich Anekdoten. In den USA existiere eine ganze Infrastruktur, die einzig dafür da sei, solche Anekdoten aufzutreiben. Bereits 1995 beschrieb John K. Wilson in «The Myth of Political Correctness», wie reiche US-SponsorInnen in den 60er- und 70er-Jahren Stiftungen und Institutionen schufen, die aktiv nach Geschichten rund um Political Correctness suchten.
Daub sieht auch ein Versagen der Medien in der Tatsache, dass sie gegenüber diesen Fakten historisch blind sind. «Vielleicht fällt es den Zeitungen einfach nicht auf, dass sie sich zu Handlangern und Verstärkern ideologisch motivierter Realitätsverdrehungen machen.» (eba)
Bei einer Online-Nutzung ist die Quellenangabe mit einem Link auf infosperber.ch zu versehen. Für das Verbreiten von gekürzten Texten ist das schriftliche Einverständnis der AutorInnen erforderlich.
2.) von Oben — Blick auf die Pater Serra Statue und die California Street von den Stufen des Rathauses von Ventura Die Statue wurde 2020 infolge von Protesten gegen die Cancel Culture entfernt.[1]
Das Bundesverfassungsgericht hat die Verfassungsbeschwerden der Gesellschaft für Freiheitsrechte zur automatisierten Datenanalyse verhandelt. Hohe Streubreite und Zweckentfremdung der Daten legen eine Verfassungswidrigkeit nahe. Ein grundsätzliches Urteil zum Umgang mit KI bei der polizeilichen Datenauswertung ist dennoch nicht erwartbar.
Darf die Polizei all ihre Datenschätze zweckentfremden und mit Big-Data-Software auswerten? Können dabei gegebenenfalls auch die Daten von Unbeteiligten, Verbrechensopfern und Zeug:innen mit einfließen? In Hamburg und Hessen ist das möglich und zwar auf Grundlage zweier fast identischer Paragrafen in den Landespolizeigesetzen. In Hessen existiert bereits eine Software, die das umsetzt. Doch womöglich ist das nicht mehr lange so.
Denn das Bundesverfassungsgericht führte am Dienstag die mündliche Verhandlung von zwei Verfassungsbeschwerden der Gesellschaft für Freiheitsrechte (GFF) und weiterer Bürgerrechtsorganisationen, in denen eben diese Regelungen als unrechtmäßig gerügt werden. Die Bürgerrechtler:innen halten die Rechtsgrundlage für polizeiliche Big-Data-Analysen nach § 25a HSOG in Hessen respektive § 49 HmbPolDVG in Hamburg für verfassungswidrig. Die automatisierte Datenauswertung verletze das Grundrecht auf informationelle Selbstbestimmung und weitere Grundrechte. Die GFF reichte daher im Namen verschiedener Beschwerdeführer:innen 2019 und 2020 Verfassungsbeschwerden in Karlsruhe ein.
Auf Grundlage der Regelung verwendet die hessische Polizei seit 2018 die Software HessenData des kommerziellen US-Anbieters Palantir. Sie ermöglicht es, die Daten zahlreicher polizeilicher Datenbanken und weiterer Quellen, wie Social Media, Mobilfunknutzung oder Meldebehörden, zu verknüpfen, um Beziehungen, Muster und andere Auffälligkeiten zu erkennen. In Hamburg könnte der Einsatz der Software demnächst folgen.
Anlasslos im Visier der Polizei
Unter den Beschwerdeführer:innen sind Journalist:innen, Jurist:innen, Bürgerrechtler:innen. Sie vereint die Sorge, Ziel unangemessener und intransparenter Durchleuchtung durch die Software zu werden. „Als Journalist:in/Rechtsanwält:in muss ich annehmen, im Kontakt mit Personen zu stehen, die als ‚gefährlich‘ gelten. Ich will nicht, dass mich eine Software deshalb selbst als Gefährder:in markiert – und die Polizei mir deshalb die Arbeit erschwert“, hieß es im Vorfeld der Verhandlung vonseiten der GFF.
Auch politische Aktivist:innen haben ein erhöhtes Risiko, in den automatisierten Analysen zu erscheinen. Denn „wer häufig in polizeilichen Datenbanken erfasst wird, hat ein hohes Risiko, dass die Datenanalyse auch zu ihm:ihr Querverbindungen zieht. Das können Zufälle sein – z. B. dass die Person auf der gleichen Versammlung polizeilich erfasst wurde wie eine Zielperson oder auf dem gleichen Foto war oder im gleichen Haus wohnt etc.“, erklärt Sarah Lincoln, Rechtsanwältin bei der GFF und Bevollmächtigte in der Verhandlung. Weitere eingriffsintensive Maßnahmen, wie Wohnungsdurchsuchungen oder Observationen, könnten sich daran anschließen.
Hohe Zahl an Unbeteiligten in der Auswertung
Das Anliegen der Beschwerdeführer:innen, als Unbeteiligte nicht in automatisierten Datenanalysen zu erscheinen, fand Anklang beim Landesdatenschutzbeauftragten Hessens, Alexander Roßnagel. Er kritisierte die hohe Zahl an Unbeteiligten, welche vor allem durch das Vorgangsbearbeitungssystem ComVor in die Analyse miteinbezogen werden. Denn darin werden alle Vorgänge der Polizei dokumentiert. Folglich befinden sich unter den erfassten Personen auch Opfer, Geschädigte, Zeug:innen und weitere Personen, die schlicht „zur falschen Zeit am falschen Ort waren“.
Dass die Sorgen der Beschwerdeführer:innen nicht unbegründet sind, bestätigte sich auch mehrmals anhand der Aussagen der Landesvertretung und Polizei. So ließ sich die hessische Ministerialrätin Elena Benz zu der Aussage verleiten, „aus kriminologischer Sicht können wir nie ausschließen, dass Daten nicht Ermittlungsansätze liefern“, und der in der Verhandlung angehörte Polizist Daniel Muth bemerkte: „Polizeilich kennen wir keine Unbeteiligten.“ Ihm zufolge sei die Einbeziehung der ComVor-Daten gerade deshalb so wichtig. Auch nach den Worten des hessischen Innenministers Peter Beuth (CDU), mit der „exponentiellen Entwicklung der Datenmengen“ müssten „die Sicherheitsbehörden Schritt halten“, um Leib und Leben der Bürger:innen schützen zu können, liegt es nahe, dass die Polizei künftig noch mehr Daten mit Software erschließen soll.
Massive Streubreite durch Funkzellendaten
Vor der Verhandlung war nicht bekannt, was eine Aussage des Landesdatenschutzbeauftragten Roßnagel klarmachte: Die gesamten Funkzellendaten aus den vergangenen zwei Jahren in Hessen werden im Quellsystem der Software gespeichert und können damit analysiert werden. Bei der Abfrage solcher Daten erhält die Polizei von den Mobilfunkbetreibern Informationen zu allen Handys, die in einem bestimmten Zeitraum in einem bestimmten Gebiet ins Netz eingewählt waren. Wenn man bedenkt, dass jede einzelne Abfrage laut dem Bundesdatenschutzbeauftragten Ulrich Kelber etwa 100.000 Datensätze enthält und jeder ermittlungsrelevante Treffer in den Daten zu einer Verlängerung der Speicherungsfrist führt, lässt sich dem Datenschützer zufolge von einer versteckten Vorratsdatenspeicherung sprechen.
Zwar hätten nach Angaben des hessischen Ministerialrats Bodo Koch auf diese Daten aktuell nur 50 Beamt:innen Zugriff. Diese Regelung hat sich die hessische Polizei jedoch selbst gegeben, das Gesetz sieht keine solche Begrenzung vor.
Einigkeit bei Datenschützern über mangelhafte Zweckbindung
Alle drei angehörten Datenschutzbeauftragten aus Hessen, Hamburg und für den Bund waren sich darin einig, dass mit der automatisierten Datenanalyse die Zweckbindung der Daten unzulässig aufgebrochen werde. Roßnagel zufolge seien die ComVor-Daten beispielsweise ursprünglich zu Dokumentationszwecken gesammelt worden, es handele sich um polizeiliche Verwaltungsdaten. Ihre Verwendung in der Software zur Analyse enthebe sie diesem Zweck. Er betont deshalb die Wichtigkeit der Klärung der Zweckbindung durch das Bundesverfassungsgericht.
Auch Richterin und Berichterstatterin des Verfahrens Gabriele Britz betonte durch ihre vielen Nachfragen zum Thema der Zweckbindung die Wichtigkeit. Sie stellte mehrfach die Frage an die hessischen Vertreter:innen, ob nicht eine Beachtung der Zweckbindung nur möglich sei, wenn der Ursprung der Daten in der Software-Anwendung gekennzeichnet sei. Das sei aber nach Angaben des hessischen Ministerialrats Koch nicht gegeben. Ihm zufolge fehlt bereits in den Quellsystemen die Kennzeichnung, weshalb auch in der Auswertung nicht feststellbar ist, ob Daten z. B. aus heimlichen und damit eingriffsintensiven Maßnahmen wie Wohnungsraumüberwachungen oder Staatstrojaner-Einsätzen stammen. Solche Daten unterliegen wegen ihrer hohen Eingriffsintensität engeren Zweckbindungen.
Selbst wenn im Nachgang einer Auswertung händisch überprüft würde, woher die Daten eigentlich stammen, wurden die Daten aus eingriffsintensiven Maßnahmen dann bereits ausgewertet, monierte einer der Bevollmächtigten der Beschwerdeführerseite, Tobias Singelnstein. Die Zweckentfremdung sei dann schon geschehen, selbst wenn sich im Nachhinein herausstellt, dass der entsprechende Anlass eigentlich nicht gegeben war.
Intransparenz von Palantir verunmöglicht Evaluation
Constanze Kurz war als technische Sachverständige für den Chaos Computer Club geladen. Sie betonte in ihrem Eingangsstatement, dass das Gesetz nicht bloß technikoffen gestaltet sei, sondern auch datenoffen. Es biete beispielsweise die Möglichkeit, über die aktuellen Quellen hinaus biometrische Daten in die Software einzuspeisen. Der Grundrechtseingriff werde damit ungleich drastischer.
Die Intransparenz des Softwareherstellers Palantir verunmögliche außerdem wissenschaftliche Begleitung. Eine dringend notwendige Evaluation der Maßnahme sei damit ausgeschlossen. Laut Koch gibt es bislang auch keine polizeiinterne Statistik über die Erfolgs- und Misserfolgsquoten der Maßnahme.
Fokus liegt auf polizeilicher Praxis statt Gesetzestext
Wie bereits anhand der Verfahrensgliederung erwartbar, drehte sich die Verhandlung in großen Teilen um die konkrete Praxis der hessischen Polizei. Ersichtlich wurde, dass diese Schranken und Sicherheitsmechanismen eingeführt hatte, um die Datenanalyse zu beschränken. Doch das tat sie größtenteils eigenverantwortlich, teilweise in Zusammenarbeit mit dem hessischen Landesdatenschutzbeauftragten.
Auch bemerkte die Rechtsanwältin Lincoln im Nachgang: „Das, was die Polizei da macht, also Datensysteme zusammenführen und durchsuchen, wirkte jetzt nicht besonders ausgefeilt und auch die Beispiele wirkten eher harmlos.“
Mehrmals versuchten die Beschwerdeführer:innen die Verhandlung deshalb von den anwendungsbezogenen Einzelheiten der Software und ihres Einsatzes weg, hin zum eigentlichen Gegenstand der Beschwerde zu lenken: dem Gesetzestext. Denn dieser ermöglicht weitaus mehr, als die Polizei in Hessen offenbar aktuell durchführt und was der Polizei in Hamburg demnächst ermöglicht werden soll.
Gefahr hoch, dass KI-Systeme eingeführt werden
So fragte Lincoln, ob es für die Zusammenführung von Daten, wie sie die Polizei in ihren Beispielen häufig fordert, wirklich die Ermächtigung zur komplexen Datenanalyse braucht. Der Gesetzestext erlaube alles von Excel-Tabellen bis hin zu KI-Systemen, die Personen mit einer zwanzigprozentigen Wahrscheinlichkeit, Terroranschläge zu begehen, ausspuckt. Von solchen Systemen gehe jedoch die Gefahr aus, dass die Polizei „auf dem Holzweg ist und dafür auch noch ein selbstfahrendes Auto bekommt“, warnte Lincoln. Fehlgeleitete Ermittlungsansätze würden verstärkt, strukturelle Diskriminierung in den Daten fortgesetzt.
Auch Roßnagel merkte an, dass die Einführung von KI nur eine Frage von Jahren sei und grundsätzlich jede Neuanbindung von Daten im Interesse der Polizei stehe. Bislang sei die Deutungshoheit darüber, was im Interesse der Sicherheit liegt, allein bei der Polizei. Der Gesetzestext selbst lasse im Grunde alles offen.
Großer Wurf bleibt vermutlich aus
Im Vorfeld war die Erwartung groß, dass vom Gericht Neuland betreten und erstmals Regelungen zum polizeilichen Einsatz von KI gefunden werde. Der Fokus der Richter:innen in der Verhandlung legte aber nahe, dass daran kaum Interesse besteht. Wahrscheinlich dürften kleinere Schritte sein, um die spezifischen polizeilichen Datenanalysen zu regulieren und die existierende Praxis einzuschränken.
Lincoln resümierte im Nachgang: „Es ist an den Fragen und Kommentaren der Richter:innen deutlich geworden, dass die Ermächtigungsgrundlagen zur automatisierten Datenanalyse so nicht stehen bleiben werden. Weil die Menge der einbezogenen Daten zu groß, die Zweckbindung nicht ausreichend sichergestellt und die Eingriffsschwelle zu niedrig ist.“
Die Chance, eine Grundsatzentscheidung zum Umgang mit KI zu treffen, dürfte aber wahrscheinlich ungenutzt bleiben.
Update: Wir haben den Text nach Veröffentlichung geringfügig aktualisiert.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Unten — Für Dokumentationszwecke bewahrte das Bundesarchiv häufig die Bildunterschriften, die sein können fehlerhaft, voreingenommen, veraltet oder politisch extrem. 18.12.1989 Bundesverfassungsgericht Karlsruhe I. Senat in alter Zusammensetzung (bis 15.6.1989) v.li.: Prof. Dr. Alfred Söllner, Dr. Otto Seidl, Prof. Dr. Hermann Heußner, Präsident Prof. Dr. Roman Herzog, Dr. Gisela Niemeyer, Prof. Dr. Johann Friedrich Henschel, Prof. Dr. Dieter Grimm, Prof. Dr. Thomas Dieterich
Bundesarchiv, B 145 Bild-F083310-0001 / Schaack, Lothar / CC-BY-SA 3.0
Das vietnamesisch-deutsche Medium „Thoibao“ verliert Werbeeinnahmen, weil eine Firma behauptet, Urheberin seiner Inhalte zu sein. Der Chefredakteur vermutet einen politisch motivierten Angriff.
Das vietnamesisch-deutsche Onlinemagazin Thoibao.de (Die Zeit) wird wieder massiv angegriffen. Dieses Mal finanziell. Aufgrund einer mutmaßlichen Sicherheitslücke bei Facebook verliert das in Berlin ansässige Nachrichtenportal seit Wochen einen Großteil seiner Einnahmen. Thoibao vermutet dahinter einen politisch motivierten Angriff auf seine Presse- und Meinungsfreiheit – mutmaßlich durch Vietnams Geheimdienst.
„Seit dem 27. November hat eine Firma namens AJ Parkners in bisher 60 Fällen behauptet, Urheberin der von mir oder meinen Mitarbeitern produzierten und auf der Facebookseite von Thoibao geposteten Videos zu sein,“ sagt Chefredakteur und Eigner Trung Khoa Lê der taz. In Wahrheit habe Thoibao das Copyright. Doch Facebook habe die damit verbundenen Werbeeinnahmen AJ Parkners zugeleitet, nachdem die Firma das Urheberrecht reklamiert hatte. Standort und Geschäftsaktivitäten der Firma, die laut Lê wohl nur dem Urheberrechtsbetrug dient, sind nicht bekannt.
Facebook gehe Thoibaos Beschwerden nicht ausreichend nach, kritisiert der 51-Jährige. Zwar würde Facebook seine Widersprüche gegen angebliche Urheberrechtsverletzungen nach einiger Zeit akzeptieren. Dennoch erhalte Thoibao weiterhin nicht die Werbeeinnahmen aus den von AJ Parkners zu Unrecht beanspruchten Videos oder in Ausnahmefällen nur für die Zeit nach Anerkennung von Thoibaos Beschwerde. Dann sind die Einnahmen aber bereits viel niedriger.
Der Facebook-Konzern Meta ließ mehrere Anfragen der taz unbeantwortet. Lê erstattete gegen AJ Parkners Anzeige und bat Reporter ohne Grenzen (ROG) um Hilfe. Helene Hahn, dort Referentin für Internetfreiheit, nennt Metas Umgang mit Beschwerden „träge“ und „undurchsichtig“. Sie sagt: „Es ist unklar, wie bei Meta Prüfverfahren stattfinden.“ Hahn sieht Meta in der Verantwortung, doch sei der Plattformbetreiber immer unzugänglicher.
In Vietnam ist Facebook die Hauptnachrichtenquelle. Etwa 75 Prozent der Bevölkerung von 100 Millionen nutzen Facebook. Hanoi hat den Druck auf das soziale Netzwerk ständig erhöht. Meta-Chef Mark Zuckerberg persönlich wies Mitarbeiter an, Hanoi nachzugeben, wie die Whistleblowerin Frances Haugen 2021 vor dem US-Senatsausschuss aussagte. Vietnam liegt auf der Rangliste der Pressefreiheit von Reporter ohne Grenzen auf Platz 174 von 180 Staaten. 39 vietnamesische Medienschaffende sind derzeit inhaftiert.
Das Regime in Hanoi stören Thoibaos unabhängige Berichte. So enthüllte Thoibao Interna aus dem Machtzirkel der Kommunistischer Partei und berichtete 2017 als erstes über die Entführung eines vietnamesischen Geschäftsmannes und Ex-Kaders durch Vietnams Geheimdienst von Berlin nach Hanoi.
Thoibaos Berichte und Videos bei Facebook und Youtube werden laut Lê im Monat 20 Millionen Mal geklickt. 80 Prozent der Zugriffe kommt aus Vietnam. Für Meta sind Thoibaos Facebookseiten eine lukrative Werbeplattform. Umgekehrt erzielt Thoibao zwei Drittel seiner Monatseinnahmen von rund 15.000 Euro aus Facebook-Werbung. Entfällt dies wegen angeblicher Urheberrechtsverletzungen, wird Thoibao mit seinen zwölf festen und freien Mitarbeitern nicht überleben können.
Bereits nächste Woche könnte die EU-Kommission einen Prozess starten, der die Netzneutralität in Gefahr bringt. Zivilgesellschaftliche Gruppen wollen dabei nicht nur größtmögliche Transparenz, sondern auch Mitsprache.
Zivilgesellschaftliche Gruppen appellieren erneut an die EU-Kommission, die Netzneutralität nicht vorschnell über Bord zu werfen. Bislang habe die Kommission nicht ausreichend auf ihre Sorgen reagiert, heißt es in einem heute veröffentlichten Brief an die Brüsseler Behörde. Unterzeichnet haben ihn der Chaos Computer Club, Epicenter.works und über ein Dutzend anderer europäischer und internationaler NGOs.
Derzeit denken die EU-Kommissar:innen Thierry Breton und Margrethe Vestager über Zugangsgebühren für Online-Dienste wie Netflix und Youtube nach, die in den europäischen Breitbandausbau fließen sollen. Die Idee geht auf einen Vorschlag großer Netzbetreiber zurück, darunter die Deutsche Telekom und Orange aus Frankreich. Sie wünschen sich ein zusätzliches Zubrot dafür, dass sie die Angebote populärer Online-Dienste über ihre Leitungen zu den Endkund:innen transportieren.
Anhaltender Protest
Im Juni hatte das breite Bündnis scharfe Kritik an Kommissionsplänen geäußert. „Inhalteanbieter für die Nutzung von Internet-Infrastruktur zu Kasse zu bitten, würde elementare Schutzvorkehrungen der Netzneutralität untergraben“, warnten sie in einem Brief an die Kommission.
Ein konkreter Vorschlag der Kommission liegt noch nicht vor. Es wird erwartet, dass Ende Dezember, womöglich schon nächste Woche, dazu ein öffentlicher Konsultationsprozess startet. Allein die Auswahl der Fragen dürfte bereits einen Einblick gestatten, wie der Rest der Debatte und der Gesetzesvorschlag selbst ausfallen werden. Schließlich lässt der von den großen Telekommunikationsunternehmen favorisierte „Sending-Party-Network-Pays“-Ansatz einige entscheidende Fragen offen, darunter den Schutz der Netzneutralität oder eine faire Verteilung der Mittel.
Ob der Flurfunk richtig liegt, bleibt aber noch offen: So tauche die sogenannte „Fair Share“-Debatte nicht im laufenden Arbeitsprogramm der Kommission auf, kritisieren die NGOs im aktuellen Brief. Ebenso fehle eine Folgenabschätzung, die Pflicht für ein derartiges Gesetzesvorhaben sei. In jedem Fall müsse die Kommission den Gesetzgebungsprozess so transparent wie möglich ablaufen lassen und auch die Zivilgesellschaft einbeziehen, fordern die NGOs.
Fragwürdiger Ansatz
Außer bei den großen Telekommunikationsunternehmen, die diesen Plan in die Welt gesetzt haben, kommen die Überlegungen zu den Zugangsgebühren nicht gut an. So hatte das Gremium europäischer Telekom-Reguierer GEREK jüngst in einer Untersuchung kein Marktversagen festgestellt und warnt vor „signifikanten Schäden für das Internet-Ökosystem“.
Dass viele EU-Länder an erfolgreichen und oft steuerschonenden Geschäftsmodellen der IT-Branche mitnaschen wollen, scheint indes sicher. So findet sich in der jüngsten EU-Erklärung für Digitale Grundrechte die Passage, dass alle Marktteilnehmer einen „fairen und verhältnismäßigen Beitrag“ leisten sollten. Ähnliche Formulierungen tauchen in immer mehr EU-Papieren auf, zuletzt etwa im Ratsbeschluss über den digitalen Wandel der EU. Im Vorschlag der Kommission war der entsprechende Satz noch nicht enthalten.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Der Digitalgipfel ist nicht mehr zeitgemäß. Wirtschaftliche Vertreter:innen dominieren auf den Bühnen, zivilgesellschaftliche Vertreter:innen dürfen hingegen nur am Katzentisch im Publikum Platz nehmen. Das zeigt leider, dass die Bundesregierung die Gestaltung der Digitalisierung noch immer vor allem als Wirtschafts- und nicht als Gesellschaftspolitik versteht.
Seit 2006 findet jährlich der Digitalgipfel statt. Die zentrale Veranstaltung der Bundesregierung zum Thema Digitalisierung will eine Messlatte dafür sein, welchen Stellenwert gesellschaftliche Fragestellungen der Digitalisierung gerade erfahren.
16 Jahren lang regierte die CDU/CSU mit ihrem Fokus allein auf wirtschaftliche Aspekte der Digitalisierung. Die Union verstand das Internet in dieser Zeit vor allem als eine Infrastruktur, die viele Chancen für eine umfassende Überwachung bot.
Im Koalitionsvertrag suggerierte die neue Bundesregierung, dass sie endlich begriffen hat, dass Netzpolitik nicht nur Wirtschafts-, sondern vor allem Gesellschaftspolitik ist. Ein Jahr später macht sich jedoch große Ernüchterung breit, die Realität bildet diese Hoffnung leider noch nicht ab. Und dieser erste Digitalgipfel der aktuellen Ampel-Koalition zeigt das recht anschaulich anhand der gesetzten Themen und am Beispiel der Repräsentanz.
Show-Cases vor meist leeren Rängen
Auf der Webseite zum Gipfel finden sich blumige Worte: „Digitalisierung betrifft uns alle Unternehmen wie Bürgerinnen und Bürger, Wissenschaft wie Gesellschaft. Der Digital-Gipfel ist eine Plattform der Bundesregierung zur gemeinsamen Gestaltung eines zukunftsfähigen Rahmens für den digitalen Wandel.“
Und natürlich soll alles anders werden: „In der neuen Legislatur sollen ihn neue Formate, konkrete Ergebnisse und internationale Impulse zum Impulsgeber, Treiber und Schaufenster der Digitalisierung in Deutschland und darüber hinaus machen.“ So weit, so gut.
Vor Ort zeigt sich ein anderes Bild. Am ersten Tag präsentieren auf den zwei Bühnen vor allem wirtschaftliche Vertreter:innen vor meist leeren Rängen ihre jeweiligen „Show-Cases“. Es geht um die eigenen Geschäftsmodelle, das inhaltliche Niveau liegt dabei auf Einsteigerlevel einer Verkaufsshow auf einer regionalen IT-Messe, viele Reden bestehen aus einer Aneinanderreihung von Buzz-Wörtern. Würde eine Künstliche Intelligenz die Vorträge schreiben und vorlesen, man würde meistens keinen Unterschied bemerken.
Die Zivilgesellschaft darf zusehen
Im Programm fehlen zivilgesellschaftliche Stimmen und ihre gemeinwohlorientierten Perspektiven. Also die Perspektiven von Bürger:innen und der Gesellschaft, die im Ankündigungstext versprochen werden. Es zeigt sich dasselbe Bild wie seit 2006.
Nachdem wir vor drei Wochen hier auf fehlende Repräsentanz zivilgesellschaftlicher Stimmen hinwiesen, passierte etwas: Viele zivilgesellschaftliche Akteure waren verwundert, dass sie plötzlich Einladungen aus dem Wirtschafts- und dem Digitalministerium erhielten. Dabei ging es nicht darum, dass sie auf den Bühnen mitdiskutieren. Stattdessen dürfen sie nur als Besucher:innen zuschauen, wie „digitalpolitische Herausforderungen sowie Lösungsansätze“ von Vertreter:innen der Politik und Lobbyist: innen aus der Wirtschaft diskutiert werden.
All das zeigt: Dieser Digitalgipfel ist nicht mehr zeitgemäß und sollte nicht weitergeführt werden. Und er ist eine verschenkte Chance, eine Debatte darüber führen zu wollen, wie die die digitale Gesellschaft gemeinsam und zukunftsfähig gestaltet werden kann.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Oben — re:publica 2022: von links: Markus Beckedahl (Co-Founder re:publica und Gründer von netzpolitik.org) und Volker Wissing (Bundesminister für Digitales und Verkehr) bei der Session ‚Das Momentum nutzen!‘
Steffen Prößdorf
CC BY-SA 4.0Dieses Bild enthält Personen, die möglicherweise Rechte haben, die bestimmte Weiterverwendungen des Bildes ohne Zustimmung rechtlich einschränken.
Datei:2022-06-09 re-publica 2022 IMG 5028 by Stepro.jpg
Was kommt heraus, wenn man der gefeierten Software Chat GPT befiehlt: »Erzähl mir interessante Anwendungsfälle über KI-Chat bots und beginne mit einer Anekdote«? – Ein Text wie dieser.
Eine interessante Anekdote über den Einsatz von KI-Chatbots ist die Geschichte von Xiaoice, einem von Microsoft in China entwickelten Chatbot. Xiaoice wurde entwickelt, um natürliche, menschenähnliche Gespräche mit Menschen zu führen, und sie wurde schnell bei den Nutzern beliebt, die sich gern mit ihr unterhielten. Viele NutzerInnen haben Xiaoice so sehr ins Herz geschlossen, dass sie gar nicht merkten, dass sie ein Chatbot war, und einige behaupteten sogar, in sie verliebt zu sein.
In naher Zukunft werden KI-Chatbots ein fester Bestandteil unseres täglichen Lebens sein. Diese intelligenten, dialogfähigen Agenten werden in der Lage sein, uns bei einer Vielzahl von Aufgaben zu unterstützen, von den alltäglichen bis hin zu den komplexen. Die Zukunft der Chatbots, insbesondere von ChatGPT, wird wahrscheinlich so aussehen, dass sie ein integraler Bestandteil unseres täglichen Lebens sind. ChatGPT, ein großes Sprachmodell, das von OpenAI trainiert wurde, hat bereits bewiesen, dass es in der Lage ist, natürliche, menschenähnliche Gespräche über eine breite Palette von Themen zu führen. Diese Fähigkeit, kombiniert mit der Bequemlichkeit und Zugänglichkeit von Chatbots, macht sie zu einer vielversprechenden Technologie für den täglichen Gebrauch.
Einer der interessantesten Anwendungsfälle für KI-Chatbots ist der Kundendienst. Chatbots können eine große Anzahl von Kundenanfragen bearbeiten, sodass sich die menschlichen Kundendienstmitarbeiter auf komplexere Probleme konzentrieren können. Außerdem können Chatbots schnelle und präzise Antworten auf häufige Fragen geben und so das Kundenerlebnis verbessern. Ein weiterer interessanter Anwendungsfall für KI-Chatbots ist das Gesundheitswesen. Chatbots können eingesetzt werden, um Patienten mit Informationen zu versorgen und ihnen zu helfen, ihre Gesundheit zu verwalten und fundierte Entscheidungen zu treffen. So könnte ein Chatbot beispielsweise Informationen über Symptome und Behandlungsmöglichkeiten liefern oder Patienten an die Einnahme ihrer Medikamente erinnern. Dies kann vor allem für Menschen mit chronischen Erkrankungen nützlich sein, die kontinuierliche Unterstützung benötigen.
Ein dritter interessanter Anwendungsfall für KI-Chatbots ist die Bildung. Chatbots können eingesetzt werden, um Schülern und Studenten personalisierte Lernerfahrungen zu bieten und den Inhalt und das Tempo des Unterrichts auf die Bedürfnisse jedes Einzelnen abzustimmen. Ein Chatbot könnte zum Beispiel einem Schüler beim Lernen für eine Prüfung helfen, indem er Übungsfragen und Feedback bereitstellt. Dies könnte ein wertvolles Hilfsmittel sein, das den Schülern hilft, effektiver zu lernen. Sie könnten im Finanzwesen eingesetzt werden, indem sie personalisierte Anlageberatung anbieten und den Menschen helfen, ihre Finanzen effektiver zu verwalten. Und sie könnten sogar im Unterhaltungsbereich eingesetzt werden, um den Nutzern ansprechende und personalisierte Erlebnisse zu bieten.
Es gibt jedoch auch potenzielle Gefahren, die mit dem weit verbreiteten Einsatz von ChatGPT und anderen Chatbots verbunden sind. Eine Sorge ist das Missbrauchs- und Manipulationspotenzial. Chatbots können, wie jede Technologie, für schändliche Zwecke eingesetzt werden. Sie könnten zum Beispiel dazu verwendet werden, falsche Informationen zu verbreiten oder andere zu belästigen und einzuschüchtern. Dies ist besonders besorgniserregend, da Chatbots in der Lage sind, überzeugende Unterhaltungen mit Menschen zu führen. Eine weitere potenzielle Gefahr ist die Möglichkeit, dass Chatbots die menschliche Interaktion ersetzen. Obwohl ChatGPT und andere Chatbots wertvolle Hilfe und Bequemlichkeit bieten können, sollten sie nicht als Ersatz für menschliche Kontakte angesehen werden. In einigen Fällen könnten sich Menschen zu sehr auf Chatbots verlassen und ihre Fähigkeit verlieren, effektiv mit anderen Menschen zu kommunizieren. Dies könnte sowohl für den Einzelnen als auch für die Gesellschaft als Ganzes negative Folgen haben.
Außerdem wirft der Einsatz von ChatGPT und anderen Chatbots ethische Fragen auf. Da diese Technologien immer fortschrittlicher werden, könnten sie in der Lage sein, Aufgaben zu übernehmen, die bisher nur für Menschen möglich waren. Dies könnte zu Problemen bei der Beschäftigung und der Verdrängung von Arbeitnehmern führen. Für die Gesellschaft ist es wichtig, diese ethischen Bedenken zu berücksichtigen und sich mit ihnen auseinanderzusetzen, wenn der Einsatz von Chatbots weiter verbreitet wird.
Insgesamt hat der zukünftige Einsatz von ChatGPT und anderen Chatbots das Potenzial, unser tägliches Leben erheblich zu verbessern. Es ist jedoch wichtig, sich der potenziellen Gefahren bewusst zu sein und Maßnahmen zu ergreifen, um diese zu entschärfen. Dies kann eine sorgfältige Regulierung des Einsatzes von Chatbots sowie einen ständigen Dialog über ihre ethischen Implikationen beinhalten. Wenn wir uns mit diesen Fragen auseinandersetzen, können wir sicherstellen, dass ChatGPT und andere Chatbots auf verantwortungsvolle und nützliche Weise eingesetzt werden.
Über Jahre haben Fachleute von künstlicher Intelligenz (KI) gesprochen, aber im Alltag hat man davon wenig bis gar nichts bemerkt. Vieles, was Unternehmen darüber erzählten, war übertrieben, sachlich falsch oder gleich ganz ausgedacht. 2019 untersuchte eine britische Venture-Capital-Firma 2830 Start-ups in Europa, die behaupteten, mit KI zu arbeiten . Bei rund 40 Prozent davon stimmte das zumindest zum Untersuchungszeitpunkt nicht. Kein Wunder, dass manche Netzkundige KI als Hype oder gar teilweisen Betrug bezeichnen wollten.
Im Hintergrund aber wurde und wird KI intensiv eingesetzt, von praktisch allen großen Techkonzernen und vielen kleineren Start-ups auch. KI ist nicht weniger als die nächste Stufe der Digitalisierung. Es war nur für die Öffentlichkeit bisher wenig greifbar, weil unsichtbar und unzugänglich.
Dem Untersuchungsausschuss des Europäischen Parlaments zum Einsatz von Staatstrojanern liegt nun ein Bericht vor, der den Rechtsrahmen bei staatlichem Hacken untersucht. Konstatiert wird ein „Versagen“ der Geheimdienst-Kontrolle. Der Bericht empfiehlt, bessere Regeln für den Einsatz von Staatstrojanern zu verabschieden und auf eindeutig schädliche Techniken zu verzichten.
Der Untersuchungsausschuss des Europäischen Parlaments zum Einsatz des Staatstrojaners Pegasus und ähnlicher Überwachungs- und Spähsoftware legte gestern eine Studie vor, die den Rechtsrahmen von staatlichem Hacken in den europäischen Staaten (pdf) untersucht. Der Bericht wurde von Quentin Liger von der Asterisk Research and Analysis GmbH im Auftrag der Fachabteilung Bürgerrechte und konstitutionelle Angelegenheiten des EU-Parlaments am Montag vorgestellt. Er ist einer von drei Berichten, die der Ausschuss in Auftrag gegeben hat.
Kurz umrissen wird darin jeweils die Rechtslage in einigen, aber nicht allen EU-Mitgliedsländern und die gesetzlichen Regelungen vor, teilweise während und nach dem Einsatz von Staatstrojanern. Die Schwerpunkte liegen auf Frankreich, Deutschland, Griechenland, Ungarn, Polen, Spanien und den Niederlanden. Die Untersuchung der Rechtssituation soll noch fortgesetzt werden und in einen abschließenden Bericht 2023 münden.
Staatlicher Einsatz von Schadsoftware
Ein Staatstrojaner ist ein heimlicher Eingriff in ein IT-System und damit aus technischer Sicht eine Schadsoftware. Die europäischen gesetzlichen Regelungen variieren, aber jedes Land hat Normen für Schadsoftware und generell für Hacken in den jeweiligen Strafgesetzbüchern. Computersysteme mit Schadsoftware zu infizieren, ist überall strafbar, sei es Spionagesoftware oder seien es Würmer, Trojaner oder Viren. Wer also damit IT-Systeme angreift oder etwa Daten zerstört oder verändert, kann teilweise empfindlich bestraft werden. Der angerichtete Schaden bestimmt jeweils das Strafmaß, es drohen in schweren Fällen mehrere Jahre Gefängnis. Auch das Anbieten und der Verkauf von Schadsoftware ist überall strafbewehrt.
Auch wegen dieser Strafandrohungen müssen für den staatlichen Einsatz solcher Schadsoftware gesetzliche Regeln geschaffen werden. Typischerweise muss in europäischen Ländern im Falle der Benutzung durch Polizeibehörden ein Richter den Einsatz befürworten. Bei welchen Straftaten ein Staatstrojaner zulässig ist, wird in allen EU-Staaten, die staatliches Hacken erlauben, klar reglementiert und in den jeweiligen Gesetzen aufgelistet.
Bei den Geheimdiensten sieht das allerdings anders aus: Deren Arbeit ist bekanntlich geheim, weswegen typischerweise eine nachträgliche juristische oder parlamentarische Kontrolle vorgesehen ist. Hier variiert das Vorgehen von Land zu Land stark, in einigen Staaten war offenbar nicht klar, welche Regeln beim Hacken für die Geheimdienste eigentlich gelten. Bei der gestrigen Präsentation des Berichts sagte Liger dazu, es hätte „in einigen Mitgliedsstaaten Schwierigkeiten gegeben herauszufinden, welche Regeln [für Geheimdienste] gelten“.
Wenig überraschend wird die parlamentarische Kontrolle der Geheimdienste „in den meisten Mitgliedsstaaten“, die betrachtet wurden, als „nicht sehr effektiv“ eingeschätzt. In allen untersuchten Staaten sei der Umfang dieser Kontrolle nur begrenzt. Es fehle auch an klaren Definitionen.
Die Berichterstatterin des Ausschusses, Sophie in ’t Veld, wollte etwa wissen, ob irgendein Mitgliedsstaat eine präzise Definition des Begriffs der nationalen Sicherheit habe, der eine Eingrenzung des Einsatzes von Staatstrojanern ermöglichen würde. Darauf erhielt sie eine klare Antwort: „Nein, die haben wir nicht gefunden.“
Gegenüber den Parlamentariern wird bei der Präsentation des Berichts von Liger auch betont: Es sei ein klares „Versagen“ der nachträglichen Kontrolle, dass alle Fälle, in denen Pegasus in Europa eingesetzt wurde und die nun im Ausschuss untersucht werden, von Journalisten, der Zivilgesellschaft und Privatpersonen aufgedeckt worden seien – und eben nicht von den eigens dafür eingesetzten Geheimdienstkontrolleuren.
Vorläufige Empfehlungen
Der Bericht empfiehlt, dass die Mitgliedstaaten eindeutige, wirksame und wohldefinierte Regeln für den Einsatz von Staatstrojanern verabschieden. Beim Hacken sollte auf Techniken verzichtet werden, die eindeutig schädlich sind. Welche das konkret sind, bleibt allerdings offen. Außerdem sollte die Wirksamkeit der Einsätze laufend evaluiert werden, um die Verhältnismäßigkeit bewerten zu können.
Ein Moratorium für den Staatstrojaner-Einsatz fehlt allerdings bei den Empfehlungen. Darauf angesprochen, warum diese Empfehlung angesichts der im Bericht betonten invasiven Natur von Staatstrojanern und der tiefen Grundrechtseingriffe beim staatlichen Hacken nicht gegeben wurde, verwies Liger darauf, dass dies zum einen noch keine abschließenden Empfehlungen seien, zum anderen aber auch der Fokus der Studie auftragsgemäß auf der Rechtsvergleichung gelegen habe.
Ein weiterer Vorschlag ist eine Aufforderung des Untersuchungsausschusses an die EU-Kommission, Rechtsvorschriften dazu zu erlassen, um kommerziellen Überwachungsanbietern EU-weit Berichtspflichten aufzuerlegen. Das hatten mehrere Sachverständige in den Anhörungen des Ausschusses ebenfalls empfohlen. Zudem sollte es mehr Unterstützung für Hinweisgeber aus dem kommerziellen Überwachungsmilieu geben und die Unabhängigkeit der Presse gestärkt werden. Schließlich hätten sonst die Öffentlichkeit und die Parlamentarier von der Pegasus-Nutzung wohl nie erfahren. Eine weitere Unterstützung von Whistleblowern und von unabhängigen Medien sei daher „für das Parlament von großer Bedeutung“.
Rechtssituation in Deutschland
Das Kapitel des Berichts für die Rechtssituation in Deutschland hebt das Grundrecht auf Gewährleistung der Integrität und Vertraulichkeit von informationstechnischen Systemen hervor, das vom Bundesverfassungsgericht im Jahr 2008 geschaffen wurde. Anlass war ein Gesetz aus Nordrhein-Westfalen, das den Einsatz von Staatstrojanern für den dortigen Inlandsgeheimdienst zuließ. Es wurde als verfassungswidrig verworfen, zugleich mit dem Urteil das neue Grundrecht aus der Taufe gehoben.
Zudem beschreibt der Bericht in kompakter Form zum einen, welche gesetzlichen Regeln im Vorlauf des Einsatzes von Staatstrojanern gelten, und zum anderen, was nach der Durchführung hierzulande an Benachrichtigungs- und Berichtspflichten vorgeschrieben ist. Wenn eine Polizeibehörde etwa einen Rechner oder ein Smartphone hacken will, sind die Strafprozeßordnung und das Bundeskriminalamtsgesetz (insbesondere § 49) zu beachten. Die gesetzlichen Voraussetzungen darin listet der Bericht einzeln auf.
Das BKA darf einen Staatstrojaner gegen einen Verdächtigen für höchstens drei Monate nutzen, kann aber eine Verlängerung von drei weiteren Monaten bekommen. Das verantwortet regelmäßig der Präsident des Bundeskriminalamtes, der einen staatlichen Hack des BKA genehmigen muss.
Sowohl in der Strafprozeßordnung als auch im BKA-Gesetz sind spezielle Regeln für Informationen aus dem sogenannten Kernbereich privater Lebensgestaltung vorgesehen. Dieser juristische Terminus umschreibt das Höchstpersönliche eines Menschen, quasi seine Intimsphäre. Dieser Bereich ist in Deutschland besonders geschützt, so dass beim Einsatz von Staatstrojanern Daten daraus möglichst nicht erhoben werden sollen. Geschieht das doch, müssen sie sofort nach Kenntnis gelöscht werden.
Geheimdienstliches Hacken
Was das Höchstpersönliche eines Menschen angeht, gilt Vergleichbares auch für den Bundesnachrichtendienst. Im Gegensatz zu den detaillierten Angaben für die polizeilichen Staatstrojaner bleiben die Angaben für geheimdienstliches Hacken in Deutschland in dem Bericht aber auf ganze zwei Sätze beschränkt. Erwähnt ist nur das G10-Gesetz sowie das BND-Gesetz, das auch geheimdienstliche Staatstrojaner reglementiert und für den BND einschlägig ist: Denn er darf Ausländer im Ausland hacken.
Das BND-Gesetz enthält ebenfalls detaillierte Vorgaben für den Staatstrojaner-Einsatz, die aber in dem Bericht keine Erwähnung finden. Die Inlandsgeheimdienste, die vom Gesetzgeber auch die Lizenz zum Hacken erhalten haben, fallen bei der Beschreibung der rechtlichen Vorgaben gleich gänzlich unter den Tisch. Im Bericht ist zwar die Neuregelung aus dem Jahr 2021 erwähnt, die dem Bundesamt für Verfassungsschutz, den Landesämtern sowie dem deutschen Militär-Geheimdienst MAD die Erlaubnis zum Staatstrojaner-Einsatz geben, auf rechtliche Details wird jedoch hier verzichtet. Landesgesetze werden ebenfalls nicht betrachtet. Deutschland lässt mit seiner weiten Erlaubnis des polizeilichen und geheimdienstlichen Hackens im Ergebnis des Vergleichs aller betrachteten EU-Staaten die mit Abstand breiteste gesetzliche Anwendung zu.
Vielleicht wird die Endversion des Berichts im nächsten Jahr noch vervollständigt. Aus den bisherigen Erkenntnissen der Pegasus-Skandale geht die häufige Verwicklung der Geheimdienste in den einzelnen Länder deutlich hervor. Der Bericht bleibt hier bisher unvollständig und lässt für einige Staaten Leerstellen, da geltende Regeln für Geheimdienste teilweise nicht identifiziert werden konnten. Die Berichterstatterin des Ausschusses, Sophie in ’t Veld, merkte dazu an, dass die Einhaltung von Regeln immer zu prüfen sei, aber dass aus dem Bericht klarwürde, „dass die Regeln in vielen Ländern an sich schon mangelhaft sind“.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
2.) von Oben — In einer Entschließung, die am Donnerstag mit 416 Ja-Stimmen, 124 Nein-Stimmen und 33 Enthaltungen verabschiedet wurde, sagen die Abgeordneten, dass die 17 von der Kommission und Ungarn ausgehandelten Abhilfemaßnahmen „nicht ausreichen, um das bestehende systemische Risiko für die finanziellen Interessen der EU anzugehen“, selbst wenn sie vollständig umgesetzt werden.
Für die Vorratsdatenspeicherung, gegen „radikale“ Klima-Aktivist:innen
Nicht die mutigen Klima-Aktivist-innen sind das Problem in diesem Land – sondern einzig die gierigen Politiker-innen welche aus finanziellen Vorteilen, für die eigenen Taschen, die Situation um runde 50 Jahre verschlafen haben. Sie alleine sind die radikalen Schuldigen in ihrer Machtbesessenheit.
Die Innenminister-innen von Bund und Ländern fordern unisono die anlasslose Vorratsdatenspeicherung. Außerdem wollen sie härter gegen Klima-Aktivist-innen vorgehen. Die Sicherheitsbehörden des Bundes sollen dazu ein umfassendes Lagebild erstellen.
Zum Abschluss ihrer dreitägigen Konferenz in München haben die Innenminister-innen von Bund und Ländern ihre restriktive Linie bekräftigt. Auf der Agenda standen unter anderem die Neuregelung der Speicherung von IP-Adressen und die Proteste „radikaler Klima-Aktivisten“ – also jener Menschen, die mithilfe von zivilem Ungehorsam mehr Maßnahmen gegen die Klimakatastrophe einfordern.
Bei der abschließenden Presse-Konferenz am Mittag zeigte sich Bundesministerin Nancy Faeser (SPD) erfreut, dass sich die Innenministerkonferenz (IMK) einstimmig für die Speicherung von IP-Adressen ausgesprochen hat. Das wird den Konflikt um die anlasslose Vorratsdatenspeicherung innerhalb der Ampel-Koalition weiter anheizen.
Die Ministerin verwies auf das von Bundesjustizminister Marco Buschmann (FDP) präferierte Quick-Freeze-Verfahren. Dieses stelle aus Sicht Faesers nur eine „Methodik“ dar, die jedoch notwendigerweise auf die Speicherung von IP-Adressen angewiesen sei, um Täter-innen schwerer Verbrechen zu ermitteln. Einige Provider würden hierzulande derzeit „gar nichts mehr“ speichern, was sich daher ändern müsse. Die Sozialdemokratin ist nach eigenen Angaben optimistisch, dass sich die Bundesregierung „bald“ einigen werde. Wie ein Kompromiss aussehen könnte, ließ sie allerdings offen.
Faeser vs. Buschmann
Der hessische Innenminister Peter Beuth (CDU) erteilte dem Quick-Freeze-Verfahren ebenfalls eine Absage, weil es „keinen Erfolg“ verspreche. Stünden den Behörden hingegen IP-Adressen zur Verfügung, erhöhe sich der Ermittlungserfolg, so Beuth. Daher seien die Länder übereingekommen, dass sie die Bundesministerin „sehr unterstützen in ihren Bemühungen, gegenüber dem Justizminister zum Erfolg zu kommen“.
Damit dürften sich die Fronten in der Ampel-Koalition bei diesem Thema weiter verhärten. Erst vor gut drei Wochen hatten sich die Justizminister-innen der Länder noch gegen eine anlasslose Vorratsdatenspeicherung ausgesprochen und damit Buschmann den Rücken gestärkt.
Wenige Tage zuvor hatte der Bundesjustizminister einen Entwurf für das sogenannte Quick-Freeze-Verfahren vorgelegt, das der vom Europäischen Gerichtshof abgelehnten Vorratsdatenspeicherung nachfolgen soll. Der Entwurf sieht vor, dass Telekommunikationsanbieter künftig Verkehrsdaten mit möglichem Bezug zu Straftaten einen Monat lang speichern müssen, damit Ermittlungsbehörden sie nutzen können.
Bundesinnenministerin Faeser spricht sich hingegen schon seit längerem für die massenhafte, anlasslose Speicherung von IP-Adressen aus – ungeachtet klarer Absagen durch den Europäischen Gerichtshof und obwohl der Koalitionsvertrag von SPD, Grünen und FDP eine solche Speicherung für die Zukunft dezidiert ausschließt.
Klima-Aktivist-innen als „kriminelle Vereinigung“ im Visier
Ähnlich geeint wie bei der Vorratsdatenspeicherung zeigte sich die IMK bei der Bewertung „radikaler“ Klima-Aktivist-innen. Die Innenminister-innen von Bund und Länder entschieden, die Aktivist-innen stärker beobachten zu lassen. Sie forderten die Sicherheitsbehörden des Bundes auf, ein bundesweites Lagebild zu deren Blockade-Aktionen zu erstellen.
Beuth sagte, die Gesellschaft werde durch die „politischen Erpressungsversuche“ der „radikalen, sogenannten Aktivisten […] gegängelt und genötigt“. Weil dies kein friedlicher Protest mehr sei, müssten die Sicherheitsbehörden prüfen, ob es sich bei den Aktivist-innen um eine „kriminelle Vereinigung“ handele, „die arbeitsteilig und bundesweit organisiert vorgeht“.
Dafür setzt sich auch Sachsens Innenminister Armin Schuster (CDU) ein. Er sagte bereits gestern der Leipziger Volkszeitung, dass die Strafverfolgungsbehörden klären müssten, ob bei den Klimaprotesten „netzwerk- oder gruppenartige Strukturen“ vorlägen und „wer die Steuerung“ innehabe. „Wenn sich sogenannte Aktivisten an Kunstschätze oder auf Straßen oder auch auf Landebahnen kleben […], sind das schwerwiegende Gefährdungen der öffentlichen Sicherheit.“ Die Politik müsse daher „vor die Lage“ kommen.
Ins gleiche Horn stieß Schusters bayerischer Amtskollege Joachim Hermann. Er bezeichnete die Letzte Generation als „straffe Organisation“ und verteidigte zudem die Präventivhaft, auch wenn diese „die Ausnahme“ bleiben werde, wie er auf der heutigen Pressekonferenz sagte, etwa wenn Leib und Leben gefährdet seien.
Bayern geht im bundesweiten Vergleich massiv gegen den zivilen Ungehorsam der Klima-Aktivist-innen vor. Zuletzt waren 19 von ihnen ohne Gerichtsverfahren für fast zwei Wochen in Präventivhaft genommen worden, um weitere Straßenblockaden zu verhindern. Möglich macht dies das umstrittene Polizeiaufgabengesetz, das härteste Polizeigesetz seit 1945. Die letzten der inhaftierten Aktivist-innen kamen am vergangenen Wochenende frei.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Oben — Innenministerkonferenz in München: Freitag, 2. Dezember 2022
Innenminister Joachim Herrmann hat als Schwerpunkte den Schutz Kritischer Infrastrukturen, die Warnung der Bevölkerung in Katastrophenfällen, die finanzielle Verantwortung des Bundes beim Bevölkerungsschutz, die verbleibenden Spielräume bei der Speicherung von IP-Adressen, die Bekämpfung von Kinderpornografie und aktuelle Herausforderungen der Asyl- und Flüchtlingspolitik angekündigt.
Veranstaltungsdatum: 02.12.2022
Veranstaltungsort: München
Bildnachweis: Sebastian Widmann
Fotos und Videos können für redaktionelle Berichterstattung frei genutzt werden – Videos auch ohne Quellenhinweis.
****************************
Unten — Letzte Generation Blockadeaktion Klimademo Karlsplatz Stachus München 2022-11-07 20-34-35
UnbekannterAutor-Telegramkanal der Letzten Generation: München Aktionsticker LG
Cookie-Banner hier, Datenschutzeinwilligung dort. Das Internet von früher gibt es nicht mehr. Resigniert klicken die meisten auf „Akzeptieren und weiter“ und zahlen mit ihren Daten für die digitale Teilhabe. Ingo Dachwitz, Redakteur bei netzpolitik.org, will nicht, dass wir in diese neue Realität einwilligen. Er kämpft sich durch Gesetze, Urteile und die AGB dieser Welt. Und er empört sich.
Das Erste, was du siehst, wenn du heute ins Internet gehst und eine Website besuchst, ist eine Lüge: „Ihre Privatsphäre ist uns wichtig“. Von wegen. Wichtiger ist das Datensammeln. Deshalb werden zum Beispiel Cookie-Banner so gebaut, dass sie es uns so schwer wie möglich machen, Tracking abzulehnen. Wohin die Daten fließen, wenn wir einwilligen? Das wissen die Anbieter oft selbst nicht. Besonders ärgert mich das bei Medien, die bei dieser Datenausbeutung leider auch mitmachen. Gerade wenn man sich informiert, sollte man sich keine Gedanken darüber machen müssen, wer noch mitliest.
Pokémon run!
Ich schreibe bei netzpolitik.org seit mehr als sechs Jahren darüber, wie Konzerne sich unsere Daten aneignen und diese gegen uns verwenden. Als ich hier anfing, war das Thema der kommerziellen Überwachung bei netzpolitik.org kein Schwerpunkt – der Fokus lag in den ersten Jahren eher auf Urheberrecht und staatlicher Überwachung, was bis heute wichtig ist. Ich weiß aber noch, dass ich zu Beginn einen Artikel über Datenschutzprobleme bei Pokémon Go geschrieben habe und Kolleg:innen skeptisch waren: Warum schreiben wir denn jetzt über Pokémon Go? Warum ist das wichtig? Und wen interessiert das?
Ähnlich war das bei Texten über WhatsApp oder Facebook. Aber für viele Menschen sind diese Dienste das Internet. Messenger, Social Media, Suchmaschinen und Nachrichtenseiten sind die wichtigen Infrastrukturen der digitalen Öffentlichkeit.
Die meisten von ihnen betreiben das Geschäft des Überwachungskapitalismus: Alles, was wir machen, zeichnen sie auf. Die Daten werden ausgewertet und vermarktet – und können im Zweifel auch gegen uns verwendet werden. Die Konzerne führen Informationen über uns in Profilen zusammen, die uns buchstäblich berechenbar machen sollen. Es geht darum, unser Verhalten vorhersagen zu können. Damit sie uns die passende Werbung einblenden können. Damit sie wissen, wie viel wir wert sind. Damit Sie entscheiden können, ob wir für sie ein Risiko oder eine Chance sind. Damit sie uns Produkte oder politische Botschaften andrehen können. Dass sich über diesen Datenschatz auch die Geheimdienste freuen, wissen wir spätestens seit Edward Snowden.
Friss oder stirb!
Das Krasse ist, dass wir deshalb täglich, in jeder Sekunde, in der wir online sind, mit massiven Rechtsbrüchen konfrontiert sind. Das ist auch das, was mich an irreführenden Cookie-Bannern so fuchst: Alle wissen, warum uns der „Alles akzeptieren“-Button bunt anspringt, während die Ablehnen-Option versteckt oder kompliziert gestaltet ist. Wir sind ja nicht dumm. Wir alle wissen, dass die Einwilligung heute meist weder informiert noch freiwillig erfolgt. Dass für einen Großteil der kommerziellen Überwachung eine Rechtsgrundlage fehlt. Trotzdem ist das an der Tagesordnung.
Die Datenindustrie ist ein sehr undurchschaubares Netz von enorm vielen Unternehmen, die die meisten Leute gar nicht kennen und die auch den Webseitenbetreiber:innen selbst oft nicht bekannt sind. Es wird immer von Datensouveränität und digitaler Souveränität gesprochen. Aber es gibt diese Souveränität nicht. Und die Datenindustrie arbeitet aktiv daran, dass das so bleibt. Ein wichtiges Thema meiner Arbeit ist deshalb auch die Durchsetzung der Datenschutzregeln: durch Aufsichtsbehörden, NGOs und Gerichte.
Dafür, dass sie am laufenden Band gegen die Datenschutzgrundverordnung verstoßen, kassieren die Konzerne zwar immer wieder Strafen. Aber das nehmen sie oft mit einem Achselzucken hin. Sie haben ja große Rechtsabteilungen, die sich darum kümmern. Und sie preisen es von vorneherein ein, wenn sie zu hohen Geldstrafen verdonnert werden. Hier gibt es ein Ungleichgewicht. Unabhängige Medien, Blogger:innen oder Vereine müssen sich auch an die DSGVO halten, haben aber viel weniger Mittel und fühlen sich bis heute oft überfordert.
Dass die DSGVO immer noch nicht viel gegen den Überwachungskapitalismus ausrichten konnte – gegen staatliche Überwachung leider auch nicht –, ist echt ein Problem. Wir alle wissen, dass wir überwacht werden und viele gewöhnen sich daran. Es hat sich längst eine Ermüdung breitgemacht. Bei vielen kommerziellen Diensten hat man nur die Wahl: Friss Cookies oder stirb. Klar, man kann sich etwa dafür entscheiden, bestimmte soziale Medien nicht zu nutzen. Dann aber verliert man auch Teilhabe am digitalen sozialen Leben. Will ich aber daran teilhaben, bedeutet das zugleich, dass ich mit meinen Daten zahle. Auch weil Alternativen nicht genug gefördert werden.
Wir müssen auch selbst die Veränderung sein, die wir uns wünschen
Wir sind alle zurecht genervt davon, fortwährend Einwilligungsbanner wegklicken und blind AGBs bestätigen zu müssen. Ehrlich gesagt bin auch ich genervt davon, immer noch darüber schreiben zu müssen. Aber das Thema ist zu wichtig. Manipulative Cookie-Banner sind ja nur ein Symptom eines kaputten Systems, die für alle sichtbare Spitze des Dateneisbergs. Es ist deshalb auch ein symbolischer Kampf, in dem es darum geht, dass wir uns alle frei entfalten können – ohne dass wir uns dabei immer wieder Gedanken machen müssen, ob wir beobachtet werden und welche Konsequenzen das für uns haben könnte.
Ich finde es auch eine Frage des Respekts, dass man etwa die eigenen Leser:innen ernst nimmt. Dazu gehört beispielsweise, auf der ersten Seite des Cookie-Dialogs den sichtbaren Button einzublenden, mit dem man alle Cookies ablehnen kann. Diesen Button gibt es aber häufig nicht. Wir haben kürzlich zu diesem Thema recherchiert – und was verändert: Im Zuge unserer Recherche haben wir mehrere Medien um Statements gebeten, die kurz darauf dann tatsächlich ihre Cookie-Banner nutzer:innenfreundlicher gestaltet haben.
Am besten wäre es natürlich, wenn es diese Banner erst gar nicht gäbe. Bei netzpolitik.org müssen sich die Leser:innen keine Gedanken darüber machen. Einfach schon deshalb, weil wir unsere Leser:innen nicht ausspähen müssen und wollen. Wir schieben ihnen keine Tracking-Cookies unter. Und bei uns gibt es auch keine nervige Werbung und auch keinerlei Abo-Modelle. Wir wollen, dass alle und jede:r unsere Texte auf netzpolitik.org lesen können, unabhängig von Geldbeutel und Datenschutzeinstellungen – und ohne jedwede Überwachung.
Rote Linien statt Pseudo-Einwilligungen
Ich wünsche mir, dass Datenschutzbehörden und Gerichte über ausreichend Ressourcen und Kompetenzen verfügen, die Datenschutzgrundverordnung und andere Datenschutzgesetze konsequent durchzusetzen – notfalls mit saftigen Sanktionen. Zugleich müssen wir schauen, wie wir den bestehenden Datenschutzrahmen weiterentwickeln.
Denn die Datenschutzgrundverordnung ist auch Teil des Problems. Sie setzt zu sehr auf das Instrument der Einwilligung der Einzelnen, auf die vermeintliche Datensouveränität. Leider ist es, das zeigen viele unserer Recherchen, eine Illusion, dass Menschen in die Lage versetzt werden können, in allen Kontexten ausreichend informiert zu sein und damit freiwillig entscheiden zu können, welche Daten sie preisgeben wollen und welche nicht.
Wir brauchen eine umfassende Reform des Datenschutzrechts, die den Pseudo-Einwilligungen und der vermeintlichen Freiwilligkeit ein Ende bereitet. Vielmehr müssen wir als Gesellschaft definieren, welche Datennutzung wir wollen und welche nicht. Welche Risiken sind wir bereit einzugehen – zum Beispiel bei der Datennutzung für die Gesundheitsforschung? Und wo ziehen wir rote Linien – etwa bei der Bildung umfassender Nutzer:innenprofile, bei der Überwachung der privaten Kommunikation oder beim Scoring mit Datenprofilen? All diese Fragen lassen sich nicht einfach per Mausklick beantworten. Stattdessen sollte diese Form der schnellen Einwilligung nur eines sein: verboten.
Der Text basiert auf einem Gespräch, das Stefanie Talaska geführt und aufbereitet hat.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Zwischen der EU-Kommission und dem Innen- und Justizausschuss des Europäischen Parlaments gibt es Streit über eine Ausweitung der Cybercrime Convention. Datenschutz versus Kriminalitätsbekämpfung – was innerhalb der Union Vorrang hat, muss nun das EU-Parlament entscheiden. Der Ausgang ist derzeit offen.
Die EU-Kommission möchte das EU-Parlament davon abhalten, dem Europäischen Gerichtshof eine geplante Ausweitung der Cybercrime Convention zur Prüfung vorzulegen. Die Cybercrime Convention, auch als Budapester Abkommen zur Cyberkriminalität bekannt, erleichtert die Zusammenarbeit der Staaten des Europarates bei der Bekämpfung von Straftaten im Internet. Weil im Europarat auch autoritäre Staaten wie Aserbaidschan vertreten sind, fordern EU-Abgeordnete eine gerichtliche Überprüfung des geplanten Abkommens.
Der Europarat ist kein institutionelles Organ der EU, sondern eine europäische internationale Organisation. Er ist leicht zu verwechseln mit Europäischen Rat oder dem Rat der EU, die jedoch beide die Regierungen der EU-Mitgliedsstaaten repräsentieren. Der Europarat versammelt – mit Ausnahme von Russland, Belarus und dem Kosovo – zahlreiche europäische Staaten und kann selbst keine Gesetze erlassen. Um in der EU Gültigkeit zu erhalten, muss der Zusatzartikel zur Cybercrime Convention daher den üblichen Gesetzgebungsprozess auf EU-Ebene durchlaufen.
Das vom Europarat entwickelte Abkommen wurde 2001 beschlossen und 2006 schon einmal erweitert. Damals wurde es um das erste Zusatzprotokoll erweitert, das die unterzeichnenden Staaten zur Bekämpfung von rassistischem und fremdenfeindlichen Inhalten verpflichtet.
Der Innen- und Justizausschuss des EU-Parlaments (LIBE) hat Zweifel daran geäußert, dass das nun geplante zweite Zusatzprotokoll vereinbar mit geltendem EU-Recht ist. Denn die Vertragsparteien des Budapester Übereinkommens gehören nicht alle der EU bzw. dem Europarat an. Auch Staaten, die in keiner der beiden Institutionen vertreten sind, können sich dem Budapester Übereinkommen anschließen. Außerdem sind im Europarat auch autoritäre Staaten wie Aserbaidschan vertreten.
Zudem haben nicht alle Mitglieder des Europarats das „Übereinkommen zum Schutz von Individuen bei der automatischen Verarbeitung personenbezogener Daten“ unterzeichnet. Daher könnten durch das Zusatzprotokoll auch jene Länder Zugriff auf Daten von EU-Bürger:innen erhalten, die den Konsens der EU in Bezug auf Datenschutz und Persönlichkeitsrechte nicht teilen.
Staaten, in denen die Service-Provider stehen, auf denen die Daten gespeichert sind, könnten deren Abruf zwar verhindern, dies würde jedoch freiwillig erfolgen. Somit könnte das zweite Zusatzprotokoll unter anderem gegen Artikel 8 der Grundrechtecharta verstoßen, der den Schutz personenbezogener Daten vorsieht.
Gesetzesvorhaben auf Eis
Wie es nun weitergeht, ist offen. Üblicherweise wäre es nun an dem EU-Parlament, direkt über das Zusatzprotokoll abzustimmen. Allerdings hat LIBE Einwände gegen dieses Verfahren. Der Ausschuss will das Zusatzprotokoll stattdessen vorab dem EuGH zur Prüfung vorlegen. Den Weg dahin muss jedoch das EU-Parlament ebnen. In diesem Sinne hatte sich der Justizausschuss in einem Brief an die Präsidentin des EU-Parlaments Roberta Metsola gewandt und gefordert, dass das Parlament über eine gerichtliche Vorabprüfung durch den EuGH entscheidet – in der Hoffnung, dass es dieser zustimmt.
Ebendies will die EU-Kommission allerdings verhindern. Sie ist an einer schnellen Verabschiedung des Zusatzprotokolls interessiert – ungeachtet der Tatsache, dass damit Länder wie Aserbaidschan Zugriff auf Daten europäischer Bürger:innen erhalten könnten. EU-Innenkommissarin Ylva Johansson legte der Parlamentspräsidentin in einem Brief nahe, diese Abstimmung zu verhindern. Der Grund: Auch auf Ebene der Vereinten Nationen gebe es derzeit Verhandlungen zu einem vergleichbaren Abkommen, die Russland und China für ihre eigenen Interessen nutzen wollen. „Eine solche verzögerte Ratifizierung durch die EU-Mitgliedstaaten“, so die Kommissarin in dem Brief, „würde auch die Position der EU bei den UN-Verhandlungen über ein neues internationales Übereinkommen zur Bekämpfung der Cyberkriminalität untergraben, bei denen Russland und China einen Ansatz vertreten, der nicht mit den Errungenschaften des Übereinkommens des Europarats und seiner Protokolle übereinstimmt.“ Deshalb brauche es eine gemeinsame europäische Linie.
Eine solche Vorabprüfung komme nur selten vor, kommentiert Patrick Breyer, Piraten-Abgeordneter der Grünen-Fraktion, den Vorgang. Sie würde voraussichtlich ein bis zwei Jahre andauern, so Breyer gegenüber netzpolitik.org. Für diesen Zeitraum läge das zweite Zusatzprotokoll also auf Eis, denn das EU-Parlament kann erst nach abgeschlossener Prüfung entscheiden, ob es den Gesetzesvorschlag annimmt.
Moritz Körner, FDP-Abgeordneter im Europaparlament und Mitglied des LIBE, ist überzeugt, dass der EuGH das Zusatzprotokoll in seiner jetzigen Form wahrscheinlich kippen werde. Er sagt gegenüber netzpolitik.org: „Nach den peinlichen rechtlichen Fiaskos, die die EU-Kommission bei der Vorratsdatenspeicherungsrichtlinie, PNR und dem Privacy Shield erlitten hat, hat der Innenausschuss des Europäischen Parlaments kein Vertrauen mehr, dass die EU-Kommission den Schutz der Grundrechte bei internationalen Abkommen ernst nimmt.“ Die EU-Kommission habe mit ihren über Jahre getätigten politischen Entscheidungen bezüglich des Datenaustausches ihre rechtliche Glaubwürdigkeit verspielt, so Körner weiter.
Würde der EuGH das Zusatzprotokoll für unvereinbar mit dem europäischen Recht erklären, würde der Vetrag damit das gleiche Schicksal erleiden wie zuvor schon das Datenaustauschabkommen „Privacy Shield“ mit den USA, das der EuGH 2020 kippte.
Diese Sorge hat Kommissarin Johansson laut ihres Briefes offenkundig nicht: Sowohl die juristischen Dienste des EU-Parlaments als auch der Kommission hätten das Zusatzprotokoll bereits geprüft und für vereinbar mit dem europäischen Recht befunden, ebenso wie der Europäische Datenschutzausschuss und der Europäische Datenschutzbeauftragte.
Es bleibt nun abzuwarten, wie Parlamentspräsidentin Metsola entscheiden wird. Und ob das Parlament, falls sie nicht über die Vorabprüfung abstimmen lässt, dem Zusatzprotokoll zustimmt – und damit über die Bedenken des Justizausschusses hinweggeht.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Eine neue Datenbank soll das Fachwissen von Klima-Expert:innen aus dem Globalen Süden in den Medien sichtbarer machen. Interessierte finden dort Hunderte Expert:innen, aufgeschlüsselt nach Sprache, Schlagworten und Fachgebiet – darunter digitale Transformation und KI.
Klima-Expert:innen aus dem Globalen Süden sind in Wissenschaft und Medien deutlich unterrepräsentiert. Dabei sind die Regionen dort meist weitaus stärker von den Folgen der Klimakrise betroffen als im Globalen Norden. Um die große Repräsentationslücke zu schließen, haben Carbon Brief und das Oxford Climate Journalism Network eine Datenbank ins Leben berufen, die Global South Climate Database. Sie soll es Journalist:innen erleichtern, vielfältigere Quellen für ihre Berichterstattung zu finden.
Das Oxford Climate Journalism Network gehört zum Reuters-Institut, einer Forschungseinrichtung der Universität Oxford. Carbon Brief ist ein britisches Online-Magazin, das über die Klimakrise berichtet.
Die Repräsentationslücke schließen
Ein Beispiel für die fehlende Repräsentation von Expert:innen aus dem Globalen Süden bietet die „The Reuters Hot List“ der 1.000 „einflussreichsten“ Klimawissenschaftler:innen. Das Ranking beruht vor allem an der Zahl der akademischen Veröffentlichungen und des Engagements der Expert:innen in den sozialen Medien.
Knapp drei Viertel der in der Liste aufgeführten Personen sind in europäische oder nordamerikanische Institutionen eingebunden. Zugleich finden sich darauf gerade einmal fünf afrikanische Wissenschaftler:innen. Und nur gut zehn Prozent der 1.000 Expert:innen sind weiblich.
Die neue Datenbank ist öffentlich zugänglich und durchsuchbar. Schon jetzt enthält sie mehr als 400 Klimawissenschaftler:innen und -expert:innen, die aus 80 verschiedenen Ländern weltweit kommen und mehr als 50 Sprachen sprechen.
Das Fachwissen der Expert:innen handelt etwa von Dekarbonisierung des Straßengüterverkehrs oder tropischer Meteorologie, aber auch von digitaler Transformation, Künstlicher Intelligenz und angewandter Computermathematik. Um selbst Teil der Datenbank zu werden, können Expert*innen aus dem Globalen Süden ein Online-Formular ausfüllen.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
CC BY-SA 4.0Dieses Bild enthält Personen, die möglicherweise Rechte haben, die bestimmte Weiterverwendungen des Bildes ohne Zustimmung rechtlich einschränken.
File:Wikimania 2016 – Gender Gap in the global south – 03.jpg
Bei einem Auftritt vor dem Pegasus-Untersuchungsausschuss im EU-Parlament hat der ehemalige UN-Sonderberichterstatter für Menschenrechte eine klare Botschaft: Der beste Weg, um mit Staatstrojanern umzugehen, wäre deren Verbot. Nationale Sicherheit dürfe Staaten kein Schlupfloch bieten, um diese Technologien straflos zu missbrauchen.
Der ehemalige UN-Sonderberichterstatter für Menschenrechte David Kaye rät dem EU-Parlament, Überwachungstechnologien wie den Staatstrojaner Pegasus zu verbieten. Er habe ernste Zweifel, dass es überhaupt möglich sei, diese Technologien einzusetzen, ohne gegen internationales Recht zum Schutz der Menschenrechte zu verstoßen, sagte Kaye am Donnerstag bei einer Anhörung vor dem Pegasus-Untersuchungsausschuss im EU-Parlament. Der Ausschuss tagt seit April dieses Jahres, um die zahlreichen Überwachungsskandale in der EU im Zusammenhang mit Staatstrojanern zu untersuchen.
Käme es nicht zu einem Verbot, sagte Kaye, sollte zumindest ein temporäres Moratorium für die Entwicklung, den Verkauf und den Einsatz solcher Technologien verhängt werden. Staaten und internationale Organisationen können dann Leitplanken einrichten – etwa eine strikte Exportkontrolle oder radikale Reformen der Rechtsrahmen für deren Einsatz. All diese Schritte nannte Kaye ein „Minimum“, um die Rechtsstaatlichkeit beim Einsatz von Staatstrojanern herzustellen, die derzeit noch nicht gegeben sei.
Kaye hatte bereits 2019 in seiner Rolle als UN-Sonderberichterstatter ein solches Moratorium für Überwachungstechnologien gefordert. Schon damals deutete viel darauf hin, dass etwa der Journalist Jamal Khashoggi vor seiner Ermordung mit Pegasus ausgespäht wurde.
Ohne Transparenz kein Einsatz
Die Spähsoftware Pegasus kann heimlich aus der Ferne auf einem Smartphone installiert werden. Einmal eingerichtet, erlaubt sie Angreifer:innen alles zu einzusehen und zu hören, was auf dem Gerät stattfindet – von Gesprächen und Bildern über Standortdaten bis hin zu verschlüsselter Kommunikation. Sogar Kamera und Mikrofon lassen sich aus der Ferne aktivieren, so dass das Handy zur Wanze wird.
Kaye wies darauf hin, wie tief diese Überwachung in die Privatsphäre eindringt. Überwachungstechnologien wie Pegasus könnten schlicht nicht zwischen legitimen und illegitimen Überwachungszielen unterscheiden. „Sie geben dem Angreifer die Möglichkeit, das digitale Leben seines Ziels zu erfassen und zu überwachen, ohne zu unterscheiden zwischen einer kriminellen Verschwörung oder persönlichen Meinungen, Kontakten, Standortdaten, Browsing-Gewohnheiten, Bankdaten, Essensplänen und vielem mehr, manchmal in Echtzeit.“ Wenn Menschen ihrer privaten Kommunikation nicht mehr trauen könnten, hätte das auch gravierende Auswirkungen für die Demokratie.
Damit stelle Pegasus eine derart schwerwiegende Gefahr für die persönlichen Rechte und demokratischen Freiheiten dar, sagte Kaye, dass dafür besondere Auflagen gelten müssten. Wenn Staaten und auch die Herstellerfirmen argumentierten, die Technologie sei notwendig im Kampf gegen den Terror, dann müssten sie nachweisen, dass und wie sich diese Werkzeuge mit grundlegenden Menschenrechten vereinbaren lassen. So lange das nicht geschieht, müsse man davon ausgehen, dass Staatstrojaner gegen internationale Gesetze zum Schutz der Menschenrechte verstoßen.
Nationale Sicherheit dürfe nicht zu einem Schlupfloch werden, in dem sich Staaten verstecken könnten, um ihrer Verantwortung zu entgehen, sagte Kaye. „Jedes Recht muss einen Rechtsbehelf für seine Verletzung haben.“ Ungarn etwa begründete seine Einsätze von Pegasus mit der nationalen Sicherheit und kam zu dem Schluss, die Spionage gegen Journalist:innen und Politiker:innen sei rechtmäßig gewesen.
Ein Vertreter von NSO Group, der israelischen Firma, die Pegasus entwickelt, war bereits im Juni vom Ausschuss befragt worden, wich dabei jedoch zentralen Fragen aus – etwa jener, an wen sich Opfer der Überwachung wenden könnten. Immer wieder verwies der NSO-Vertreter auf die Geheimnisanforderungen der Kund:innen des Unternehmens.
Unter den Kund:innen sind längst nicht nur Staaten wie Saudi-Arabien, Aserbaidschan oder Indien, sondern auch zahlreiche Demokratien mitten in der EU. NSO Group teilte im Nachgang zur Befragung mit, dass derzeit zwölf EU-Staaten Pegasus einsetzten, zwei von ihnen seien die Lizenzen wieder entzogen worden.
Arbeit soll im April beendet sein
Der Untersuchungsausschuss soll noch bis April 2023 arbeiten. Ursprünglich ging es vor allem um Polen und Ungarn, wo Journalist:innen, Oppositionspolitiker:innen und Anwält:innen mit Pegasus ins Visier genommen wurden. Zwischenzeitlich sind viele weitere Fälle von staatlicher Überwachung hinzugekommen, etwa Spanien und Griechenland.
Im Ausschuss sitzen gleich mehrere Personen, die selbst direkt oder indirekt mit Pegasus ausspioniert wurden, darunter die katalanischen Abgeordneten Diana Riba, Jordi Solé und Carles Puigdemont. Ein gemeinsamer Abschlussbericht soll Empfehlungen aussprechen, wie Staatstrojaner künftig in der EU besser reguliert werden sollen. Mehrere Abgeordnete arbeiten jedoch bereits an eigenen Berichten, darunter die Liberale Sophie in‘ t Veld.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Oben — UN-Sonderberichterstatter David Kaye (Meinungsfreiheit und freie Meinungsäußerung) spricht während der Nebenveranstaltung „Religion trifft Rechte“ am 16. Juni, die von FORUM-ASIA organisiert wird
Datei:UN-Sonderberichterstatter David Kaye (Meinungsfreiheit und freie Meinungsäußerung) spricht während der Nebenveranstaltung „Religion trifft Rechte“ am 16. Juni, die von FORUM-ASIA organisiert wird.jpg.jpg
Die Browsererweiterung Snowflake im Tor Browser nutzen
Von: Jimmy Bulanik
Den Menschen in Diktaturen können staatliche Repressionen wie Verhaftungen, Folter und Hinrichtungen erspart werden. Dies geht digital von der EDV der Leserschaft aus. Das alles ist legal und gratis.
Dazu bedarf es das über die Webseite www.torproject.org geladen zu werden, danach installiert. Im Anschluss den Tor Browser starten.
Im Startfenster wird oben rechts auf die drei Streifen geklickt. Der fünfzehnte Reiter Settings anklicken. Danach auf den fünften Punkt Connection klicken. Im zweiten, mittleren Fenster Bridges klicken auf Select a Build – In Bridge, den zweiten Punkt in der Mitte auf die Browsererweiterung Snowflake kicken. Dann auf OK klicken und den Tor Browser neu starten.
Der persönliche, gute Wille ist eine regenerative Energie
Danach den Tor Browser starten, wenn die eigene EDV an ist. Das Fenster des Tor Browser kann runtergelegt werden. Dadurch kann ein Mensch in einem Land wo das Internet so unfrei ist, wie die Menschen es sind unmittelbar helfende Unterstützung leisten.
Die eigene EDV funktioniert in dem Fall als Proxy und ist ein Möglichkeit zum Zugang zu Webseiten im World Wide Web und dem Tor Netzwerk gleichermaßen. Von dort aus können die Menschen in Not Informationen auf Seiten im Internet lesen, eigene Texte und Medieninhalte wie Videos online stellen. Davon profitieren wir alle. Durch valide Informationen und mittels der Macht der Fotos oder der selbst erstellten Videos mit Ton.
Damit können alle, die es wirklich wollen, den Menschen an einem anderen Ort die Hand reichen. Je mehr Menschen sich dazu entscheiden, desto mehr Mut können die Menschen vor Ort sich wagen. Das versetzt die Diktatoren auf der Welt in die Situation, dass ihre berechtigten Ängste vor ihren eigenen Menschen anwachsen, bis sie gestürzt werden und durch das Neue etwas Besseres entstehen werden wird.
Überraschend gab der Bund jüngst bekannt, dass für dieses Jahr Schluss ist mit gefördertem Breitbandausbau. Länder und kommunale Verbände reagieren nun mit einem Brandbrief, den wir im Volltext veröffentlichen.
Insgesamt hat die Regierung rund 12 Milliarden Euro an Bundesmitteln für den geförderten Ausbau eingeplant. Allerdings ist die Summe auf 3 Milliarden Euro pro Jahr gedeckelt. Kommunen können nun vorerst keine Anträge mehr auf Bundeszuschüsse stellen. Dass die Mittel komplett abgerufen wurden, sei „nichts Ungewöhnliches“ und eine „gute Nachricht“, versucht die parlamentarische Staatssekretärin im BMDV, Daniela Kluckert (FDP), zu beruhigen.
Das sehen die Länder anders, die das Vorgehen des BMDV völlig überrascht hatte. Der aktuelle Förderaufruf sei ohne Vorankündigung aufgehoben worden, heißt es in dem Brief. Zudem fehle eine klare Perspektive für die Abwicklung des bisherigen Förderprogramms sowie eine Zusage für belastbare Mittel für das kommende Jahr.
Unterzeichnet haben das Schreiben Vertreter:innen aller Länder – mit Ausnahme von Nordrhein-Westfalen und Hessen – sowie kommunaler Spitzenverbände. „Alle Beteiligten stehen jetzt plötzlich vor dem Nichts. Das ist ein massiver Vertrauensbruch“, sagte bereits vergangene Woche der bayerische Finanzminister Albert Füracker (CSU).
Streit um Fördermechanismus
Auch sorgen sich die Länder, dass die Potenzialanalyse offenbar wieder im Gespräch ist. Sie war als Alternative zur bisherigen Förderpraxis mit dem Markterkundungsverfahren gedacht: Derzeit reicht es aus, wenn die Kommunen nachweisen, dass in einem bestimmten Gebiet auf absehbare Zeit kein privatwirtschaftlicher Ausbau geplant ist, um staatliche Unterstützung zu erhalten. Eine Potenzialanalyse würde hingegen bewerten, ob Gebiete die Aussicht auf einen marktgetriebenen Ausbau haben. Dadurch könnten viele unterversorgte Gebiete aus der Förderfähigkeit herausfallen, obwohl es für sie tatsächlich keine Ausbaugarantie gibt, fürchten die Kommunen.
Wäre es nach Infrastrukturminister Volker Wissing (FDP) und der Industrie gegangen, dann hätte es die sogenannte Potenzialanalyse verbindlich in die Gigabitstrategie der Bundesregierung geschafft. Das aber haben Länder und kommunale Verbände verhindert. Nun fürchten sie, dass das umstrittene Instrument „durch die Hintertür wieder eingeführt“ werde, heißt es in einem Brief an das BMDV.
Eine derartige Priorisierung sei „aus guten Gründen in langen Gesprächen zwischen allen Beteiligten bereits ausgeschlossen“ worden, schreiben die Länder. Aus ihrer Sicht wäre sie „nicht sachgerecht und würde eine bürokratische Verkomplizierung mit sich bringen, die in der konkreten technischen Umsetzung unmöglich ist“. In der Gigabitstrategie ist die Potenzialanalyse zwar enthalten, soll jedoch unverbindlich bleiben und lediglich als Hinweisfunktion dienen.
Im Kern geht es in diesem Streit darum, wie sich Fördermittel besonders effektiv verteilen lassen, um eine flächendeckende Versorgung mit moderner digitaler Infrastruktur zu erreichen. Der Konflikt hat sich nun verschärft, weil die sogenannten Aufgreifschwellen nach und nach wegfallen und deshalb immer mehr Gebiete förderfähig werden. In der Vergangenheit erhielten nur Regionen staatliche Unterstützung, die mit weniger als 30 MBit/s versorgt sind. Seit dem Vorjahr sind auch solche mit einer Versorgung von bis zu 100 MBit/s hinzugekommen. Im kommenden Jahr fällt dann auch diese Schwelle.
Planungssicherheit gefährdet
Die Industrie sieht sich in ihren Warnungen vor einem „Förder-Tsunami“ bestätigt. „Die Vielzahl der eingegangen Förderanträge und der dadurch notwendige Förderstopp zeigen, dass die von den Ländern angekündigte ’natürliche Priorisierung‘ förderfähiger Gebiete nicht funktioniert“, heißt es etwa in einer Pressemitteilung des Bundesverbandes Breitbandkommunikation (Breko).
Mit dem bisherigen Markterkundungsverfahren ist die Branche schon allein deshalb unzufrieden, weil sie rasch auf Anfragen von Kommunen reagieren muss, ob sie im jeweiligen Gebiet bald auszubauen gedenkt oder nicht. Mit dem Aufwand haben vor allem kleinere Netzbetreiber zu kämpfen. Laut Breko brauche es nun „klare Regeln und eine wirksame Priorisierung“, die die Förderung besonders benachteiligter Gebiete sichern soll.
Auf eine klare Perspektive, wie es nun weitergehen soll, pochen auch die Länder. Sie fordern den Bund in dem Schreiben auf, „ausreichende und ggf. mehr als die derzeit geplanten Mittel“ bereitzustellen. Entsprechende Angaben würden die Länder nicht zuletzt für die Absicherung ihrer Kofinanzierungsanteile in den jeweiligen Haushaltsplanungen benötigen. Und auch die Kommunen bräuchten Planungssicherheit. Andernfalls drohe unmittelbar mit Beginn der neuen Förderung erst recht ein „Windhundrennen“ um die verfügbaren Fördermittel.
Insbesondere brauche es aber unverzüglich einen Entwurf einer neuen Förderrichtlinie, die zu Jahresbeginn in Kraft treten soll. Sollte das neue Förderprogramm nicht wie geplant starten können, „würden damit nicht nur Vertrauen in die Verlässlichkeit von Ankündigungen des Bundes nachhaltig erschüttert, sondern auch das Erreichen des Ausbauziels insgesamt in Frage gestellt“.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Oben — re:publica 2022: Volker Wissing (Bundesminister für Digitales und Verkehr) bei der Session ‚Das Momentum nutzen!‘
Steffen Prößdorf
CC BY-SA 4.0 Dieses Bild enthält Personen, die möglicherweise Rechte haben, die bestimmte Weiterverwendungen des Bildes ohne Zustimmung rechtlich einschränken.
Datei:2022-06-09 re-publica 2022 IMG 5021 von Stepro.jpg
Die umstrittene Gesichtersuchmaschine Clearview AI weigert sich, Fotos von französischen Bürger-innen aus seiner Datenbank zu löschen. Jetzt hat die dortige Datenschutzaufsicht eine Millionenstrafe verhängt – bereits die dritte aus der EU. Doch das Urteil hat vor allem Signalwirkung.
Die französische Datenschutzbehörde CNIL hat gegen Clearview AI eine Strafe wegen Datenschutzverletzungen in Höhe von 20 Millionen Euro verhängt. Das Start-up sammelt ohne Zustimmung der gezeigten Personen Fotos aus dem Netz und trainiert damit das Modell für eine Gesichtersuchmaschine, die es an Ermittlungsbehörden und Unternehmen vermarktet. Das sei eine nicht-erlaubte Verarbeitung von persönlichen Daten und ein Verstoß gegen EU-Datenschutzregeln, urteilte am Donnerstag die Datenschutzaufsicht CNIL – und belegte Clearview AI mit der Maximalstrafe.
Vorangegangen war eine Anordnung der CNIL aus dem vergangenen Jahr, die Clearview einfach ignoriert hatte. Das Unternehmen sollte aufhören, biometrische Daten von Personen auf französischem Territorium zu sammeln und die Rechte der Betroffenen wahren, die eine Auskunft und Löschung ihrer Daten aus der Datenbank verlangten. Nachdem Clearview auf die Mahnung nicht reagiert hatte, entschied die Aufsicht, die mögliche Maximalstrafe zu verhängen, die in der Datenschutzgrundverordnung (DSGVO) für solche Fälle vorgesehen ist: 20 Millionen Euro. Darüber hinaus hat Clearview zwei Monate Zeit, um die Sammlung, Speicherung und den Einsatz der Fotos zu beenden. Für jeden Tag Verzug kommen weitere 100.000 Euro Strafe dazu.
Die Verfahren sind das Ergebnis einer koordinierten Aktion mehrerer Organisationen, die Beschwerde in fünf Ländern gegen Clearview AI eingereicht hatten. In Frankreich hatte die Organisation Privacy International die Verstöße bei der CNIL gemeldet. Die Juristin Lucie Audibert, die das Verfahren koordiniert hat, schreibt netzpolitik.org, sie sei mit dem Ergebnis sehr zufrieden. „Nicht weniger als die Höchststrafe von 20 Millionen Euro und die Anweisung, Daten zu löschen und nicht mehr zu verarbeiten, hätten ausgereicht, um die schwerwiegenden und weit verbreiteten Verstöße gegen die Datenschutzgrundverordnung und die Bedrohung der Grundrechte von Personen auf der ganzen Welt anzugehen.“
Sie weist außerdem auf ein technisches Problem hin, das es für Clearview effektiv unmöglich macht, den Anordnungen zu folgen ohne sein Geschäft vollständig einzustellen. Denn die Datenerfassung von Clearview sei per Definition wahllos, das Unternehmen könne unmöglich herausfinden, welches Foto von einem Einwohner eines bestimmten Landes stammt und dieses Foto nicht einsammeln oder aus seinen Beständen tilgen. „Dies zeigt deutlich, warum ihr Geschäftsmodell einfach nicht haltbar ist – der Kern ihrer Tätigkeit beruht auf der Verletzung der Datenschutzgesetze mehrerer Länder.“
Eine Strafe, die schwer durchzusetzen ist
Mehr als 60 Millionen Euro Geldstrafe wegen Datenschutzverstößen für ein einzelnes Start-up: Das klingt erst mal immens. Fachleute weisen jedoch darauf hin, dass es ausgesprochen schwierig ist, Strafen und Anordnungen für Datenschutzverstöße durchzusetzen, wenn Unternehmen ihren Sitz außerhalb der EU haben. Clearview behauptet bisher, nicht unter die EU-Datenschutzregeln zu fallen, weil es seinen Sitz in den USA hat und keine Daten von EU-Bürger-innen verarbeite. Man sammle nur Informationen ein, die im Netz frei verfügbar seien, behauptet der Gründer. Ob das Unternehmen auf die Anordnungen aus Italien oder Griechenland reagiert und die Strafen bezahlt hat, ist nicht klar. Anfragen ließen die beiden Behörden unbeantwortet.
Auch Lucie Audibert gesteht ein: „Die Durchsetzung von DSGVO-Strafen gegen für die Verarbeitung Verantwortliche mit Sitz außerhalb der EU ist bekanntermaßen schwierig.“ Aber es könne nicht sein, dass ein Unternehmen einfach weitermacht, währen es mit Geldstrafen und Anordnungen in Dutzenden von Ländern belegt wird.
Signalwirkung für europäische Firmen
Der Hamburger Informatiker Matthias Marx, der selbst eine Beschwerde gegen Clearview AI bei der Hamburger Datenschutzaufsicht eingereicht hat, glaubt ebenfalls nicht daran, dass Clearview die Strafen zahlen werde. Trotzdem hätten die Entscheidungen der Behörden eine Signalwirkung. Die Strafen würden zum einen europäische Firmen davon abschrecken, ähnliche Geschäftsmodelle hier aufzuziehen. Vor allem machen sie aber den Markt für Clearview AI in der EU kaputt. Dass eine Polizeibehörde in der EU nach den Urteilen noch auf die Idee käme, ein solch offenkundig illegales Produkt zu lizenzieren, sei unwahrscheinlich.
Die meisten Kund:innen von Clearview sitzen in den USA, doch auch in der EU hatten einzelne Behörden die Werkzeuge eingesetzt. Die schwedische Polizei war dafür von der eigenen Datenschutzaufsicht mit einer Strafe von umgerechnet rund 250.000 Euro belegt worden.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Die Absprache zwischen Scholz und Mitarbeiterinnen der IT-Firma ?
Von Jean-Philipp Baeck
Eine iranische IT-Firma hilft im Iran bei der Internet-Abschottung. Ihr Ableger in Deutschland hilft, die US-Sanktionen zu vermeiden.
Das Reihenhaus in der Sackgasse der betuchten Wohngegend Meerbusch bei Düsseldorf könnte kaum unscheinbarer sein. Grau-beiger Klinker, vor den Fenstern Jalousien, die das Innere vor Blicken abschirmen. Auf dem Briefkasten zeigt ein weißes Schild vier Nachnamen und drei GmbH-Firmentitel. Bis vor einem Jahr hatte hier noch ein weiteres Unternehmen seinen Sitz, die Firma Softqloud. Mittlerweile ist sie umgezogen, in einen Bürokomplex, ein paar Ecken die Straße runter. Ein klobiger Bau mit allerlei Logos, wie er so oder so ähnlich in vielen Gewerbegebieten aus dem Boden gestampft wird. Jedoch funktioniert Softqloud nicht wie jedes andere Unternehmen. Und auch die ansässigen Firmen in der Meerbuscher Sackgasse sind keine zufällige Anhäufung.
Wie eine gemeinsame Recherche von Correctiv, netzpolitik.org und der taz zeigt, ist Softqloud ein Ableger des iranischen IT-Dienstleisters Arvancloud. Das Unternehmen hilft dem islamistischen Regime in Teheran dabei, eine eigene nationale Internet-Struktur aufzubauen. Somit wird die Abschottung des Irans vom internationalen Netz erleichtert. Zahlungen für IT-Dienstleitungen an Arvancloud landen bei der deutschen Firma in Meerbusch. Softqloud ist quasi Arvanclouds Brückenkopf in Europa. Die Server der Firma in Meerbusch sind für den Iran von Bedeutung. Die gemeinsame Recherche zeigt: Sie bilden eine von insgesamt nur vier digitalen Verbindungsbrücken, die aus dem iranischen Netz ins Ausland führen.
Für unsere Recherche haben wir firmeneigene Unterlagen eingesehen, Netzwerke und Serverdaten analysiert, Zahlungen nachvollzogen und mit zahlreichen Expert*innen gesprochen. Der Blick nach Meerbusch, auf die Firma Softqloud, ihre Verbindungen und die beteiligten Personen offenbart: In dem Düsseldorfer Nobelvorort und seiner Umgebung sitzt ein Geflecht aus Unternehmen und Tarnfirmen, die mindestens indirekt mit dem islamistischen Regime in Teheran, den Revolutionsgarden und dem iranischen Geheimdienst verbunden sind. Von hier aus umgehen sie US-Sanktionen. Sie sind verstrickt in den Aufbau eines abgeschotteten nationalen Internets im Iran. Und: Sie agieren bis heute unbehelligt in Deutschland.
Anders als die USA, die seit ihrem einseitigen Rückzug aus dem Atomabkommen mit dem Iran 2018 umfangreiche Sanktionen eingeführt und die Revolutionsgarden auf eine Terrorliste gestellt haben, zeigt sich die EU toleranter, was den Iran und Firmen mit Verbindungen zu seinem autoritären Machtapparat angeht. Deutschland ist Irans wichtigster Handelspartner in der EU. Erst seit sich im Iran die Menschen unter der Parole „Frauen, Leben, Freiheit“ jeden Tag aufs Neue auf den Straßen versammeln, wird die Kritik an dem Regime auch hierzulande lauter.
Als Reaktion verhängte die EU Anfang der Woche eine Reihe von Sanktionen, unter anderem gegen die Sittenpolizei sowie das Cyber-Abwehrkommando der Revolutionsgarde. Ebenfalls auf der Sanktionsliste der EU steht jetzt der Iranische Minister für Informations- und Kommunikationstechnologie – wegen der durch ihn verantworteten Abschaltung des Internets.
Denn das iranische Regime hatte auf die Proteste auch mit einer massiven Blockade des Netzes reagiert, etwa um die weitere Organisation von Demonstrationen zu unterbinden. Gesperrt wurden Social-Media-Netzwerke wie Instagram sowie Messengerdienste wie Whatsapp oder Signal. Neben der weitreichenden Zensur kam es zu Drosselungen des Internets, in einigen Regionen teilweise sogar zur kompletten Abschaltung. Wer versuchte, internationale Webseiten zu besuchen oder zu chatten, kam nicht voran.
Aktivist*innen im Iran behalfen sich gegen die Zensur mit technischen Umgehungen – mit sogenannten Proxy-Servern, VPN-Tunneln oder dem anonymen Tor-Netzwerk. Mit der Infrastruktur für solche digitalen Umwege wurden sie weltweit aus der Zivilgesellschaft unterstützt, auch durch die taz. Doch sollen künftig solche technischen Umgehungen der Zensur unmöglich gemacht werden. Der Iran arbeitet seit Jahren am Aufbau eines eigenen unabhängigen nationalen Informationsnetzwerks. Und hier kommen die Firma Arvancloud und ihr deutscher Ableger Softqloud ins Spiel.
Firmengeflecht in Düsseldorfer Vorstadt
Auf ihrer Webseite präsentiert sich die deutsche Firma Softqloud wie jedes andere IT-Unternehmen im Netz. Ein Bild von Serverschränken, ein Bild von Computern, ein paar Zeilen oberflächliche Werbesprache. Mehrfach wechselte der Firmensitz, blieb jedoch immer in der Nobelgegend Meerbusch bei Düsseldorf. Schaut man genauer hin, eröffnet sich ein Geflecht an Firmen, die mindestens indirekt mit dem iranischen Regime, Geheimdiensten oder den Revolutionsgarden in Verbindung stehen.
Da ist etwa der Unternehmer aus Dubai. Als Softqloud am 24. Februar 2019 im Handelsregister des Amtsgerichts angemeldet wird, tritt ein Mann als Gründer in das Büro eines Düsseldorfer Notars ein, der in Dubai wohnt, einen pakistanischen Pass vorlegt und persisch spricht. Er ist der Chef einer IT-Firma, mit Ablegern in Dubai und Pakistan, die unter anderem die Webseiten der Pasargad Bank hosten. Das iranische Finanzinstitut wurde wegen Verbindungen zu den Iranischen Revolutionsgarden im Oktober 2020 von den USA mit Sanktionen belegt. Von der Pasargad Bank gibt es auch eine Verbindung zu ArvanCloud: Die mit der Bank assoziierte IT-Firma Fanap ist Investor bei dem Cloud-Anbieter.
Mann mit Verbindungen zum Geheimdienst
Da ist auch der Helfer mit Geheimdienstkontakten. Bei der Gründung von Softqloud befindet sich ein Mann im Raum, der ebenfalls in Meerbusch wohnt, rund 500 Meter entfernt von Softqlouds erstem Firmensitz. Er ist kein unbeschriebenes Blatt. Sein Name taucht in einer Auskunft des Bundesamtes für Verfassungsschutz von 1993 auf, in der es um das Mykonos-Attentat geht. Bei dem Mordanschlag wurden im Auftrag des iranischen Geheimdienstes am 17. September 1992 vier kurdisch-iranische Exilpolitiker im Berliner Lokal „Mykonos“ erschossen.
Die Schriftstücke des Verfassungsschutzes sind dem Abschlussbericht eines Untersuchungsausschusses des Berliner Abgeordnetenhauses angehängt, der mögliche Versäumnisse der Sicherheitsbehörden bei dem Mordfall ergründete. Zwei weitere Informationen erfährt man darin über die Vergangenheit des Mannes: Anfang der 1990er Jahre steht er mit dem iranischen Geheimdienst in Verbindung und zählt zu den engsten Freunden des Drahtziehers des Mykonos-Attentats.
Heute leitet er ebenfalls ein Unternehmen in Düsseldorf. Dies gehört einem großen iranischen Konzern, den die USA mit Sanktionen belegt haben, weil sie ihm vorwerfen, Teil des iranischen Netzwerks zur Terror-Unterstützung zu sein. Seit Juni 2020 treffen die US-Sanktionen auch diese Düsseldorfer Firma. Der Mann bestreitet auf Nachfrage der taz über seinen Anwalt jedweden Kontakt zu Geheimdiensten. Mit der Geschäftstätigkeit von Softqloud habe er auch nichts zu tun.
Und da ist die Geschäftsführerin: Sie leitet Softqloud und ist gleichzeitig Chefin weiterer Unternehmen, von denen eines ebenfalls auf dem Briefkasten in der Sackgasse des Düsseldorfer Nobelviertels Meerbusch steht. Bis 2020 war ein Geschäftsmann aus dem Iran mit Nähe zum Regime Geschäftsführer. Auch für dieses Unternehmen gibt es Hinweise, dass es für die Abwicklung von Zahlungsverkehr aus dem Iran benutzt wird.
Aufbau eines abgeschotteten Netzes
Anders als die Firmen in Meerbusch steht Arvancloud im Iran deutlich stärker in der Öffentlichkeit. Arvancloud ist laut deutsch-iranischer Handelskammer der größte Cloud Service-Anbieter im Iran und sehr aktiv in der iranischen Start-up-Szene. Die Firma präsentiert sich im Netz und auf Konferenzen gern als modernes, aufstrebendes Unternehmen – ein Start-up mit jungen Männern, die Kicker spielen und Frauen, die mit Kopftuch lächelnd an Computern sitzen. Bei Youtube ist – anscheinend auf den deutschen Markt zielend – von Arvancloud gar eine Art Imagevideo zu finden: Unterlegt mit Choralmusik reitet eine Figur mit Deutschlandfahne auf einer Brezel. Dazu der Slogan: „Riding the clouds“, auf Deutsch: „Auf den Wolken reiten“.
Doch das ist nur die eine, scheinbar gute Seite des Unternehmens: Denn Arvancloud hilft der iranischen Regierung dabei, ein eigenes nationales Informationsnetz aufzubauen. Seit 2013 arbeitet das Regime mit Hochdruck daran, die Pläne dafür gab es schon Jahre zuvor. Alle Verbindungen aus dem Iran nach außen sollen abgeschaltet werden können. Vorbild für diese Idee ist China mit seiner „Great Firewall“, auch Russland hat mittlerweile ähnliche Pläne.
Derzeit ist es für die iranische Wirtschaft ziemlich teuer, wenn das Internet komplett abgeschaltet wird. Laut iranischer Handelskammer kostet das etwa 1,5 Millionen Euro pro Stunde. Um sich in Zukunft besser abschotten zu können und dabei die Kosten für den Iran geringer zu halten, arbeitet Arvancloud unter anderem an einer nationalen Cloud-Struktur, der sogenannten IranCloud. Die staatliche Nachrichtenagentur Irna nennt dies ein „nationales Projekt“, das „im Einklang mit der Entwicklung des nationalen Informationsnetzwerks“ betrieben werde.
Bei einer sogenannten Cloud geht es um ein bestimmtes System, mit dem Server und Datenspeicher dezentral miteinander vernetzt sind. Das Ziel ist es, möglichst viele Unternehmen mit ihren Diensten auf diese nationale Struktur zu holen. Werden die internationalen Verbindungen gekappt, würden diese Dienste im Iran noch weiterlaufen und die Auswirkungen für die Wirtschaft und den Alltag wären geringer. Sollte beispielsweise eine Person in Teheran online eine Lieferbestellung aufgeben, würde dies weiterhin funktionieren, solange der Bringdienst seine Webseite zuvor in die nationale Cloud verlegt hat. Jedoch nur dann.
Derzeit sind zahlreiche Firmen Partner von Arvancloud und hosten dort ihre Webseiten, darunter der im Iran weit verbreitete Taxidienstleister Snapp. Auch viele Regierungsinstitutionen haben ihre Webseiten bei Arvancloud – etwa das Innen- und das Außenministerium. Arvancloud nutzt dafür auch die Infrastruktur von Softqloud in Meerbusch. Mehrere Webseiten iranischer Botschaften, etwa der in Tunesien, liegen auf Servern der deutschen Firma. Auch die Webseite des iranischen Agrarministeriums.
Jan Böhmermann und sein Team präsentieren Investigativjournalismus wie niemand sonst in Deutschland. Doch diesmal ist der Inszenierungsfuror mit ihm durchgegangen. Dem Bundesinnenministerium kann es recht sein.
Diese kurze Geschichte sieht zu Beginn so aus, als würde sie von der IT-Sicherheit dieses Landes handeln, von der Politik, gar von internationalen Verwicklungen. In Wahrheit aber handelt sie davon, wie Medien unbeholfen mit halbgaren Mitteln arbeiten und die Politik das ausnutzt. Ja, die Politik. Der Streit der Argumente, der Streit der Haltungen, der Streit der unterschiedlichen Interessen. Manche Leute aber verrennen sich bekannterweise oder sind vielleicht sogar kompromittiert auf die eine oder andere Weise. Hier kommen die redaktionellen Medien als Korrektiv ins Spiel, insbesondere investigative Recherchen. Die können politische Beben auslösen oder einzelne Leute aus ihren Ämtern kegeln oder beides, und zwar über den öffentlichen Druck. Das ist gut. Das ist Demokratie. Solange Medien angemessen verantwortungsvoll arbeiten. Enthüllungsjournalismus ist eine Art Wortwaffe, mit der man sorgsam umgehen muss, wie mit medialer Reichweite.
Grob gesagt gibt es drei Dimensionen medialer Enthüllungen, die neben dem restlichen Weltgeschehen über die Wirkung entscheiden: den Neuigkeitswert. Die Skandaldimension. Die Inszenierung. Moment, Inszenierung? Ja. Das ist – leider? Zum Glück? – die Realität in einer Zeit des weltweiten Info-Dauerfeuers: Zu jeder Enthüllung gehört heute eine Inszenierungsstrategie, damit sie nicht verpufft im medialen Getöse. Skandale dürfen zum Beispiel nicht zu komplex beschrieben werden, sonst werden sie von der Öffentlichkeit nicht verstanden, und es entsteht kein nachvollziehbarer Druck. Sie müssen mit den richtigen Worten auf die richtige Weise zum richtigen Zeitpunkt vorgetragen werden. Und von dafür geeigneten Absendern. Eben eine beinahe klassische Inszenierung. Aber mit der Verantwortung, trotzdem ausreichend sorgfältig und redlich zu bleiben.
Was zu einem der jüngsten Investigativposten der Bundesrepublik führt: Jan Böhmermann. Böhmermann hat als Clown angefangen, möchte aber inzwischen zusätzlich Investigativ-Journalist sein. Deshalb hat er seine Redaktion umgebaut, wirklich fähige Leute dazu geholt, die oft hervorragende Arbeit machen. Sehr gut! Das Problem beginnt dort, wo eine wöchentliche Sendung zwar nicht jede Woche spektakuläre Enthüllungen bringen kann – aber das erkennbar gern möchte. Im Fall Böhmermann hat das dazu geführt, dass manche Enthüllungen mit, sagen wir, mittelgroßer Brisanz, recht sanfter Fallhöhe oder nicht übermäßiger Überraschungsintensität daherkommen. Dass Influencer*innen nach Dubai gegangen sind, um Steuern zu sparen, etwa. Es ist natürlich völlig in Ordnung, wenn man nicht ständig A-Ware liefern kann. In einem ähnlichen Kontext sagte der Künstler Martin Kippenberger einmal mit Bezug auf van Gogh: »Ich kann mir nicht jeden Tag ein Ohr abschneiden.«
Ist ja Satire
Die mittelgroße Brisanz mancher Böhmermann-Enthüllungen macht er in seiner Show aber wieder mehr als wett, und zwar mit einer einzigartigen Inszenierungsfähigkeit. Böhmermann und sein Team sind ohne Zweifel die Journalist*innen, die enthüllte Verfehlungen aller Art im deutschsprachigen Raum mit Abstand am unterhaltsamsten inszenieren können. Der Writers Room des ZDF Magazin Royale könnte aus zu spät zurückgegebenen Pfandmarken der Bundestagskantine einen parlamentarischen Jahrhundertskandal drechseln, daraus einen fantastischen Text zaubern, den Jan Böhmermann wiederum mit unvergleichlicher Brillanz vom Teleprompter ablesen würde. Boooom!
Aber nun von Boooom nach Bonn, ein Reißschwenk auf eine Behörde in Deutschland, die so nerven kann wie sonst nur Datenschützer. Zum Teil, weil das ihr Job ist, zum Teil, weil dort nicht unkomplizierte Leute arbeiten: das BSI, das Bundesamt für Sicherheit in der Informationstechnik , mit seinem – Stand Mittwochmittag – Chef Arne Schönbohm. Eben dieser ist das jüngste Ziel von Böhmermanns »ZDF Magazin Royale« , und zwar mithilfe des publizistischen Instruments, das Böhmermann perfekt beherrscht: der Lächerlichmachung einzelner Personen. Ist ja Satire und damit erlaubt, Investigativsatire, auf eine Art. Arne Schönbohm wird von Böhmermann als #CyberClown vorgeführt, persönlich attackiert, in zweifellos beschädigender Weise. Die Story dazu klingt nach spektakulären Zutaten: Der IT-Sicherheitschef von Deutschland hat einen Cybersicherheitsverein gegründet und lange geleitet, in dem eine IT-Firma Mitglied ist, die eindeutige Verbindungen zu russischen Geheimdiensten hat. Diese Firma ist wohl irgendwie auch noch mit der Cybersicherheit des Landes befasst, und das alles unter Schönbohms Verantwortung.
Leider stellen inzwischen mehrere Fachleute fest, dass offenbar Böhmermanns Inszenierungsfuror mit ihm durchgegangen ist, insbesondere was die Rolle der problematischen IT-Firma angeht. Denn, wie der SPIEGEL schreibt: Ob diese Firma »wirklich eine so wichtige Rolle in der Cybersicherheitsarchitektur Deutschlands spielt, wie Böhmermann am Freitag in seiner Sendung ›ZDF Magazin Royale‹ insinuierte, ist mindestens zweifelhaft.« Insinuieren ist hier ein wichtiges Wort. Die Andeutung, damit sich das Publikum seinen Teil denken soll, ist ein wiederkehrendes Instrument von Böhmermanns Enthüllungen, mit dem man nicht ganz ausrecherchierte Geschichten so fabelhaft inszenieren wie rechtssicher anreichern kann.
CC BY-SA 4.0AGB anzeigenDieses Bild enthält Personen, die möglicherweise Rechte haben, die bestimmte Weiterverwendungen des Bildes ohne Zustimmung gesetzlich einschränken.
Datei:2021-09-16-Jan Böhmermann Deutscher Fernsehpreis 2021 -3858.jpg
Erstellt: 16. September 2021
********************************
Unten — Sascha Lobo; 10 Jahre Wikipedia; Party am 15.01.2011 in Berlin.…
Bundesinnenministerin Nancy Faeser muss das Problem Arne Schönbohm schnell loswerden. Der BSI-Chef ist nach einem Beitrag des ZDF Magazin Royale endgültig nicht mehr tragbar. Noch wichtiger aber ist die Frage: Wird das Bundesamt für Sicherheit in der Informationstechnik nun endlich unabhängig?
Getarnt als Satire-Beitrag brachte das ZDF Magazin Royale am 7. Oktober eine Recherche, die es in sich hatte: Es ging um Arne Schönbohm, seine engen Kontakte zu russischen Geheimdienstleuten und um den dubiosen Verein „Cyber-Sicherheitsrat Deutschland“, dessen Mitgründer er war. „Cyberclown“ Schönbohm ist seit 2016 Präsident des Bundesamts für Sicherheit in der Informationstechnik (BSI) und agiert mittlerweile als eine Art oberster Cyber-Sicherheitskommentator. Einmal mehr steht er nun als Fehlbesetzung da und ist damit endgültig in der Comedy-Arena gelandet.
Der Mann aus der Wirtschaft war schon bei seiner Berufung Ziel harscher Kritik. Grund dafür war vor allem seine mangelnde fachliche Qualifikation und seine Nähe zur Rüstungsbranche. Der ehemalige Lobbyist Schönbohm ist Betriebswirt und konnte sich – anders als seine Amtsvorgänger – auf keinerlei technische, informatische oder mathematische Expertise stützen. Es war der damalige Bundesinnenminister Thomas de Maizière (CDU), der den Sohn seines Parteikollegen, des Generalleutnants und ehemaligen Brandenburger Innenministers Jörg Schönbohm, trotz Protesten aus der Opposition ins Amt hob.
Wichtiger als die Personalie ist das Amt
Wichtiger als die Personalie ist jedoch die Zukunft des Themas, das Arne Schönbohm qua Amt vertritt. Denn nun ist nicht nur Schönbohms Image endgültig ramponiert, sondern auch die Reputation der wichtigen Behörde hat erheblichen Schaden genommen. Das BSI ist für den Schutz weiter Teile der digitalen Infrastruktur des Bundes zuständig. Gerade in der anhaltenden Krise in der IT-Sicherheit ist die Behörde von besonderer Bedeutung für Verwaltung und Wirtschaft, denn die Beratung und Expertise seiner Mitarbeiter werden derzeit überall dringend gebraucht. Da ist eine wandelnde Peinlichkeit an der Spitze des Amts nicht länger tragbar.
Gewiss, die amtierende Innenministerin Nancy Faeser hat das Problem Schönbohm von de Maizière geerbt. Sie trägt damit keine Schuld daran, dass dieser Mann den Chefsessel jener Behörde einnimmt, die in den vergangenen Jahren an Bedeutung gewann und auf deren Einschätzungen sich auch die SPD-Ministerin stützen muss. Aber Faeser muss nun eine Entscheidung über die Personalie fällen. Das Handelsblatt und das Boulevard-Blatt Bild berichteten bereits, dass Faeser die Abberufung Schönbohms plane. Ihr Ministerium dementiert das aktuell zwar noch, aber sie wird die drängenden Nachfragen wohl nicht mehr lange aussitzen können.
Dass Schönbohm im BSI noch eine Zukunft hat, daran glaubt im politischen Berlin keiner mehr. Das ZDF zitiert unbenannte Personen in Regierungskreisen:
Es soll ein zeitnaher Wechsel im Amt des BSI-Präsidenten erfolgen.
Schon nach Schönbohms peinlichen Patzern in der Causa Kaspersky wurde über sein Ende an der Amtsspitze geraunt. Unter seiner Ägide hatte das BSI vor der Virenschutzsoftware des russischen Herstellers Kaspersky gewarnt. Technisch ist das schwerlich zu begründen, die Warnungen konnten daher nur als politische Wertung verstanden werden.
Werden solche Typen nicht ganz bewusst von der Politik an die Front geschickt, um das eigene Unwissen zu kaschieren?
Wir brauchen vom BSI verlässliche Fakten, fundierte Einschätzungen und strategische Ideen in Fragen der IT-Sicherheit. Jenseits der Amtsspitze hat das Bundesamt für Sicherheit in der Informationstechnik die Fachleute dafür. Eine IT-Sicherheitsbehörde jedoch, die in schneller Folge nur die üblichen Allgemeinplätze via Pressemeldung absondert, dessen Präsident Arne Schönbohm sich ernsthaft für Hackbacks starkmacht und das Cyber-Bullshit-Reporting normalisiert hat, muss ihren Kurs neu ausrichten.
Nach dem nun unausweichlichen Abgang des Cyberclowns lautet also die entscheidende Frage, wie die Zukunft des BSI aussieht. Wird die Behörde endlich aus dem direkten Einflussbereich des Innenministeriums losgelöst? Das ist eine bereits seit Jahren erhobene Forderung, um die Unabhängigkeit der Behörde zu sichern. Dass das BSI weiter politisch weisungsgebunden bleibt, ist ein noch unhaltbarerer Zustand als die aktuelle Besetzung der Spitzenposition.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Datei:Pennywise Cosplay – Montreal Comiccon 2017.jpg
Erstellt: 7. Juli 2017
***************************
Unten — Arne Schönbohm, amtierender Präsident des Bundesamtes für Sicherheit in der Informationstechnik (BSI). Hier während seines Besuches im Internationalen Münchner Presseclub am 17.10.2016. Titel des Werks: „Arne Schönbohm am 17.10.2016 im Münchner Presseclub (Bild-Nr. 9977)“.
CC BY-SA 3.0 deDieses Bild enthält Personen, die möglicherweise Rechte haben, die bestimmte Weiterverwendungen des Bildes ohne Zustimmung gesetzlich einschränken.
Ich habe bei der Besser-Online-Konferenz des Deutschen Journalistenverbandes über die Zukunft des Journalismus gesprochen. Wie kann moderner Journalismus aussehen und was braucht er unter heutigen Bedingungen? Ein paar Thesen.
Am Samstag habe ich die Besser-Online-Konferenz des Deutschen Journalisten-Verbandes (DJV) mit einer Keynote eröffnet. Ich habe dabei das Thema „Die Krise als Chance! Was braucht der Online-Journalismus der Zukunft?“ genutzt, um neben einer kleinen Bestandsaufnahme auch einige netzpolitische Themen mit in die Debatte zu bringen. Aus der Keynote mit ihren Thesen ist dann diese kleine schriftliche Zusammenfassung entstanden.
Der Journalismus der Zukunft…
…bringt vielfältige Organisationsformen.
Ob 1-Frau-Podcast, Mailingliste, Slack-Kanal, Facebook-Gruppe, Verein, gGmbH, AG oder Reddit-Forum. Ob agil, top-down, lokal, global, spontan oder langfristig. Nie war es einfacher, Journalismus zu machen.
…ist vielfältig in der Vermittlung.
Ob Datenjournalismus, Podcasts, Twitch-Kanäle, Twitter, Newsletter, Animationen oder Zeitungen. Nie hatten wir mehr unterschiedliche Möglichkeiten, Geschichten zu erzählen und Fakten und Meinungen zu vermitteln. Wir sind dabei nicht mehr auf ein Ausliefermedium beschränkt. Und ständig kommen neue hinzu.
…braucht Unabhängigkeit von Plattformen.
Es gibt viele Plattformen, welche die notwendige Infrastruktur für Journalistinnen und Kreative anbieten, so dass man sich weitgehend auf das Schaffen von Inhalten konzentrieren kann. Das kann Unabhängigkeit bringen, aber auch zu neuen Abhängigkeiten führen. Plattformen wie Substack, Patreon, Twitch, Youtube und Co. bieten die Möglichkeit, in eine direkte Kommunikation mit Abonnent:innen zu gehen. Sie unterstützen den Vertrieb und wickeln Zahlungen ab. Problem ist bei den US-Plattformen der mangelnde Datenschutz: Im Zweifelsfall sind unsere Daten dort vogelfrei.
Häufig ändern sich die Regeln und zwar technischer und rechtlicher Art. Leider oft einseitig zu unseren Ungunsten. Da kann eine Algorithmusänderung schnell dazu führen, dass über Nacht die lange erstellte und finanzierte Verbreitungsstrategie kaputt ist.
Manche Plattformen bieten die Möglichkeit, bei einem Wechsel wenigstens die Kontaktdaten der eigenen Community mitzunehmen. Aber spätestens bei den Finanzen muss man immer neu anfangen. Hoffnung bieten neue Open-Source-Projekte wie BeaBee, das eine Plattform für Community-Journalismus schaffen will. Hier können Nutzer:innenverwaltung und Bezahlung in der eigenen Hand liegen.
…sollte sich von einem kaputten Werbesystem verabschieden.
Das aktuelle Online-Werbe-Ökosystem mit seinem intransparenten Tracking ist kaputt: Alle haben die Kontrolle verloren. Niemand kann bei den großen Werbe-getriebenen Webseiten noch genau sagen, welche Daten über Interessen und Nutzungsgewohnheiten der Leser:innen wohin überall abfließen und verkauft werden.
Und hier haben wir selbstverständlich eine Herausforderung: Viele aktuelle journalistische Geschäftsmodelle basieren auf diesem Tracking-Ökosystem. Sie nehmen das in Kauf, ob gewollt oder nicht, dass das eigene Publikum gläsern wird. Das Modell finanziert zu Teilen Journalismus, der damit auch gesellschaftlich wertvolle Arbeit liefert, die sonst so vielleicht nicht ermöglicht werden könnte.
Aber die Frage ist doch: Sollte nicht der Journalismus der Zukunft die Grundrechte des eigenen Publikums respektieren und schützen?! Wir brauchen deswegen neue Wege aus der Abhängigkeit dieses intransparenten Werbe-Ökosystems heraus.
…braucht Pressefreiheit – und setzt sich gegen Überwachung ein.
Viele Überwachungsmaßnahmen gefährden die Pressefreiheit, beispielsweise durch eine Aushebelung des Quellenschutzes beim staatlichen Zugriff auf Verbindungsdaten im Rahmen der Vorratsdatenspeicherung. Oder durch die drohende Chatkontrolle. Mit der soll zur Bekämpfung von sexualisierter Gewalt gegen Kinder automatisiert alle unsere verschlüsselte Kommunikation durchleuchtet werden. Das ist brandgefährlich. Alleine die Etablierung eines solchen Mechanismus öffnet Tür und Tor für die Ausweitung. Und morgen besteht dann die abgeglichene Datenbank nicht mehr aus Missbrauchsdarstellungen sondern aus politisch unliebsamen Inhalten.
Oder indem Pegasus-Staatstrojaner gegen zahlreiche Journalist:innen eingesetzt werden. Was leider auch in diversen EU-Staaten praktiziert wurde. Da hilft es auch nicht, wenn die EU-Kommission im Rahmen der Stärkung der Medienfreiheit Staatstrojaner verbieten will – außer bei schweren Straftaten oder Belange der „nationalen Sicherheit“. Polen, Griechenland und Ungarn zeigen aktuell, dass die Überwachung von Journalist:innen genau damit begründet wird.
Für mich persönlich ist das nicht nur Theorie, vor sieben Jahren waren wir bei netzpolitik.org Opfer von Ermittlungen wegen Landesverrat. Das ist einerseits eine schwere Straftat, andererseits wurden die Ermittlungen mit „nationaler Sicherheit“ begründet. Diese wurden vom ehemaligen Verfassungsschutzpräsidenten und heutigem Rechtsaußen-Verschwörungsideologen Hans-Georg Maaßen auf den Weg gebracht. Sowas kann leider immer noch passieren.
Reformen mit besserem Schutz von Journalist:innen gegen Landesverrat-Ermittlungen und dem Offenbaren von Staatsgeheimnissen waren vom ehemaligen Justizminister Heiko Maas versprochen und scheiterten an der CDU/CSU. Die Union ist jetzt nicht mehr an der Macht – aber wo bleiben die versprochenen Reformen?
…muss gemeinnützig sein können.
Früher war es einfacher. Es gab kommerzielle Medien, den Öffentlich-Rechtlichen Rundfunk und einige wenige Exoten wie die taz. Heute haben wir teilweise eine Krise der Geschäftsmodelle, in Folge dessen gibt es eine zunehmende Konzentration vor allem auf lokaler Ebene. Häufig funktionieren die bekannten Geschäftsmodelle nicht mehr, weil die Zielgruppen zu klein werden. Gerade auf lokaler Ebene wird es zunehmend schwierig, Betrieb und Recherche zu finanzieren. Auch wenn es viele spannende Neugründungen wie zum Beispiels RUMS aus Münster gibt.
Einige Medien gehen schon erfolgreich den gemeinnützigen Weg. Aber teilweise hat auch das seinen Preis. Correctiv oder Riffreporter müssen über die Bildungs- oder Demokratie-Schiene Workshops machen, anstatt sich auf journalistische Recherchen zu konzentrieren. Finanztip und netzpolitik.org sind wegen Verbraucherschutz gemeinnützig. Bei uns ist das thematisch auch einfach, weil sehr viele Themen Nutzer:innenrechte und damit den Verbraucherschutz betreffen. Aber worauf kann eine kleine Lokalredaktion bei der Gemeinnützigkeit zurückgreifen?
Eine Lösungsmöglichkeit ist, Journalismus in die Gemeinnützigkeitszwecke aufzunehmen. Das ermöglicht eine dritte Säule neben kommerziellen Medien und dem Öffentlich-Rechtlichem System. Es wird niemanden etwas weggenommen, aber mehr Wettbewerb ermöglicht. Gerade da, wo es , wie auf lokaler Ebene häufig keinen Wettbewerb mehr gibt, weil die Geschäftsmodelle nicht mehr funktionieren. Immer mehr Stiftungen sehen die Systemrelevanz von Journalismus als wichtige Säule unserer Demokratie an. Und würden mehr Geld in diese Richtung geben, wenn sie die rechtlichen Möglichkeiten dazu bekommen.
Schach und Modellbau sind schon heute gemeinnützig. Das ist auch ok so. Aber Journalismus ist systemrelevanter und müsste deswegen auch gemeinnützig sein. Gemeinnütziger Journalismus bringt viele neue Chancen zur Finanzierung und schafft Rechtssicherheit.
…nutzt Informationsfreiheit und Open Data.
Das Informationsfreiheitsgesetz bietet neue Möglichkeiten für die Recherche und zur Kontrolle der Arbeit des Staates. Offene Daten bieten Datenjournalist:innen neue Möglichkeiten. Ersteres ist tatsächlich einfacher, weil dafür gibt es Plattformen wie Fragden-Staat. Unklar ist leider, ob man die gewünschten Informationen auch direkt bekommt oder erstmal klagen muss. Offene Daten zu nutzen ist deutlich schwieriger – nicht aus der Wikipedia, da gehts sehr einfacher – sondern wenn man staatliche Informationen nutzen möchte. Da ist Deutschland noch Entwicklungsland.
Die von der Ampel-Koalition versprochene Weiterentwicklung des Informationsfreiheitsgesetzes zu einem Transparenzgesetz ist notwendig. Denn eigentlich sollten nicht wir die Bittsteller sein, die den Staat um Infos anfragen, um ihn zu kontrollieren. Sondern der Staat sollte proaktiv soviel wie möglich transparent veröffentlichen – und wir diskutieren dann über die Ausnahmen. Das würde auch die Justiz entlasten, denn man müsste weniger klagen.
Apropos Offene Daten. Vorliegende Dokumente können selbstverständlich auch mit dem Publikum geteilt werden. Im Netz ist in der Regel noch etwas Platz dafür und eine Veröffentlichung bietet dem Publikum die Möglichkeit, die Arbeit von Journalist:innen kritisch zu hinterfragen und mit mehr Augen drauf zu schauen. Es gibt klare Ausnahmen dafür, wie eine Einhaltung des Quellenschutzes sowie der Schutz von Persönlichkeitsrechten. Aber noch ist es die Ausnahme, dass Dokumente im Rahmen eines offenen Journalismus auch mit der Öffentlichkeit geteilt werden. Das sollte sich ändern.
…ist transparenter.
Apropos Transparenz. Das sollten Medien und Journalist:innen nicht nur vom Staat einfordern, Journalismus kann auch mit gutem Beispiel vorangehen.
Es gibt viel Misstrauen gegen Journalist:innen. Manches wird von bestimmten Kreisen instrumentalisiert, um Vertrauen zu zerstören und die eigenen Desinformationsideologen zu kommunizieren. Anderes ist hausgemacht.
Journalismus kann aber selbst daran arbeiten, mehr Vertrauen herzustellen, indem er transparenter wird. Er müsste mehr eigene Abhängigkeiten anzeigen, denn raus kommt das meiste irgendwann eh. Matthias Döpfner ist da nur ein großes aktuelles Beispiel. Wir nutzen bei netzpolitik.org beispielsweise monatliche Transparenzberichte, um über unsere Einnahmen und Ausgaben zu berichten. Und damit proaktiv Misstrauen entgegen zu treten, unsere Meinung wäre gekauft. Ich muss aber zugeben, bei uns ist es einfach, wir werden zu fast 100 Prozent durch Spenden unserer Leser:innen finanziert. Aber warum nicht mehr die eigenen Geschäftsmodelle und Einkommensströme erklären, um transparent zu machen, wie sich Journalismus finanziert und wofür das Geld ausgegeben wird?
Journalismus braucht auch eine bessere Fehlerkultur und sollte die eigenen Fehler transparent korrigieren und kommunizieren. Journalist:innen müssen ihre eigene Arbeit besser erklären, denn für unser Publikum ist es nicht mehr selbstverständlich zu verstehen, wie Journalismus funktioniert. Wir leben nicht mehr in den Achtzigern mit wenigen Medien – und Digitalkompetenz muss wirklich vermittelt werden anstatt nur in Sonntagsreden vorzukommen.
…ist konstruktiver.
Schlechte Nachrichten klicken sich besser. Das mag aus kommerzieller Sicht stimmen. Aber was macht das mit unserem Publikum? Was macht das mit uns? Ist das die richtige Strategie zur Vermittlung von Journalismus? Wollen wir in einer Welt leben, die nur von negativen Berichten dominiert ist und in der unser Publikum die Hoffnung verliert? Klimakrise, Krieg, Corona – wir haben zahlreiche Krisen. Aber da müssen wir durch, depressiv werden hilft bei der Bewältigung wenig.
Zukünfte können in mehr konstruktivem Journalismus liegen, der Handlungsmöglichkeiten aufzeigt und das Publikum auf Augenhöhe anspricht. Wir brauchen mehr Experimente in diese Richtung. Und wieder mehr Hoffnung.
…ist kollaborativ und dialogisch.
Auch wenn viele Konkurrenten sind um Abos, Aufmerksamkeit und das Geld des Publikums – gemeinsame Recherchen werden immer einfacher – durch das Netz – und bieten viele Chancen. Wir können in der Kooperation Ressourcen, Fähigkeiten und Know-How bündeln und die Ergebnisse jeweils auf den eigenen Kanälen und für die jeweiligen Zielgruppen ausspielen.
Die Herausforderung dabei ist natürlich: Schlanke Strukturen, um nicht die ganze Zeit in Abstimmungsmeetings zu sitzen, Zusammenarbeit auf Augenhöhe bei unterschiedlich großen Partner:innen und natürlich Respekt und Mut.
Wir haben noch nicht mal angefangen, die Möglichkeiten alle zu verstehen, wie wir im Netz im Dialog mit unserem Publikum arbeiten und es besser einbinden können. Sei es zur Weiterentwicklung von besseren Services oder bei Crowd-Recherchen.
Das Publikum kann von zahlenden Kund:innen zur Community werden. Der Journalismus der Zukunft liegt auch in offenen Ökosystemen.
Wir sind immer noch in der Experimentierphase. Es war noch nie spannender, Journalismus zu machen. Es gibt so viele Möglichkeiten wie noch nie. Machen wir etwas Gutes daraus.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Die EU-Kommission will den Einsatz von Staatstrojanern und anderen Überwachungsmethoden gegen Journalist-innen stark einschränken. NGOs geht ihr Gesetzesentwurf aber nicht weit genug.
Die EU-Kommission stellt diese Woche ein Gesetz vor, das die Presse in der Europäischen Union vor staatlicher Überwachung und Einflussnahme schützen soll. Ein Kernpunkt dabei ist ein generelles Verbot, Journalist:innen und ihre Angehörigen festzunehmen, zu durchsuchen, zu bestrafen oder zu überwachen, um an ihre Quellen heranzukommen. Ausgenommen seien nur Überwachungsmaßnahmen „im öffentlichen Interesse“. Der Entwurf verbietet ausdrücklich den Einsatz von Staatstrojanern zur Überwachung. Deren Verwendung soll nur aus Gründen der nationalen Sicherheit oder bei der Aufklärung schwerer Straftaten erlaubt bleiben. Jede Maßnahme müsse mit der EU-Grundrechtecharta vereinbar sein.
Die Kommission reagiert mit ihrem Vorschlag für den „European Media Freedom Act“ (Europäisches Medienfreiheitsgesetz) auf wachsende Sorge über die Pressefreiheit in einigen EU-Staaten. In Ungarn, Polen und Griechenland wurden zuletzt Journalist:innen mit dem Staatstrojaners Pegasus gehackt. Als Bedrohung wertet die Kommission aber auch unklare Besitzverhältnisse und die Konzentration von Medieneigentümerschaft in wenige Hände, sowie staatliche Einflussnahme durch Subventionen wie etwa in Österreich. Auch zu diesen Punkten macht die Kommission Vorschläge. Der Entwurf der Kommission wurde vor der offiziellen Vorstellung des Gesetzes vom französischen Medium Contexte geleakt (hier abrufbar).
NGOs äußerten schon im Vorfeld Bedenken, ob die Ideen der Kommission weit genug gehen. Sie zweifeln beispielsweise daran, wie effektiv das vorgeschlagene Überwachungsverbot tatsächlich ist. Denn die ungarische Regierung und polnische Regierung beriefen sich bei der Überwachung von Journalist:innen ausdrücklich auf den Schutz der nationalen Sicherheit. Außerdem dürfe der Schutz vor Überwachung nicht auf bestimmte Technologien wie Trojaner beschränkt sein, kritisiert die Bürgerrechtsorganisation Liberties.eu. „Wir brauchen zukunftssichere Lösungen, um Journalisten vor Lauschangriffen zu schützen und sicherzustellen, dass ihre verschlüsselte Kommunikation vor jeglicher Spähsoftware sicher bleibt.“
EuGH-Klage gegen Trojaner möglich
Die Kommission verweist in ihrem Gesetzesvorschlag darauf, dass Journalist-innen in verschiedenen EU-Staaten nicht immer gleich viel rechtlichen Schutz vor staatlicher Überwachung genießen. Das Gesetz soll dies ändern und das Reaktionsgeheimnis erstmals einheitlich unter den Schutz von EU-Recht stellen. Vom Staat bespitzelten Journalist-innen müsse die Möglichkeit zur Beschwerde bei einer unabhängigen nationalen Stelle gegeben werden. Diese muss binnen drei Monaten entscheiden, ob die Überwachungsmaßnahme gerechtfertigt gewesen sei. Im Streitfall können die Betroffenen bis vor den Europäischen Gerichtshof ziehen – ein Rechtsweg, der bislang bei solchen Verstößen gegen die Pressefreiheit nicht möglich war.
Umstritten ist auch der Vorschlag der Kommission, dass Plattformen wie YouTube und Facebook für Nachrichtenmedien privilegierte Beschwerdewege gegen das Löschen oder Sperren ihrer Inhalte schaffen müssen. Demnach sollen Einsprüche von Medien gegen Löschentscheidungen bevorzugt gegenüber anderen solchen Beschwerden behandelt werden. Wenn ein Medium mit seinen Inhalten regelmäßig den Zugang zu einer großen Plattform verliere, müsse diese in einen Dialog über eine „freundschaftliche Lösung“ des Problems eintreten, heißt es im Entwurf der Kommission. Dieses Medienprivileg könnte jedoch unfreiwillig die Propaganda autoritärer Staaten wie Russland unterstützten, kritisiert Liberties.eu. Ein ähnlicher Vorschlag für ein Privileg für Presseverlage im kürzlich beschlossenen Digitale-Dienste-Gesetz wurde von einer Mehrheit im EU-Parlament zurückgewiesen.
Einen Transparenzvorsprung bringen könnte das Medienfreiheitsgesetz bei öffentlichen Inseraten. In Ländern wie Österreich verteilt die öffentliche Hand jährlich Millionenbeträge an Medien für Werbeschaltungen, deren Wirksamkeit zumindest fragwürdig ist. Die Inseratenaffäre um Sebastian Kurz verdeutlichte das Korruptionspotential solcher versteckten Subventionen an die Presse – denn allzu leicht kann Werbegeld an politisch gewogene Berichterstattung geknüpft sein. Der Gesetzesvorschlag der EU-Kommission sieht nun vor, dass mit öffentlichen Mitteln finanzierte Werbeschaltungen nach objektiven, tranparenten Kriterien verteilt werden müssen. Auch müsste die Mittelausgabe an Medien vollständig offengelegt werden.
Großer Schritt zu einheitlichem EU-Medienrecht
Kritik gibt es unterdessen an den Vorschlägen der Kommission beim Thema Medienpluralismus. Expert:innen hatten von der Kommission gefordert, gegen Tendenzen wie jenen in Staaten wie Ungarn entgegenwirken. Dort haben regierungsnahe Geschäftsleute die meisten privaten Zeitungen, Radios und Nachrichtenseiten aufgekauft – geschrieben und gesendet werden darf in diesen nur, was Regierungslinie ist. Doch der Gesetzesentwurf der Kommission enthält dagegen keine bindenden Maßnahmen. Stattdessen schlägt sie lediglich vor, dass die Medienkonzentration regelmäßig von eine unabhängigen Behörde erhoben werden muss – ohne Konsequenzen, wenn das Ergebnis problematisch ausfällt.
Ein Grund für die Zurückhaltung der Kommission dürfte sein, dass jeder Eingriff in die nationalen Medienlandschaften wohl massiven Widerstand der Mitgliedsstaaten im Rat auslösen dürfte, der dem Gesetz zustimmen muss. Denn die EU betreibt bislang kaum Medienregulierung, der vorliegende Entwurf ist ein erster großer Schritt hin zu einem einheitlichen EU-Medienrecht. Entsprechend verhalten äußerten sich einige Pressefreiheitsorganisationen. Die positiven Seiten des Entwurfs – etwa dass er erstmals überhaupt einen Mindeststandard für den Schutz von Journalist:innen gegen Überwachung schafft – sollten nicht vom Start weg von berechtigter Kritik an seinen Schwächen überschattet werden, heißt es hinter vorgehaltener Hand. Für das Medienfreiheitsgesetz dürften nun langwierige Verhandlungen im Rat und im EU-Parlament anstehen. Wann das Gesetz tatsächlich beschlossen werden kann, traut sich in Brüssel niemand vorherzusagen.
Korrektur vom 13. September 2022: Im ersten Satz wurde nachträglich das Wort „heute“ durch „diese Woche“ ersetzt. Die Vorstellung des Gesetzes, die ursprünglich für Dienstag erwartet wurde, wurde von der Kommission für Freitag angesetzt.
Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.
Dem real existierenden Datenschutz geht es leider häufiger ums Prinzip als um das digitale Leben.
Datenschutz. Eine gute Idee, ein wichtiges Konzept und über Bande durch die »informationelle Selbstbestimmung« seit einem Verfassungsgerichtsurteil von 1983 auch grundgesetzlich geschützt . Irgendwie. Und natürlich ist Datenschutz in Zeiten von digital angetriebenen Überwachungsmöglichkeiten essenziell, bestimmte persönliche Daten gehen den Staat nichts an und alle anderen auch nicht. Leider gibt es ein Aber. Denn die Idee Datenschutz unterscheidet sich erheblich von dem, womit man in der Netz- und IT-Welt fast täglich konfrontiert wird.
In Deutschland herrscht nicht ein menschenzugewandter, aufgeklärter, progressiver Datenschutz vor, sondern ein real existierender Datenschutz. Natürlich gibt es eine Vielzahl von Leuten, die einen modernen, aufgeklärten Datenschutz propagieren, vielleicht sind sie sogar in der Mehrheit. Es wäre aber eine sehr leise Mehrheit, denn der Diskurs und damit auch die öffentliche Meinung wird geprägt von so lauten wie oft fundamentalistischen Neinsagern. Real existierender Datenschutz basiert nicht auf der sinnvollen Übertragung von Grundwerten ins digitale 21. Jahrhundert – sondern auf einem veralteten, dysfunktionalen Bild der digitalen Gesellschaft und einer Reihe von längst nicht mehr haltbaren Erzählungen.
Damit beginnt das Problem, denn Datenschutz und die dazugehörige Gesetzgebung ist so oft umständlich und im Detail unklar, dass man auf Vermutungen und Erzählungen zurückgreift, selbst in informierten Kreisen. Konkret bedeutet das, dass ein und derselbe Sachverhalt von unterschiedlichen Fachleuten derart unterschiedlich interpretiert wird, dass man oft nicht einmal ein Mindestmaß an Gewissheit erreichen kann. Dieses im digitalwirtschaftlichen Alltag lähmende Manko ist entgegen dem Mantra vieler Datenschützer durch die DSGVO vielleicht besser, aber noch lange nicht gut geworden. Wie man zum Beispiel am fortlaufenden deutschen E-Rezept-Fiasko erkennen kann.
Staatliche und halbstaatliche IT-Projekte sind in Deutschland ohnehin eine Abfolge von 50 Shades of Scheitern. So sollte das E-Rezept schon mehrfach längst eingeführt worden sein, die dahinterstehenden Technologien sind auch wirklich kein magisches Hexenwerk digitaler Aliens. E-Rezept-Konzepte werden in Europa angewendet in Albanien, Kroatien, Dänemark, Estland, Finnland, Island, Lettland, Litauen, Tschechien, Griechenland, Malta, Montenegro, Norwegen, Portugal, Rumänien, Slowenien, Schweden, Spanien, der Ukraine, den Niederlanden, Frankreich, Italien, Russland und im Vereinigten Königreich. Außerhalb von Europa in China, Indien, Südafrika, Bangladesch, Ägypten, Malaysia, Australien, Ruanda, den Philippinen, Brasilien, Israel, Thailand, Kanada, Ecuador, Kenia, Bolivien, Panama, Costa Rica, Paraguay und jeder Menge anderer Länder.
Selbst Österreich, das sonst in digitalstaatlichen Dingen unter starkem Deutschlandverdacht steht, hat diesen Sommer das E-Rezept eingeführt. Die Größenordnung der Veränderung lässt sich in den USA erkennen, wo 2020 84 Prozent aller Rezepte (Prescriptions) digital waren . In Deutschland aber wurde der für Anfang September angesetzte regionale Testlauf in Schleswig-Holstein kurz vorher von der Kassenärztlichen Vereinigung abgesagt . Und zwar mit der Begründung: Das hat die Datenschutzbehörde untersagt. Zwei Wochen vor dem Start.
Hier lohnt es sich ausnahmsweise mal nicht, genauer hinzuschauen, schon weil man dann völlig verzweifelt wäre und alles anzünden wollen würde. Aber die erste sinnvolle Reaktion auf diese Absage ist ja komplett inhalteunabhängig, denn sie lautet zwingend: Moment – hätte man das nicht vorher wissen können? Ja, hätte man sogar müssen. Aber hier zeigt sich das ganze Elend des real existierenden Datenschutzes: Er ist durch eine Vielzahl von Absurditäten, Inkonsistenzen und Fortschrittsfeindlichkeiten zu einer intransparenten Verhinderungswaffe geworden.
Es lässt sich von außen und bei einer Vielzahl von Projekten sogar von innen kaum sagen, ob Datenschutz hier wirklich Probleme gemacht hätte oder nicht. Ob es simple, datenschutzkonforme Möglichkeiten gegeben hätte oder nicht. Worunter viele aufgeklärte Datenschützer selbst enorm leiden, denn das heißt: Mit einem hartnäckigen Verweis auf Datenschutz kann man mahnend und warnend und Strafen an die Wand malend selbst dann unliebsame Projekte killen, wenn eigentlich datenschutzrechtlich gar nichts dagegen spricht. Datenschutz ist deshalb in Deutschland nicht nur das größte digitale Verhinderungsinstrument, sondern zugleich auch der größte digitale Sündenbock.
Datenschützer selbst sind an diesem Zustand aber nicht völlig unschuldig. Beim Datenschutz gibt es wie bei ungefähr allem anderen verschiedene Schulen und Strömungen. Einige darunter haben über Jahrzehnte sehr laut und sehr unnachgiebig und sehr schwer nachvollziehbar gegen fast jede Form von Datengebrauch gewettert. So hat sich ein selbstverstärkendes Bild verfestigt: Wer in der Öffentlichkeit in erster Linie mit Warnungen, Mahnungen und Verboten präsent ist und dann auch noch schwer nachvollziehbar oder lebensfern kommuniziert, trägt eine gehörige Mitverantwortung für das Gefühl in so vielen Köpfen: Datenschutz nervt und verhindert.
Die öffentlich empfundene Unnachgiebigkeit des Datenschutzes liegt vor allem an einer in Deutschland sehr einflussreichen Strömung des Datenschutzes, die im deutschen Mekka des Datenschutzes, Schleswig-Holstein, geprägt wurde. Sie beruft sich auf sehr unerquickliche Weise auf das oben angeführte Urteil des Bundesverfassungsgerichts mit dem Grundrecht auf informationelle Selbstbestimmung. Das Gericht hat damals maßgeblich mit dem Artikel 1 des Grundgesetzes argumentiert, also: »Die Würde des Menschen ist unantastbar.«
Das liegt nahe, aber hat heute in der harten Ausdeutung der radikalen Datenschutzfraktion die Folge, dass es den Interessenausgleich erschwert oder verunmöglicht. Wenn Datenschutz praktisch gleich Würde ist, dann ist jede Verhandlung aussichtslos oder sogar frevelhaft, weil die Würde ja unverhandelbar ist. Das ist der Kern meiner Kritik am real existierenden Datenschutz: Es geht zu selten um praktische Abwägung von Nutzen und Kosten und viel zu oft um vorgeblich unverhandelbare Absolutheiten.
Daraus entstehen groteske Situationen. Während der Pandemie wollte im Sommer 2021 der hessische Landesdatenschutzbeauftragte den Schulen Videokonferenzsysteme wie Microsoft Teams verbieten und begründete dies damit, dass im neuen Schuljahr ein landeseigenes Videokonferenzsystem zur Verfügung stehen würde . Doch die Landesregierung sagte die Einführung dieses Systems kurzfristig wieder ab, sodass die Schulen völlig umsonst vor den Kopf gestoßen wurden. Datenschilda.