Degitalisierung: Ein Gefühl von Sicherheit

Geht es um Sicherheit, passiert da psychologisch gesehen oft Widersprüchliches. Und damit sind wir mitten in der digitalen Welt voller digitaler Fahrradhelme, die risikoreiches Verhalten begünstigen oder reale Gefahren überdecken. In der Konsequenz nicht immer zum Besseren.

Eine Person leuchtet mit einer Helmlampe des nachts in eine Schlucht
Sicherheit kann ein verzerrtes Gefühl sein – Gemeinfrei-ähnlich freigegeben durch unsplash.com Isaac Davis

Die heutige Folge von Degitalisierung beginnt mit Fahrradhelmen. Oder der digitalen Entsprechung, die als „das ist sicher, das bleibt ja alles auf dem Device“ bezeichnet werden könnte. Aber bleiben wir bei Fahrradhelmen.

Fahrradhelme sind grundsätzlich sinnvoll, um im Falle eines Falles den Schädel zu schützen. Das gilt besonders in einer Verkehrsumgebung, die wie in Deutschland oftmals nur auf Autos ausgerichtet ist. Wenn es zum Sturz auf dem Kopf kommt, kann der Helm Schäden reduzieren, sinnvoll also auf jeden Fall.

Psychologisch gesehen passiert bei der Nutzung von Fahrradhelmen oftmals aber etwas Widersprüchliches: Träger*innen von Fahrradhelmen verhalten sich meist risikofreudiger, weil die gefühlte Sicherheit steigt, selbst wenn sie gar nicht auf einem Sattel sitzen. Das Phänomen ist ausführlich untersucht, wie etwa zuletzt 2019 in Experimenten an der Universität Jena.

Das Phänomen der höheren Risikobereitschaft hat bei Fahrradhelmen auch einen riskant auszusprechenden Namen: Risikohomöostase. Bestimmte Hilfsmittel oder technische Entwicklungen führen zu einem falschen Gefühl von Sicherheit, das dann wiederum zu riskanterem Verhalten führt. Vielleicht nicht immer im direkten Bezug zum Ausgangsproblem; manchmal führen diese Schutzmechanismen an der ein oder anderen Stelle zu ganz anderen Seiteneffekten.

Und damit sind wir mitten in der digitalen Welt voller digitaler Fahrradhelme, die risikoreiches Verhalten begünstigen oder reale Gefahren überdecken, in der Konsequenz nicht immer zum Besseren.

TotalRecall

Ein technologischer Aufreger in der Security- und Privacy-Bubble der vergangenen Tage ist Microsofts neue Recall-Funktion für Windows gewesen. Recall ist eine Art visueller Verlauf für die gesamte Arbeit am Rechner– ähnlich dem Browserverlauf, nur eben um einiges mächtiger.

Mit sogenannter Künstlicher Intelligenz, die auch herausfinden kann, ob in den zurückliegenden Tagen auf einer Webseite oder in einer Anwendung ein bestimmter Text oder bestimmte Bildinhalte enthalten waren. Alles an Texten zum Thema gefühlter Sicherheit oder Bildern von Fahrradhelmen, was ich in den letzten Tagen auf dem Rechner in meinem 205 Tabs (ja, dieser Kolumne ging auch viel Recherche voraus) angesehen habe? Kein Problem.

Das klingt alles erst einmal furchtbar bequem und praktisch, hat aber ein paar massive Seiteneffekte. Aber keine Sorge, Microsoft hat den Bedenken vorgegriffen und bewirbt die Funktion als sicher, weil alle Daten dazu ja „lokal gespeichert und lokal auf Ihrem PC analysiert“ werden.

Das klingt wie ein digitaler Fahrradhelm, der da automatisch mitgeliefert wird. Wenn mal was passiert, keine Sorge: Da ist ein Schutzmechanismus eingebaut. Kann also nicht so schlimm sein, die Funktion. Ohne das Sicherheitsversprechen würden wir uns sicher nicht von Windows alle fünf Sekunden automatisch screenshotten lassen, aber so ist das ja sicher umgesetzt. Das gibt doch gleich noch ein angenehmes Gefühl von Sicherheit bei gleichzeitiger Bequemlichkeit.

Nun ist eine Funktion, die alle fünf Sekunden einen vollständigen Screenshot des Bildschirms macht, diesen in einem unverschlüsselten Ordner ablegt, Textinhalte extrahiert und damit eine Datenbank aufbaut, eine digitale Dual-Use-Technik. Kann friedlich von der Anwender*in genutzt werden, um Inhalte im eigenen Computerverlauf wiederzufinden.

Kann aber auch kriegerisch allerhand anderen Akteur*innen helfen: Dem Ehepartner zum Beispiel, der digitale Gewalt ausüben wollen. Hacker-Gruppen, die vertrauliche Inhalte abgreifen möchten und dafür früher aufwändig eigene Tools schreiben hätten müssen. Unternehmen, die ihre Mitarbeitenden vollumfänglich überwachen wollen.

Die ersten Reaktionen auf Recall waren deswegen mehr als kritisch, zu Recht. Es folgten technische Demonstrationen, wie sicher das doch sei.

Wenig später kam es schon vor offiziellem Release der Funktion zum Unvermeidlichen: Kevin Beaumont, Security Experte, der früher selbst bei Microsoft war, brauchte nur zwei Zeilen Code, um an die Daten der Recall Funktion zu kommen. Es gibt nun ein praktisches Hacker-Tool, um die Recall-Rohdaten zu durchsuchen: TotalRecall.

Systemische Risiken

Am Ende ist Microsoft etwas zurückgerudert und hat zumindest technische Verbesserungen versprochen: Verschlüsselung der Daten auf dem Device, mehr Zugriffsschutz, Recall nun als Funktion, in die aktiv eingewilligt werden muss. Technisch alles gelöst, Happy End?

Nein, denn die technischen Verbesserungen an Recall lassen die systemischen Risiken einer solchen Funktion für vertrauliche digitale Kommunikation außer Acht. Kommunikation von Journalist*innen mit Whistleblowern oder anderen Gruppen, die vertrauliche, aber gleichzeitig abstreitbare Kommunikation führen müssen, sind hier nach wie vor systemisch nicht berücksichtigt.

Wie soll vertraulich miteinander digital kommuniziert werden, wenn möglicherweise Windows an einem der beiden Enden alle fünf Sekunden Screenshots macht? Für bestimmte Gruppen greifen die Implikationen einer solchen inzwischen vermeintlich sicheren, lokal ausgeführten und verschlüsselten Funktion eben weitaus tiefer.

Recall ist aber erst einmal nur ein technisches Detail mit gewissen Auswirkungen auf Teile der Gesellschaft, aber wie sieht es denn mit ähnlicher Technologie auf gesamtgesellschaftlicher Ebene aus?

Wir erleben diese seltsame Mischung aus Bequemlichkeit einer technischen Lösung, gefühlter Sicherheit und viel tiefergehenden, aber ignorierten gesellschaftlichen Risiken immer wieder: Chatkontrolle, Going Dark und Videoüberwachung, um nur einige Themen der vergangenen Tage zu nennen.

Einmal eingerichtete digitale Möglichkeiten und Infrastrukturen zur Unterstützung der inneren Sicherheit werden aber nicht zwangsläufig zurückgebaut, wenn sie sich als unnütz oder nicht klar wirksam erweisen. Beispiel Videoüberwachung: Eine „Evaluation der polizeilichen Videobeobachtung“ aus Nordrhein-Westfalen kommt 2019 zum Fazit, dass „der wissenschaftliche Nachweis eines allgemein kriminalitätsreduzierenden Effekts der Videoüberwachung … bisher allerdings nicht überzeugend geführt werden“ konnte. Auch bei Betrachtungen in Bayern muss die Polizei vergangenes Jahr anerkennen, dass man nicht wirklich Bilanz ziehen könne, ob „die Zahl der Straftaten durch die Videoüberwachung zurückgegangen“ sei.

Maßnahmen wie diese versuchen sich aber oftmals selbst ins Gleichgewicht zu bringen, um ihre Existenz zu rechtfertigen. Eine andere Art von Homöostase quasi, mit manchmal interessanten Ergebnissen. Dazu ein Beispiel aus den 1980er Jahren.

Lüchow-Danneberg

Der Landkreis Lüchow-Danneberg in Niedersachsen ist mit weniger als 50.000 Einwohnern der an Bevölkerung kleinste Landkreis Deutschlands. Wenn es um ein verzerrtes Gefühl von Sicherheit geht, ist Lüchöw-Danneberg aber ein ganz großes Beispiel.

1981 wurde im Landkreis wegen der Atommülltransporte nach Gorleben das Polizeipersonal massiv aufgestockt. Diese aufgestockten Kräfte mussten auch in eher ruhigen Zeiten ohne Transporte beschäftigt werden. Mehr Polizeibeamte unterstützten also den normalen Polizeialltag. Die Zahl der statisch erfassten Vergehen und Verbrechen stieg in Folge an. Mehr Kriminalität also? Nein, das Dunkelfeld wurde kleiner, es wurden also mehr Straftaten bekannt, aber nicht mehr begangen. Der Effekt ist als Lüchow-Dannenberg-Syndrom bekannt. Vereinfacht gesagt, erzeugte mehr Polizei mehr Kriminalität, obwohl sich eigentlich nichts an der Gesamtsituation veränderte.

Übertragen auf die heutige Zeit werden wir im Bereich digitaler Überwachungstechnologien einen ähnlichen Effekt erleben. Staatliche Überwachungsmaßnahmen wie eine anlasslose Vorratsdatenspeicherung, Chatkontrolle oder Videoüberwachung werden neben einem politisch versprochenen Gefühl von Sicherheit auch daran gemessen werden, inwieweit sie sich selbst rechtfertigen.

Digitale Überwachungstechnologien haben dabei gegenüber Maßnahmen in der analogen Welt den Vorteil, dass sie sich datenbasiert relativ einfach selbst eine Wirksamkeit attestieren können. Nur lassen wir dabei ähnlich wie in Lüchow-Danneberg außer Acht, dass diese selbst attestierte Wirksamkeit nur deshalb möglich ist, weil es vorher keine solchen Maßnahmen gab, die vergleichbare Werte hätten liefern können.

Am Ende steigt das Gefühl der Unsicherheit, weil jetzt plötzlich so viele neue, vorher unbekannte Straftaten und Vergehen mittels digitaler Technik aufgedeckt werden. Drastischer Anstieg in einem bestimmten Feld heißt es dann in der Berichterstattung zur Kriminalstatistik. Nur taugt schon die Auswertung der Kriminalstatistik in Deutschland wenig, um genau sagen zu können, ob die Kriminalität wirklich gestiegen ist.

Diesem fatalen Kreislauf aus statistischen Entwicklungen und deren verzerrter Interpretation, die mehr Überwachungstechnologien scheinbar rechtfertigen, gilt es vor allem durch differenzierte und kluge Politik entgegenzuwirken, auch im Digitalen. Ein Großteil dieser Politik, die Massenüberwachung gegen ein falsches Gefühl von Sicherheit eintauscht, wird dabei von europäischer Ebene kommen. Chatkontrolle, Going Dark, Videoüberwachung durch KI – alles Regelungen der gefühlten Sicherheit, die auf EU-Ebene verhandelt werden oder wurden.

Wenn ihr diese Kolumne also am Erscheinungstag lest: An diesem 9. Juni gilt also auch in Hinblick auf die Netzpolitik: Geht wählen!


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Es gibt neue Nachrichten auf friedliche-loesungen.org
:

Nur wer angemeldet ist, geniesst alle Vorteile:

  • Eigene Nachrichten-Merkliste
  • Eigener Nachrichtenstrom aus bevorzugten Quellen
  • Eigene Events in den Veranstaltungskalender stellen
M D M D F S S
 
 
 
 
 
1
 
2
 
3
 
4
 
5
 
6
 
7
 
8
 
9
 
10
 
11
 
12
 
13
 
14
 
15
 
16
 
17
 
18
 
19
 
20
 
21
 
22
 
23
 
24
 
25
 
26
 
27
 
28
 
29
 
30