Der Gläserne Mensch: Film und Realität
Im ersten Teil unserer Serie zum Thema „Der Gläserne Mensch in Film und Realität“ haben wir uns am Beispiel von Orwells "1984" mit stillen, aber sehr direkten Methoden der Überwachung auseinandergesetzt. Also all jenen Fällen, in denen Nutzerdaten an der Quelle abgegriffen werden, ohne dass es einer weiteren Filterung bedarf. Nun, im zweiten Teil, befassen wir uns mit der maschinengestützten Berechnung zukünftiger Ereignisse.
Teil 2: Captain America und der Minority Report
Hier wird uns zunächst ein verwandtes, aber schon deutlich weiterreichendes Thema beschäftigen: Methoden zur Verhinderung von Straftaten bevor diese überhaupt stattfinden. Was zunächst wie waschechte Science-Fiction klingt, wird auch von großen Filmstudios gerne im entsprechenden Genre angesiedelt. Das sogenannte „Predictive Policing“ ist tatsächlich aber gar keine Zukunftsmusik mehr…
In diesem Zusammenhang wird häufig aus dem Film „Minority Report“ zitiert, was zwar ein vorwiegend fantastisches, aber dennoch sehr spannendes Beispiel für Predictive Policing ist. In dieser Verfilmung von Stephen Spielberg (2002) liegt der Fokus auf der Verhinderung zukünftiger Verbrechen durch Wahrsagung bzw. Vorausahnung („Präkognition“). Die Handlung basiert dabei auf einer Kurzgeschichte von Philip K. Dick, welche bereits 1956, also nur acht Jahre nach Orwells „1984“, erschienen ist. Wird in dem in „Minority Report“ dargestellten System ein Verbrechen (vorzugsweise Mord oder Diebstahl) vorausgesagt, können die zukünftigen Täter vorsorglich unter Arrest gestellt werden – selbst wenn diese selbst noch gar nichts von dem Verbrechen ahnen, dass sie bald begehen sollen.
Predictive Policing: Die Zukunft der Polizeiarbeit?
Etwas näher an der Realität, aber gar nicht so weit von der Geschichte des „Minority Report“ entfernt, ist (überraschend) der zweite Film um den Marvel-Superhelden Captain America (Captain America: The Winter Soldier/The Return of the First Avenger). Hier wird der Gedanke des Predictive Policing weitergesponnen. Nicht nur, dass „Cap“ sich mit den zweifelhaften Motiven und Methoden der fiktiven Behörde S.H.I.E.L.D. herumschlagen muss. Ihm wird im Laufe des Filmes auch eine neue, drastische Welt der präventiven Verbrechensbekämpfung vorgestellt: Das Projekt „Insight“.
Die gesammelten Daten von Millionen Menschen werden von Insight analysiert und auf verdächtige Muster gescannt. Die Profile von potenziellen Terroristen (welche auf Basis von Wahrscheinlichkeiten identifiziert werden) werden an schwebende und schwer bewaffnete Plattformen, sogenannte Helicarrier, übermittelt. Diese machen die Zielpersonen anschließend ausfindig und eliminieren die „Bedrohung“ – noch bevor sie entstehen kann.
An dieser Stelle möchten wir gleich Entwarnung geben: Noch muss niemand fürchten, beispielsweise aufgrund seines Verhaltens im Internet, aus heiterem Himmel erschossen zu werden. Automatische Kampfplattformen wie bei Captain America gibt es definitiv nur im Kino.
Trotzdem hat der Wunsch, Kriminellen einen Schritt voraus sein zu können, in Form des Predictive Policing bereits Einzug in die Realität gehalten. Besonders in den USA wird dabei Analysesoftware genutzt, um u.a. die Effizienz der zur Verfügung stehenden Einsatzkräfte zu steigern. Auch in einigen deutschen Bundesländern, darunter Bayern, gibt es erste Ansätze für analysegestützte Verbrechensprävention.
Aktuell sind die Zweifel am Erfolg noch berechtigt: Nicht nur fehlt vielen Strafverfolgungsbehörden (insbesondere auch in Deutschland) die Möglichkeit, die gesammelten Daten angemessen zu verarbeiten. Auch die tatsächliche Umsetzung der Maßnahmen, also z.B. verstärkter Patrouillendienst in kritischen Gebieten, gestaltet sich nicht immer als praktikabel. Zudem gibt es teilweise sogar innerhalb der Behörden Zweifel am Erfolg – wenngleich dies die Lust am Datensammeln bei den Behörden nicht unbedingt mindert. Relevanter scheint die Algorithmus-basierte Verbrecherjagd bereits für Geheimdienste zu sein, beispielsweise bei der Abwehr von groß angelegten terroristischen Angriffen.
Algorithmen im Alltag
Generell ist automatisiertes Profiling allerdings für die meisten Menschen bereits Alltag. Egal ob Sie Ihren Status auf Facebook ändern, auf Amazon eine neue Kaffeemaschine bestellen oder eben nur nach den Zielen für die nächste Urlaubsreise suchen: Sie können sich sicher sein, dass Ihre Daten auf irgendeine Art gespeichert und verarbeitet werden.
Die Verarbeitung geschieht meist vollkommen computerbasiert. Einerseits soll sie dazu beitragen, Ihnen die Nutzung des Dienstes Ihrer Wahl möglichst einfach und angenehm zu gestalten. Andererseits sollen Sie natürlich beim nächsten Mal möglichst noch bequemer zum Ziel kommen. Computer analysieren also Ihr Nutzerverhalten und passen die Angebote und Suchergebnisse Ihrem so erstellten Profil bestmöglich an.
Problematisch wäre diese Art der Datensammlung nicht unbedingt – wenn es denn dabei bliebe. Immerhin geben Nutzer Ihre Präferenzen mit Einwilligung und Absicht, um ein besseres Nutzererlebnis zu bekommen. Unternehmen können ihrerseits Angebote noch passender auf Zielgruppen zuschneiden. Theoretisch ist der Tausch, Daten gegen Service, also eine Win-win-Situation.
Wirklich kritisch werden derartige Informationen vor allem unter zwei Bedingungen: Zum einen, wenn die Daten von vielen (unabhängigen) Einzelstellen an einem Punkt gebündelt und miteinander in Beziehung gesetzt werden. Die Worst-Case-Szenarien sind zum einen der Verkauf der so entstandenen Profile an andere Akteure aus der Privatwirtschaft, zum anderen der Zugriff durch den Staat und die Nutzung der gesammelten Informationen zu Überwachungszwecken. Stichwort: Big Data.
Algorithmen analysieren, aber wer entscheidet?
Im Gegensatz zur Film-Utopie haben heutzutage noch Menschen die Entscheidungskompetenz darüber, ob und wie mit den Ergebnissen der Datenanalyse umgegangen wird. Dies gilt besonders für die Strafverfolgung: Die Entscheidung, ob und wie eine potenzielle Straftat vereitelt werden kann und soll, trifft in letzter Instanz noch ein Mensch. Und obwohl sich gerade diese menschlichen Entscheidungen häufig als fehleranfällig erweisen können, ist der Faktor Empathie für viele eine wünschenswerte Absicherung gegen maschinelle Fehlberechnungen. Im Bereich der Markforschung und kommerziellen Kundendatenanalyse tritt der Faktor Mensch jedoch vermehrt in den Hintergrund. Problematisch wird es vor allem dann, wenn beide Welten aufeinandertreffen. So macht beispielsweise China mit der Einführung eines „Social Scoring“-Systems ernstzunehmend Schlagzeilen. Dort geht es nämlich genau darum, Menschen durch Algorithmen bewerten zu lassen. Hier schließt sich der Kreis zum orwellschen Überwachungsstaat.