Videoüberwachung: Bringen mehr Kameras mehr Sicherheit?

Aufs erste klingt das, was die Initiatoren des Volksbegehrens für mehr Videoüberwachung in Berlin vor hat, wie ein Widerspruch: einerseits mehr öffentliche Überwachung, mehr Kameras, und andererseits ein erhöhter Schutz der Privatsphäre. Kann das sein? Ein genauerer Blick zeigt, dass das rein technisch zwar theoretisch denkbar ist, doch die heutige Technik noch nicht dazu in der Lage ist, Situationen gut genug einzuschätzen.

Erfahrungen aus der Vergangenheit zeigen zudem, dass die Privatsphäre unter dem Vorwand der Sicherheit auch immer leiden musste und im Zweifel gute Vorsätze über den Haufen geworfen wurden. Daten wecken Begehrlichkeiten, darauf verweisen Privacy-Forscher immer wieder.

Schließlich verraten Bilder und Videoaufnahmen sehr viel – gerade in Kombination mit den modernen Methoden des maschinellen Lernens: Wie viel eine künstliche Intelligenz bereits heute allein aus Bildern über eine Stadt und ihre Bewohner lernen kann, das zeigt ein Projekt aus Zürich: Dort haben Forscher allein anhand aller verfügbaren Bilder der Stadt nicht nur die Gebäude und Straßen digital nachgebaut, die Software kann auch allein aus diesen Informationen berechnen, welche Gebäude beispielsweise touristisch interessant sind oder erkennen, wenn sich auf einem Platz auffällig viele Menschen ansammeln oder auf einer Straße ungewöhnliche Bewegungen stattfinden.

Gefährliche Situation erkennen

Das sind Informationen, die einerseits für Städte oder für die Überwachung der öffentlichen Sicherheit sehr wertvoll sein können, andererseits Bedenken rund um die Privatsphäre hervorrufen. Dem sind sich die Wissenschaftler bewusst, und sie betonen, dass ihr System von Anfang an nach dem Motto „Privacy by design“ entwickelt wurde. Das bedeutet in diesem Fall, dass keinerlei Fotos oder Videos an sich an die Öffentlichkeit gelangen, sondern dass die Daten von

Computerprogrammen direkt in ein Modell umgerechnet werden. Erst dieses wird dann für die Stadtplanung und andere Zwecke verwendet. Ähnliches hat auch die Berliner Initiative vor: Die Technik soll ganz ohne menschliche Hilfe erkennen, wann es sich um eine gefährliche Situation oder um eine verdächtige Person handelt, und nur entsprechende Bilder an die Behörden weiterleiten.

Das würde womöglich sogar Arbeitszeit der Polizei sparen, so eine Vision: Wozu Streifenpolizisten auf gut Glück patroullieren und nach Verdächtigen Ausschau halten lassen, wenn das alles intelligente Algorithmen können? „Die Idee, Videodaten in der Kamera vorzuanalysieren und nur ausgewählte Daten weiterzugeben ist letztendlich uralt“, sagt Susanne Boll von der Uni Oldenburg.

Auffälligkeit weist nicht immer auf Attentäter hin

Bislang ließ sich diese Idee allerdings kaum umsetzen, da Maschinen kaum in der Lage waren, eine Situation zu bewerten. „Mit dem Deep Learning werden natürlich nun neue Hoffnungen geweckt, wichtige von unwichtigen Daten zu unterscheiden und nur die wichtigen Videodaten auch weiterzuleiten.“ Diese neue Form des maschinellen Lernens ist besonders gut darin, Muster zu erkennen. Als Beispiele wurden in der Debatte um die Berliner Initiative Menschen genannt, die auffällig lange irgendwo warten oder auffällig häufig eine Rolltreppe benutzen.

Der Haken: Dieser Technik fehlt das Kontext-Wissen, um wirklich einschätzen zu können, was eine gefährliche Situation ist. Allein Auffälliges zu erkennen, das führt vor allem dazu, dass Unschuldige ins Visier der Technik geraten. Das ist beispielsweise bei den Ganzkörperscannern an Flughäfen geschehen, die regelmäßig Transsexuelle outen – nur deshalb, weil sie anders sind als die Mehrheit. Läuft jemand auffällig langsam durch einen Bahnhof, könnte er einfach fußkrank sein: in den seltensten Fällen wird ein Mensch, der auffällig lange wartet oder sich auffällig bewegt, ein Attentäter sein. Doch sie alle werden mit einer solchen Technik verdächtig.

Gesichtserkennung im öffentlichen Raum

Eine zweite Methode, mit der Maschinen lernen könnten, Situationen ebenso einschätzen wie Menschen, ist das sogenannte überwachte Lernen: Die Computer lernen aus Beispielen, die ihnen Menschen vorgeben. Das ist bis jetzt eher eine theoretische Option. „Woher sollen diese Trainingsdaten kommen?“, fragt Boll. Um gut zu funktionieren, brauchen dieses Systeme viele tausend Beispiele „gefährlicher“ und „ungefährlicher“ Situationen und für „verdächtige“ Personen. „Das Ganze ist also nicht so einfach, wie man sich das vielleicht denkt.“

Susanne Boll forscht selbst mit Kollegen aus verschiedenen Disziplinen an smarten Kameras, bei denen der Schutz der Privatsphäre direkt in die Technik integriert ist. Beispielsweise haben die Forscher eine Kamera konzipiert, die per Lichtsignalen anzeigt, welchen Bereich sie gerade filmt. Sollten wir nicht auf Überwachungskameras im öffentlichen Raum verzichten wollen, könnten diese Gesichtserkennung nutzen, ohne die Aufnahmen zu speichern, so Boll: „Sie springen erst dann an, wenn eine gesuchte Person erkannt wird.“ 

Zukunftsvisionen

Das wiederum hängt aber davon ab, dass die Gesichtserkennung gut funktioniert – das Zwischenergebnis des Bundesinnenministeriums vom Versuch am Südkreuz lässt hierauf allerdings nicht hoffen: Demnach liegt die Falsch-Positiv-Rate etwas unter einem Prozent. „Bei täglich rund 160.000 Passanten am Bahnhof Südkreuz wäre dann mit bis zu 1600 Fehlalarmen pro Tag zu rechnen“, rechnet der Nürnberger Medieninformatiker Florian Gallwitz vor. In anderen Worten: Pro Tag würden bis zu 1600 Menschen allein am Bahnhof Südkreuz zu unrecht verdächtigt.

Das Repertoire an smarten Kameras aus Bolls Forschungsprojekt sieht aber auch einen anderen Weg vor: Beispielsweise Kameras, die dank künstlicher Intelligenz von sich aus anhand der Art der Interaktion der Menschen erkennen, ob es sich um eine private Situation handelt und sich dann selbstständig ausschalten. „Eine solche Kamera könnte sich dann deutlich sichtbar verschließen - als Signal an das Gegenüber: ich sehe, das hier ist privat“, sagt Boll. Doch auch das ist eine Zukunftsvision.

Fernwartbare Geräte sind Bedingung

Dazu kommt, dass es beim aktuellen Berliner Vorhaben ein hehres Ziel sein mag, die Technik per se so einzustellen, dass sie unverdächtige Bilder nach einer gewissen Zeit löscht (sollte sie diese überhaupt relativ treffsicher erkennen können) – dass man das aber jederzeit ändern kann. „Was ist, wenn plötzlich doch Not am Mann ist, eine Großfahndung beispielsweise“, fragt Privacy-Experte Marc Langheinrich von der Universität Lugano. Kann man dann die Software umschreiben, so dass Bilder länger gespeichert werden und auch die von „Unverdächtigen“?

„Sobald man solche Geräte aus der Ferne warten kann, kann man auch eine andere Software aufspielen“, sagt er. Das heißt auch: Sobald sich die öffentliche Meinung oder die politische Lage ändert, ist der Privatsphärenschutz Makulatur. Doch natürlich sind fernwartbare Geräte die Regel. Müsste man zu jeder einzelnen Kamera persönlich fahren, um einen Softwarefehler zu beheben, wären sie kaum wirtschaftlich. 

Anonym? Nur bedingt!

Langheinrich hat immer wieder beobachtet, wie neue Technologien eingeführt wurden - doch kaum sind Daten vorhanden, wecken sie Begehrlichkeiten: „Man möchte dann eben doch wissen: wie bewegen sich Menschen durch die Stadt, man möchte die Wege Einzelner verfolgen.“ Je höher die Anzahl der Kameras in einer Stadt, umso leichter ist es, Bewegungsprofile Einzelner zu erstellen. Auch das geht zwar anonym, aber jeder einzelne Mensch muss dafür eine eindeutige Kennung haben. Von dort ist der Weg zu einer Einzelperson nicht weit, mahnt Langheinrich: „Je qualitativ hochwertiger ein Datensatz ist, umso gefährlicher ist er auch.“ 

Forscher haben immer wieder gezeigt: Je mehr Informationen vorhanden sind, umso schwieriger ist es, Anonymität aufrecht zu erhalten. Durch Korrelationen der Daten untereinander kann häufig letztlich doch auf einzelne Menschen geschlossen werden. „Und selbst wenn ich heute in einem konkreten Fall beweisen kann, dass es nicht möglich ist zu de-anonymsieren, heißt das nichts für die Zukunft,“ so Langheinrich. Schließlich wächst der Berg an Daten unablässig, den unser Alltag erzeugt. Das Credo des Forschers lautet deshalb: „Weniger Kameras sind stets besser für die Privatsphäre als mehr.“ Noch hat in der Praxis keiner gezeigt, dass es auch anders geht.