Big Brother 2.0 oder 1984 reloaded – Anforderungen und Risiken der automatisierten öffentlichen Videoüberwachung

von Dr. Dennis-Kenji Kipker, veröffentlicht am 15.08.2017

Seit Anfang August findet am Bahnhof Berlin-Südkreuz der Testlauf der Videoüberwachung mit automatisierter Gesichtserkennung statt, der gemeinsam vom Bundesinnenministerium, der Bundespolizei, dem Bundeskriminalamt sowie von der Deutschen Bahn durchgeführt wird. Der Pilotversuch ist zurzeit auf sechs Monate befristet und soll es den beteiligten Behörden ermöglichen, abzuschätzen, ob die eingesetzte Technik tatsächlich wie geplant funktioniert – das heißt vor allem, ob die Bilderkennung zuverlässig funktioniert und ob sich die Zahl der Fehlalarme in Grenzen hält. Hierzu wurden in etwa 200 Personen, die den Bahnhof regelmäßig frequentieren, vorab fotografiert und deren Fotos in einer Datenbank gespeichert, die für den Abgleich der im Bahnhof aufgenommenen Fotos mit einer fiktiven Fahndungsdatei zuständig ist. Die Probanden tragen zudem einen kleinen Funksender, um für die Überprüfung des Abgleichs zu erkennen, ob sich eine Person im Bahnhof aufgehalten hat. Damit es im Rahmen der Pilotierung möglich ist, sich den polizeilichen Videoaufnahmen gegebenenfalls zu entziehen, wurde der Bahnhof in zwei erkennbar markierte Bereiche aufgeteilt: Einen Bereich ohne Kameraüberwachung, und den so genannten „Erkennungsbereich“, der mit der automatisierten Videoüberwachung ausgestattet ist. So soll es den Betroffenen ermöglicht werden, der Videoüberwachung gezielt auszuweichen.

Sicherheit versus Datenschutz

Schon im Vorfeld der Pilotierung war die automatisierte Videoüberwachung einer erheblichen Kritik von Bürgerrechtlern und Datenschützern ausgesetzt. So argumentierte der Deutsche Anwaltverein bereits, dass es aktuell keine Rechtsgrundlage für die Durchführung einer derartigen Videoüberwachung gäbe. Dies würde zwangsläufig bedeuten, dass die zurzeit gegebenen Ermächtigungsgrundlagen zur Videoüberwachung auf öffentlichen Plätzen zu Zwecken der öffentlichen Sicherheit nicht geeignet wären, um auch eine automatisierte Erkennung von Personen durchzuführen. Von Datenschützern wird darüber hinaus auch die Effektivität der Maßnahme angezweifelt und auf die nicht wenigen Fälle videotechnisch dokumentierter Kriminalität gewesen, in denen die Überwachungskamera auch nicht als Abschreckungsmittel zur Begehung einer Straftat herangezogen werden konnte. Im Gegensatz dazu argumentierte der Bundesinnenminister, Thomas de Maizière, dass öffentliche Plätze sicher sein müssten. Nicht zuletzt komme es auch auf das Sicherheitsempfinden das Bürgers an, das durch eine sichtbare Videoüberwachung deutlich gestärkt werde. Nach Auffassung des Bundesinnenministeriums lässt sich die automatisierte Videoüberwachung in den Kanon des allgemeinen technischen Fortschritts einordnen, der auch bei der Unterstützung polizeilicher Kriminalitätsbekämpfung nicht halt machen dürfe.

Polizeiliche Videoüberwachung öffentlicher Plätze – grundsätzlich nichts Neues

Die Überwachung öffentlicher Plätze mit so genannten „optisch-elektronischen Einrichtungen“, also Videokameras, ist keineswegs neu. Schon seit Jahren existieren entsprechende Ermächtigungsgrundlagen in den jeweiligen Polizeigesetzen, die es ermöglichen, an besonders gefährdeten öffentlichen Orten Kameras zu installieren. Das Bremische Polizeigesetz beispielsweise enthält in einem eigenen Unterabschnitt Rechtsgrundlagen zur Informationsverarbeitung. Gem. § 29 Abs. 3 BremPolG dürfen öffentlich zugängliche Orte, an denen vermehrt Straftaten begangen werden oder bei denen aufgrund der örtlichen Verhältnisse die Begehung von Straftaten besonders zu erwarten ist, durch den Polizeivollzugsdienst offen und erkennbar mittels Videokameras überwacht werden, wenn dies zur Abwehr von Gefahren für die öffentliche Sicherheit erforderlich ist. Die Abwehr von Gefahren umfasst dabei auch die Verhütung von Straftaten, § 1 Abs. 1 BremPolG.

Jede Videoüberwachung ist ein Eingriff in die informationelle Selbstbestimmung

Mit jedem von staatlicher Seite aus angeordneten Kameraeinsatz ist zugleich ein Eingriff in das Grundrecht auf informationelle Selbstbestimmung als Ausprägung des Allgemeinen Persönlichkeitsrechts gem. Art. 2 Abs. 1 i.V.m. Art. 1 Abs. 1 GG der Aufgenommenen verbunden. Die Videoaufzeichnung beeinträchtigt das Recht am eigenen Bild und, sofern eine Tonaufzeichnung erfolgt, unter Umständen auch das gesprochene Wort. Dieser verfassungsrechtliche Prüfungsmaßstab ist unabhängig davon, ob die Maßnahme präventiven Zwecken, also solchen der polizeilichen Gefahrenabwehr, oder aber repressiven Zwecken dient und somit der Sicherstellung einer effektiven Strafverfolgung zugute kommen soll.

Die automatisierte Gesichtserkennung wiegt besonders schwer – gleichwohl dürfen auch staatliche Sicherheitsinteressen nicht völlig unberücksichtigt bleiben

Besonders im Hinblick auf die Eingriffstiefe wiegt eine Videoüberwachung, die mit einer automatisierten Gesichtserkennung verbunden ist, deutlich schwerer als eine Videoüberwachung ohne technische Auswertung des Datenmaterials, denn im erstgenannten Fall dürfte es erheblich schwieriger sein, sich der Identifizierung und damit der Individualisierung seiner Person zu entziehen. Dieses Argument wurde im Vorfeld des Berliner Pilotversuchs von Datenschützern ebenso vertreten. Auch ist es nicht ausgeschlossen, dass durch die automatisierte Gesichtserkennung das subjektive Gefühl des „Überwachtwerdens“ noch intensiver und der Einzelne im öffentlichen Raum so deutlich stärker als bisher gehemmt wird, von seinen grundrechtlichen Freiheiten Gebrauch zu machen. Nahezu jeder, der schon einmal in Großbritannien, dem europäischen Pionier der Videoüberwachung (CCTV), aufmerksam unterwegs gewesen ist, dürfte dieses Gefühl kennen. Dementsprechend sind an die verfassungsrechtliche Zulässigkeit der automatisierten Gesichtserkennung hohe Maßstäbe anzulegen, was sich in einer strengen Anwendung des aus dem Rechtsstaatsprinzip folgenden Verhältnismäßigkeitsgrundsatzes darstellt. Gleichwohl muss aber auch dem staatlichen Interesse an der Aufrechterhaltung und Förderung der öffentlichen Sicherheit sowie der gestiegenen Bedrohungslage im öffentlichen Verkehrsraum Rechnung getragen werden. Dies führt dazu, dass die automatisierte Videoüberwachung von öffentlichen Plätzen nicht per se unzulässig sein kann, wie es auch streckenweise vertreten wird.

Grundrechtsschutz durch Verfahren – „Privacy by Design“

Ein zentraler Weg zur Gewährleistung eines effektiven Schutzes der informationellen Selbstbestimmung auch bei automatisiert agierenden staatlichen Überwachungsinstrumenten kann durch die Idee des „Grundrechtsschutzes durch Verfahren“ gesehen werden. Mittels dieses allgemeinen verfassungsrechtlichen Gedankens soll im Ergebnis die Tiefe der Grundrechtseingriffe relativiert werden, indem besondere gesetzliche Beschränkungen und Kontrollen vorzusehen sind. Auf das Datenschutzrecht bezogen kann hierzu auch der Grundsatz der „Privacy by Design“ gezählt werden, der nunmehr auch explizit Eingang in das europäische Datenschutzrecht gefunden hat, indem er in Art. 25 der neuen Datenschutz-Grundverordnung (EU DS-GVO) festgeschrieben wird. Ausgehend von der EU DS-GVO bedeutet „Privacy by Design“, dass die datenverarbeitende Stelle geeignete technische und organisatorische Maßnahmen (TOM) trifft, um den Datenschutzgrundsätzen nachzukommen, den gesetzlichen Anforderungen im Hinblick auf die Datenverarbeitung zu genügen und um die Betroffenenrechte wirksam zu schützen. Zu den TOM gehören auch Maßnahmen, welche die Zweckbindung im Umgang mit den einmal erhobenen Daten sicherstellen (dass Daten also grundsätzlich nur für den Zweck verarbeitet werden dürfen, zu welchem sie ursprünglich erhoben worden sind), die verarbeitete Datenmenge auf das absolut notwendige Maß begrenzen (Datenvermeidung und Datensparsamkeit) sowie die Speicherfrist und die Zugänglichkeit zu den personenbezogenen Daten beschränken. Im Ergebnis bedeutet „Privacy by Design“ folglich, dass Datenschutz und Privatsphäre bereits bei der Technikgestaltung berücksichtigt werden und den Betroffenen bei jeder Datenverarbeitung immer noch ein bestimmtes Maß an Transparenz und Kontrolle über die eigenen Informationen eingeräumt wird.

Einzelfragen für den Datenschutz bei der automatisierten Gesichtserkennung und eine absolute Grenze

Bezogen auf die Pilotierung der automatisierten Gesichtserkennung am Bahnhof Berlin-Südkreuz stellen sich damit verschiedene, zurzeit noch offene Einzelfragen, die in einer zeitlich begrenzten Einsatzphase datenschutzrechtlich vielleicht noch zulässig sein mögen, mittelfristig aber einer unbedingten Klärung bedürfen. So stellt sich unter dem Gesichtspunkt des Zweckbindungsgrundsatzes die Frage, was mit den einmal erhobenen Daten geschieht. Zwar ist zurzeit vorgesehen, die erhobenen Datenbestände nur für den Videoabgleich der erfassten Personen mit einer Bild- bzw. Fahndungsdatenbank vorzunehmen, jedoch hat die Vergangenheit gezeigt, dass einmal zu bestimmten Zwecken der staatlichen Sicherheit erhobene Daten auch für andere Gefahrenabwehr- oder Ermittlungszwecke zugänglich gemacht werden können. Auch sind in der jüngsten Vergangenheit immer wieder erneute sicherheitspolitische Forderungen laut geworden, behördliche Datenbanken noch weiter miteinander zu vernetzen. Damit verbunden stellt sich zugleich auch eine der wesentlichsten Fragen der neuen Technik: Bleibt der automatisierte Gesichtsabgleich ein schwerwiegender und rechtfertigungsbedürftiger Einzelfall, der nur an besonders gefährdeten öffentlichen Orten eingesetzt wird oder aber entwickelt sich die computergestützte Gesichtserkennung zunehmend zu einer polizeilichen Standardmaßnahme, um öffentliche Orte allgemein abzusichern? Für letzteren Fall würde eine schleichende Entwertung der informationellen Grundrechte zugunsten der öffentlichen Sicherheit drohen, verbunden mit dem Risiko einer Dauerüberwachung des Bürgers im öffentlichen Raum, insbesondere dann, wenn der Abgleich auch mit biometrischen Daten, beispielsweise aus dem Personalausweis- oder aus dem Passwesen, stattfindet.

Schwellenwerte, Betroffenenrechte und Kontrolle

Eine weitere, ebenso schon mit der Pilotierung verbundene Fragestellung, betrifft die Schwellenwerte, ab wann eine Person beispielsweise als polizeilicher Gefährder bzw. Störer eingestuft wird. Nicht zuletzt soll die Videoüberwachung auch dabei helfen, gefahrenträchtige Situationen zu antizipieren und es den Sicherheitskräften ermöglichen, proaktiv einzugreifen. Die Grenze zur Diskriminierung von Betroffenen im Rahmen einer derart erfolgenden automatisierten Einordnung und Bewertung von Personen(gruppen) ist grundsätzlich eng zu ziehen. Wie auch schon für den Einsatz der polizeilichen Body-Cams ist darüber hinaus zu diskutieren, wie und wo der durch die stationäre Videoüberwachung Betroffene seine ihm gesetzlich zustehenden Datenschutzrechte geltend machen kann. Hiermit verbunden ist auch die Frage, wann und unter welchen Bedingungen die erhobenen personenbezogenen Daten wieder gelöscht werden. Nicht zuletzt muss die gesamte, mit der automatisierten Videoüberwachung verbundene Datenverarbeitung unter einer lückenlosen Kontrolle der Datenschutzbehörden sowie der Gerichte stehen. Ob und inwieweit dies gewährleistet werden kann, ist zum jetzigen Zeitpunkt auch noch nicht in ausreichendem Maße geklärt.

Fazit und Ausblick

Im Ergebnis verhält es sich auch mit der automatisierten Videoüberwachung ähnlich wie bereits für eine Vielzahl von Überwachungsmaßnahmen, die in der Vergangenheit neu eingeführt wurden: Versprochen sind erhebliche Auswirkungen auf die Förderung der öffentlichen Sicherheit; der Nachweis jedoch, dass die Maßnahme tatsächlich auch das hält, was sie verspricht, wird nie wirklich geführt. Zwar ist verfassungsrechtlich keine „absolute Geeignetheit“ für staatliche Maßnahmen zu Zwecken der öffentlichen Sicherheit zu fordern, jedoch haben verschiedene Fälle in der jüngeren Vergangenheit gezeigt, dass auch die Videoüberwachung nicht in der Lage ist, jegliche Straftat im öffentlichen Raum zu verhindern. Auch ist fraglich, ob in Bruchteilen von Sekunden oder nur wenigen Minuten ausreichend Zeit verbleibt, um eine gefahrbringende Situation zu antizipieren und entsprechende Gegenmaßnahmen zu ergreifen. Im Hinblick auf die in den vergangenen Jahren jedoch nachweislich gestiegene Bedrohungslage im öffentlichen Raum bleibt aber zumindest zu hoffen, dass die automatische Gesichts- und Gefährdungserkennung wenigstens ansatzweise in der Lage sein wird, ihr rechtspolitisches Versprechen einzulösen – wenn denn schon durch sie in die informationellen Grundrechte eingegriffen wird. Und ganz gleich, wie man zur Videoüberwachung im öffentlichen Raum stehen mag: In jedem Falle sind flankierende Schutz- und Verfahrensregelungen vorzusehen, um eine schrittweise Aushöhlung der informationellen Selbstbestimmung tunlichst zu verhindern. Die oft gepredigte Maxime „Sicherheit oder Freiheit“ gewinnt im Kontext einer dystopisch allgegenwärtigen, vernetzten und automatisierten Gesichtserkennung eines jeden Bürgers in der Öffentlichkeit eine gänzlich neue Dimension.

Diesen Beitrag per E-Mail weiterempfehlenDruckversion

Hinweise zur bestehenden Moderationspraxis
Kommentar schreiben

41 Kommentare

Kommentare als Feed abonnieren

"Die automatisierte Gesichtserkennung wiegt besonders schwer – gleichwohl dürfen auch staatliche Sicherheitsinteressen nicht völlig unberücksichtigt bleiben"

aber das lässt die Big brother Frage aufkommen

"wehret den Anfängen"  die "normale" Vieoüberwachung an Strassenbahn Haltestllen oder Banken wird ja schon lange akzeptiert

aber Die automatisierte Gesichtserkennung  beunruhigt mich --

 

 

Sehr geehrte Leserin,

haben Sie vielen Dank für Ihren Beitrag. In der Tat ist es ja so, dass die automatisierte Videoüberwachung deshalb auch als schwerwiegenderer Grundrechtseingriff zu werten ist, als es bei der herkömmlichen Videoüberwachung bisher der Fall gewesen ist. Aus diesem Grunde unterliegt die automatisierte Videoüberwachung weitaus höheren Rechtfertigungsvoraussetzungen, weshalb sie meines Erachtens auch nur in ausgewählten Einzelfällen zulässig sein kann.

Mit den besten Grüßen!

Dennis Kipker

"Die Erkennungsraten waren ernüchternd, inzwischen ist die Technik weiter." Die Frage hier wäre natürlich, woran sich diese Feststellung im Einzelnen bemisst.

Schöne Grüße!

Dennis Kipker

Die Technik ist mindestens in dreierlei Hinsicht weiter.

1. Die Erkennung ist deutlich sensibler und wirkt in normalen Anwendungsszenarien überzeugend. Damit gelten Fehler und Manipulationen als ausgeschlossen. Die Folge ist, dass der Technik blind vertraut wird.

2. Die Algorithmen werden immer komplexere Mischungen aus Datenreduktion und künstlicher Intelligenz. Die Technik und Software wird modular und herstellerübergreifend zusammengestellt. Damit ist es dem Einzelnen kaum noch möglich, das Gesamtsystem zu erfassen und somit Mängel wie Sicherheitsrisiken sicher zu erfassen.

3. Ebenso haben sich die Techniken des Data Mining und der verteilten Datenhaltung massiv weiterentwickelt. Dies führt zu immer engmaschigerer und umfangreicherer automatischer Überwachung ohne wirksame Kontrolle. Die Kontrolleure sind doch allenfalls zur Anfertigung von Screenshots in der Lage und nicht zur Überprüfung der Funktionsweise eines komplexen Systems.

0

Sehr geehrter Herr Lippke,

haben Sie vielen Dank für Ihren inhaltlich wertvollen Beitrag. Ich sehe das ganz genauso: Die Kontrolleure haben immer weniger Kontrolle über ihre eigenen Werkzeuge. Man denke beispielsweise nur an den Fall der Online-Durchsuchung, in deren Rahmen der CCC Ende 2011 gravierende Sicherheitsmängel in der durch das BKA eingesetzten Software festgestellt hat. Hierbei wurde dann auch publik, dass den Behörden weder eine umfassende Dokumentation noch der Quellcode des Programms zur Verfügung stand, sodass auch die Datenströme nicht hinreichend sicher kontrolliert werden konnten. Wenn Überwachungstechniken eingesetzt werden, dann muss zumindest der sie nutzende Staat noch in der Lage sein, eine gewisse Kontrolle auszuüben.

Mit den besten Grüßen!

Dennis Kipker

ntv 24.8 2017

"
https://www.rbb24.de/politik/beitrag/2017/08/berlin-suedkreuz-testpersonen-bei-gesichtserkennung-offenbar-getaeuscht.html

weit mehr daten gesammelt als angekündigt : ntv 24.8. 11

""Der Transponder, den die Testpersonen am Bahnhof Südkreuz zur zusätzlichen Identifikation bei sich tragen müssen, sammelt weit mehr Daten,

 als die Bundespolizei den Versuchspersonen mitgeteilt hat", erklärte die Datenschutz-Organisation "Digitalcourage" am Montag.

 Der auf sechs Monate angelegte Versuch muesse ABGEBROCHEN werden" !!!!!!

aber auch irgendwie passend zu m thema , auch wenns nciht u m den Berliner "big brother geht"

 

:: 17.8 BGBL s. 3202 Änderungen der STPO 2017

§ 100 ff

aus Jurablog 8. 9. 2017

 

YI – KÖNIG DER „SPIONE“

Yi Technology ist bekannt als Anbieter der ersten spiegellosen Systemkamera aus China. Der Hersteller wirbt mit der „am besten vernetzten spiegellosen Kamera der Welt“ und liefert dazu die kostenlose Yi Mirrorless-App. Diese erlaubt das bequeme Teilen der Fotos in sozialen Netz­werken wie Facebook, Google+ oder LinkedIn. Die App versorgt dafür den Hersteller mit einer Menge persönlicher Daten: Die Gerätekennungen von Smartphone und Kamera, sowie den Namen und Kenn­wort der drahtlosen Netz­werk­verbindung zwischen Kamera und Smartphone. Das ist laut test.de tech­nisch absolut über­flüssig und deshalb besonders selt­sam.

 

laut BDSG und DSGVO sehr kritisch zu   sehen

Die automatisierte Gesichtserkennung ist ein oberflächlicher Begriff, wie auch ein Pilotprojekt zur Prüfung von Fehlalarmen. Mustererkennung im Videobild ist grundsätzlich nichts Neues und wird für den Abgleich von Videosequenzen oder Überwachungsbereichen bereits seit Langem angeboten. Für eine qualitative Beurteilung der Quote von positiven und negativen Fehlerkennungen ist das Pilotprojekt wahrscheinlich vollkommen unnütz und vom Aufwand her übertrieben. Da wollen technisch Ahnungslose neue Spiele ausprobieren und vielleicht auch schon nutzen und die technisch Versierten (Hersteller, Anbieter) spielen mit, weil sie so den ahnungslos alimentierten Video-Experten vom Schlage eines Wendt zur Not auch getürkten Mist unterjubeln können.

0

https://www.heise.de/thema/Gesichtserkennung

fuer Behörden mit Sicherheitsaufgaben

Motorola Solutions kooperiert mit der auf Künstliche Intelligenz spezialisierten Firma Neurala mit dem Ziel, "intelligente Kameras" für Behörden mit Sicherheitsaufgaben zu entwickeln. Die Suche nach Personen soll erleichtert werden.

https://newsroom.motorolasolutions.com/news/ai-at-edge-motorola-solutions-and-neurala-to-work-together-on-intelligence-for-cameras.htm

s " heise online"

Sehr geehrter Herr Lippke,

haben Sie vielen Dank für Ihren Kommentar. In der Tat stellt sich hier die Frage, wie viel die Pilotierung im Einzelnen wirklich bringt. Darüber hinaus wurde aber auch für die automatisierte Gesichtserkennung - wie so oft bei der Einführung neuer staatlicher Überwachungsmaßnahmen - nie wirklich die Geeignetheit geprüft, noch konnte bisher belegbar nachgewiesen werden, dass die Maßnahme für die Kriminalitätsprävention tatsächlich effektiv ist. Hier stellt sich in meinen Augen auch ein erhebliches rechtsstaatliches Problem, wenn regelmäßig neue, intensiv in die bürgerlichen Freiheiten eingreifende Maßnahmen getroffen werden, ohne dass ihre Tauglichkeit zuvor auf irgendeine Weise von staatlicher Seite aus belegt wurde.

Mit den besten Grüßen!

Dennis Kipker

Ich wollte auch gar nicht die rechtsstaatliche Problematik in den Hintergrund drängen. Aber wie wir aus Erfahrung wissen, lassen sich technische Möglichkeiten nicht verhindern, sondern nur durch sachverständigen Umgang und konsequente Zweckorientierung einhegen. Daher wollte ich darauf hinweisen, dass diese Bildauswertetechnik grundsätzlich nicht neu ist, wie auch die Probleme mit statistisch und datenreduzierenden Algorithmen. Das Phänomen der überzeugenden Trefferquote im Vorführeffekt desensibilisiert für die verbleibende Fehlerquote und deren Abhängigkeit von den konkreten Einsatzbedingungen. Auch die Unkenntnis der tatsächlichen Funktionsweise und versteckten Schwachstellen trägt seinen Teil zu Fehleinschätzungen durch Anwender bei. Positive und negative Fehlerkennungen können zu gravierenden Fehlschlüssen mit großer Überzeugungkraft führen. Weder Hersteller, Vertrieb oder Beschaffer haben logischerweise ein Eigeninteresse an einer wirklich kritischen Überprüfung dieser Überzeugungen, wenn es um gewichtige Investitionen und Absatzmöglichkeiten geht. Auch der Datenschutz wird gerade bei Pilotprojekten (zunächst) regelmäßig als behindernd vernachlässigt, selbst wenn die technischen Möglichkeiten dafür grundsätzlich vorhanden sind. Andernfalls würde ja vor das Big Brother-Pilotprojekt erst ein Datenschutz-Pilotprojekt gestartet, mit dem die Einhaltung rechtsverbindlicher Standards zum Datenschutz im Realbetrieb getestet und nachgewiesen würden. Noch nie habe ich von den Befürwortern der Überwachungstechnik dazu mehr als hohle Phrasen vernommen. Dabei ginge es doch genau darum: Ok, ich möchte zu nachvollziehbaren Zwecken Überwachungstechnik einsetzen, die Grundrechte unzulässig verletzen kann. Dann ist es meine vordringlichste Pflicht, den Schutz gegen eine unzulässige Nutzung manipulationssicher zu implementieren und nachzuweisen. Vorher bleibt das Spielen mit Joystick und Tatütata am Videomischpult tabu. Die zum Pilotprojekt dargestellten Schutzmaßnahmen sind aber rein organisatorische Vorkehrungen, die den Mißbrauch und spätere Umnutzung nicht verhindern können. Warum also nicht gleichzeitig ein Test einer automatischen Erkennung von Datenschutzverletzungen mit manipulationssicherer Protokollierung, Meldung und temporären Abschaltung des Systems, wenn Sorgfalt und Rechtmäßigkeit das erklärte Ziel ist? An den technischen Möglichkeiten dafür fehlt es jedenfalls grundsätzlich nicht.  Danke, das Sie sich des Themas angenommen haben. Bleiben Sie dran.

 

0

Lieber Herr Lippke,

ich kann Ihnen da nur voll und ganz zustimmen - was in einem Rechtsstaat so gesehen auch für mich wirklich bedauernswert ist. Die Sicherheitsrhetorik lässt sich aber natürlich deutlich leichter - und sicher auch einfacher - umsetzen, als wenn man zunächst noch langwierigie datenschutzrechtliche Prüfprozesse initiieren müsste. Insoweit beschränkt man sich dann lieber lapidar darauf, festzustellen, dass es eben keine großartigen datenschutzrechtlichen Probleme gibt. Damit macht man es sich aber zu einfach und genau deswegen ist es auch wichtig, den Staat regelmäßig auch an seine Pflichten nicht nur für die öffentliche Sicherheit, sondern ebenso für die verfassungsrechtlich verbrieften Bürgerrechte zu erinnern.

Mit den besten Grüßen!

Dennis Kipker

Ich kenne niemanden, der nicht für eine umfassende Videoüberwachung des öffentlichen Raums wäre.

Die automatisierte Gesichtserkennung stellt allerdings eine gewisse Problematik dar. Bei was soll eine Reaktion erfolgen? Letztlich wird das der Gesetzgeber regeln müssen. Bei der Erkennung bekannter Hooligans bei der Fußballspielanreise wäre die Gesichtserkennung zweifellos von Nutzen. Letztlich könnte die präzise Erkennung dazu führen, dass der Gesamtaufwand polizeilicher Einsätze (damit auch die Beeinträchtigung von Bürgern) geringer werden kann.

0

Es gibt sehr viele und fundierte Einwände gegen Videoüberwachung. Natürlich gibt es durchaus auch einige sinnvolle Anwendungen. Ich vermute, dass Sie zur Sache so unbedarft sind wie Rainer Wendt bei seiner leistungslosen Vergütung. Der will ja auch "das Leben der Anderen" überwachen. Abgesehen von Stasi 2.0 gibt es auch ganz pragmatische Einwände zur Sinnhaftigkeit. Um Sinnlosigkeit für Sie erfahrbar zu machen, rufen Sie doch mal bei einer personell vollkommen überlasteten Hotline an und vergleichen Sie das mit einem Service, der eher auf motiviertes Personal als auf Warteschleifen und ACD setzt. Oder sie rufen Jemanden mit Sprachbox 10x an und fragmentieren Ihr Anliegen auf die 10 Aufzeichnungen. Vergleichen Sie die Reaktionszeit des Angerufenen mit dem Fall ohne Sprachbox, bei der der Angerufene erreichbar ist, wenn er Zeit hat. Diese Zeit verbringt er jedenfalls nicht mit dem Abhören Ihrer Informationsfragmente.

0

Sehr geehrter Leser,

haben Sie vielen Dank für Ihren Kommentar. Sicherlich ist es nicht zu vernachlässigen, dass auch das Interesse an der Integrität des öffentlichen Verkehrsraumes berücksichtigt werden muss. Insoweit wird man der Videoüberwachung auch nicht völlig ihre Geeignetheit absprechen können. Dennoch gibt es meiner Erkenntnis nach nicht wenige Personen, die den zunehmenden Ausbau der Überwachungstätigkeit von Sicherheitsbehörden kritisch sehen - und gerade keine Vollüberwachung ihrer Person möchten. Ob der Gesetzgeber darüber hinaus alle Einsatzauslöser einer Videoüberwachung wird regeln können, sehe ich auch eher als kritisch an: Zu flexibel und unterschiedlich sind hier die möglichen Szenarien, sodass sich nicht zuletzt auch der schon so oft gepredigte "Präventionseffekt" in Grenzen halten dürfte.

Mit den besten Grüßen!

Dennis Kipker

Das klingt für mich sehr nach der typisch deutschen grundsätzlichen Bedenkenträgerei. Was ist denn wirklich grundrechtlich relevant an einer Überwachung der Bewegungen im öffentlichen Raum? Datenschutz- toll. Nur sollte der ja eigentlich nicht reiner Selbstzweck sein, auch wenn man wichtigtuerisch vom informationellen Selbstbestimmungsrecht spricht.

Unsere praktischen Probleme sehen doch eher aus. Da werden Einzelpersonen und Banden verschiedenster Art und mit verschiedenen Zielrichtungen kriminell aktiv. Aus ebenso unterschiedlichen Gründen lässt sich die Täteridentität nicht erfassen. Da sind Videoaufzeichnungen vielleicht kein Allheilmittel, aber doch von Nutzen (nicht zuletzt präventiv). Das wird bei nur nachträglicher Betrachtung (mehr wird bei der Personalausstattung bei staatlichen und privaten Sicherheitskräften außer an Brennpunkten nicht möglich sein) zwar nicht vor Terroristen schützen, aber die Strafverfolgung in vielen Fällen erleichtern.

Der Schutz vor Terror erfordert natürlich mehr. Aber warum hinreichende Sicherheitskontrollen bei vielbesuchten Orten in Deutschland noch nicht Usus sind, kann ich nicht nachvollziehen. Die Freiheit, zu Massenveranstaltungen zu gehen, ist für mich nur eine reale Freiheit, wenn ich mich dort auch hinreichend sicher fühlen kann.

0

Sehr geehrter Leser,

haben Sie vielen Dank für Ihre Nachricht! Der Datenschutz ist ja durchaus über die informationelle Selbstbestimmung in der Verfassung verankert, sodass hier tatsächlich eine grundrechtliche Relevanz der staatlichen Überachungsmaßnahmen besteht. Und grundsätzlich unzulässig ist die automatisierte Videoüberwachung eben nicht - man muss nur überlegen, an welchen Orten eine solche Maßnahme angemessen bzw. verhältnismäßig ist. Die von Ihnen genannten Örtlichkeiten werden in diesem Rahmen ja tatsächlich auch diskutiert.

Mit den besten Grüßen!

Dennis Kipker 

Es gibt keine präzise Erkennung bei einer unbestimmten Population und statistischer Mustererkennung. Ginge es nur um die Unterscheidung von bekannten Mustern, kann die Fehlerquote getestet und optimiert werden. Geht es aber um das Herausfiltern von Gesicht A aus einer vollkommen unbekannten Menge von Gesichtern, kann die mögliche Trefferquote nur aus allgemeinen Angaben abgeschätzt werden. Es bleibt immer das Dilemma der Abwägung zwischen false positives und false negatives. Eine Angabe, dass ein System zu 95 % richtig erkennt, ist daher vollkommen unpräzise und verkennt das Problem. Wer trägt die Verantwortung, wenn wegen einer restriktiven Einstellung der Technik der potentielle Täter nicht gemeldet wurde? Wer hinterfragt und korrigiert das System, wenn trotz restriktiver Technikeinstellung das System fehlerhaft meldet? Wie nachlässig reagieren die Alarmierten, wenn eine sensible Erkennung ständig fehlalarmiert?

Wendt'sche Überwachungsjünger agieren bei ihren obskuren Investitionswünschen auf Kosten des Steuerzahlers dümmer als der Normalbürger beim Autokauf. "Überwachen" ist wie "Fahren" keine hinreichendes Wissen, um damit das Richtige zu tun. Laufen Sie lieber Streife in Ihrem Kiez, auf dem Bahnhof oder vor der Schule. Wenn etwas Verdächtiges passiert, rufen Sie Polizisten, die sich hoffentlich nicht bei Pilotprojekten viereckige Augen geholt haben, sondern für reale Einsätze gut geschult und ausgerüstet sind.

5

Sehr geehrter Herr Lippke,

das würde dann ja auch mit der Aussage korrelieren, nicht die Überwachungs-, sondern die polizeiliche Personalpräsenz im öffentlichen Verkehrsraum zu verstärken. Und sicherlich wird hier auch vieles auf den "aufmerksamen Bürger" ankommen.

Mit den besten Grüßen!

Dennis Kipker

Und dann die Gefahr vom  Einsatz der Gesichtserkennugnssoftware immer häufiger und  immer mehr

<Lta Newsletter 20.8>

"Diese Technik wollen CDU und CSU an "öffentlichen Gefahrenorten", etwa in  !!Einkaufszentren!!, vor Fußballstadien und an großen Bahnhöfen, einsetzen."
 

 

 

irgendwann dann mal in den meisten Einkaufszentren oder Hotelketten--???

Sehr geehrte Leserin,

ein weiteres Problem in diesem Zusammenhang dürfte sich stellen, wenn es um die Begründung so genannter "Public Private Partnerships" (PPP) im Rahmen der sicherheitsbehördlichen Videoüberwachung geht. Gerade für die Überwachung von öffentlichen Verkehrsflächen, die in rein privater Hand sind (beispielsweise Kaufhäuser), ist es für Sicherheitsbehörden interessant, Zugang zu einem "live stream" der Videodaten zu erhalten.

Mit den besten Grüßen!

Dennis Kipker

Lieber Herr Dr. Spies,

haben Sie vielen Dank für den Link zu diesem interessanten Beitrag! Gestern nahm der Bundesinnenminister zu den Vorwürfen auch im Berliner Tagesspiegel Stellung: http://www.tagesspiegel.de/politik/test-am-berliner-bahnhof-suedkreuz-de-maiziere-verteidigt-gesichtserkennung-gegen-bedenken/20233262.html.

Beste Grüße!

Dennis Kipker

Deutschlandfunk 1.8 2017                                                  allerdings schon

Meinung

" Nachteile Überwiegen bei weitem"

http://www.deutschlandfunk.de/biometrische-gesichtserkennung-huxley-und-orwell-lassen.720.de.html?dram:article_id=392508

und "Für den Neuenburger Geografieprofessor Francisco Klauser beeinflussen Überwachungskameras in erster Linie das subjektive Sicherheitsempfinden. Sie verhindern aber keine Verbrechen. züricher zeitung allerdings 2016

aber das Projekt 2017  hat ja erst begonnen

 

 

Schließlich seien die Systeme nur darauf spezialisiert, Pixel zu erkennen. "Ein halbschiefer Pony, der übers Gesicht hängt, oder bunte Flecken im Gesicht, was natürlich im Alltag ziemlich seltsam aussieht", sagt sie. Wissenschaftler und Künstler hätten sich mit dem Problem auseinandergesetzt und entsprechende Mode entwickelt, etwa Brillen mit bunten, gepunkteten Mustern. 

Assymetrie verwirrt die Software

aus Deutschlandfunk KUltur 1.8. 2017

 

neu

https://www.datenschutz-notizen.de/offline-tracking-kundenfrequenzmessung-in-ladengeschaeften-4515135/

 

auch in Ladengeschäften  nur verpixelte Aufnahme vo n Personen  --  aber Kontrolle ?? und Löschung ???????

0        


Leave this field blank

Kommentar hinzufügen