CCC: Bundespolizei hat Bericht zur Gesichtserkennung absichtlich geschönt

Originalartikel

Backup

<html> <p class=„printversionback-to-article printversion–hide“><a href=„https://www.heise.de/newsticker/meldung/CCC-Bundespolizei-hat-Bericht-zur-Gesichtserkennung-absichtlich-geschoent-4191216.html“>zur&#252;ck zum Artikel</a></p><figure class=„printversionlogo“><img src=„https://1.f.ix.de/icons/svg/logos/svg/heiseonline.svg“ alt=„heise online“ width=„180“ heigth=„40“/></figure><figure class=„aufmacherbild“><img src=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/5/2/0/3/6/8/Gesichtserkennung_BahnhofSuedkreuz-789217c2bdfcda82-00b5e62dc9050317-2373ea7d72146ac9.jpeg“ srcset=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/5/2/0/3/6/8/Gesichtserkennung_BahnhofSuedkreuz-789217c2bdfcda82-00b5e62dc9050317-2373ea7d72146ac9.jpeg 700w, https://heise.cloudimg.io/width/796/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/5/2/0/3/6/8/Gesichtserkennung_BahnhofSuedkreuz-789217c2bdfcda82-00b5e62dc9050317-2373ea7d72146ac9.jpeg 796w“ sizes=„(min-width: 80em) 43.75em, (min-width: 64em) 66.66vw, 100vw“ alt=„CCC: Bundespolizei hat Bericht zur Gesichtserkennung absichtlich gesch&#246;nt“ class=„img-responsive“/><figcaption class=„akwa-caption“><p class=„source akwa-captionsource“>(Bild:&#160;dpa)</p> </figcaption></figure><p><strong>Der Chaos Computer Club erhebt schwere Vorw&#252;rfe zu den Ergebnissen des Berliner Tests zur biometrischen Video&#252;berwachung: Sie seien „manipuliert“ worden.</strong></p> <p>F&#252;r die Bundespolizei und das Bundesinnenministerium ist das Pilotprojekt zur Video&#252;berwachung mit automatisierter Gesichtserkennung am Berliner Bahnhof S&#252;dkreuz ein voller Erfolg. Dieser Darstellung hat der Chaos Computer Club (CCC), der den Versuch seit Langem kritisiert, vehement widersprochen und die publizierten Ergebnisse als „absichtlich gesch&#246;nt“ bezeichnet. Die „wenigen Zahlen“ aus dem Abschlussbericht zeigten, dass die getesteten Systeme „keine akzeptablen Ergebnisse erbrachten“, betont der Hackerverein. Die Resultate seien „manipuliert“ worden, „um sie nicht ganz so desastr&#246;s aussehen zu lassen“.</p> <p>Die <a href=„https://www.heise.de/meldung/Gesichtserkennung-Test-am-Bahnhof-Suedkreuz-erfolgreich-abgeschlossen-4189675.html“><strong>„angeblich hohe“ Erkennungsrate von durchschnittlich 80 Prozent [1]</strong></a> ergebe sich nur, „wenn alle drei getesteten Systeme die vorbeilaufenden Menschen erfassen und jeweils softwareseitig auswerten“, <a href=„https://www.ccc.de/de/updates/2018/debakel-am-suedkreuz“ rel=„external“ target=„_blank“><strong>erl&#228;utert der CCC [2]</strong></a>. Keiners der getesteten Systeme habe diese Trefferquote alleine erreicht. Das durchschnittliche Ergebnis des Versuchs f&#252;r das beste Testsystem ergebe eine Erkennungsrate von 68,5 Prozent. Der schlechteste der drei Anbieter habe am Eingang des Bahnhofs sogar nur eine Trefferrate von 18,9 Prozent erreicht.</p> <h3 class=„subheading“ id=„navquot_v&#246;llig1“>„V&#246;llig unbrauchbar“</h3> <p>Aber selbst bei der h&#246;heren Trefferquote des imagin&#228;ren „logischen Gesamtsystems“ w&#252;rden von zehn gesuchten Personen nur acht korrekt identifiziert, kritisiert der CCC. F&#252;r den geplanten Abgleich mit polizeilichen Datenbanken seien solche Erkennungsraten „v&#246;llig unbrauchbar“. Sie als Erfolg verkaufen zu wollen, sei „schlicht unredlich“.</p> <div class=„inread“/> <p>Auch die Zahlen zur Falscherkennungsrate (FAR) seien frisiert, moniert der CCC. Sie gibt die Wahrscheinlichkeit an, dass eine v&#246;llig unverd&#228;chtige Person f&#228;lschlicherweise vom System als eine gesuchte identifiziert wird. F&#252;r alle drei Anbieter zusammengenommen liege die ausgewiesene FAR durchschnittlich bei 0,67 Prozent. Bei einer durchschnittlichen Anzahl von etwa 90.000 Reisenden pro Tag an dem Bahnhof bedeute dieser Wert, dass t&#228;glich 600 Passanten und mehr f&#228;lschlich ins Visier der biometrischen Installation gerieten. Angesichts einer solchen „Flut von Falscherkennungsmeldungen“ d&#252;rften die Beamten wohl kaum beim h&#228;ndischen Aussieben erfolgreich sein, „wenn doch mal ein einzelner Verbrecher durchs Bild huscht und erkannt wird“.</p> <p>Auch seien nicht alle durch die Kamera erfassten Gesichter der Menschen analysiert worden, kritisiert der CCC. Vielmehr sei die Auswahl begrenzt worden auf solche, „die zuf&#228;lligerweise zu dem Zeitpunkt aufgenommen wurden, wenn eine der Testpersonen neben ihnen auf der Rolltreppe stand oder im Bahnhof ging und damit das System durch den Transponder aktivierte“. Die realen Zahlen der f&#228;lschlichen Erkennung l&#228;gen daher wohl „nochmals um ein Vielfaches h&#246;her als der in dem Bericht ausgegebene Wert“. Mit derlei Angaben w&#252;rden die Resultate unkommentiert verzerrt.</p> <h3 class=„subheading“ id=„navquot_wissenscha2“>„Wissenschaftliche Standards missachtet“</h3> <p>Der CCC wirft der Bundespolizei vor, „wissenschaftliche Standards missachtet“ zu haben. So seien die zugrundeliegenden Bilder der Gesichter in der <a href=„https://www.heise.de/meldung/Automatisierte-Gesichtserkennung-am-Verunsicherungsbahnhof-Suedkreuz-Spalier-fuer-alle-3903026.html“><strong>ersten Phase des Tests [3]</strong></a> von ausgesprochen hoher Qualit&#228;t gewesen, was den Erkennungsraten zugutegekommen sei. Zudem seien die Probanden nicht repr&#228;sentativ gewesen, „so dass kein aussagekr&#228;ftiges Abbild der Bev&#246;lkerung (Alter, Geschlecht, Ethnie) oder des gesuchten Personenkreises getestet wurde“. Die Anzahl der freiwilligen Tester sei mit 312 Menschen auch zu gering bemessen gewesen und habe w&#228;hrend der zweiten Phase sogar noch „signifikant abgenommen“.</p> <p>Der CCC fordert, das „unn&#252;tze und teure Sicherheitstheater unverz&#252;glich einzustellen“. Die Gesichter aller Passanten seien keine biometrische Ressource, die beliebig gescannt werden k&#246;nnen. W&#252;rden solche Systeme gar noch ausgebaut, drohe „eine anlasslose biometrische Personen&#252;berwachung im &#246;ffentlichen Raum“. Auch J&#252;rgen Hermes, Gesch&#228;ftsf&#252;hrer am Institut f&#252;r Digital Humanities an der Universit&#228;t zu K&#246;ln, hat anhand der ver&#246;ffentlichten Zahlen <a href=„https://texperimentales.hypotheses.org/2841“><strong>einige Beispielrechnungen durchgef&#252;hrt [4]</strong></a> und die Ergebnisse als recht katastrophal bezeichnet. (<em>Stefan Krempl</em>) / ()<br class=„clear“/></p> <hr/><p><strong>URL dieses Artikels:</strong><br/><small><code>http://www.heise.de/-4191216</code></small></p> <p><strong>Links in diesem Artikel:</strong><br/><small><code><strong>[1]</strong>&#160;https://www.heise.de/meldung/Gesichtserkennung-Test-am-Bahnhof-Suedkreuz-erfolgreich-abgeschlossen-4189675.html</code></small><br/><small><code><strong>[2]</strong>&#160;https://www.ccc.de/de/updates/2018/debakel-am-suedkreuz</code></small><br/><small><code><strong>[3]</strong>&#160;https://www.heise.de/meldung/Automatisierte-Gesichtserkennung-am-Verunsicherungsbahnhof-Suedkreuz-Spalier-fuer-alle-3903026.html</code></small><br/><small><code><strong>[4]</strong>&#160;https://texperimentales.hypotheses.org/2841</code></small><br/><small><code><strong>[5]</strong>&#160;mailto:anw@ct.de</code></small><br/></p> <p class=„printversioncopyright“><em>Copyright &#169; 2018 Heise Medien</em></p> </html>