Kritik an Fluggastdatenrasterung: KI-Modelle zur Terrorismusabwehr ungeeignet

Originalartikel

Backup

<html> <p>Die <a href=„https://www.consilium.europa.eu/de/policies/fight-against-terrorism/passenger-name-record/#rules“>EU-Richtlinie zu Fluggastdatens&#228;tzen</a> (PNR-Richtlinie) verpflichtet die EU-Mitgliedsstaaten seit 2016 dazu, europaweit Daten &#252;ber Flugg&#228;ste zu erheben und untereinander auszutauschen. Ein EuGH-Urteil im Jahr 2022 <a href=„https://netzpolitik.org/2022/fluggastdatenregister-eugh-urteil-beschraenkt-massenueberwachung-bei-flugreisen/“>beschr&#228;nkte diese Massen&#252;berwachung bei Flugreisen und legte auch ein Diskriminierungsverbot</a> fest. Die PNR-Richtlinie blieb jedoch bestehen.</p><p>Die PNR-Daten sollen vor allem sogenannte terroristische Gef&#228;hrder identifizieren &#8211; unter anderem mit Hilfe sogenannter K&#252;nstlicher Intelligenz (KI). <a href=„https://www.fairtrials.org/app/uploads/2021/11/Automating_Injustice.pdf“>Mehrere europ&#228;ische L&#228;nder</a> (pdf) &#8211; darunter auch Deutschland &#8211; setzen KI bereits f&#252;r die Strafverfolgung und die <a href=„https://netzpolitik.org/2019/wie-die-bayerische-polizei-das-predictive-policing-nach-deutschland-brachte/“>Vorhersage von Verbrechen</a> ein.</p><p>Ebendies kritisiert Douwe Korff, Jura-Professor an der London Metropolitan University und Anwalt f&#252;r Menschenrechte, in <a href=„https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4437110“>seiner k&#252;rzlich ver&#246;ffentlichten wissenschaftlichen Forschung</a>. Er z&#228;hlt drei grundlegende Probleme auf, die all jenen algorithmischen Verfahren gemein sind, die dem Profiling von potenziellen Gef&#228;hrder:innen dienen.</p><h3>500.000 potenzielle Terrorist:innen</h3><p>Als Erstes benennt er einen statistischen Fehlschluss, den sogenannten <a href=„https://epicenter.works/content/einfach-erklaert-praevalenzfehler-und-fluggastdaten-pnr“>Pr&#228;valenzfehler</a>. Dieser Fehler beschreibt, dass vermeintlich zuverl&#228;ssige statistische Modelle dazu neigen, besonders unwahrscheinliche Ereignisse disproportional h&#228;ufig vorherzusagen.</p><p>Selbst wenn beispielsweise ein KI-Modell Terrorist:innen in 99,9 Prozent der F&#228;lle fr&#252;hzeitig erkennen k&#246;nnte, w&#252;rde das Modell viele Unschuldige gleicherma&#223;en verd&#228;chtigen, da die absolute H&#228;ufigkeit von Terrorist:innen in der Bev&#246;lkerung au&#223;erordentlich gering ist. Dieses Problem ist weitgehend unabh&#228;ngig vom Anwendungsfall und beschreibt eine grundlegende Eigenschaft statistischer Verfahren.</p><p>Die Auswertung der Fluggastdaten in der EU w&#252;rde nach Einsch&#228;tzung des Wissenschaftlers &#8211; selbst bei dieser unrealistisch hohen Trefferquote &#8211; jedes Jahr etwa 500.000 Personen f&#228;lschlicherweise als potenzielle Terrorist:innen kennzeichnen. Bei einer plausibleren Trefferquote geriete eine noch h&#246;here Zahl Unschuldiger ins Visier der Ermittler:innen. Bereits in der Vergangenheit hatte Korff die EU-Kommission auf <a href=„https://www.ianbrown.tech/wp-content/uploads/2021/12/KORFF-FREE-Paper-on-Core-Issues-in-the-PNR-Case.pdf“>diesen Umstand hingewiesen</a>, allerdings sei die Warnung folgenlos geblieben.</p><h3>Software erbt unsere Verzerrungen</h3><p>Dar&#252;ber hinaus neigt Profiling-Software dazu, <a href=„https://www.amnesty.org/en/documents/eur35/2971/2020/en/“>gesellschaftliche Vorurteile</a> zu replizieren und zu verst&#228;rken. Ein solcher Bias (Verzerrung) sei allerdings <a href=„https://op.europa.eu/en/publication-detail/-/publication/9c419b94-cda3-11ea-adf7-01aa75ed71a1/language-en/format-PDF/source-search“>laut EU-Kommission</a> bei der Analyse von Fluggastdaten ausgeschlossen, da Eigenschaften wie Ethnie oder politische Einstellung ignoriert w&#252;rden. Diese zu verwenden sei gesetzlich auch verboten.</p><p>Korff widerspricht und weist erstens darauf hin, dass die entsprechende Richtlinie es den Mitgliedsstaaten erlaube, auch umfangreiche Datenbanken anderer Beh&#246;rden in die Analyse einzubeziehen. Diese enthielten durchaus auch sensible personenbezogene Daten.</p><p>Zweitens wiesen auch Datens&#228;tze ohne sensible personenbezogene Daten starke Verzerrungen auf, die dann die statistische Auswertung beeinflussen w&#252;rden, so Korff. Besonders marginalisierte Gruppen m&#252;ssten damit rechnen, disproportional h&#228;ufig und ohne nachvollziehbare Gr&#252;nde verd&#228;chtigt zu werden.</p><h3>Software ist intransparent</h3><p>Denn, so kritisiert Korff schlie&#223;lich, Beh&#246;rden k&#246;nnten selbst die Details solcher Software nicht einsehen. Aus diesem Grund seien sie au&#223;erstande, die Ergebnisse der Datenanalyse zu hinterfragen. Ihre Verdachtsf&#228;lle k&#246;nnten sie damit auch nur unzureichend begr&#252;nden. Aus diesem Grund bezeichnet Korff die Profiling-Algorithmen aus wissenschaftlicher Sicht als fragw&#252;rdig und f&#252;r den polizeilichen Gebrauch als ungeeignet.</p><p>Korffs Kritik richtet sich in dem wissenschaftlichen Artikel insbesondere gegen die PNR-Richtlinie der EU-Kommission. Sie sei jedoch auf alle KI-basierten Profiling-Verfahren anwendbar, etwa bei der Chatkontrolle.</p> </html>