Qgelm

Kritik an Fluggastdatenrasterung: KI-Modelle zur Terrorismusabwehr ungeeignet

Originalartikel

Backup

<html> <p>Die <a href=„https://www.consilium.europa.eu/de/policies/fight-against-terrorism/passenger-name-record/#rules“>EU-Richtlinie zu Fluggastdatens&#228;tzen</a> (PNR-Richtlinie) verpflichtet die EU-Mitgliedsstaaten seit 2016 dazu, europaweit Daten &#252;ber Flugg&#228;ste zu erheben und untereinander auszutauschen. Ein EuGH-Urteil im Jahr 2022 <a href=„https://netzpolitik.org/2022/fluggastdatenregister-eugh-urteil-beschraenkt-massenueberwachung-bei-flugreisen/“>beschr&#228;nkte diese Massen&#252;berwachung bei Flugreisen und legte auch ein Diskriminierungsverbot</a> fest. Die PNR-Richtlinie blieb jedoch bestehen.</p><p>Die PNR-Daten sollen vor allem sogenannte terroristische Gef&#228;hrder identifizieren &#8211; unter anderem mit Hilfe sogenannter K&#252;nstlicher Intelligenz (KI). <a href=„https://www.fairtrials.org/app/uploads/2021/11/Automating_Injustice.pdf“>Mehrere europ&#228;ische L&#228;nder</a> (pdf) &#8211; darunter auch Deutschland &#8211; setzen KI bereits f&#252;r die Strafverfolgung und die <a href=„https://netzpolitik.org/2019/wie-die-bayerische-polizei-das-predictive-policing-nach-deutschland-brachte/“>Vorhersage von Verbrechen</a> ein.</p><p>Ebendies kritisiert Douwe Korff, Jura-Professor an der London Metropolitan University und Anwalt f&#252;r Menschenrechte, in <a href=„https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4437110“>seiner k&#252;rzlich ver&#246;ffentlichten wissenschaftlichen Forschung</a>. Er z&#228;hlt drei grundlegende Probleme auf, die all jenen algorithmischen Verfahren gemein sind, die dem Profiling von potenziellen Gef&#228;hrder:innen dienen.</p><h3>500.000 potenzielle Terrorist:innen</h3><p>Als Erstes benennt er einen statistischen Fehlschluss, den sogenannten <a href=„https://epicenter.works/content/einfach-erklaert-praevalenzfehler-und-fluggastdaten-pnr“>Pr&#228;valenzfehler</a>. Dieser Fehler beschreibt, dass vermeintlich zuverl&#228;ssige statistische Modelle dazu neigen, besonders unwahrscheinliche Ereignisse disproportional h&#228;ufig vorherzusagen.</p><p>Selbst wenn beispielsweise ein KI-Modell Terrorist:innen in 99,9 Prozent der F&#228;lle fr&#252;hzeitig erkennen k&#246;nnte, w&#252;rde das Modell viele Unschuldige gleicherma&#223;en verd&#228;chtigen, da die absolute H&#228;ufigkeit von Terrorist:innen in der Bev&#246;lkerung au&#223;erordentlich gering ist. Dieses Problem ist weitgehend unabh&#228;ngig vom Anwendungsfall und beschreibt eine grundlegende Eigenschaft statistischer Verfahren.</p><p>Die Auswertung der Fluggastdaten in der EU w&#252;rde nach Einsch&#228;tzung des Wissenschaftlers &#8211; selbst bei dieser unrealistisch hohen Trefferquote &#8211; jedes Jahr etwa 500.000 Personen f&#228;lschlicherweise als potenzielle Terrorist:innen kennzeichnen. Bei einer plausibleren Trefferquote geriete eine noch h&#246;here Zahl Unschuldiger ins Visier der Ermittler:innen. Bereits in der Vergangenheit hatte Korff die EU-Kommission auf <a href=„https://www.ianbrown.tech/wp-content/uploads/2021/12/KORFF-FREE-Paper-on-Core-Issues-in-the-PNR-Case.pdf“>diesen Umstand hingewiesen</a>, allerdings sei die Warnung folgenlos geblieben.</p><h3>Software erbt unsere Verzerrungen</h3><p>Dar&#252;ber hinaus neigt Profiling-Software dazu, <a href=„https://www.amnesty.org/en/documents/eur35/2971/2020/en/“>gesellschaftliche Vorurteile</a> zu replizieren und zu verst&#228;rken. Ein solcher Bias (Verzerrung) sei allerdings <a href=„https://op.europa.eu/en/publication-detail/-/publication/9c419b94-cda3-11ea-adf7-01aa75ed71a1/language-en/format-PDF/source-search“>laut EU-Kommission</a> bei der Analyse von Fluggastdaten ausgeschlossen, da Eigenschaften wie Ethnie oder politische Einstellung ignoriert w&#252;rden. Diese zu verwenden sei gesetzlich auch verboten.</p><p>Korff widerspricht und weist erstens darauf hin, dass die entsprechende Richtlinie es den Mitgliedsstaaten erlaube, auch umfangreiche Datenbanken anderer Beh&#246;rden in die Analyse einzubeziehen. Diese enthielten durchaus auch sensible personenbezogene Daten.</p><p>Zweitens wiesen auch Datens&#228;tze ohne sensible personenbezogene Daten starke Verzerrungen auf, die dann die statistische Auswertung beeinflussen w&#252;rden, so Korff. Besonders marginalisierte Gruppen m&#252;ssten damit rechnen, disproportional h&#228;ufig und ohne nachvollziehbare Gr&#252;nde verd&#228;chtigt zu werden.</p><h3>Software ist intransparent</h3><p>Denn, so kritisiert Korff schlie&#223;lich, Beh&#246;rden k&#246;nnten selbst die Details solcher Software nicht einsehen. Aus diesem Grund seien sie au&#223;erstande, die Ergebnisse der Datenanalyse zu hinterfragen. Ihre Verdachtsf&#228;lle k&#246;nnten sie damit auch nur unzureichend begr&#252;nden. Aus diesem Grund bezeichnet Korff die Profiling-Algorithmen aus wissenschaftlicher Sicht als fragw&#252;rdig und f&#252;r den polizeilichen Gebrauch als ungeeignet.</p><p>Korffs Kritik richtet sich in dem wissenschaftlichen Artikel insbesondere gegen die PNR-Richtlinie der EU-Kommission. Sie sei jedoch auf alle KI-basierten Profiling-Verfahren anwendbar, etwa bei der Chatkontrolle.</p> </html>

Cookies helfen bei der Bereitstellung von Inhalten. Diese Website verwendet Cookies. Mit der Nutzung der Website erklären Sie sich damit einverstanden, dass Cookies auf Ihrem Computer gespeichert werden. Außerdem bestätigen Sie, dass Sie unsere Datenschutzerklärung gelesen und verstanden haben. Wenn Sie nicht einverstanden sind, verlassen Sie die Website.Weitere Information