Qgelm

Exposing.AI: Projekt enthüllt Missbrauch von Flickr-Fotos für Gesichtserkennung

Originalartikel

Backup

<html> <header class=„article-header“><h1 class=„articleheading“>Exposing.AI: Projekt enth&#252;llt Missbrauch von Flickr-Fotos f&#252;r Gesichtserkennung</h1><div class=„publish-info“> Stefan Krempl</div></header><figure class=„aufmacherbild“><img src=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/0/4/8/7/8/8/Exposing_AI-4cc3dd4618614eec.jpeg“ srcset=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/0/4/8/7/8/8/Exposing_AI-4cc3dd4618614eec.jpeg 700w, https://heise.cloudimg.io/width/1050/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/0/4/8/7/8/8/Exposing_AI-4cc3dd4618614eec.jpeg 1050w, https://heise.cloudimg.io/width/1500/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/0/4/8/7/8/8/Exposing_AI-4cc3dd4618614eec.jpeg 1500w, https://heise.cloudimg.io/width/1600/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/0/4/8/7/8/8/Exposing_AI-4cc3dd4618614eec.jpeg 1600w“ alt=„“ class=„img-responsive“ referrerpolicy=„no-referrer“ /><figcaption class=„akwa-caption“>(Bild:&#160;Exposing.AI (Screenshot))</figcaption></figure><p><strong>Forscher haben eine Suchmaschine entwickelt, mit der sich pr&#252;fen l&#228;sst, ob Flickr-Bilder f&#252;rs Training von Gesichtserkennungs-Systemen zweckentfremdet wurden.</strong></p><p>Seit Jahren bauen Firmen und Wissenschaftler ihre Sets mit Trainingsdaten f&#252;r Systeme zur biometrischen Gesichtserkennung h&#228;ufig „wild“ ohne Einwilligung der Betroffenen auf. Adam Harvey und Jules LaPlace, die als Forscher und K&#252;nstler in Berlin leben, machen dieses Treiben in ethischen und rechtlichen Grauzonen nun zumindest etwas transparenter. Sie haben mit „Exposing.AI“ eine Suchmaschine entwickelt, mit der Nutzer pr&#252;fen k&#246;nnen, ob ihre Flickr-Bilder f&#252;r solche Zwecke missbraucht wurden.</p><p>Das vor Kurzem <a href=„https://exposing.ai/“ rel=„external noopener“ target=„_blank“><strong>online gegangene Projekt [1]</strong></a> erlaubt eine Suche mit Flickr-Kennungen wie dem Benutzernamen, der von der Bilderplattform vergebenen NSID oder einer Foto-ID. Nur wenn eine exakte &#220;bereinstimmung mit entsprechenden Daten in den einbezogenen &#220;berwachungsdatenbanken gefunden wird, werden Ergebnisse angezeigt. Die Betreiber der Plattform speichern selbst keine Suchdaten und geben diese auch nicht weiter. Die angezeigten Fotos werden dann direkt von Flickr.com geladen, Kopien davon nicht aufbewahrt.</p><p>Interessierte k&#246;nnen auch nach Fotos von sich selbst suchen, die Dritte aufgenommen und auf Flickr gestellt haben, indem sie einen Hashtag verwenden. Denkbar ist dabei etwa an ein K&#252;rzel f&#252;r besuchte Veranstaltungen oder private Feiern wie „#mybirthdayparty“. Die Macher geben hier aber zu bedenken, dass diese Form der Suche etwas l&#228;nger dauere: „Jedes Foto kann Dutzende von Tags enthalten, was zu Millionen weiterer Datens&#228;tze f&#252;r die Suche f&#252;hrt.“</p><h3 class=„subheading“ id=„nav_hohes0“>Hohes Missbrauchs- und Schadenspotenzial</h3><p>„Die Menschen m&#252;ssen erkennen, dass einige ihrer intimsten Momente zu Waffen gemacht wurden“, <a href=„https://www.nytimes.com/2021/01/31/technology/facial-recognition-photo-tool.html“ rel=„external noopener“ target=„_blank“><strong>erl&#228;uterte Liz O'Sullivan [2]</strong></a>, Technologie-Direktorin bei der B&#252;rgerrechtsorganisation Surveillance Technology Oversight Project (STOP), die Initiative gegen&#252;ber der <em>New York Times</em>. Die Aktivistin hat am Design von Exposing.AI mitgearbeitet. Urspr&#252;nglich war ihr zufolge geplant, f&#252;r die Suchmaschine ebenfalls automatisierte Gesichtserkennung einzusetzen. Davon habe das Team aber wieder Abstand genommen: Das Missbrauch- und Schadenspotenzial sei zu hoch gewesen.</p><p>Harvey hatte j&#252;ngst auf einer Konferenz anhand von Erkenntnissen aus seinem <a href=„https://megapixels.cc/“ rel=„external noopener“ target=„_blank“><strong>Vorl&#228;uferprojekt „Megapixels“ [3]</strong></a> &#252;ber das <a href=„https://www.heise.de/meldung/Datenforscherin-Kuenstliche-Intelligenz-ist-kaputt-4447500.html“><strong>Vorgehen der J&#228;ger nach Gesichtsaufnahmen berichtet [4]</strong></a>, um die teils noch hohen Fehlerraten der Technik auszumerzen. Microsoft etwa habe sich f&#252;r die Datenbank Celeb einfach bei Bildern von Promis sowie weniger bekannten Personen im Web bedient, die Duke University f&#252;r das „Multi-Tracking-Register“ DukeMTMC Aufnahmen von Studenten mit Teleobjektiv von einem Fenster des Instituts aus gemacht. F&#252;r „Brainwash“ h&#228;tten die Verursacher sogar Bilddaten eines Video-Livestreams aus einem Caf&#233; in San Francisco abgezweigt.</p><p>Diese Datenbanken seien zwar <a href=„https://www.heise.de/meldung/Microsoft-schaltet-Datenbank-fuer-Gesichtserkennungs-Training-ab-4442919.html“><strong>inzwischen gr&#246;&#223;tenteils offiziell abgeschaltet worden [5]</strong></a>, wei&#223; der K&#252;nstler: „Aber man kann sie nicht wirklich aus dem Netz bekommen.“ So kursierten die Inhalte nach wie vor in „akademischen Torrents“ in Peer-to-Peer-Netzwerken „rund um die Welt“. Es sei erwiesen, dass Teile davon etwa von der chinesischen Armee &#252;bernommen und nun auch f&#252;r die Unterdr&#252;ckung der muslimischen Minderheit in der autonomen Region Xinjiang verwendet w&#252;rden. <a href=„https://www.heise.de/meldung/Missing-Link-Nothing-to-Hide-oder-Wie-mit-Social-Scoring-die-Privatsphaere-abgeschafft-wird-4102845.html“><strong>Beteiligte Firmen [6]</strong></a> <a href=„https://www.heise.de/meldung/Ueberwachung-US-Regierung-setzt-chinesische-KI-und-IT-Firmen-auf-schwarze-Liste-4550618.html“><strong>wie Megvii [7]</strong></a> und Hochschulen m&#252;ssten daf&#252;r haften, forderte der Aktivist.</p><h3 class=„subheading“ id=„nav_fotos_l&#246;schen_1“>Fotos l&#246;schen</h3><p>Neben <a href=„https://exposing.ai/datasets/“ rel=„external noopener“ target=„_blank“><strong>den genannten Datensets [8]</strong></a> erm&#246;glicht das von der Gruppe „K&#252;nstliche Intelligenz und Medienphilosophie“ der Hochschule f&#252;r Gestaltung Karlsruhe sowie dem Weizenbaum-Institut unterst&#252;tzte Projekt eine Suche etwa auch in MegaFace mit &#252;ber 3,5 Millionen Fotos, DiveFace mit &#252;ber 115.000 Aufnahmen von Flickr, VGG Face, Pipa, IJB-C, FaceScrub, TownCentre, UCCS und Wildtrack. Obwohl Exposing.AI so Millionen von Datens&#228;tzen durchsucht, gibt es den Machern zufolge „unz&#228;hlige weitere Trainingsdatens&#228;tze f&#252;r Gesichtserkennung, die laufend aus sozialen Medien sowie Nachrichten- und Unterhaltungsseiten zusammengetragen werden“. K&#252;nftige Versionen des Projekts w&#252;rden m&#246;glicherweise entsprechend erweitert.</p><p>Ein nachtr&#228;gliches L&#246;schen von Bildern aus bereits kursierenden Kopien von Datensets sei nicht m&#246;glich, hei&#223;t es auf der Webseite. F&#252;r noch aktuell gepflegte Trainingsdatenbanken arbeite man an einer Funktion, um anhand der Suchergebnisse die Betreiber zum Entfernen eigener Aufnahmen auffordern zu k&#246;nnen. Fotos, die man bei Flickr beseitige, tauchten im Anschluss auf Exposing.AI nicht mehr auf. () </p><hr /><p><strong>URL dieses Artikels:</strong><br /><small>

https://www.heise.de/-5042252

</small></p><p><strong>Links in diesem Artikel:</strong><br /><small>

<strong>[1]</strong>&#160;https://exposing.ai/

</small><br /><small>

<strong>[2]</strong>&#160;https://www.nytimes.com/2021/01/31/technology/facial-recognition-photo-tool.html

</small><br /><small>

<strong>[3]</strong>&#160;https://megapixels.cc/

</small><br /><small>

<strong>[4]</strong>&#160;https://www.heise.de/meldung/Datenforscherin-Kuenstliche-Intelligenz-ist-kaputt-4447500.html

</small><br /><small>

<strong>[5]</strong>&#160;https://www.heise.de/meldung/Microsoft-schaltet-Datenbank-fuer-Gesichtserkennungs-Training-ab-4442919.html

</small><br /><small>

<strong>[6]</strong>&#160;https://www.heise.de/meldung/Missing-Link-Nothing-to-Hide-oder-Wie-mit-Social-Scoring-die-Privatsphaere-abgeschafft-wird-4102845.html

</small><br /><small>

<strong>[7]</strong>&#160;https://www.heise.de/meldung/Ueberwachung-US-Regierung-setzt-chinesische-KI-und-IT-Firmen-auf-schwarze-Liste-4550618.html

</small><br /><small>

<strong>[8]</strong>&#160;https://exposing.ai/datasets/

</small><br /><small>

<strong>[9]</strong>&#160;mailto:olb@heise.de

</small><br /></p><p class=„printversion__copyright“><em>Copyright &#169; 2021 Heise Medien</em></p> </html>

Cookies helfen bei der Bereitstellung von Inhalten. Diese Website verwendet Cookies. Mit der Nutzung der Website erklären Sie sich damit einverstanden, dass Cookies auf Ihrem Computer gespeichert werden. Außerdem bestätigen Sie, dass Sie unsere Datenschutzerklärung gelesen und verstanden haben. Wenn Sie nicht einverstanden sind, verlassen Sie die Website.Weitere Information