Qgelm

Demaskierte KI: "Fake-Face"-Generatoren verraten Ausgangsbilder

Originalartikel

Backup

<html> <header class=„article-header“><h1 class=„articleheading“>Demaskierte KI: „Fake-Face“-Generatoren verraten Ausgangsbilder</h1><div class=„publish-info“> Will Douglas Heaven</div></header><figure class=„aufmacherbild“><img src=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/1/8/0/7/9/8/Screen_Shot_2021-10-12_at_13-0c76f3ec8bdb1008.png“ srcset=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/1/8/0/7/9/8/Screen_Shot_2021-10-12_at_13-0c76f3ec8bdb1008.png 700w, https://heise.cloudimg.io/width/1050/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/1/8/0/7/9/8/Screen_Shot_2021-10-12_at_13-0c76f3ec8bdb1008.png 1050w, https://heise.cloudimg.io/width/1500/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/1/8/0/7/9/8/Screen_Shot_2021-10-12_at_13-0c76f3ec8bdb1008.png 1500w, https://heise.cloudimg.io/width/2016/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/1/8/0/7/9/8/Screen_Shot_2021-10-12_at_13-0c76f3ec8bdb1008.png 2016w“ alt=„“ class=„img-responsive“ referrerpolicy=„no-referrer“ /><figcaption class=„akwa-caption“>(Bild:&#160;Ms Tech | Pexels, thispersondoesnotexist.com)</figcaption></figure><p><strong>Forscher stellen die weit verbreitete Theorie in Frage, dass Deep-Learning-Modelle „Black Boxes“ sind, die nichts &#252;ber ihre Vorg&#228;nge im Inneren verraten.</strong></p><p>Wer die Website „This Person Does Not Exist“ aufruft, kann an einem spannenden Experiment teilnehmen: Sie zeigt <a href=„https://thispersondoesnotexist.com/“ rel=„external noopener“ target=„_blank“><strong>ein menschliches Gesicht [1]</strong></a>, das nahezu perfekt realistisch ist &#8211; und doch v&#246;llig unecht. Aktualisiert man die Seite, generiert das dahinterliegende neuronale Netzwerk ein weiteres &#8211; und noch eins und noch eins. Die endlose Abfolge von KI-generierten Gesichtern wird von einem Generative Adversarial Networks (GAN) erzeugt &#8211; einer Art von K&#252;nstlicher Intelligenz, die lernt, realistische, aber tats&#228;chlich falsche Varianten jener Daten zu erzeugen, auf die sie trainiert wurde.</p><h3 class=„subheading“ id=„nav_bekannt_aus_der0“>Bekannt aus der Werbung</h3><p>Aber solche generierten Gesichter &#8211; die bereits in CGI-Filmen und in der Werbung verwendet werden &#8211; sind m&#246;glicherweise nicht so einzigartig, wie sie scheinen. In einer neuen Untersuchung mit dem Titel <a href=„https://arxiv.org/pdf/2107.06018.pdf“ rel=„external noopener“ target=„_blank“><strong>„This Person (Probably) Exists“ [2]</strong></a> zeigen Forscher nun, dass viele von GANs erzeugte Gesichter eine verbl&#252;ffende &#196;hnlichkeit mit tats&#228;chlichen Personen aufweisen, die in den Trainingsdaten vorkommen. Die gef&#228;lschten Gesichter k&#246;nnten die echten Gesichter, auf die das GAN trainiert wurde, erstaunlich leicht demaskieren &#8211; wodurch die Identit&#228;t dieser Personen aufgedeckt werden kann. Die Arbeit ist nur eine in einer ganzen Reihe von Studien, die die verbreitete Vorstellung in Frage stellen, dass neuronale Netze „Black Boxes“ sind, die nichts &#252;ber die Vorg&#228;nge in ihrem Inneren verraten.</p><p>Um die versteckten Trainingsdaten zu entlarven, verwendeten Ryan Webster und seine Kollegen von der Universit&#228;t Caen in der Normandie in Frankreich eine bestimmte Art von Angriff, der als „Membership Attack“ bezeichnet wird und mit dem sich herausfinden l&#228;sst, ob bestimmte Daten zum Trainieren eines neuronalen Netzwerkmodells verwendet wurden. Diese Angriffe nutzen in der Regel subtile Unterschiede zwischen der Art und Weise, wie ein Modell mit Daten umgeht, auf die es trainiert wurde &#8211; und die es daher schon Tausende Male gesehen hat &#8211; sowie mit bislang unbekannten Daten.</p><p>So kann ein Modell beispielsweise ein bisher unbekanntes Bild zwar genau, aber mit etwas geringerer Sicherheit erkennen als ein Bild, mit dem es trainiert wurde. Ein zweites Angreifer-Modell kann lernen, solche Unterschiede im Verhalten des ersten Modells zu erkennen, und sie nutzen, um vorherzusagen, ob bestimmte Daten, z. B. ein Foto, im Trainingssatz enthalten sind oder nicht.</p><h3 class=„subheading“ id=„nav_modell_gegen1“>Modell gegen Modell</h3><p>Solche Angriffe k&#246;nnen zu ernsthaften Sicherheitsl&#252;cken f&#252;hren. Wenn man zum Beispiel herausfindet, dass die medizinischen Daten einer Person zum Trainieren eines Modells verwendet wurden, das mit Krankheiten in Verbindung steht, k&#246;nnte man herausfinden, dass diese Person diese Krankheit hat.</p><p>Websters Team erweiterte diese Idee dahingehend, dass sie nicht die genauen Fotos identifizierten, die zum Trainieren eines GAN verwendet wurden, sondern Fotos im Trainingssatz des GAN, die nicht identisch waren, aber dieselbe Person darzustellen schienen &#8211; mit anderen Worten: Gesichter mit derselben Identit&#228;t. Zu diesem Zweck generierten die Forscher zun&#228;chst Gesichter mit dem GAN und verwendeten dann eine separate KI zur Gesichtserkennung, um zu erkennen, ob die Identit&#228;t dieser generierten Gesichter mit der Identit&#228;t eines der Gesichter in den Trainingsdaten &#252;bereinstimmte.</p><header class=„a-boxheader“ data-collapse-trigger=„“>Lesen Sie auch</header><div class=„a-boxtarget a-boxcontent“ data-collapse-target=„“><article class=„a-article-teaser a-article-teaser–horizontal-layout article-teaser–articlebox a-u-no-margin-bottom a-theme“ data-cid=„0“><a class=„a-article-teaserlink“ href=„https://www.heise.de/news/Forscher-entdecken-Generalschluessel-fuer-Systeme-zur-Gesichtserkennung-6156605.html“ name=„meldung.newsticker.inline.article-teaser.1“ title=„Forscher entdecken Generalschl&#252;ssel f&#252;r Systeme zur Gesichtserkennung“><figure class=„a-article-teaserimage-container“><div><strong><img alt=„“ height=„1686“ src=„https://static.wallabag.it/7862d1b7aff4c3b00f37212fefade4e0e2c4cf00/64656e6965643a646174613a696d6167652f7376672b786d6c2c253343737667253230786d6c6e733d27687474703a2f2f7777772e77332e6f72672f323030302f7376672725323077696474683d273639367078272532306865696768743d2733393170782725323076696577426f783d2730253230302532303639362532303339312725334525334372656374253230783d273027253230793d27302725323077696474683d27363936272532306865696768743d273339312725323066696c6c3d27253233663266326632272533452533432f726563742533452533432f737667253345/“ class=„c1“ width=„3000“ referrerpolicy=„no-referrer“ /></strong></div></figure><div class=„a-article-teasercontent-container“><header><h1 class=„a-article-teasertitle a-u-mb-1“><strong>Forscher entdecken Generalschl&#252;ssel f&#252;r Systeme zur Gesichtserkennung</strong></h1></header></div>[3]</a></article></div><p>Die Ergebnisse sind verbl&#252;ffend. In vielen F&#228;llen fand das Team in den Trainingsdaten mehrere Fotos echter Personen, die mit den vom GAN erzeugten falschen Gesichtern &#252;bereinstimmten, wodurch die Identit&#228;t der Personen aufgedeckt wurde, auf die die KI trainiert worden war. Die Arbeit gibt Anlass zu ernsthaften Bedenken hinsichtlich des Datenschutzes. „Die KI-Community empfindet ein tr&#252;gerisches Gef&#252;hl der Sicherheit, wenn sie trainierte tiefe neuronale Netzwerkmodelle an andere weitergibt“, sagt Jan Kautz, Vizepr&#228;sident f&#252;r Lern- und Wahrnehmungsforschung bei Nvidia.</p><h3 class=„subheading“ id=„nav_hilfsmittel_f&#252;r2“>Hilfsmittel f&#252;r den Datenschutz</h3><p>Theoretisch k&#246;nnte diese Art von Angriff auch auf andere personenbezogene Daten &#8211; etwa biometrische oder medizinische &#8211; angewendet werden. Andererseits weist Webster darauf hin, dass die Technik auch von Menschen genutzt werden k&#246;nnte, um zu &#252;berpr&#252;fen, ob ihre Daten ohne ihre Zustimmung zum Training einer KI verwendet wurden. Ein K&#252;nstler k&#246;nnte etwa auch checken, ob sein Werk zum Trainieren eines GAN in einem kommerziellen Tool verwendet wurde, sagt der Forscher: „Man k&#246;nnte eine Methode wie die unsere zum Nachweis von Urheberrechtsverletzungen verwenden.“</p><p>Das Verfahren k&#246;nnte weiterhin verwendet werden, um sicherzustellen, dass GANs nicht von vorne herein private Daten preisgeben. Das GAN k&#246;nnte mit der gleichen Technik, die von den Forschern entwickelt wurde, selbst &#252;berpr&#252;fen, ob seine Kreationen echten Beispielen in seinen Trainingsdaten &#228;hneln, bevor es diese wirklich freigibt. Dies setzt jedoch voraus, dass man &#252;berhaupt an die Trainingsdaten herankommt, sagt Kautz. Er und seine Kollegen bei Nvidia haben einen anderen Weg gefunden, um private Daten, einschlie&#223;lich Bildern von Gesichtern und anderen sensiblen Objekten &#8211; wie medizinischen Daten &#8211; freizugeben, bei dem &#252;berhaupt kein Zugang zu Trainingsdaten notwendig ist.</p><p>Stattdessen haben sie einen Algorithmus entwickelt, der die Daten, denen ein trainiertes Modell ausgesetzt war, durch Umkehrung der Schritte, die <a href=„https://arxiv.org/pdf/2107.06304.pdf“ rel=„external noopener“ target=„_blank“><strong>das Modell bei der Verarbeitung dieser Daten durchl&#228;uft, wiederherstellen [4]</strong></a> kann. Nehmen wir ein trainiertes Bilderkennungsnetzwerk: Um zu erkennen, was auf einem Bild zu sehen ist, durchl&#228;uft das Netzwerk eine Reihe von Schichten k&#252;nstlicher Neuronen, wobei jede Schicht verschiedene Ebenen von Informationen extrahiert, von abstrakten Kanten &#252;ber Formen bis hin zu erkennbaren Merkmalen.</p><h3 class=„subheading“ id=„nav_abbruch_und3“>Abbruch und Blick ins Modell</h3><p>Kautz' Team fand heraus, dass sie das Modell bei der H&#228;lfte dieser Schritte unterbrechen und seine Richtung umkehren k&#246;nnen, um das Eingangsbild aus den internen Daten des Modells neu zu erstellen. Sie testeten diese Technik an einer Reihe von g&#228;ngigen Bilderkennungsmodellen und GANs. In einem Test zeigten sie, dass sie Bilder aus ImageNet, einem der bekanntesten Bilderkennungsdatens&#228;tze, genau nachbilden konnten. Wie die Arbeit von Webster &#228;hneln die nachgebildeten Bilder sehr stark echten Bildern. „Wir waren von der Endqualit&#228;t &#252;berrascht“, sagt Kautz.</p><figure class=„branding“><a href=„https://www.heise.de/tr/“ name=„meldung.newsticker.inline.branding_tr“ title=„Mehr von MIT Technology Review“><strong> <img alt=„Mehr von MIT Technology Review“ height=„693“ src=„https://static.wallabag.it/7862d1b7aff4c3b00f37212fefade4e0e2c4cf00/64656e6965643a646174613a696d6167652f7376672b786d6c2c253343737667253230786d6c6e733d27687474703a2f2f7777772e77332e6f72672f323030302f7376672725323077696474683d273639367078272532306865696768743d2733393170782725323076696577426f783d2730253230302532303639362532303339312725334525334372656374253230783d273027253230793d27302725323077696474683d27363936272532306865696768743d273339312725323066696c6c3d27253233663266326632272533452533432f726563742533452533432f737667253345/“ class=„c2“ width=„1200“ referrerpolicy=„no-referrer“ /><img alt=„Mehr von MIT Technology Review“ class=„a-u-hide-from-tablet c3“ src=„https://heise.cloudimg.io/width/1200/q50.png-lossy-50.webp-lossy-50.foil1/_www-heise-de_/Magazin-Banner/tr_mobil.jpg“ srcset=„https://heise.cloudimg.io/width/2400/q30.png-lossy-30.webp-lossy-30.foil1/_www-heise-de_/Magazin-Banner/tr_mobil.jpg 2x“ referrerpolicy=„no-referrer“ /> <img alt=„Mehr von MIT Technology Review“ height=„500“ src=„https://static.wallabag.it/7862d1b7aff4c3b00f37212fefade4e0e2c4cf00/64656e6965643a646174613a696d6167652f7376672b786d6c2c253343737667253230786d6c6e733d27687474703a2f2f7777772e77332e6f72672f323030302f7376672725323077696474683d273639367078272532306865696768743d2733393170782725323076696577426f783d2730253230302532303639362532303339312725334525334372656374253230783d273027253230793d27302725323077696474683d27363936272532306865696768743d273339312725323066696c6c3d27253233663266326632272533452533432f726563742533452533432f737667253345/“ class=„c4“ width=„1830“ referrerpolicy=„no-referrer“ /><img alt=„Mehr von MIT Technology Review“ class=„a-u-show-from-tablet c3“ src=„https://heise.cloudimg.io/width/1830/q50.png-lossy-50.webp-lossy-50.foil1/_www-heise-de_/Magazin-Banner/tr_desktop.jpg“ srcset=„https://heise.cloudimg.io/width/3660/q30.png-lossy-30.webp-lossy-30.foil1/_www-heise-de_/Magazin-Banner/tr_desktop.jpg 2x“ referrerpolicy=„no-referrer“ /> [5]</strong></a></figure><p>Die Forscher glauben, dass diese Art von Angriff nicht nur hypothetisch ist. In Smartphones und anderen mobilen Ger&#228;ten wird zunehmend KI eingesetzt. Aufgrund von Akku- und Speicherbeschr&#228;nkungen werden die Modelle manchmal nur zur H&#228;lfte auf dem Ger&#228;t selbst verarbeitet und f&#252;r die endg&#252;ltige Berechnung in die Cloud geschickt &#8211; ein Ansatz, der als „Split Computing“ bekannt ist. Die meisten Forscher gehen davon aus, dass beim Split Computing keine privaten Daten aus dem Telefon einer Person preisgegeben werden, da nur das Modell gemeinsam genutzt wird, sagt Kautz. Sein Angriff zeigt jedoch, dass dies wohl nicht der Fall ist.</p><p>Kautz und seine Kollegen arbeiten nun daran, Wege zu finden, um zu verhindern, dass KI-Modelle private Daten preisgeben. „Wir wollten die Risiken verstehen, damit wir Schwachstellen minimieren k&#246;nnen“, sagt er. Obwohl beide Gruppen sehr unterschiedliche Techniken verwenden, ist er der Meinung, dass sich seine Arbeit und die von Webster gut erg&#228;nzen. Websters Team hat gezeigt, dass private Daten in der Ausgabe eines Modells gefunden werden k&#246;nnen; Kautz' Team hat gezeigt, dass private Daten aufgedeckt werden k&#246;nnen, indem man den umgekehrten Weg geht und die Eingangsdaten neu erstellt. „Die Untersuchung in beide Richtungen ist wichtig, um ein besseres Verst&#228;ndnis daf&#252;r zu entwickeln, wie man solche Angriffe verhindern kann“, sagt Kautz.</p><header class=„a-boxheader“ data-collapse-trigger=„“>Lesen Sie auch</header><div class=„a-boxtarget a-boxcontent“ data-collapse-target=„“><article class=„a-article-teaser a-article-teaser–horizontal-layout article-teaser–articlebox a-u-no-margin-bottom a-theme“ data-cid=„0“><a class=„a-article-teaserlink“ data-google-interstitial=„false“ href=„https://www.heise.de/hintergrund/KI-Wie-Forscher-sie-gerechter-und-offener-gestalten-wollen-6195399.html“ name=„meldung.newsticker.inline.article-teaser.1“ title=„KI: Wie Forscher sie gerechter und offener gestalten wollen“><figure class=„a-article-teaserimage-container“><div><strong><img alt=„“ height=„550“ src=„https://static.wallabag.it/7862d1b7aff4c3b00f37212fefade4e0e2c4cf00/64656e6965643a646174613a696d6167652f7376672b786d6c2c253343737667253230786d6c6e733d27687474703a2f2f7777772e77332e6f72672f323030302f7376672725323077696474683d273639367078272532306865696768743d2733393170782725323076696577426f783d2730253230302532303639362532303339312725334525334372656374253230783d273027253230793d27302725323077696474683d27363936272532306865696768743d273339312725323066696c6c3d27253233663266326632272533452533432f726563742533452533432f737667253345/“ class=„c5“ width=„979“ referrerpolicy=„no-referrer“ /></strong></div></figure><div class=„a-article-teasercontent-container“><header><h1 class=„a-article-teasertitle a-u-mb-1“><strong>KI: Wie Forscher sie gerechter und offener gestalten wollen</strong></h1></header></div>[6]</a></article></div><p>() </p><hr /><p><strong>URL dieses Artikels:</strong><br /><small><code>https://www.heise.de/-6212347</code></small></p><p><strong>Links in diesem Artikel:</strong><br /><small><code><strong>[1]</strong>&#160;https://thispersondoesnotexist.com/</code></small><br /><small><code><strong>[2]</strong>&#160;https://arxiv.org/pdf/2107.06018.pdf</code></small><br /><small><code><strong>[3]</strong>&#160;https://www.heise.de/news/Forscher-entdecken-Generalschluessel-fuer-Systeme-zur-Gesichtserkennung-6156605.html</code></small><br /><small><code><strong>[4]</strong>&#160;https://arxiv.org/pdf/2107.06304.pdf</code></small><br /><small><code><strong>[5]</strong>&#160;https://www.heise.de/tr/</code></small><br /><small><code><strong>[6]</strong>&#160;https://www.heise.de/hintergrund/KI-Wie-Forscher-sie-gerechter-und-offener-gestalten-wollen-6195399.html</code></small><br /><small><code><strong>[7]</strong>&#160;mailto:bsc@heise.de</code></small><br /></p><p class=„printversioncopyright“><em>Copyright &#169; 2021 Heise Medien</em></p> </html>

Cookies helfen bei der Bereitstellung von Inhalten. Diese Website verwendet Cookies. Mit der Nutzung der Website erklären Sie sich damit einverstanden, dass Cookies auf Ihrem Computer gespeichert werden. Außerdem bestätigen Sie, dass Sie unsere Datenschutzerklärung gelesen und verstanden haben. Wenn Sie nicht einverstanden sind, verlassen Sie die Website.Weitere Information