Qgelm

Originalartikel

Backup

<html> <figure class=„aufmacherbild“><img src=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/4/5/1/6/9/0/5/GAFA4-4c080a7125d0fcdd.jpeg“ srcset=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/4/5/1/6/9/0/5/GAFA4-4c080a7125d0fcdd.jpeg 700w, https://heise.cloudimg.io/width/1050/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/4/5/1/6/9/0/5/GAFA4-4c080a7125d0fcdd.jpeg 1050w, https://heise.cloudimg.io/width/1500/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/4/5/1/6/9/0/5/GAFA4-4c080a7125d0fcdd.jpeg 1500w, https://heise.cloudimg.io/width/2300/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/4/5/1/6/9/0/5/GAFA4-4c080a7125d0fcdd.jpeg 2300w“ width=„3840“ height=„2158“ sizes=„(min-width: 80em) 43.75em, (min-width: 64em) 66.66vw, 100vw“ alt=„Ai,(artificial,Intelligence),Concept.,Contents,Concept.,Social,Networking,Service.,Streaming“ class=„img-responsive“ referrerpolicy=„no-referrer“ /><figcaption class=„akwa-caption“>(Bild:&#160;metamorworks / Shutterstock.com)</figcaption></figure><p><strong>Stanford-Forscher haben Links zu Missbrauchsbildern von Kindern in dem LAION-5B-Trainingsdatensatz f&#252;r KI-Bildgeneratoren gefunden.</strong></p><p>Der LAION-5B-Datensatz, der zum Trainieren K&#252;nstlicher Intelligenzen (KI) zur Erstellung von KI-Bilder verwendet wird, enthielt Links zu Bildern von Kindesmissbrauch. Das haben Wissenschaftler des Internet Observatory of Stanford herausgefunden. Das Trainigsset, das unter anderem von Stablity AI, dem Entwickler von Stable Diffusion verwendet worden war, k&#246;nnte so f&#252;r die Erstellung sch&#228;dlicher Inhalte sorgen.</p><p>Konkret enthielt der LAION-5B-Datensatz insgesamt 1679 Links auf Bilder mit illegalem Inhalt. Die Bilder stammen aus Beitr&#228;gen von sozialen Medien sowie Websites f&#252;r Erwachsene, <a href=„https://purl.stanford.edu/kh752sm9123“ rel=„external noopener“ target=„_blank“><strong>hei&#223;t es von den Stanford-Forschenden [1]</strong></a>. Aufgefallen war das bei einer Untersuchung des LAION-Datensatzes im September 2023. Die Erkenntnisse wurden dann an entsprechende Erkennungsplattformen geschickt, darunter PhotoDNA. Zus&#228;tzlich lie&#223;en die Wissenschaftler die Bilder vom Canadian Centre of Child Protection &#252;berpr&#252;fen.</p><h3 class=„subheading“ id=„nav_entfernung0“>Entfernung schwierig</h3><p>Die vollst&#228;ndige Entfernung der problematischen Inhalte sei laut Stanford-Forscher schwierig. Besonders sie aus den damit trainierten KI-Modellen zu entfernen. KI-Modelle, die mit dem LAION-5B-Datensatz trainiert worden sind, sollten nicht mehr weiterverbreitet werden, lautet deshalb ihre Empfehlung. Betroffen ist etwa Stable Diffusion 1.5. Neuere Versionen sollen mit einem anderen Datensatz trainiert worden sein, <a href=„https://www.theverge.com/2023/12/20/24009418/generative-ai-image-laion-csam-google-stability-stanford“ rel=„external noopener“ target=„_blank“><strong>sagte Stability AI gegen&#252;ber dem US-Tech-Magazin The Verge [2]</strong></a>. Welche das sind, verriet das Unternehmen jedoch nicht.</p><p>Unklar ist, wie gro&#223; die tats&#228;chlichen Auswirkungen auf die generierten Bilder sind. Die Forscher schlie&#223;en jedenfalls nicht aus, dass das Modell aus den Bildern mit Kindesmissbrauch etwas gelernt hat.</p><p>Die den LAION-5B-Datensatz verwaltende Non-Profit-Organisation LAION sagte, dass es die Datens&#228;tze zun&#228;chst aus dem Web entfernt, <a href=„https://www.bloomberg.com/news/articles/2023-12-20/large-ai-dataset-has-over-1-000-child-abuse-images-researchers-find“ rel=„external noopener“ target=„_blank“><strong>schreibt Bloomberg [3]</strong></a>. Stability AI gab an, dass es interne Richtlinien gegen die Verwendung solcher Fotos habe. LAION-5B sei zwar zum Training verwendet worden, allerdings habe man sich auf einen auf Sicherheit ausgelegten Teil des Datensatzes konzentriert.</p><p>() </p><hr /><p><strong>URL dieses Artikels:</strong><br /><small><code>https://www.heise.de/-9580014</code></small></p><p><strong>Links in diesem Artikel:</strong><br /><small><code><strong>[1]</strong>&#160;https://purl.stanford.edu/kh752sm9123</code></small><br /><small><code><strong>[2]</strong>&#160;https://www.theverge.com/2023/12/20/24009418/generative-ai-image-laion-csam-google-stability-stanford</code></small><br /><small><code><strong>[3]</strong>&#160;https://www.bloomberg.com/news/articles/2023-12-20/large-ai-dataset-has-over-1-000-child-abuse-images-researchers-find</code></small><br /><small><code><strong>[4]</strong>&#160;mailto:olb@heise.de</code></small><br /></p><p class=„printversioncopyright“><em>Copyright &#169; 2023 Heise Medien</em></p> </html>

Cookies helfen bei der Bereitstellung von Inhalten. Diese Website verwendet Cookies. Mit der Nutzung der Website erklären Sie sich damit einverstanden, dass Cookies auf Ihrem Computer gespeichert werden. Außerdem bestätigen Sie, dass Sie unsere Datenschutzerklärung gelesen und verstanden haben. Wenn Sie nicht einverstanden sind, verlassen Sie die Website.Weitere Information