Zuverlässige KI: Absicherung künstlicher neuronaler Netze

Originalartikel

Backup

<html> <header class=„article-header“><h1 class=„articleheading“>Zuverl&#228;ssige KI: Absicherung k&#252;nstlicher neuronaler Netze</h1><div class=„publish-info“> Marco Huber</div></header><figure class=„aufmacherbild“><img src=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/Gehirn-Computer-Schnittstelle-94c2de24c094cb6a.jpeg“ srcset=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/Gehirn-Computer-Schnittstelle-94c2de24c094cb6a.jpeg 700w, https://heise.cloudimg.io/width/1050/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/Gehirn-Computer-Schnittstelle-94c2de24c094cb6a.jpeg 1050w, https://heise.cloudimg.io/width/1500/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/Gehirn-Computer-Schnittstelle-94c2de24c094cb6a.jpeg 1500w, https://heise.cloudimg.io/width/2300/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/Gehirn-Computer-Schnittstelle-94c2de24c094cb6a.jpeg 2300w“ alt=„“ class=„img-responsive“ referrerpolicy=„no-referrer“ /><figcaption class=„akwa-caption“>(Bild:&#160;Peshkova / shutterstock.com)</figcaption></figure><p><strong>Wie zuverl&#228;ssig eine KI-Anwendung ist, l&#228;sst sich messen. Das ist oft mathematisch komplex, hat aber enorme praktische Bedeutung.</strong></p><p>Wissen, Halbwissen und Falschinformationen liegen beim Thema K&#252;nstliche Intelligenz (KI) nahe beieinander. Nicht erf&#252;llte oder &#252;bererf&#252;llte Erwartungen gehen h&#228;ufig einher mit &#220;berraschungsmomenten, wenn klar wird, wie lange es KI gibt und wie stark sie inzwischen den Alltag privat wie beruflich durchdringt. Dieses Hineinwirken in zahlreiche gesellschaftliche Bereiche bedingt, dass der &#246;ffentliche Diskurs &#252;ber KI intensiver ist und auch sein sollte als f&#252;r andere Technologien.</p><p>Neben dem lebhaften Diskurs in der Gesellschaft existieren rechtliche Fragen und H&#252;rden, die Unternehmen angehen m&#252;ssen, wenn sie K&#252;nstliche Intelligenz sicher einsetzen m&#246;chten. Mit der steigenden Zahl der KI-Anwendungen w&#228;chst die Notwendigkeit zu pr&#252;fen, inwieweit bestehende Normen, Standards und Regularien f&#252;r sie greifen oder ob es weiterer Ma&#223;nahmen f&#252;r eine rechtssichere Anwendung bedarf.</p><h3 class=„subheading“ id=„nav_licht_und0“>Licht und Schatten beim Einsatz von KI</h3><p>Der aktuelle Wirbel um KI ist das Ergebnis einer jahrzehntelangen Forschungsarbeit seit den 1950er Jahren. In der letzten Zeit h&#228;ufen sich die Erfolgsmeldungen: <a href=„https://www.heise.de/news/Interaktives-Sprachmodell-nach-GPT-3-ChatGPT-steht-allen-Interessierten-offen-7364694.html“><strong>ChatGPT beeindruckt [1]</strong></a> in diversen Dom&#228;nen mit fl&#252;ssig formulierten und gut lesbaren Texten. Die Sprachassistenten Siri und Alexa sind in viele Haushalte eingezogen. <a href=„https://www.heise.de/news/Google-KI-schlaegt-menschlichen-Profi-Spieler-im-Go-3085855.html“><strong>Das Computerprogramm AlphaGo [2]</strong></a> von DeepMind schlug 2016 einen der weltbesten Go-Spieler. Und <a href=„https://www.heise.de/news/Deepmind-KI-faltet-Proteine-4243731.html“><strong>mit AlphaFold hat Google [3]</strong></a> eine KI trainiert, die extrem pr&#228;zise die r&#228;umliche Struktur von Proteinen vorhersagen kann.</p><p>Die Erfolge sind nur die eine Seite der Medaille. Auf der anderen Seite stehen ethische und sicherheitsrelevante Herausforderungen. So setzte Amazon beispielsweise eine <a href=„https://www.heise.de/news/Amazon-KI-zur-Bewerbungspruefung-benachteiligte-Frauen-4189356.html“><strong>KI-basierte Software f&#252;r den Vorauswahlprozess neuer Mitarbeiter [4]</strong></a> ein, die aufgrund der Trainingsdaten Frauen benachteiligte. Breit durch die Medien gingen zudem zwar seltene, aber schwere Unf&#228;lle mit Autos, die autonom fuhren und deren Bildverarbeitung nicht richtig funktionierte. Ein wahrer Misserfolg <a href=„https://www.heise.de/news/Microsofts-Chatbot-Tay-nach-rassistischen-Entgleisungen-abgeschaltet-3151646.html“><strong>war der Chatbot Tay [5]</strong></a>, der auf Twitter von den Nutzern lernen sollte, die ihm aber schnell rassistische &#196;u&#223;erungen beibrachten. Es ist kein Selbstl&#228;ufer, KI-Techniken sinnvoll und rechtskonform einzusetzen.</p><h3 class=„subheading“ id=„nav_die1“>Die Vertrauensfrage</h3><p>Das ambivalente Bild bewirkt etwas bei Menschen und ihrer Haltung gegen&#252;ber KI. Der 2020 von Bosch umgesetzt „<a href=„https://www.bosch.de/news-and-stories/ki-zukunftskompass/“ rel=„external noopener“ target=„_blank“><strong>KI-Zukunftskompass [6]</strong></a>“ zeigt, wo die befragten Personen eher Menschen oder einer KI vertrauen w&#252;rden. Die Umfrage ergab, dass KI in jenen Bereichen hohes Vertrauen genie&#223;t, in denen das Umfeld stark technisiert ist und keine direkten Bez&#252;ge zum Menschen hat, etwa in der industriellen Produktion oder der Herstellung von Autos und Flugzeugen. Zwischen 38 und 57 Prozent der Befragten sprachen einer Maschine in dem Bereich mehr Vertrauen aus als einem Menschen, f&#252;r den die Werte zwischen 11 und 22 Prozent lagen.</p><p>Allerdings sinkt das Vertrauen in Maschinen, wenn eine Anwendung Menschen direkt betrifft: Zwischen 65 und 79 Prozent der Befragten vertrauten Menschen, wenn es um gesundheitliche Anforderungen, die Pflege oder Personalentscheidungen geht. Nur sechs bis zehn Prozent vertrauten in den Bereichen den Maschinen st&#228;rker. Je n&#228;her eine KI-basierte Entscheidung oder Aktion dem Menschen r&#252;ckt und je mehr sie sein Leben beeinflussen k&#246;nnte, umso kritischer wird der Umgang mit KI &#8211; ein nachvollziehbarer Befund.</p><h3 class=„subheading“ id=„nav_menschzentrierte2“>Menschzentrierte und zuverl&#228;ssige KI als Ziel</h3><p>Umso wichtiger ist es, Gefahren und Skepsis auf Anwenderseite beim Entwickeln von KI-Anwendungen im Fokus zu haben. Das versteht das Team im Stuttgarter <a href=„https://www.ki-fortschrittszentrum.de“ rel=„external noopener“ target=„_blank“><strong>KI-Fortschrittszentrum „Lernende Systeme und Kognitive Robotik“ [7]</strong></a>, geleitet von den beiden Fraunhofer-Instituten f&#252;r Produktionstechnik und Automatisierung IPA sowie f&#252;r Arbeitswirtschaft und Organisation IAO und gef&#246;rdert vom Wirtschaftsministerium Baden-W&#252;rttemberg, unter einer menschzentrierten KI. Dass diese zuverl&#228;ssig und vertrauensw&#252;rdig ist, zeigt sich in sechs Aspekten:</p><ol class=„rtelist rtelist–ordered“><li>Menschlichem Handeln und Aufsicht,</li><li>Fairness,</li><li>Datenschutz,</li><li>Sicherheit,</li><li>Verl&#228;sslichkeit und</li><li>Transparenz.</li></ol><p>Die ersten drei Aspekte betreffen &#252;berwiegend ethische Themen. Die Schwerpunkte des KI-Fortschrittszentrums liegen auf den sicherheitsrelevanten Aspekten vier bis sechs. Zun&#228;chst ist jedoch eine kurze Einordnung erforderlich: K&#252;nstliche Intelligenz steht in diesem Artikel f&#252;r Methoden und Verfahren zur Probleml&#246;sung, f&#252;r die Menschen &#252;blicherweise intelligent handeln m&#252;ssen. Ein prominentes und momentan das am st&#228;rksten genutzte Teilgebiet von KI ist Machine Learning (ML), also das &#252;berwachte oder un&#252;berwachte Lernen anhand von Mustern in Daten. K&#252;nstliche neuronale Netze mit Verfahren des Deep Learning geh&#246;ren dazu.</p><h3 class=„subheading“ id=„nav_sicherheit3“>Sicherheit durch formale Verifikation</h3><p><a href=„https://arxiv.org/pdf/1412.6572.pdf“ rel=„external noopener“ target=„_blank“><strong>Ein Beispiel des Stra&#223;enverkehrs [8]</strong></a> [1], in dem ein autonom fahrendes Auto entscheiden muss, verdeutlicht ein grundlegendes Sicherheitsproblem beim Einsatz neuronaler Netze: Kleine &#196;nderungen an den Eingabedaten k&#246;nnen zu gro&#223;en &#196;nderungen beim ausgegebenen Ergebnis f&#252;hren. Beispielsweise k&#246;nnte die im Auto eingebaute Kamera aufgrund von Sensorrauschen ein Verkehrszeichen oder einen Verkehrsteilnehmer falsch erkennen. Das kann zu fehlerhaften Fahrbefehlen f&#252;hren und somit die Insassen oder andere Verkehrsteilnehmer gef&#228;hrden.</p><p>Dieses Verhalten l&#228;sst sich als fehlende Robustheit bezeichnen und sogar vors&#228;tzlich durch sogenannte Adversarial Attacks ausnutzen. Die Angriffe ver&#228;ndern die Eingabedaten bewusst, um gezielt ein falsches Ergebnis zu erzeugen (siehe Abbildung 1).</p><figure class=„a-inline-image a-u-inline“><div><img alt=„“ class=„legacy-img“ height=„238“ src=„https://heise.cloudimg.io/width/696/q85.png-lossy-85.webp-lossy-85.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/abb1-7d7471bddd72f5d2.png“ srcset=„https://heise.cloudimg.io/width/336/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/abb1-7d7471bddd72f5d2.png 336w, https://heise.cloudimg.io/width/1008/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/abb1-7d7471bddd72f5d2.png 1008w, https://heise.cloudimg.io/width/1392/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/abb1-7d7471bddd72f5d2.png 2x“ width=„696“ referrerpolicy=„no-referrer“ /></div><figcaption class=„a-caption“>Durch Hinzuf&#252;gen eines f&#252;r den Menschen nicht sichtbaren Rauschens &#228;ndert sich die vormals korrekte Ausgabe „Panda“ eines neuronalen Netzes in die falsche Ausgabe „Gibbon“.(Bild:&#160;<a href=„https://arxiv.org/pdf/1412.6572.pdf“ rel=„external noopener“ target=„_blank“><strong>arXiv [9]</strong></a>)</figcaption></figure><p>Damit ein neuronales Netz sicher und robust ist, w&#228;re es erforderlich, alle denkbaren Eingabedaten auszuprobieren, was aufgrund der potenziell unendlichen Anzahl an Daten in vielen Anwendungsbereichen unm&#246;glich ist. Bisher ist der Standard, statistische Aussagen &#252;ber die Sicherheit des Netzes zu treffen, indem man es auf einer endlichen Teilmenge an Daten testet.</p><p>Eine Alternative ist die formale Verifikation. Sie beweist automatisch, dass ein Netz gewisse Eigenschaften f&#252;r unendlich viele Daten erf&#252;llt. Beispielsweise soll gezeigt werden, dass sich in einem bin&#228;ren Klassifikationsproblem ein neuronales Netz f(x) f&#252;r alle Eingabedaten x &#8712; B &#8834; Rn immer f&#252;r eine der beiden Klassen -1 oder 1 entscheidet. H&#228;ufig ist die Menge B konvex, beispielsweise eine Hyperkugel, die um einen bestimmten Datenpunkt x0 zentriert ist. Damit l&#228;sst sich nachweisen, dass das Netz bei kleineren Abweichungen von x0 seine Entscheidung f&#252;r eine Klasse nicht &#228;ndert. Es w&#228;re somit robust gegen&#252;ber kleinen &#196;nderungen, die etwa durch Rauschen entstehen.</p><p>F&#252;r den Fall, dass positive Ausgabewerte des Netzes als Entscheidung f&#252;r die Klasse 1 und negative Werte f&#252;r die Klasse -1 gelten, l&#228;sst sich das Verifikationsaufgabe als folgendes Optimierungsproblem formulieren:</p><figure class=„a-inline-image a-u-inline“><div><img alt=„“ class=„legacy-img“ height=„110“ src=„https://heise.cloudimg.io/width/696/q85.png-lossy-85.webp-lossy-85.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/formel_2-6281a3dc956d9cf4.png“ srcset=„https://heise.cloudimg.io/width/336/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/formel_2-6281a3dc956d9cf4.png 336w, https://heise.cloudimg.io/width/1008/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/formel_2-6281a3dc956d9cf4.png 1008w, https://heise.cloudimg.io/width/1392/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/formel_2-6281a3dc956d9cf4.png 2x“ width=„696“ referrerpolicy=„no-referrer“ /></div></figure><p>f*&gt;0 bedeutet, dass selbst im schlechtesten Fall das Netz immer einen positiven Wert ausgibt und zwar unabh&#228;ngig vom betrachteten Wert x. Das Netz ist beweisbar robust. Ist hingegen f*&lt;0, gibt es Werte in B, bei denen sich das Netz f&#252;r die Klasse -1 entscheidet.</p><p>Ungl&#252;cklicherweise ist das L&#246;sen des Optimierungsproblems &#228;u&#223;erst aufwendig, weil neuronale Netze in jeder Schicht nichtlineare Aktivierungsfunktionen verwenden und f(x) somit keine konvexe Funktion ist. <a href=„https://link.springer.com/chapter/10.1007/978-3-319-63387-9_5“ rel=„external noopener“ target=„_blank“><strong>Eine Abhandlung [10]</strong></a> [2] hat f&#252;r ReLU-Netze &#8211; neuronale Netze mit ReLU-Aktivierungsfunktion (Rectified Linear Unit) &#8211; nachgewiesen, dass das Problem NP-vollst&#228;ndig ist und damit der Rechenaufwand exponentiell mit der Gr&#246;&#223;e des Netzes ansteigt.</p><p>Um dennoch neuronale Netze praktikabler Gr&#246;&#223;e verifizieren zu k&#246;nnen, besch&#228;ftigt sich die Forschung mit n&#228;herungsweisen L&#246;sungen des Optimierungsproblems. Beim Bewerten eines solchen N&#228;herungsverfahrens ist darauf zu achten, ob das Verfahren korrekt und vollst&#228;ndig ist (siehe Abbildung 2). Idealerweise erf&#252;llt das Verfahren beide Eigenschaften, da in dem Fall die Ergebnisse stets richtig sind.</p><figure class=„a-inline-image a-u-inline“><div><img alt=„“ class=„legacy-img“ height=„125“ src=„https://heise.cloudimg.io/width/645/q85.png-lossy-85.webp-lossy-85.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/abb2-ed8d7f0a0d1282d8.png“ srcset=„https://heise.cloudimg.io/width/336/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/abb2-ed8d7f0a0d1282d8.png 336w, https://heise.cloudimg.io/width/1008/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/abb2-ed8d7f0a0d1282d8.png 1008w, https://heise.cloudimg.io/width/1290/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/abb2-ed8d7f0a0d1282d8.png 2x“ width=„645“ referrerpolicy=„no-referrer“ /></div><figcaption class=„a-caption“>Zusammenhang der algorithmischen Eigenschaften der Korrektheit und Vollst&#228;ndigkeit (Abb. 2)</figcaption></figure><p>Ein Beispiel f&#252;r korrekte, aber nicht vollst&#228;ndige N&#228;herungsverfahren sind solche, die das Netz f(x) durch eine untere Schranke absch&#228;tzen, beispielsweise durch eine lineare Funktion [3]:</p><figure class=„a-inline-image a-u-inline“><div><img alt=„“ class=„legacy-img“ height=„110“ src=„https://heise.cloudimg.io/width/696/q85.png-lossy-85.webp-lossy-85.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/formel_3-3fdb3e6e8cf6c5e4.png“ srcset=„https://heise.cloudimg.io/width/336/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/formel_3-3fdb3e6e8cf6c5e4.png 336w, https://heise.cloudimg.io/width/1008/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/formel_3-3fdb3e6e8cf6c5e4.png 1008w, https://heise.cloudimg.io/width/1392/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/formel_3-3fdb3e6e8cf6c5e4.png 2x“ width=„696“ referrerpolicy=„no-referrer“ /></div></figure><p>Verwendet man g(x) statt f(x), ist das Optimierungsproblem h&#228;ufig sogar geschlossen l&#246;sbar. Gilt dabei g*&gt;0, ist weiterhin garantiert, dass folgende Eigenschaft erf&#252;llt ist: Das Netz entscheidet sich stets f&#252;r die Klasse 1. Allerdings l&#228;sst sich f&#252;r den Fall g*&lt;0 keine Aussage mehr treffen, da immer noch 0 &lt; f*&#8806; f(x) f&#252;r alle x &#8712; B gelten kann.</p><div class=„a-boxtarget a-boxcontent a-inline-textboxcontent“ data-collapse-target=„“><figure class=„a-inline-textboximage-container“><img alt=„“ src=„https://heise.cloudimg.io/width/1280/q50.png-lossy-50.webp-lossy-50.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/M3-2023-13ef6ea24cbdde76.jpg“ srcset=„https://heise.cloudimg.io/width/2560/q30.png-lossy-30.webp-lossy-30.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/M3-2023-13ef6ea24cbdde76.jpg 2x“ class=„c1“ referrerpolicy=„no-referrer“ /></figure><div class=„a-inline-textboxcontent-container“><p>Am 10. und 11. Mai findet <a href=„https://www.m3-konferenz.de/“ rel=„external noopener“ target=„_blank“><strong>die Minds Mastering Machines in Karlsruhe [11]</strong></a> statt. Die seit 2018 von <em>iX</em>, <em>heise Developer</em> und <em>dpunkt.verlag</em> ausgerichtete Fachkonferenz richtet sich in erster Linie an Data Scientists, Data Engineers und Developer, die Machine-Learning-Projekte in die Realit&#228;t umsetzen.</p><p>Das <a href=„https://www.m3-konferenz.de/programm.php“ rel=„external noopener“ target=„_blank“><strong>Programm bietet an zwei Tagen [12]</strong></a> gut 30 Vortr&#228;ge unter anderem zu Sprachmodellen, Cybersecurity, Resilienz und Modelloptimierung.</p></div></div><p>F&#252;r ReLU-Netze kann man das Optimierungsproblem in ein sogenanntes Mixed-Integer Linear Program (MILP, gemischt ganzzahliges Optimierungsproblem) umwandeln, wof&#252;r spezielle Algorithmen wie Branch-and-Bound-Verfahren existieren. Damit ist es zwar immer noch NP-vollst&#228;ndig, aber die zuvor erw&#228;hnten schnellen schrankenbasierten Verfahren lassen sich mit Branch and Bound kombinieren [4], um die Verifikation zu beschleunigen. Zudem sind solche Verfahren vollst&#228;ndig und korrekt.</p><p>Gemeinsam mit der Firma Sick, einem Hersteller von Sensoren f&#252;r industrielle Kontexte, gab es im KI-Fortschrittszentrum ein Projekt, bei dem es um die formale Verifikation anhand einer Anwendung aus der Sicherheitstechnik ging. Es galt nachzuweisen, dass ein neuronales Netz mittels Daten eines Laserscanners einen Menschen sicher erkennen kann. Untersucht wurde ein MILP-Verifikationsverfahren. Allerdings erwies es sich als schwierig, &#252;berpr&#252;fbare Sicherheitseigenschaften aus den Laserscannerdaten zu extrahieren. Zudem zeigte sich, dass bei der Skalierung auf extrem gro&#223;e neuronale Netze noch Forschungsbedarf besteht.</p><h3 class=„subheading“ id=„nav_verl&#228;sslichkeit4“>Verl&#228;sslichkeit durch Unsicherheitsquantifizierung</h3><p>Der zweite technische Aspekt zur Absicherung einer KI ist die Bewertung der Verl&#228;sslichkeit. Man sollte annehmen, dass beispielsweise in der Bildverarbeitung ein System aufwendig trainierte Objekte als solche zuverl&#228;ssig wiedererkennt. Dass die Zuverl&#228;ssigkeit mitunter &#252;bersch&#228;tzt wird, belegt ebenfalls Abbildung 1: Das KI-Modell klassifiziert das mit Rauschen versetzte Bild mit hoher Konfidenz falsch als Gibbon. Was Menschen ignorieren oder ihnen nicht auff&#228;llt, st&#246;rt den Algorithmus derma&#223;en, dass er die eigentlich bekannten Objekte nicht mehr zuverl&#228;ssig genug erkennt und sogar bei Fehlklassifikationen eine hohe Zuverl&#228;ssigkeit f&#252;r das scheinbar richtig erkannte Objekt ausgibt. Das wiegt User in falscher Sicherheit.</p><p>Technisch betrachtet ergeben sich die Fehler, weil die meisten Lernverfahren und damit die neuronalen Netze Punktsch&#228;tzer sind. Sie k&#246;nnen nur einen konkreten Zahlenwert ausgeben, aber nicht angeben, mit welcher Sicherheit dieser Wert gilt. Zwar lassen sich Konfidenzwerte wie in Abbildung 1 berechnen, die jedoch lediglich auf das Intervall [0, 1] normierte Ausgabewerte darstellen und somit keine statistisch g&#252;ltige Bedeutung besitzen. Dass diese Ausgabewerte oft f&#228;lschlicherweise als Konfidenzwerte oder Wahrscheinlichkeiten bezeichnet werden, tr&#228;gt zur vermittelten falschen Sicherheit bei.</p><p>Einen Ausweg bietet die Unsicherheitsquantifizierung, mit der sich das neuronale Netz selbst einsch&#228;tzen und mitteilen kann, wenn es bei einer Ausgabe unsicher ist. Hierf&#252;r gibt es unterschiedliche Ans&#228;tze. Verbreitet ist das Ensemble-Verfahren, bei dem Data Scientists nicht nur ein Netz, sondern gleich mehrere Netze auf denselben Daten trainieren. Dabei achten sie darauf, dass die Netze hinreichend divers sind, also nicht dazu neigen, stets die gleichen Ergebnisse zu erzeugen. Alle Netze erzeugen eigene Ausgabewerte, aus denen man die Gesamtausgabe berechnet.</p><p>Zus&#228;tzlich kann man die Streuung oder Abweichung der einzelnen Ausgaben von der Gesamtausgabe als ein Ma&#223; f&#252;r die Unsicherheit angeben: Je weniger die einzelnen Netze streuen, umso zuverl&#228;ssiger ist die Gesamtausgabe. Dass dabei stets mehrere Netze parallel zu trainieren und auszuwerten sind, f&#252;hrt allerdings zu einem erheblich erh&#246;hten Rechenaufwand.</p><p>Eine Alternative mit nur einem Netz bieten Bayes'sche neuronale Netze (BNN) [5]. Im Unterschied zu klassischen neuronalen Netzen repr&#228;sentieren nicht mehr einzelne Zahlenwerte die Gewichte auf den Kanten, die die Neuronen miteinander verbinden. Stattdessen ist jedes Gewicht eine Zufallsvariable (siehe Abbildung 3). Dadurch wird die Ausgabe des BNN ebenfalls zu einer Zufallsvariable, f&#252;r die sich g&#228;ngige statistische Kenngr&#246;&#223;en wie Varianz, Entropie oder ein Pr&#228;diktionsintervall berechnen lassen.</p><figure class=„a-inline-image a-u-inline“><div><img alt=„“ class=„legacy-img“ height=„299“ src=„https://heise.cloudimg.io/width/696/q85.png-lossy-85.webp-lossy-85.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/abb3-0226d3caab5ec755.png“ srcset=„https://heise.cloudimg.io/width/336/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/abb3-0226d3caab5ec755.png 336w, https://heise.cloudimg.io/width/1008/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/abb3-0226d3caab5ec755.png 1008w, https://heise.cloudimg.io/width/1392/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/abb3-0226d3caab5ec755.png 2x“ width=„696“ referrerpolicy=„no-referrer“ /></div><figcaption class=„a-caption“>Das linke Diagramm zeigt ein klassisches neuronales Netz, bei dem die Kantengewichte (blau) einfache Zahlenwerte darstellen. Beim BNN im rechten Diagramm sind die Gewichte Zufallsvariablen mit dazugeh&#246;rigen Wahrscheinlichkeitsverteilungen (gelb) (Abb. 3).</figcaption></figure><p>Allerdings sind f&#252;r das Training der BNN die f&#252;r klassische Netze &#252;blichen Trainingsalgorithmen wie Backpropagation nicht mehr ohne Weiteres nutzbar, sondern es sind Trainingsverfahren mit h&#246;herem Rechenaufwand erforderlich.</p><p>In den vergangenen Jahren hat die Conformal Prediction (CP, [6]) an Bedeutung gewonnen. Sie hat den Vorteil, verteilungsfrei zu sein: Es gibt keine Annahmen &#252;ber die zugrundeliegende Datenverteilung oder das verwendete Lernverfahren. Daher lassen sich CPs auf fast jedes trainierte maschinelle Lernmodell anwenden, und sie bieten mathematisch strenge Garantien. F&#252;r ein Signifikanzniveau von f&#252;nf Prozent ist garantiert, dass das Verfahren in h&#246;chstens f&#252;nf Prozent der F&#228;lle falsche Ausgaben erzeugt.</p><p>Die Ausgabe ist keine Punktsch&#228;tzung mehr, sondern eine Menge. Im Falle einer Klassifikationsaufgabe gibt das neuronale Netz folglich keine einzelne Klasse mehr aus, sondern eine Menge infrage kommender Klassen. Je weniger Elemente die Menge enth&#228;lt, desto sicherer ist sich das Netz.</p><h3 class=„subheading“ id=„nav_transparenz5“>Transparenz durch Erkl&#228;rbarkeit</h3><p>Schlie&#223;lich gilt es, f&#252;r zuverl&#228;ssige KI die Erkl&#228;rbarkeit des Verfahrens deutlich zu verbessern. Neuronale Netze sind meist sogenannte Black-Box-Modelle. Auch f&#252;r Expertinnen und Experten ist es oft schwer bis unm&#246;glich nachzuvollziehen, warum ein bestimmtes Ergebnis zustande gekommen ist.</p><p>Das stellt Unternehmen unter anderem mit Blick auf die 2018 eingef&#252;hrte Datenschutzgrundverordnung vor Herausforderungen, da Personen nun das Recht haben, die Hintergr&#252;nde &#252;ber eine automatisch getroffene Entscheidung zu erfahren. Das Gef&#252;hl, die KI f&#252;hre eine Art Eigenleben, senkt zudem die Nutzerakzeptanz.</p><p>Ein prominentes Beispiel ist ein neuronales Netz, das Bilder von Hunden und W&#246;lfen unterscheiden sollte [7]. Es entschied fast immer richtig, aber eine fehlerhafte Entscheidung zeigte, welches Kriterium es tats&#228;chlich zur Klassifizierung genutzt hatte: Es waren nicht etwa Merkmale der Tiere, sondern zuf&#228;lligerweise waren die W&#246;lfe immer auf Bildern zu sehen, in denen im Hintergrund Schnee lag &#8211; nur bei dem falsch klassifizierten Bild nicht.</p><p>Das Beispiel offenbart, dass viele KI-Systeme intransparent, nicht intuitiv und f&#252;r Menschen schwer zu verstehen sind. Die Unf&#228;higkeit der Systeme, die Entscheidungen und Aktionen erkl&#228;ren zu k&#246;nnen, schr&#228;nkt die Vorteile und die Wirksamkeit K&#252;nstlicher Intelligenz ein. Erkl&#228;rbare KI ist sowohl aus rechtlichen Gr&#252;nden als auch f&#252;r das Vertrauen der Nutzerinnen und Nutzer unerl&#228;sslich [8]. In kritischen Anwendungen, bei denen es wom&#246;glich um Menschenleben geht wie in der Medizin und beim autonomen Fahren, ist es besonders riskant, wenn die KI nicht erkl&#228;rbar ist.</p><h3 class=„subheading“ id=„nav_lokale_und6“>Lokale und globale Erkl&#228;rbarkeit</h3><p>Erkl&#228;rbarkeit l&#228;sst sich auf zwei Ebenen erzielen. Die lokale oder Datenerkl&#228;rbarkeit zeigt, weshalb eine konkrete Eingabe zu einer bestimmten Ausgabe gef&#252;hrt hat. Ein typischer Anwendungsfall ist die automatisierte Kreditvergabe: Wer einen beantragten Kredit nicht erh&#228;lt, hat ein Recht darauf, die Gr&#252;nde f&#252;r die Ablehnung zu erfahren.</p><p>Die globale beziehungsweise Modellerkl&#228;rbarkeit ist komplexer und zeigt, wie ein bestimmtes Modell als Ganzes funktioniert. Hierbei trainiert man zun&#228;chst das neuronale Netz (als Black-Box-Modell) wie &#252;blich und erzeugt anschlie&#223;end daraus ein Stellvertretermodell, das auch Surrogat oder White-Box-Modell genannt wird. Es bildet das Black-Box-Modell nach und trifft weitgehend die gleichen Vorhersagen. Aus ihm l&#228;sst sich eine Erkl&#228;rung generieren.</p><p>Dabei ist zu beachten, dass das White-Box-Modell einfacher aufgebaut ist, um Erkl&#228;rbarkeit zu erm&#246;glichen. Dadurch kann es zu Abweichungen zwischen den Ausgaben beider Modelle kommen. Beliebte White-Box-Modelle sind Entscheidungsb&#228;ume, regelbasierte Modelle oder lineare Modelle.</p><h3 class=„subheading“ id=„nav_heat_maps_als7“>Heat Maps als Helfer</h3><p>Gemeinsam mit der Firma IDS, einem Hersteller industriell genutzter Kameras, entstand in einem Projekt des KI-Fortschrittszentrums ein Demonstrator, der aufzeigt, wie sich die Erkl&#228;rbarkeit bei der Bildverarbeitung verbessern l&#228;sst. Beispielsweise kann es „voreingenommene“ neuronale Netze geben: Sie ordnen Bilder aufgrund von Kriterien einer Objektklasse zu, die nur zuf&#228;llig auf den Bildern vorhanden sind und kein Kriterium sein sollten (siehe Abbildung 4). Heat Maps oder Aufmerksamkeitskarten helfen, die Entscheidung eines neuronalen Netzes zu verstehen und Fehler in seinen Aktionen zu erkennen [9]. Sie geh&#246;ren zu den lokalen Erkl&#228;rbarkeitsverfahren.</p><figure class=„a-inline-image a-u-inline“><div><img alt=„“ class=„legacy-img“ height=„212“ src=„https://heise.cloudimg.io/width/696/q85.png-lossy-85.webp-lossy-85.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/abb4-26bc240abb153009.png“ srcset=„https://heise.cloudimg.io/width/336/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/abb4-26bc240abb153009.png 336w, https://heise.cloudimg.io/width/1008/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/abb4-26bc240abb153009.png 1008w, https://heise.cloudimg.io/width/1392/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/abb4-26bc240abb153009.png 2x“ width=„696“ referrerpolicy=„no-referrer“ /></div><figcaption class=„a-caption“>Eine Heat Map visualisiert, dass das neuronale Netz gelernt hat, einen Apfel nicht nur anhand &#228;u&#223;erer Merkmale wie Farbe oder Form zu erkennen (links), sondern auch anhand etwaig angebrachter Markenaufkleber (rechts), die jedoch kein kennzeichnendes Merkmal f&#252;r einen Apfel sind (Abb. 4).</figcaption></figure><p>Ein Demonstrator, in dem sich ein kleiner Delta-Roboter bewegt, verdeutlicht die N&#252;tzlichkeit von Heat Maps f&#252;r die Erkl&#228;rbarkeit. Erkennt das System eine Hand in seiner N&#228;he, sollte der Roboter aus Sicherheitsgr&#252;nden stoppen. Befindet sich nur die Hand im Bild, funktioniert das Erkennen wie gew&#252;nscht. Legt man jedoch ein kleines Objekt wie eine M&#252;nze in das Bild, agiert der Roboter weiter, wenn die Hand ins Bild kommt. Das neuronale Netz richtet seine gesamte Aufmerksamkeit auf die M&#252;nze und &#252;bersieht damit die Hand (siehe Abbildung 5). Da die Heat Map bei der fehlerhaften Aktion die M&#252;nze als Entscheidungskriterium markiert, l&#228;sst sich die Fehlerquelle identifizieren und das Netz korrigieren.</p><figure class=„a-inline-image a-u-inline“><div><img alt=„“ class=„legacy-img“ height=„254“ src=„https://heise.cloudimg.io/width/696/q85.png-lossy-85.webp-lossy-85.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/abb5-154ba83c24ee328c.png“ srcset=„https://heise.cloudimg.io/width/336/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/abb5-154ba83c24ee328c.png 336w, https://heise.cloudimg.io/width/1008/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/abb5-154ba83c24ee328c.png 1008w, https://heise.cloudimg.io/width/1392/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/1/4/2/5/7/7/abb5-154ba83c24ee328c.png 2x“ width=„696“ referrerpolicy=„no-referrer“ /></div><figcaption class=„a-caption“>Im linken Bild erkennt das System die Hand (siehe Heat Map auf dem Monitor), w&#228;hrend die M&#252;nze im rechten Bild von der Hand ablenkt. Dadurch arbeitet der Roboter f&#228;lschlicherweise weiter (Abb. 5).</figcaption></figure><h3 class=„subheading“ id=„nav_modellabsicherun8“>Modellabsicherung f&#252;r eine zuverl&#228;ssige KI</h3><p>Das sinnvolle Zusammenspiel der drei technischen Aspekte Sicherheit, Verl&#228;sslichkeit und Transparenz sind die Grundlage f&#252;r eine zuverl&#228;ssige KI. Je nach nach Anwendung, Branche, Rechtslage und Zielgruppe der KI-Anwendung kann ein Aspekt wichtiger sein als andere, aber fehlen sollte keiner. Die folgenden Fragen und Methoden k&#246;nnen die Umsetzung leiten:</p><ul class=„rtelist rtelist–unordered“><li>Sicherheit: Einsatz von Modellverifikation; Leitfrage: „Verh&#228;lt sich das Modell bei beliebigen Eingaben wie gefordert?“</li><li>Verl&#228;sslichkeit: Einsatz der Unsicherheitsquantifizierung; Leitfrage: „Wei&#223; das Modell, was es nicht wei&#223;?“</li><li>Transparenz: Einsatz von Methoden zur Erkl&#228;rbarkeit; Leitfrage: „Wie kann ein Mensch die Entscheidung des Modells nachvollziehen?“</li></ul><p><em>Marco Huberist Professor f&#252;r Kognitive Produktionssysteme an der Universit&#228;t Stuttgart und zugleich Leiter der Abteilungen Bild- und Signalverarbeitung sowie Cyber Cognitive Intelligence (CCI) am Fraunhofer-Institut f&#252;r Produktionstechnik und Automatisierung IPA. Seine Forschung konzentriert sich auf die Themen maschinelles Lernen, Sensordatenanalyse und Robotik im produktionstechnischen Umfeld.</em></p><h5 id=„nav_literatur9“>Literatur:</h5><ol class=„rtelist rtelist–ordered“><li><a href=„https://www.heise.de/hintergrund/ICLR%202015%20https://arxiv.org/pdf/1412.6572.pdf“ rel=„external noopener“ target=„_blank“><strong>Explaining and Harnessing Adversarial Examples [13]</strong></a>; Ian Goodfellow, Jonathon Shlens, Christian Szegedy</li><li><a href=„https://doi.org/10.1007/978-3-319-63387-9_5“ rel=„external noopener“ target=„_blank“><strong>Reluplex: An Efficient SMT Solver for Verifying Deep Neural Networks [14]</strong></a>; Guy Katz, Clark Barrett, David L. Dill, Kyle Julian, Mykel J. Kochenderfer; Computer Aided Verification; CAV 2017.</li><li>Efficient Neural Network Robustness Certification with General Activation Functions; Huan Zhang, Tsui-Wei Weng, Pin-Yu Chen, Cho-Jui Hsieh, Luca Daniel; NeurIPS 2018.</li><li>Beta-CROWN: Efficient Bound Propagation with Per-neuron Split Constraints for Neural Network Robustness Verification; Shiqi Wang, Huan Zhang, Kaidi Xu, Xue Lin, Suman Jana, Cho-Jui Hsieh, Zico Kolter; NeurIPS 2021.</li><li>Quantification of Uncertainties in Neural Networks; Xinyang Wu, Philipp Wagner, Marco F. Huber; 2023</li><li>Algorithmic Learning in a Random World; Vladimir Vovk, Alexander Gammerman, Glenn Shafer; 2. Auflage, 2022</li><li><a href=„https://doi.org/10.1145/2939672.2939778“ rel=„external noopener“ target=„_blank“><strong>„Why Should I Trust You?“: Explaining the Predictions of Any Classifier„ [15]</strong></a>, Marco Tulio Ribeiro, Sameer Singh, Carlos Guestrin; Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (KDD), 2016</li><li>A Survey on the Explainability of Supervised Machine Learning; Nadia Burkart, Marco F. Huber; Journal of Artificial Intelligence Research (JAIR), 2021; DOI: 10.1613/jair.1.12228</li><li>Towards Measuring Bias in Image Classification; Nina Schaaf, Omar de Mitri, Hang Beom Kim, Robert-Alexander Windberger, Marco F. Huber; Proceedings of the 30th International Conference on Artificial Neural Networks (ICANN), September 2021.</li></ol><p>() </p><p><strong>URL dieses Artikels:</strong><small>

https://www.heise.de/-8965811

</small></p><p><strong>Links in diesem Artikel:</strong><small>

<strong>[1]</strong>&#160;https://www.heise.de/news/Interaktives-Sprachmodell-nach-GPT-3-ChatGPT-steht-allen-Interessierten-offen-7364694.html

</small><small>

<strong>[2]</strong>&#160;https://www.heise.de/news/Google-KI-schlaegt-menschlichen-Profi-Spieler-im-Go-3085855.html

</small><small>

<strong>[3]</strong>&#160;https://www.heise.de/news/Deepmind-KI-faltet-Proteine-4243731.html

</small><small>

<strong>[4]</strong>&#160;https://www.heise.de/news/Amazon-KI-zur-Bewerbungspruefung-benachteiligte-Frauen-4189356.html

</small><small>

<strong>[5]</strong>&#160;https://www.heise.de/news/Microsofts-Chatbot-Tay-nach-rassistischen-Entgleisungen-abgeschaltet-3151646.html

</small><small>

<strong>[6]</strong>&#160;https://www.bosch.de/news-and-stories/ki-zukunftskompass/

</small><small>

<strong>[7]</strong>&#160;https://www.ki-fortschrittszentrum.de

</small><small>

<strong>[8]</strong>&#160;https://arxiv.org/pdf/1412.6572.pdf

</small><small>

<strong>[9]</strong>&#160;https://arxiv.org/pdf/1412.6572.pdf

</small><small>

<strong>[10]</strong>&#160;https://link.springer.com/chapter/10.1007/978-3-319-63387-9_5

</small><small>

<strong>[11]</strong>&#160;https://www.m3-konferenz.de/

</small><small>

<strong>[12]</strong>&#160;https://www.m3-konferenz.de/programm.php

</small><small>

<strong>[13]</strong>&#160;ICLR 2015 https://arxiv.org/pdf/1412.6572.pdf

</small><small>

<strong>[14]</strong>&#160;https://doi.org/10.1007/978-3-319-63387-9_5

</small><small>

<strong>[15]</strong>&#160;https://doi.org/10.1145/2939672.2939778

</small><small>

<strong>[16]</strong>&#160;mailto:rme@ix.de

</small></p><p class=„printversion__copyright“><em>Copyright &#169; 2023 Heise Medien</em></p> </html>