Qgelm

Analyse zur KI-Ethik: Algorithmen – kein Schutzschild für menschliches Versagen

Originalartikel

Backup

<html> <header class=„article-header“><h1 class=„articleheading“>Analyse zur KI-Ethik: Algorithmen &#8211; kein Schutzschild f&#252;r menschliches Versagen</h1><div class=„publish-info“><a href=„https://www.heise.de/security/alerts“ class=„publish-infospecial akwa-article-metaitem–alert“>Alert!</a> Rumman Chowdhury, Kristian Lum</div></header><figure class=„aufmacherbild“><img src=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/0/7/0/8/4/0/franki-chamaki-1K6IQsQbizI-unsplash-97f331f6bc7eb9a2.jpeg“ srcset=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/0/7/0/8/4/0/franki-chamaki-1K6IQsQbizI-unsplash-97f331f6bc7eb9a2.jpeg 700w, https://heise.cloudimg.io/width/1050/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/0/7/0/8/4/0/franki-chamaki-1K6IQsQbizI-unsplash-97f331f6bc7eb9a2.jpeg 1050w, https://heise.cloudimg.io/width/1500/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/0/7/0/8/4/0/franki-chamaki-1K6IQsQbizI-unsplash-97f331f6bc7eb9a2.jpeg 1500w, https://heise.cloudimg.io/width/2300/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/0/7/0/8/4/0/franki-chamaki-1K6IQsQbizI-unsplash-97f331f6bc7eb9a2.jpeg 2300w“ alt=„“ class=„img-responsive“ referrerpolicy=„no-referrer“ /><figcaption class=„akwa-caption“>(Bild:&#160;Franki Chamaki / Unsplash)</figcaption></figure><p><strong>K&#252;nstliche Intelligenz und maschinelles Lernen bestimmen unser Leben immer mehr. Entwickler sollten sich nicht auf ihren Code zur&#252;ckziehen, sagen zwei Experten.</strong></p><p>Wer ein elektronisches System, das Entscheidungen treffen soll, als „Algorithmus“ bezeichnet, versucht damit h&#228;ufig, von der Verantwortung menschlicher Entscheidungen abzulenken. Denn &#8220;Algorithmus&#8221; ist f&#252;r viele ein Begriff, der auf objektiven und empirisch belegten Daten beruht. Er legt auch eine hochkomplexe Technik nahe &#8211; vielleicht so komplex, dass ein Mensch Schwierigkeiten damit h&#228;tte, die inneren Vorg&#228;nge zu begreifen oder bei der Verwendung das Verhalten zu antizipieren. Doch trifft diese Beschreibung zu? Nicht immer.</p><p>Im letzten Dezember wurde beispielsweise im Stanford Medical Center die fehlerhafte Zuweisung von Corona-Impfstoffen mit einem &#8222;Verteilungsalgorithmus&#8220; entschuldigt, der leitende Angestellte gegen&#252;ber &#196;rzten an vordererster Front priorisiert hatte. Das Krankenhaus gab an, sich von Ethikern beraten haben zu lassen, um einen &#8222;sehr komplexen&#8220; Algorithmus zu entwickeln, von dem ein Sprecher hinterher sagte, dass er &#8222;offensichtlich nicht richtig funktionierte&#8220;, wie die US-Ausgabe von Technology Review berichtete.</p><p>W&#228;hrend viele Menschen das so interpretierten, dass eine Form maschineller k&#252;nstlicher Intelligenz involviert war, handelte es sich bei dem System tats&#228;chlich um einen medizinischen Algorithmus. Und die funktionieren anders: Sie &#228;hneln mehr einer sehr einfachen Formel oder einem Entscheidungsbaum, der von Menschen in einem Komitee beschlossen wird. Dass sich viele darunter etwas anderes vorgestellt h&#228;tten, verdeutlicht eine wachsende Problematik. Mit der zunehmenden Verbreitung von Vorhersagemodellen gibt es &#246;ffentliche Bedenken, gerade bei sensiblen Entscheidungsfindungen. Doch w&#228;hrend Gesetzesgeber schon beginnen, Standards f&#252;r die Bewertung und &#220;berpr&#252;fung von Algorithmen zu entwickeln, muss zun&#228;chst einmal bestimmt werden, in welchen Bereichen derartige entscheidungstragenden oder &#8211; unterst&#252;tzenden Anwendungen genutzt werden sollen. Wird der &#8222;Algorithmus&#8220;-Begriff nicht klar definiert, k&#246;nnten gerade besonders einflussreiche Modelle au&#223;erhalb der Reichweite einiger Bestimmungen liegen, die eigentlich daf&#252;r entwickelt werden, Menschen zu sch&#252;tzen.</p><h3 class=„subheading“ id=„nav_algorithmen0“>Algorithmen identifizieren</h3><p>Handelt es sich bei Stanfords &#8222;Algorithmus&#8220; wirklich um einen solchen? Kommt drauf an, wie man den Begriff definiert. Zwar gibt es keine universell geltende Definition, doch eine h&#228;ufige stammt aus einem 1971 vom Computerwissenschaftler Harold Stone verfassten Lehrbuch, in dem es hei&#223;t: &#8222;Ein Algorithmus ist ein Set von Regeln, das eine Sequenz von Anwendungen genau definiert.&#8220; Bl&#246;d nur: Diese Definition schlie&#223;t alles ein, von Rezept bis komplexes neuronales Netzwerk. Eine darauf basierende Pr&#252;frichtlinie w&#228;re l&#228;cherlich weit gefasst.</p><p>In der Statistik und beim maschinellen Lernen werden Algorithmen normalerweise als ein Set von Anweisungen verstanden, die ein Computer ausf&#252;hrt, um von Daten zu lernen. In diesen Bereichen wird die daraus resultierende, strukturierte Information typischerweise ein Modell genannt. Diese Information, die ein Computer mittels Daten &#252;ber einen Algorithmus lernt, kann zur Gewichtung beitragen, mit der jeder eingegebene Faktor multipliziert werden muss &#8211; es k&#246;nnte aber noch sehr viel komplizierter werden. Auch die Komplexit&#228;t von Algorithmen selbst kann variieren. Welchen Einfluss diese haben, h&#228;ngt letztlich mit den Daten zusammen, auf die sie angewendet werden und dem Kontext, in dem das Modell letztlich zum Einsatz kommt. Der gleiche Algorithmus k&#246;nnte in einem Kontext einen positiven Einfluss haben und in einem anderen einen sehr abweichenden Effekt erzielen.</p><p>In anderen Bereichen wird bereits das, was hier Modell genannt wurde, als Algorithmus bezeichnet. Obwohl das verwirrend ist, entspricht das der breitesten Definition: Modelle sind Regeln (die von einem Trainingsalgorithmus erlernt und nicht direkt von einem Menschen eingegeben werden), die eine Sequenz von Anwendungen definieren. Beispielsweise wurde im letzten Jahr in britischen Medien ein System als &#8220;Algorithmus&#8220; beschrieben, das es nicht schaffte, Studierenden, die aufgrund von COVID-19 nicht zum Examen erscheinen konnten, gerechte Ergebnisse zuzuweisen. Was aber diskutiert wurde, war nat&#252;rlich das Modell &#8211; also das Set an Anweisungen, das Inputs (die bisherigen Leistungen von Studierenden oder die Bewertung eines Lehrers) in Outputs (Ergebnisse) &#252;bersetzte.</p><p>Was nun in Stanford passiert zu sein schien, ist, dass Menschen &#8211; einschlie&#223;lich Ethiker &#8211; sich hingesetzt und beschlossen haben, welche Reihe an Anwendungen das System nutzen sollte, um auf Basis der Inputs (wie beispielsweise Alter und Abteilung eines Mitarbeiters) zu bestimmen, ob diese Person zu den ersten z&#228;hlen sollte, die eine Impfung erhalten. Soweit bekannt basierte diese Abfolge nicht auf einem Sch&#228;tzverfahren, das f&#252;r quantitative Ziele optimiert war. Es handelte sich um ein Set normativer Entscheidungen, die vorgaben, wie Impfungen priorisiert werden sollten, formalisiert in der Sprache eines Algorithmus. In der medizinischen Terminologie und gem&#228;&#223; einer breit gefassten Definition erf&#252;llt dieser Ansatz den Anspruch an einen &#8222;Algorithmus&#8220; &#8211; auch dann, wenn die einzig involvierte Intelligenz eine menschliche war.</p><h3 class=„subheading“ id=„nav_gesetze_auf_dem1“>Gesetze auf dem Weg</h3><p>Auch Politiker befassen sich damit, was denn nun ein Algorithmus ist. Im US-Kongress wurde 2019 der &#8220;Algorithmic Accountability Act&#8221; eingef&#252;hrt, der die Bezeichnung &#8220;automatisiertes entscheidungstreffendes System&#8221; w&#228;hlt und dies als einen &#8220;computergesteuerten Prozess&#8221; definiert. Gemeint sind solche, die sich &#8220;von maschinellem Lernen, Statistik, und anderen Datenverarbeitungs- oder KI-Techniken ableiten, die eine Entscheidung treffen oder die menschliche Entscheidungsfindung mit Auswirkung auf Konsumenten erleichtert.&#8220;</p><p>Ganz &#228;hnlich zieht New York City nun INT 1894 in Betracht, ein Gesetz, das die obligatorische &#220;berpr&#252;fung von &#8222;automatisierter Entscheidungstechnik am Arbeitsplatz&#8220; einf&#252;hren w&#252;rde. Definiert wird diese als &#8222;jedwedes System, dessen Funktion von statistischer Theorie geleitet wird oder Systeme, dessen Parameter von solchen Systemen bestimmt werden.&#8220; Es ist auff&#228;llig, dass beide Gesetzesentw&#252;rfe zwar &#220;berpr&#252;fungen anordnen, aber nur hochrangige Richtlinien zur Verf&#252;gung stellen, wie eine solche Pr&#252;fung aussehen w&#252;rde.</p><p>W&#228;hrend Entscheidungstr&#228;ger sowohl in der Regierung als auch der Wirtschaft Standards f&#252;r algorithmische &#220;berpr&#252;fung setzen, wird es wahrscheinlich Auseinandersetzungen dar&#252;ber geben, was alles als Algorithmus z&#228;hlt. Anstatt den Versuch zu unternehmen, eine gemeinsame Definition oder eine bestimmte, universelle &#220;berpr&#252;fungstechnik zu finden, k&#246;nnte eine L&#246;sung vielmehr darin bestehen, automatisierte Evaluationssysteme zu entwickeln, die sich haupts&#228;chlich auf die Auswirkungen solcher Anwendungen fokussiert. Indem man sich mehr auf das Ergebnis als auf den Input konzentriert, k&#246;nnen unn&#246;tige Debatten &#252;ber technische Komplexit&#228;t vermieden werden. Denn was z&#228;hlt, ist das Schadenspotential, unabh&#228;ngig davon, ob es sich nun um eine algebraische Formel handelt oder um ein Deep Neural Network.</p><figure class=„branding“><a href=„https://www.heise.de/tr/“ name=„meldung.newsticker.inline.branding_tr“ title=„Mehr von MIT Technology Review“><strong> <img alt=„Mehr von MIT Technology Review“ height=„693“ src=„https://static.wallabag.it/7862d1b7aff4c3b00f37212fefade4e0e2c4cf00/64656e6965643a646174613a696d6167652f7376672b786d6c2c253343737667253230786d6c6e733d27687474703a2f2f7777772e77332e6f72672f323030302f7376672725323077696474683d273639367078272532306865696768743d2733393170782725323076696577426f783d2730253230302532303639362532303339312725334525334372656374253230783d273027253230793d27302725323077696474683d27363936272532306865696768743d273339312725323066696c6c3d27253233663266326632272533452533432f726563742533452533432f737667253345/“ class=„c1“ width=„1200“ referrerpolicy=„no-referrer“ /><img alt=„Mehr von MIT Technology Review“ class=„a-u-hide-from-tablet c2“ src=„https://heise.cloudimg.io/width/1200/q50.png-lossy-50.webp-lossy-50.foil1/_www-heise-de_/Magazin-Banner/tr_mobil.jpg“ srcset=„https://heise.cloudimg.io/width/2400/q30.png-lossy-30.webp-lossy-30.foil1/_www-heise-de_/Magazin-Banner/tr_mobil.jpg 2x“ referrerpolicy=„no-referrer“ /> <img alt=„Mehr von MIT Technology Review“ height=„500“ src=„https://static.wallabag.it/7862d1b7aff4c3b00f37212fefade4e0e2c4cf00/64656e6965643a646174613a696d6167652f7376672b786d6c2c253343737667253230786d6c6e733d27687474703a2f2f7777772e77332e6f72672f323030302f7376672725323077696474683d273639367078272532306865696768743d2733393170782725323076696577426f783d2730253230302532303639362532303339312725334525334372656374253230783d273027253230793d27302725323077696474683d27363936272532306865696768743d273339312725323066696c6c3d27253233663266326632272533452533432f726563742533452533432f737667253345/“ class=„c3“ width=„1830“ referrerpolicy=„no-referrer“ /><img alt=„Mehr von MIT Technology Review“ class=„a-u-show-from-tablet c2“ src=„https://heise.cloudimg.io/width/1830/q50.png-lossy-50.webp-lossy-50.foil1/_www-heise-de_/Magazin-Banner/tr_desktop.jpg“ srcset=„https://heise.cloudimg.io/width/3660/q30.png-lossy-30.webp-lossy-30.foil1/_www-heise-de_/Magazin-Banner/tr_desktop.jpg 2x“ referrerpolicy=„no-referrer“ /> [1]</strong></a></figure><h3 class=„subheading“ id=„nav_am_ende_z&#228;hlt2“>Am Ende z&#228;hlt die Wirkung</h3><p>Kritische Pr&#252;fungen, die sich an den Auswirkungen orientieren, sind auch in anderen Bereichen verbreitet. Beispielsweise finden sie sich im klassischen DREAD-Framework (Damage, Reproducibility, Exploitability, Affected Users, Discoverability) der Cybersicherheit, welches erstmalig mit Microsoft in den fr&#252;hen Nullerjahren popul&#228;r wurde und in einigen Unternehmen immer noch angewendet wird. Das &#8222;A&#8220; in DREAD fordert Pr&#252;fer auf, die &#8222;betroffenen Nutzer&#8220; zu quantifizieren, indem es danach fragt, wie viele Personen unter der Auswirkung einer identifizierten Schwachstelle leiden w&#252;rden. Diese Folgenabsch&#228;tzungen sind auch bei Menschenrechts- und Nachhaltigkeitsuntersuchungen weit verbreitet. Einige fr&#252;here Entwicklungen von KI haben an dieser Stelle &#228;hnliche Rubriken erstellt. In Kanada gibt es beispielsweise eine algorithmische Folgeabsch&#228;tzung, die auf Fragen basiert wie &#8222;Gibt es Kunden in diesem Wirtschaftszweig, die besonders angreifbar sind? (ja oder nein)&#8221;.</p><p>Sicherlich gibt es Schwierigkeiten, wenn man einen derart ungekl&#228;rten Begriff wie &#8222;Auswirkung&#8220; in einer Untersuchung f&#252;hren will. Das DREAD-Framework wurde sp&#228;ter erweitert oder eher ersetzt von <a href=„https://de.wikipedia.org/wiki/STRIDE_(IT-Sicherheit)“ rel=„external noopener“ target=„_blank“><strong>STRIDE [2]</strong></a>, das die Bewertung &#228;ndert. Da war es teilweise schwierig, unterschiedliche &#220;berzeugungen zusammenzubringen, was die Modellierung von Bedrohungen beinhaltet. Microsoft stellte die Nutzung von DREAD im Jahr 2008 ein.</p><h3 class=„subheading“ id=„nav_keine3“>Keine Konsequenzen</h3><p>Im KI-Bereich wurden auf Konferenzen und in Fachzeitschriften bereits Folgeabsch&#228;tzungssysteme vorgestellt &#8211; mit unterschiedlichem Erfolg und einigen Kontroversen. Fehlerfrei sind sie n&#228;mlich noch lang nicht: Folgeabsch&#228;tzungen, die rein formelhaft sind, k&#246;nnen leicht durchgef&#252;hrt werden, doch andere, die auf allzu vagen Definitionen gr&#252;nden, k&#246;nnen zu willk&#252;rlichen oder unglaublich langw&#228;hrenden Untersuchungen f&#252;hren.</p><p>Trotzdem handelt es sich um einen wichtigen Fortschritt. Der Begriff &#8222;Algorithmus&#8220;, wie auch immer man ihn definieren will, darf nicht zu einem Schutzschild werden, mit dem Menschen ihrer Verantwortung entbunden werden, f&#252;r die Konsequenzen der von ihnen entwickelten und eingesetzten Systeme einzustehen. Daher wird der Ruf nach einer Art algorithmischer Rechenschaftspflicht immer lauter &#8211; die konzeptuelle Besch&#228;ftigung mit Auswirkungen bietet einen n&#252;tzlichen gemeinsamen Nenner, damit verschiedene Systeme dieser Forderung unabh&#228;ngig von ihrer Funktionsweise beikommen k&#246;nnen.</p><p><em><strong>Kristian Lum</strong> ist Assistant Professor im Fachbereich Computerwissenschaften und Informationstechnik an der University of Pennsylvania.</em></p><p><em><strong>Rumman Chowdhury</strong> ist Direktorin im Team f&#252;r Machine Ethics, Transparency, and Accountability (META) bei Twitter. Sie war zuvor CEO und Gr&#252;nderin von Parity, einer Plattform zur &#220;berpr&#252;fung der Wirkungsweise von Algorithmen. Au&#223;erdem war sie</em> <em>internationale Leiterin des Bereichs f&#252;r den verantwortungsvollen Einsatz von KI bei Accenture.</em></p><p>() </p><hr /><p><strong>URL dieses Artikels:</strong><br /><small><code>https://www.heise.de/-5078592</code></small></p><p><strong>Links in diesem Artikel:</strong><br /><small><code><strong>[1]</strong>&#160;https://www.heise.de/tr/</code></small><br /><small><code><strong>[2]</strong>&#160;https://de.wikipedia.org/wiki/STRIDE_(IT-Sicherheit)</code></small><br /><small><code><strong>[3]</strong>&#160;mailto:bsc@heise.de</code></small><br /></p><p class=„printversioncopyright“><em>Copyright &#169; 2021 Heise Medien</em></p> </html>

Cookies helfen bei der Bereitstellung von Inhalten. Diese Website verwendet Cookies. Mit der Nutzung der Website erklären Sie sich damit einverstanden, dass Cookies auf Ihrem Computer gespeichert werden. Außerdem bestätigen Sie, dass Sie unsere Datenschutzerklärung gelesen und verstanden haben. Wenn Sie nicht einverstanden sind, verlassen Sie die Website.Weitere Information