Qgelm

Ethik und Künstliche Intelligenz: ein neuer Umgang mit KI-Systemen

Originalartikel

Backup

<html> <header class=„article-header“><h1 class=„articleheading“>Ethik und K&#252;nstliche Intelligenz: ein neuer Umgang mit KI-Systemen</h1><div class=„publish-info“> Isabel B&#228;r</div></header><figure class=„aufmacherbild“><img src=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/1/1/2/1/4/3/shutterstock_1161966886-d9d2c906cf464dd5.jpeg“ srcset=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/1/1/2/1/4/3/shutterstock_1161966886-d9d2c906cf464dd5.jpeg 700w, https://heise.cloudimg.io/width/1050/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/1/1/2/1/4/3/shutterstock_1161966886-d9d2c906cf464dd5.jpeg 1050w, https://heise.cloudimg.io/width/1500/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/1/1/2/1/4/3/shutterstock_1161966886-d9d2c906cf464dd5.jpeg 1500w, https://heise.cloudimg.io/width/2300/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/1/1/2/1/4/3/shutterstock_1161966886-d9d2c906cf464dd5.jpeg 2300w“ alt=„“ class=„img-responsive“ referrerpolicy=„no-referrer“ /><figcaption class=„akwa-caption“>(Bild:&#160;Black Jack/Shutterstock.com)</figcaption></figure><p><strong>Unregulierte KI-Systeme bergen gesellschaftliche Risiken. Doch wie k&#246;nnten geeignete Regulierungsma&#223;nahmen aussehen? Ein Weg hei&#223;t Model Governance.</strong></p><p>Da KI sich den Weg in viele Anwendungsbereiche bahnt, ist es nun wichtig, dass KI-Systeme auf verantwortungsvolle, sichere und transparente Weise funktionieren. Die Risiken eines unregulierten Einsatzes von KI-Technologie diskutiert die im April 2021 ver&#246;ffentlichte „Regulation on a European Approach for Artificial Intelligence“ auch auf EU-Ebene. Die Regulierung von KI-Systemen ist ein rechtliches, gesellschaftliches und technisches Thema, das ein breites Bewusstsein erfordert und in den n&#228;chsten Jahren weiter an Relevanz gewinnen wird. Der erste Teil dieser aus zwei Teilen bestehenden Artikelserie beschreibt die gesellschaftlichen Herausforderungen, die mit KI einhergehen. Der zweite Teil vertieft die technische Seite des Themas.</p><header class=„a-boxheader“ data-collapse-trigger=„“>Young Professionals schreiben f&#252;r Young Professionals</header><div class=„a-boxtarget a-boxcontent a-inline-textboxcontent a-inline-textboxcontent–horizontal-layout“ data-collapse-target=„“><figure class=„a-inline-textboximage-container“><img alt=„“ src=„https://heise.cloudimg.io/width/4000/q50.png-lossy-50.webp-lossy-50.foil1/_www-heise-de_/imgs/71/2/8/9/8/5/2/3/shutterstock_1161966886-c893e738e55765fb.jpeg“ srcset=„https://heise.cloudimg.io/width/8000/q30.png-lossy-30.webp-lossy-30.foil1/_www-heise-de_/imgs/71/2/8/9/8/5/2/3/shutterstock_1161966886-c893e738e55765fb.jpeg 2x“ class=„c1“ referrerpolicy=„no-referrer“ /></figure><div class=„a-inline-textboxcontent-container“><p class=„a-inline-textboxsynopsis“>Dieser Beitrag ist Teil einer Artikelserie, zu der heise Developer junge Entwickler:innen einl&#228;dt &#8211; um &#252;ber aktuelle Trends, Entwicklungen und pers&#246;nliche Erfahrungen zu informieren. Die Reihe „Young Professionals“ erscheint im monatlichen Rhythmus. [br] Bist du selbst ein „Young Professional“ und willst einen (ersten) Artikel schreiben? Schicke deinen Vorschlag an die Redaktion: developer@heise.de. Wir stehen dir beim Schreiben zur Seite.</p><ul class=„a-inline-textboxlist“><li class=„a-inline-textboxitem“><a class=„a-inline-textboxtext“ href=„https://www.heise.de/hintergrund/Alpine-js-Das-Schweizer-Taschenmesser-fuer-dynamische-Weboberflaechen-6177628.html“ title=„Alpine.js: Das Schweizer Taschenmesser f&#252;r dynamische Weboberfl&#228;chen“><strong>Alpine.js: Das Schweizer Taschenmesser f&#252;r dynamische Weboberfl&#228;chen [1]</strong></a></li><li class=„a-inline-textboxitem“><a class=„a-inline-textboxtext“ href=„https://www.heise.de/hintergrund/Developer-Experience-Glueckliche-Entwickler-schreiben-besseren-Code-6150890.html“ title=„Developer Experience: Gl&#252;ckliche Entwickler schreiben besseren Code“><strong>Developer Experience: Gl&#252;ckliche Entwickler schreiben besseren Code [2]</strong></a></li><li class=„a-inline-textboxitem“><a class=„a-inline-textboxtext“ href=„https://www.heise.de/hintergrund/Ethik-und-Kuenstliche-Intelligenz-ein-neuer-Umgang-mit-KI-Systemen-6056059.html“ title=„Ethik und K&#252;nstliche Intelligenz: Ein neuer Umgang mit KI-Systemen“><strong>Ethik und K&#252;nstliche Intelligenz: Ein neuer Umgang mit KI-Systemen [3]</strong></a></li><li class=„a-inline-textboxitem“><a class=„a-inline-textboxtext“ href=„https://www.heise.de/developer/young-professionals-6065678.html“ title=„Alle Beitr&#228;ge der Serie finden sich in der Rubrik“><strong>Alle Beitr&#228;ge der Serie finden sich in der Rubrik „Young Professionals“ [4]</strong></a></li></ul></div></div><h3 class=„subheading“ id=„nav_ki_modelle_sind0“>KI-Modelle sind nicht inh&#228;rent neutral</h3><p>Wenn man ehrlich &#252;ber die Herausforderungen sprechen m&#246;chte, denen eine demokratische Gesellschaft gegen&#252;bersteht, kann man es sich nicht leisten, die Risiken unregulierter KI-Software zu ignorieren. Machine Learning beziehungsweise K&#252;nstliche Intelligenz mag eine technische Methode sein &#8211; die Probleme, die sich damit l&#246;sen lassen, m&#252;ssen allerdings nicht technischer Natur sein.</p><p>KI ist im Grunde die Anwendung von Algorithmen auf ein bestimmtes Problem. Um dieses zu l&#246;sen, werden sie mit Daten trainiert. Algorithmen geh&#246;ren in den Bereich der Mathematik, die weithin als neutrale Instanz gilt. L&#228;sst sich daraus ableiten, dass die Neutralit&#228;t der Mathematik auch auf ihre Anwendung zutrifft? Nein, denn KI-Systeme und die ihnen zugrunde liegende Anwendung mathematischer Algorithmen sind nicht inh&#228;rent neutral. Es sind Menschen, die KI-Systemen die Daten bereit stellen, aus denen Algorithmen wiederum lernen. Damit sind es also Menschen, die in die Richtung weisen, in die sich KI verselbst&#228;ndigen soll, und der Mensch taugt nun mal nicht als objektiver Wegweiser.</p><h3 class=„subheading“ id=„nav_risiken1“>Risiken unregulierter KI-Bias in Gesichtserkennungssystemen</h3><p>2018 ver&#246;ffentlichten die ghanaisch-amerikanische Informatikerin Joy Buolamwini und Timnit Gebru, eine ehemalige Ethical-AI-Forscherin bei Google, <a href=„http://gendershades.org/“ rel=„external noopener“ target=„_blank“><strong>die Studie „Gender Shades“, in der sie die Gesichtserkennungssysteme von Microsoft, IBM und Megvii analysierten [5]</strong></a>. Sie wies nach, dass die Gesichtserkennung bei der Identifizierung von Menschen dunklerer Hautfarbe weniger akkurat entscheidet als bei Menschen hellerer Hautfarbe. Unterschiede in der Genauigkeit des Algorithmus gab es auch zwischen M&#228;nnern und Frauen: Alle getesteten Face-Recognition-Systeme funktionierten f&#252;r M&#228;nner besser als f&#252;r Frauen. IBM f&#252;hrte dabei den Negativrekord an: Das System hatte eine um rund 34 Prozent reduzierte Accuracy f&#252;r dunkelh&#228;utige Frauen als f&#252;r hellh&#228;utige M&#228;nner. Woraus resultierte der Bias?</p><p>Damit Gesichtserkennungssysteme die gew&#252;nschte Leistung erbringen, muss die Verteilung der Bilder in den Trainingsdaten der Verteilung der Merkmale von Gesichtern entsprechen, die man in der realen Welt erwarten w&#252;rde. Nur durch eine hohe Vielf&#228;ltigkeit und breite Abdeckung der Trainingsdaten <a href=„https://www.ibm.com/blogs/research/2019/01/diversity-in-faces/“ rel=„external noopener“ target=„_blank“><strong>kann ein Modell unterschiedliche Auspr&#228;gungen von Merkmalen lernen [6]</strong></a>. Enthalten Trainingsdaten dagegen Verzerrungen, die soziale Ungleichheiten in den Trainingsdaten widerspiegeln, gehen diese Verzerrungen in die erstellten Modelle ein.</p><p>Vor dem Hintergrund, dass <a href=„https://www.airportfacescans.com“ rel=„external noopener“ target=„_blank“><strong>Gesichtserkennung in den USA an Flugh&#228;fen zur &#220;berpr&#252;fung der Identit&#228;t der Reisenden [7]</strong></a> oder <a href=„https://www.perpetuallineup.org“ rel=„external noopener“ target=„_blank“><strong>von der Polizei zur Strafverfolgung [8]</strong></a> eingesetzt wird, entpuppten sich die Ergebnisse der Studie als Initialz&#252;ndung f&#252;r eine B&#252;rgerrechtsbewegung, die Ma&#223;nahmen forderte, um dem Problem des algorithmischen Bias Rechnung zu tragen. Als Konsequenz aus dieser &#246;ffentlichen Emp&#246;rung <a href=„https://www.technologyreview.com/2020/06/09/1002947/ibm-says-it-is-no-longer-working-on-face-recognition-because-its-used-for-racial-profiling/“ rel=„external noopener“ target=„_blank“><strong>beschloss IBM, sein Gesichtserkennungssystem vorerst nicht mehr einzusetzen [9]</strong></a>. Zus&#228;tzlich zum R&#252;ckzug ihres Systems ging IBM noch einen Schritt weiter und stellte „Diversity in Faces“ vor, einen Datensatz mit einer Million annotierter menschlicher Gesichter.</p><p>Die Daten waren unter sorgf&#228;ltiger Ber&#252;cksichtigung wissenschaftlicher Gesichtskodierungsschemata generiert worden und zielten darauf ab, zu vielf&#228;ltigen Datens&#228;tzen beizutragen, die schlie&#223;lich zu einer ausgewogeneren und fairen algorithmischen Entscheidungslogik f&#252;hren sollten. Es stellte sich jedoch heraus, dass die im Datensatz enthaltenen Fotos ohne Zustimmung der Nutzer von der Foto-Hosting-Seite Flickr &#252;bernommen worden waren. In dem Versuch, das Fairness-Problem zu kitten, tat sich das Problem der Privacy auf.</p><h3 class=„subheading“ id=„nav_sprachmodelle2“>Sprachmodelle gewinnen an Bedeutung</h3><p>Trainingsdaten spielen auch f&#252;r Sprachmodelle eine zentrale Rolle. Language Models (LM) sind un&#252;berwachte KI-Systeme, die <a href=„https://www.aclweb.org/anthology/2020.acl-main.463/“ rel=„external noopener“ target=„_blank“><strong>f&#252;r die Vorhersage der Wahrscheinlichkeit eines Tokens [10]</strong></a> (Zeichen, Wort oder Zeichenkette) trainiert werden, <a href=„https://dl.acm.org/doi/10.1145/3442188.3445922“ rel=„external noopener“ target=„_blank“><strong>wenn entweder der vorangehende Kontext oder der umgebende Kontext gegeben ist [11]</strong></a>. Viele Menschen verwenden direkt oder indirekt gro&#223;e LM, auch wenn sie sich dessen vielleicht nicht bewusst sind. Ob Suchmaschinen, Textgenerierung oder Konversationstools &#8211; die Bedeutung von LM ist fest etabliert und wird im Alltag weiter an Bedeutung zunehmen. Um den Datenhunger der Sprachmodelle zu stillen, gilt es, gro&#223;e Datenmengen als Trainingsdaten aus dem gesamten Internet zu sammeln.</p><p>Das Internet als Datenbezugsquelle birgt das Risiko, <a href=„https://faculty.washington.edu/ebender/papers/Stochastic_Parrots.pdf“ rel=„external noopener“ target=„_blank“><strong>„hegemonische Weltansichten von den Trainingsdaten zu absorbieren“, wie ein Paper von der Universit&#228;t Washington erkl&#228;rt [12]</strong></a>, und dem Algorithmus von Anfang an eine Sprache beizubringen, die von Bias gepr&#228;gt ist. Daraus resultieren <a href=„https://www.aclweb.org/anthology/W19-3805/“ rel=„external noopener“ target=„_blank“><strong>Modelle, die stereotypische und abwertende Assoziationen bez&#252;glich Geschlecht, Rasse, Ethnie und Behinderungsstatus enthalten [13]</strong></a>. Wenn diese Modelle ausgerollt werden, entweder als Teil eines Klassifizierungssystems oder als Spachgenerator, verst&#228;rkt sich dieser Bias in der Anwendung.</p><p>Dar&#252;ber hinaus beginnt mit dem Deployment des Modells ein neuer Kreislauf: Der von LM produzierte Text wird sich mit dem in ihm enthaltenen Bias weiterverbreiten und im Zuge dessen nicht nur Stereotype verst&#228;rken, sondern selbst wieder in Trainingsdaten f&#252;r neue Modelle enthalten sein. Das Risiko eines subtilen Bias oder das einer von Language Models generierten offen beleidigenden Sprache wird f&#252;r Menschen, gegen die es sich richtet, ein gravierendes Problem. Dazu geh&#246;rt zum einen der individuelle psychologische Schaden, zum anderen hat das Thema mit der Verst&#228;rkung sexistischer, rassistischer und anderer Vorurteile eine gesamtgesellschaftliche Tragweite. Verst&#228;rkte Ideologien <a href=„https://faculty.washington.edu/ebender/papers/Stochastic_Parrots.pdf“ rel=„external noopener“ target=„_blank“><strong>k&#246;nnen im schlimmsten Fall zu Gewalt f&#252;hren [14]</strong></a>.</p><h3 class=„subheading“ id=„nav_notwendigkeit3“>Notwendigkeit von Regulierungen und geeigneten Frameworks</h3><p>Gender Shades und die m&#246;glichen Risiken gro&#223;er Sprachmodelle f&#252;hren vor Augen, wie schwierig es ist, vor der Bereitstellung der Software zu erkennen, ob und welches sch&#228;dliche Potenzial einem System innewohnt. Entfaltet sich dieses Potenzial nach Bereitstellung, <a href=„https://dl.acm.org/doi/abs/10.1145/3351095.3372873“ rel=„external noopener“ target=„_blank“><strong>ist das Auffinden der Fehlerquelle mitunter unm&#246;glich und kann massive Konsequenzen haben [15]</strong></a>. Selbstverst&#228;ndlich gibt es eine Vielzahl weiterer Anwendungsf&#228;lle von KI in einem breiten gesellschaftlichen Kontext. Beispielsweise kann KI eingesetzt werden, um <a href=„https://www.forbes.com/sites/parmyolson/2011/03/15/the-algorithm-that-beats-your-bank-manager/“ rel=„external noopener“ target=„_blank“><strong>Kreditentscheidungen [16]</strong></a> oder <a href=„https://www.nytimes.com/2015/06/26/upshot/can-an-algorithm-hire-better-than-a-human.html“ rel=„external noopener“ target=„_blank“><strong>den Einstellungsprozess neuer Mitarbeiter zu unterst&#252;tzen [17]</strong></a>.</p><p>Mit der zunehmenden Integration von KI in die Gesellschaft sind Chancenverlust, wirtschaftlicher Schaden und soziale Stigmatisierung die <a href=„http://gendershades.org/“ rel=„external noopener“ target=„_blank“><strong>Hauptrisiken einer unethischen Anwendung von KI-Technologie [18]</strong></a>. Es ist klar, dass Algorithmen selbst nicht zur Rechenschaft gezogen werden k&#246;nnen &#8211; wohl aber Unternehmen, die KI-Software entwickeln. Um zu verhindern, dass deren Umgang mit ethischen Leitlinien lediglich eine Reaktion auf externen Druck wie drohenden Reputationssch&#228;den darstellt, <a href=„https://sloanreview.mit.edu/article/putting-responsible-ai-into-practice/“ rel=„external noopener“ target=„_blank“><strong>braucht es verbindliche gesetzliche Vorgaben zur Regulierung von KI-Software [19]</strong></a> und eine Neujustierung der Unternehmens-Policy.</p><h3 class=„subheading“ id=„nav_ethical4“>Ethical Guidelines: „lauwarm, kurzsichtig und vors&#228;tzlich vage“?</h3><p>Diese Notwendigkeit hat auch die EU erkannt. Im April 2021 erschien die „<a href=„https://drive.google.com/file/d/1ZaBPsfor_aHKNeeyXxk9uJfTru747EOn/view“ rel=„external noopener“ target=„_blank“><strong>Regulation on a European Approach for Artificial Intelligence [20]</strong></a>“ als erster Rechtsrahmen f&#252;r KI, der die Risiken K&#252;nstlicher Intelligenz adressiert. Das Dokument erkennt an, dass der Einsatz biometrischer Identifikationssysteme &#8222;besondere Herausforderungen f&#252;r den Schutz der Grundrechte und -freiheiten„ mit sich bringt. Au&#223;erdem h&#228;lt das Dokument fest, dass „technische Ungenauigkeiten zu verzerrten Ergebnissen f&#252;hren und diskriminierende Wirkungen nach sich ziehen“ (Sektion&#160;70). Dies sei besonders bei Alter, ethnischer Zugeh&#246;rigkeit, dem Geschlecht oder Behinderungen relevant.</p><p>Auch die zentrale Bedeutung der Trainingsdaten f&#252;r die Leistung des KI-Systems wird hervorgehoben (Sektion&#160;45). Diese sollten „ausreichend relevant, repr&#228;sentativ, fehlerfrei und vollst&#228;ndig im Hinblick auf den beabsichtigen Zweck sein“, damit gew&#228;hrleistet ist, dass Risiken f&#252;r die Sicherheit und Grundrechte minimiert werden. Da dieser Rechtsrahmen nicht nur f&#252;r in der EU ans&#228;ssige Unternehmen und Einzelpersonen gelten soll, sondern auch f&#252;r jedes Unternehmen, das KI-Leistungen innerhalb der EU anbietet, <a href=„https://fortune.com/2021/04/21/europe-artificial-intelligence-regulation-global-impact-google-facebook-ibm/“ rel=„external noopener“ target=„_blank“><strong>h&#228;tte das Gesetz einen der DSGVO entsprechenden Geltungsbereich und w&#252;rde weltweit auf die KI-Entwicklung Einfluss nehmen [21]</strong></a>.</p><p>Die Auseinandersetzung mit der Regulierung von KI-Software ist f&#252;r die EU nicht neu. 2019 gab eine von der Europ&#228;ischen Kommission beauftragte Expertengruppe Ethik-Leitlinien f&#252;r die Entwicklung von KI-Software heraus. Die <a href=„https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai“ rel=„external noopener“ target=„_blank“><strong>„Requirements for Trustworthy AI“ beschreiben die geforderten Hauptmerkmale von KI-Systemen [22]</strong></a>, nach denen K&#252;nstliche Intelligenz rechtm&#228;&#223;ig, ethisch und robust sein sollte. Aus diesen Eigenschaften wurden sieben pr&#228;zise Schl&#252;sselanforderungen abgeleitet: menschliches Handeln und Aufsicht (KI sollte den Menschen bef&#228;higen, informierte Entscheidungen zu treffen), technische Robustheit und Sicherheit, Datenschutz und Data Governance, Transparenz, Vielf&#228;ltigkeit, gesellschaftliches und &#246;kologisches Wohlbefinden sowie die Rechenschaftspflicht.</p><p>Obwohl diese Leitlinien sicherlich ein Schritt in die richtige Richtung waren, gab es Kritik an ihrem Inhalt, <a href=„https://background.tagesspiegel.de/ethik-waschmaschinen-made-in-europe“ rel=„external noopener“ target=„_blank“><strong>den ein Mitglied der Expertengruppe als „lauwarm, kurzsichtig und vors&#228;tzlich vage“ bezeichnete [23]</strong></a>. Ohne eine praktische Anleitung zur tats&#228;chlichen Umsetzung und Operationalisierung ethischer Prinzipien fehlt eine wichtige <a href=„https://link.springer.com/article/10.1007/s11023-020-09517-8“ rel=„external noopener“ target=„_blank“><strong>Voraussetzung, um die Einhaltung eigener normativen Forderungen durchsetzen zu k&#246;nnen [24]</strong></a>. Ob die frisch ver&#246;ffentlichte Regulierung genau das bewirken kann, bleibt zum Stand der Artikelver&#246;ffentlichung noch offen.</p><h3 class=„subheading“ id=„nav_model5“>Model Governance &#8211; eine neue Unternehmenspolitik zur Regulierung von KI-Software</h3><p>Klar ist es aber, dass das europ&#228;ische Anziehen regulatorischer Z&#252;gel Unternehmen, die KI-Software entwickeln, rechenschaftspflichtig macht. Um dieser Rechenschaftspflicht nachzukommen, brauchen Firmen eine Unternehmens-Policy (Model Governance), die ein klares Framework zum Umgang mit KI-Software festlegt. Als “<a href=„https://committee.iso.org/sites/tc309/home/projects/ongoing/ongoing-1.html“ rel=„external noopener“ target=„_blank“><strong>System, durch das die gesamte Organisation geleitet, kontrolliert und zur Rechenschaft gezogen wird [25]</strong></a>„, macht Model Governance Unternehmen rechenschaftsf&#228;hig und mindert die Risiken, die der Einsatz von KI-Software birgt.</p><p>Das Prinzip von Model Governance ist nicht neu: Es gibt etliche Bereiche mit einer Tradition &#252;berpr&#252;fbarer Prozesse und Kontrollmechanismen, die zwar nicht fehlerlos funktionieren, aber ohne die das Erreichen eines Sicherheitsstandards unm&#246;glich w&#228;re. Dazu geh&#246;ren sicherheitskritische und regulierte Branchen wie die <a href=„https://dl.acm.org/doi/pdf/10.1145/3351095.3372873“ rel=„external noopener“ target=„_blank“><strong>Medizin, aber auch Luft- und Raumfahrt oder das Finanzwesen [26]</strong></a>.</p><p>Im Bereich der KI muss Model Governance die Zugriffskontrolle sowie Pr&#252;fungs- und Validierungsprozesse definieren &#8211; diese Pr&#252;fungsprozesse sind wichtig, um zu &#252;berpr&#252;fen, ob KI-Systeme ethischen Anforderungen entsprechen. Rollen und Verantwortlichkeiten gilt es ebenso festzulegen wie standardisierte &#196;nderungs- und Auditprotokolle, die jede &#196;nderung von Daten, Modell oder Systemen protokollieren. Die Protokollierung schafft nicht nur Transparenz nach au&#223;en, sie erleichtert auch die Fehlerbehebung und hilft beim Erf&#252;llen gesetzlicher und regulatorischer Anforderungen.</p><p>Dazu geh&#246;ren auch nachvollziehbare Modellergebnisse: Modelle sind dynamisch. Dennoch muss es m&#246;glich sein, jedes Modellergebnis der Modellversion zuzuordnen, die es erzeugt hat &#8211; das kann wichtig werden, wenn Nutzer beispielsweise gegen eine bestimmte algorithmische Entscheidung klagen. Die klare Festlegung von Rollen, Verfahren und Protokollen erm&#246;glicht einen konsistenteren <a href=„https://www.datarobot.com/wiki/production-model-governance/“ rel=„external noopener“ target=„_blank“><strong>Produktionsprozess, der f&#252;r Unternehmen das betriebliche, regulatorische und rechtliche Risiko vermindert [27]</strong></a>.</p><p>Damit ist Model Governance die Basis, auf der zu regulierende Aspekte wie Ethik, Fairness und <a href=„http://ds-wordpress.haverford.edu/psych2015/projects/chapter/overgeneralization-of-results/“ rel=„external noopener“ target=„_blank“><strong>Bias (&#252;bergeneralisierte Annahme &#252;ber eine bestimmte Personengruppe) [28]</strong></a>, Interpretierbarkeit und Erkl&#228;rbarkeit sowie Robustheit und Sicherheit von KI-Systemen aufbauen. Diese <a href=„https://www.pwc.com/gx/en/issues/data-and-analytics/artificial-intelligence/what-is-responsible-ai/responsible-ai-practical-guide.pdf“ rel=„external noopener“ target=„_blank“><strong>Kernaspekte werden unter dem Begriff Responsible AI zusammengefasst [29]</strong></a>.</p><h3 class=„subheading“ id=„nav_mangel_an_best6“>Mangel an Best Practices und Neuheit des Feldes</h3><p>An dieser Stelle ist es wichtig anzumerken, dass Begriffe wie Model Governance oder Responsible AI bisher nicht konsensbasiert definiert sind, weil es sich hier um ein noch neues Feld ohne etablierte Frameworks oder Best Practices handelt. Zwar gibt es Einigkeit dar&#252;ber, dass KI ethisch sein sollte. Was das aber konkret hei&#223;t, was ethische KI ausmacht und welche Anforderungen f&#252;r ihre Umsetzung notwendig sind, ist noch fragmentiert.</p><p>Das Neuheit des Feldes mag erst einmal &#252;berraschen: Schlie&#223;lich hat KI im Bereich von Data Science in den letzten Jahren einen Hype erlebt. W&#228;hrend KI selbst keine neue Wissenschaft ist, sind aber <a href=„https://www.heise.de/news/KI-Regeln-EU-Abgeordnete-und-Forscher-fordern-Aus-fuer-Massenueberwachung-6018633.html“><strong>die Anwendungen und ihre Marktdurchdringung noch nicht ausgereift [30]</strong></a>. Es gibt also einen Unterschied zwischen der Entwicklung eines KI-Modells in einem lokalen Python-Programm oder Jupyter-Notebook und dem Deployment dieses Modells in eine Produktivumgebung. Hier liegt ein Problem: Nur etwa <a href=„https://venturebeat.com/2019/07/19/why-do-87-of-data-science-projects-never-make-it-into-production/“ rel=„external noopener“ target=„_blank“><strong>13 Prozent aller Data-Science-Projekte werden erfolgreich in eine Produktivumgebung gebracht [31]</strong></a>.</p><h3 class=„subheading“ id=„nav_ki_systeme_als7“>KI-Systeme als neue und fortlaufende Herausforderung</h3><p>Worin unterscheidet sich KI-Software von &#8222;klassischer&#8220; Software ohneKI? Im Gegensatz zu klassischer Software mit Code als Hauptkomponente setzt sich KI-Software aus den Daten, dem Modell und dem Code zusammen. Diese drei Komponenten bedingen sich gegenseitig: Beispielsweise bewirkt eine &#196;nderung der Daten eine &#196;nderung des Modells (<a href=„https://papers.nips.cc/paper/2015/file/86df7dcfd896fcaf2674f757a2463eba-Paper.pdf“ rel=„external noopener“ target=„_blank“><strong>Change-Anything-Change-Everything-Prinzip [32]</strong></a>). Wird ein Modell nach dem Deployment in eine Produktivumgebung mit Daten konfrontiert, die sich stark von den Trainingsdaten unterscheiden, kann sich das Modell &#228;ndern.</p><p>Potenzielle <a href=„https://venturebeat.com/2021/07/01/study-finds-that-few-major-ai-research-papers-consider-negative-impacts/“ rel=„external noopener“ target=„_blank“><strong>Risiken von KI-Systemen k&#246;nnen also &#252;ber die Zeit entstehen [33]</strong></a>. Aufgrund der Dynamik der Wechselbeziehung zwischen Daten, Modell und Code ist es unm&#246;glich, diese Risiken vor dem Deployment pr&#228;ventiv zu unterbinden. Aus diesem Grund fordert die „Regulation on a European Approach for Artificial Intelligence“ ein besonderes Augenmerk auf KI-Systeme, die in der Produktivumgebung „weiterlernen“ und beschreibt die Notwendigkeit eines „Post-Market-Monitoring-System“ (Sektion&#160;83). Dieses Monitoring-System sollte als Pr&#252;fungs- und Validierungsprozess im Model-Governance-Framework eingebettet sein.</p><h3 class=„subheading“ id=„nav_gibt_es_einen8“>Gibt es einen Konsens f&#252;r ethische Prinzipien?</h3><p>Wenn es bisher schon an etablierten Praktiken zur langfristig erfolgreichen Entwicklung von KI-Software gemangelt hat, ist es nicht &#252;berraschend, dass diese auch bei der Umsetzung ethischer Richtlinien in KI-Systemen fehlen. Trotz des bislang nur schwach verbindlichen und allgemeing&#252;ltigen Charakters der Richtlinien sind sie in Abwesenheit universaler Standards eine <a href=„https://dl.acm.org/doi/pdf/10.1145/3351095.3372873“ rel=„external noopener“ target=„_blank“><strong>Orientierungshilfe, die bei der KI-Entwicklung als „Nordstern“ genutzt werden sollte [34]</strong></a>. Gibt es hier einen mehrheitlich festgelegten Kurs?</p><p>Eine <a href=„https://www.nature.com/articles/s42256-019-0088-2“ rel=„external noopener“ target=„_blank“><strong>Studie der ETH Z&#252;rich (Eidgen&#246;ssisch-Technische Hochschule), die in der Fachzeitschrift „Nature Machine Intelligence“ erschienen ist [35]</strong></a>, geht dieser Frage nach und untersucht, ob ethische Prinzipien um wenige zentrale Konzepte konvergieren. Zu diesem Zweck wurden 84 ethische Richtlinien, die entweder private Unternehmen, der &#246;ffentlichen Sektor oder akademische Institutionen ver&#246;ffentlicht hatten, untersucht und auf &#196;hnlichkeiten hin gescannt. W&#228;hrend kein ethisches Prinzip in allen 84 Publikationen auftauchte, fand die Arbeit Konvergenzen f&#252;r Transparenz (87&#160;%), Gerechtigkeit und Fairness (81&#160;%), Nicht-Sch&#228;dlichkeit (71&#160;%), Verantwortung (71&#160;%) und Datenschutz (56&#160;%).</p><h3 class=„subheading“ id=„nav_responsible_ai9“>Responsible AI geht alle etwas an</h3><p>Neben der Notwendigkeit eines rechtlichen und unternehmensinternen Rahmens wird klar: Die Verantwortung ist nicht nur auf Entwickler beschr&#228;nkt. Dom&#228;nenwissen war schon immer ein Schl&#252;ssel f&#252;r das Erstellen wertvoller Softwareprodukte. Das gilt besonders auch f&#252;r KI-Software, f&#252;r die neben Entwicklern und Domainexperten auch Rechts- und Compliance-Experten ben&#246;tigt werden. Und schlie&#223;lich braucht es eine &#214;ffentlichkeit, die sich reflektiert mit dem Einsatz von KI auseinanderzusetzt.</p><p>Daher richtet sich dieser Artikel an ein breites Publikum und versucht sich damit an einem Spagat zwischen verschiedenen Lesergruppen: Einerseits war eine nichttechnische, gesellschaftliche Einordung des Themas in diesem Artikel notwendig. Andererseits kommt man nicht ohne technische Grundlagen aus, wenn man verstehen m&#246;chte, wie KI-Systeme auf die Einhaltung ethischer Prinzipien gepr&#252;ft werden und wie standardisierte Pr&#252;fprozesse innerhalb von Model Governance aussehen k&#246;nnen. Letztlich zeigt aber gerade die Notwendigkeit dieses Spagats auf den engen Zusammenhang zwischen KI auf der einen und der Gesellschaft auf der anderen Seite hin. Im zweiten Teil wird es zur technischen Vertiefung um Definitionen von Fairness und Testtrategien gehen.</p><header class=„a-boxheader“ data-collapse-trigger=“„>Young Professionals schreiben f&#252;r Young Professionals</header><div class=„a-boxtarget a-boxcontent a-inline-textboxcontent“ data-collapse-target=“„><figure class=„a-inline-textboximage-container“><img alt=“„ class=„float-center c1“ src=„https://heise.cloudimg.io/width/1600/q50.png-lossy-50.webp-lossy-50.foil1/_www-heise-de_/imgs/18/3/1/1/2/1/4/3/Heise-889fef1723a0a973.jpg“ srcset=„https://heise.cloudimg.io/width/3200/q30.png-lossy-30.webp-lossy-30.foil1/_www-heise-de_/imgs/18/3/1/1/2/1/4/3/Heise-889fef1723a0a973.jpg 2x“ referrerpolicy=„no-referrer“ /></figure><div class=„a-inline-textboxcontent-container“><p>Isabel B&#228;r</p><p>studiert am <a href=„https://hpi.de/“ rel=„external noopener“ target=„_blank“><strong>Hasso-Plattner-Institut [36]</strong></a> im Masterstudiengang Data Engineering und ist <a href=„https://www.innoq.com/de/“ rel=„external noopener“ target=„_blank“><strong>Werkstudentin bei INNOQ [37]</strong></a>. Im Studium setzt sie sich mit der Erhebung, Verkn&#252;pfung und Analyse gro&#223;er Datenmengen auseinander, in ihrer T&#228;tigkeit als Werkstudentin liegt ihr Fokus auf Themen rund um den Einsatz von KI (Fairness, Interpretierbarkeit, Sicherheit und Datenschutz).</p></div></div><p>() </p><hr /><p><strong>URL dieses Artikels:</strong><br /><small>

https://www.heise.de/-6056059

</small></p><p><strong>Links in diesem Artikel:</strong><br /><small>

<strong>[1]</strong>&#160;https://www.heise.de/hintergrund/Alpine-js-Das-Schweizer-Taschenmesser-fuer-dynamische-Weboberflaechen-6177628.html

</small><br /><small>

<strong>[2]</strong>&#160;https://www.heise.de/hintergrund/Developer-Experience-Glueckliche-Entwickler-schreiben-besseren-Code-6150890.html

</small><br /><small>

<strong>[3]</strong>&#160;https://www.heise.de/hintergrund/Ethik-und-Kuenstliche-Intelligenz-ein-neuer-Umgang-mit-KI-Systemen-6056059.html

</small><br /><small>

<strong>[4]</strong>&#160;https://www.heise.de/developer/young-professionals-6065678.html

</small><br /><small>

<strong>[5]</strong>&#160;http://gendershades.org/

</small><br /><small>

<strong>[6]</strong>&#160;https://www.ibm.com/blogs/research/2019/01/diversity-in-faces/

</small><br /><small>

<strong>[7]</strong>&#160;https://www.airportfacescans.com

</small><br /><small>

<strong>[8]</strong>&#160;https://www.perpetuallineup.org

</small><br /><small>

<strong>[9]</strong>&#160;https://www.technologyreview.com/2020/06/09/1002947/ibm-says-it-is-no-longer-working-on-face-recognition-because-its-used-for-racial-profiling/

</small><br /><small>

<strong>[10]</strong>&#160;https://www.aclweb.org/anthology/2020.acl-main.463/

</small><br /><small>

<strong>[11]</strong>&#160;https://dl.acm.org/doi/10.1145/3442188.3445922

</small><br /><small>

<strong>[12]</strong>&#160;https://faculty.washington.edu/ebender/papers/Stochastic_Parrots.pdf

</small><br /><small>

<strong>[13]</strong>&#160;https://www.aclweb.org/anthology/W19-3805/

</small><br /><small>

<strong>[14]</strong>&#160;https://faculty.washington.edu/ebender/papers/Stochastic_Parrots.pdf

</small><br /><small>

<strong>[15]</strong>&#160;https://dl.acm.org/doi/abs/10.1145/3351095.3372873

</small><br /><small>

<strong>[16]</strong>&#160;https://www.forbes.com/sites/parmyolson/2011/03/15/the-algorithm-that-beats-your-bank-manager/

</small><br /><small>

<strong>[17]</strong>&#160;https://www.nytimes.com/2015/06/26/upshot/can-an-algorithm-hire-better-than-a-human.html

</small><br /><small>

<strong>[18]</strong>&#160;http://gendershades.org/

</small><br /><small>

<strong>[19]</strong>&#160;https://sloanreview.mit.edu/article/putting-responsible-ai-into-practice/

</small><br /><small>

<strong>[20]</strong>&#160;https://drive.google.com/file/d/1ZaBPsfor_aHKNeeyXxk9uJfTru747EOn/view

</small><br /><small>

<strong>[21]</strong>&#160;https://fortune.com/2021/04/21/europe-artificial-intelligence-regulation-global-impact-google-facebook-ibm/

</small><br /><small>

<strong>[22]</strong>&#160;https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai

</small><br /><small>

<strong>[23]</strong>&#160;https://background.tagesspiegel.de/ethik-waschmaschinen-made-in-europe

</small><br /><small>

<strong>[24]</strong>&#160;https://link.springer.com/article/10.1007/s11023-020-09517-8

</small><br /><small>

<strong>[25]</strong>&#160;https://committee.iso.org/sites/tc309/home/projects/ongoing/ongoing-1.html

</small><br /><small>

<strong>[26]</strong>&#160;https://dl.acm.org/doi/pdf/10.1145/3351095.3372873

</small><br /><small>

<strong>[27]</strong>&#160;https://www.datarobot.com/wiki/production-model-governance/

</small><br /><small>

<strong>[28]</strong>&#160;http://ds-wordpress.haverford.edu/psych2015/projects/chapter/overgeneralization-of-results/

</small><br /><small>

<strong>[29]</strong>&#160;https://www.pwc.com/gx/en/issues/data-and-analytics/artificial-intelligence/what-is-responsible-ai/responsible-ai-practical-guide.pdf

</small><br /><small>

<strong>[30]</strong>&#160;https://www.heise.de/news/KI-Regeln-EU-Abgeordnete-und-Forscher-fordern-Aus-fuer-Massenueberwachung-6018633.html

</small><br /><small>

<strong>[31]</strong>&#160;https://venturebeat.com/2019/07/19/why-do-87-of-data-science-projects-never-make-it-into-production/

</small><br /><small>

<strong>[32]</strong>&#160;https://papers.nips.cc/paper/2015/file/86df7dcfd896fcaf2674f757a2463eba-Paper.pdf

</small><br /><small>

<strong>[33]</strong>&#160;https://venturebeat.com/2021/07/01/study-finds-that-few-major-ai-research-papers-consider-negative-impacts/

</small><br /><small>

<strong>[34]</strong>&#160;https://dl.acm.org/doi/pdf/10.1145/3351095.3372873

</small><br /><small>

<strong>[35]</strong>&#160;https://www.nature.com/articles/s42256-019-0088-2

</small><br /><small>

<strong>[36]</strong>&#160;https://hpi.de/

</small><br /><small>

<strong>[37]</strong>&#160;https://www.innoq.com/de/

</small><br /><small>

<strong>[38]</strong>&#160;mailto:sih@ix.de

</small><br /></p><p class=„printversion__copyright“><em>Copyright &#169; 2021 Heise Medien</em></p> </html>

Cookies helfen bei der Bereitstellung von Inhalten. Diese Website verwendet Cookies. Mit der Nutzung der Website erklären Sie sich damit einverstanden, dass Cookies auf Ihrem Computer gespeichert werden. Außerdem bestätigen Sie, dass Sie unsere Datenschutzerklärung gelesen und verstanden haben. Wenn Sie nicht einverstanden sind, verlassen Sie die Website.Weitere Information