Algorithmische Entscheidungsfindung: Handlungsbedarf und Lösungsansätze in der Übersicht

Originalartikel

Backup

<html> <p>Das Thema ist hei&#223; und hat viele Facetten: Algorithmen und K&#252;nstliche Intelligenz bestimmen immer zentraler unser Leben, z.B. im Bereich der vorhersagebasierten Polizeiarbeit, der Medizin oder der Bewerberauswahl. Das hat bekannterma&#223;en viele Vorteile, aber auch seine Risiken &#8211; wie etwa die Verstetigung sozialer Ungleichheiten, die Turbo-Monopolisierung der Datenanalyseindustrie, mangelnde Nachvollziehbarkeit, Zweckentfremdung oder Manipulation.</p> <div class=„netzpolitik-cta wrapper“> <p><a href=„https://netzpolitik.org/spenden“><img src=„https://cdn.netzpolitik.org/wp-upload/2017/12/jetztspenden12-1.jpg“ width=„900“ height=„300“/></a>Wir finanzieren uns zu fast 100 % aus Spenden von Leserinnen und Lesern. Unterst&#252;tze <a href=„https://netzpolitik.org/2017/liebe-leserinnen-und-leser-investiert-in-freiheit/“>unsere Arbeit</a> mit einer <a href=„https://netzpolitik.org/spenden/“>Spende oder einem Dauerauftrag</a>.</p> </div> <p>Die &#214;ffentlichkeit fordert algorithmische Transparenz und Diskriminierungsfreiheit. Techniker experimentieren mit sich selbst-erkl&#228;renden Algorithmen. Datensch&#252;tzer pochen auf die EU-Datenschutz-Grundverordnung, die leider nur Ausnahmef&#228;lle algorithmischer Entscheidungsfindung regelt. Es gab und gibt viele Stimmen in der Debatte, aber wenig &#220;berblick. Ein neues Arbeitspapier von <a href=„https://twitter.com/klischka“ data-versionurl=„http://web.archive.org/web/20180514153756/https://twitter.com/klischka“ data-versiondate=„2018-05-14T15:37:58+00:00“ data-amber-behavior=„“>Konrad Lischka</a> (Bertelsmann Stiftung: <a href=„https://algorithmenethik.de/“>Algorithmen-Ethik</a>) und <a href=„https://twitter.com/phaenomen/“ data-versionurl=„http://web.archive.org/web/20180514154257/https://twitter.com/phaenomen/“ data-versiondate=„2018-05-14T15:42:59+00:00“ data-amber-behavior=„“>Julia Kr&#252;ger</a> (unabh&#228;ngig, <a href=„https://netzpolitik.org/author/juliak/“>freie Autorin bei uns</a>) zeigt jetzt eine &#220;bersicht zu politischem Handlungsbedarf und L&#246;sungsans&#228;tze im Bereich algorithmischer Entscheidungsfindung.</p> <p>Basierend auf internationaler Literaturrecherche fanden dabei Beitr&#228;ge aus Wissenschaft, Wirtschaft, Zivilgesellschaft und Politik Ber&#252;cksichtigung. Schwerpunkt war die Systematisierung der Ans&#228;tze mit Blick auf den Entstehungs- und Anwendungskontext algorithmischer Entscheidungssysteme: Technische, rechtliche und institutionelle Aspekte pr&#228;gen die Art und Weise, wie Algorithmen und K&#252;nstliche Intelligenz entwickelt, verwendet und gepr&#252;ft werden k&#246;nnen &#8211; an vielen Punkten, so zeigen die Autoren anhand bekannter und neuer Beispiele.</p> <p>Herausgekommen ist ein umfassendes <a href=„https://algorithmenethik.de/2018/05/14/welche-loesungen-es-jetzt-braucht-damit-algorithmische-prozesse-den-menschen-dienen/“ data-versionurl=„http://web.archive.org/web/20180514112318/https://algorithmenethik.de/2018/05/14/welche-loesungen-es-jetzt-braucht-damit-algorithmische-prozesse-den-menschen-dienen/“ data-versiondate=„2018-05-14T11:23:23+00:00“ data-amber-behavior=„“>L&#246;sungspanorama</a> &#252;ber folgende Bereiche:</p> <blockquote> <p>1. Zielsetzung algorithmischer Systeme auf gesellschaftliche Angemessenheit pr&#252;fen.<br/> 2. Umsetzung dieser Ziele im Einsatz &#252;berpr&#252;fen.<br/> 3. Vielfalt der Systeme, Ziele und Betreiber schaffen und sichern.<br/> 4. &#220;bergreifende Rahmenbedingungen f&#252;r den teilhabef&#246;rderlichen Einsatz schaffen (&#8230;) staatliche Regulierungskompetenz.</p> </blockquote> <p>Sie umfassen so unterschiedliche Vorschl&#228;ge wie Vertr&#228;glichkeitspr&#252;fungen, Qualit&#228;tssiegel f&#252;r Herkunft und G&#252;te von Daten, Verbandsklagerechte f&#252;r die Antidiskriminierungsstelle des Bundes oder eine kompetente Algorithmenagentur &#8211; ebenso wie eine ausf&#252;hrliche Er&#246;rterung der M&#246;glichkeiten und Grenzen von Algorithmus-Auditing (Pr&#252;fung).</p> <p><img src=„https://cdn.netzpolitik.org/wp-upload/2018/05/BSt_Grafik_03_Algorithmen_Handlungsfelder.jpg“ alt=„“ width=„1772“ height=„1783“ class=„alignnone size-full wp-image-192531“ srcset=„https://cdn.netzpolitik.org/wp-upload/2018/05/BSt_Grafik_03_Algorithmen_Handlungsfelder.jpg 1772w, https://cdn.netzpolitik.org/wp-upload/2018/05/BSt_Grafik_03_Algorithmen_Handlungsfelder-150x150.jpg 150w, https://cdn.netzpolitik.org/wp-upload/2018/05/BSt_Grafik_03_Algorithmen_Handlungsfelder-224x225.jpg 224w, https://cdn.netzpolitik.org/wp-upload/2018/05/BSt_Grafik_03_Algorithmen_Handlungsfelder-543x546.jpg 543w“ sizes=„(max-width: 1772px) 100vw, 1772px“/></p> <p>Das komplette Arbeitspapier mit dem Titel &#8222;Damit Maschinen dem Menschen dienen&#8220; steht unter der CC-BY-SA-Lizenz und findet sich <a href=„https://algorithmenethik.de/2018/05/14/welche-loesungen-es-jetzt-braucht-damit-algorithmische-prozesse-den-menschen-dienen/“ data-versionurl=„http://web.archive.org/web/20180514112318/https://algorithmenethik.de/2018/05/14/welche-loesungen-es-jetzt-braucht-damit-algorithmische-prozesse-den-menschen-dienen/“ data-versiondate=„2018-05-14T11:23:23+00:00“ data-amber-behavior=„“>hier</a>. Die Autoren freuen sich &#252;ber R&#252;ckmeldung, Anregung und Erg&#228;nzung.</p> <div class=„vgwort“><img src=„https://ssl-vg03.met.vgwort.de/na/b669c0d9e5c44fc9b1047d64fb56d52d“ width=„1“ height=„1“ alt=„“/></div> </html>