Qgelm

Algorithmische Entscheidungsfindung: Handlungsbedarf und Lösungsansätze in der Übersicht

Originalartikel

Backup

<html> <p>Das Thema ist hei&#223; und hat viele Facetten: Algorithmen und K&#252;nstliche Intelligenz bestimmen immer zentraler unser Leben, z.B. im Bereich der vorhersagebasierten Polizeiarbeit, der Medizin oder der Bewerberauswahl. Das hat bekannterma&#223;en viele Vorteile, aber auch seine Risiken &#8211; wie etwa die Verstetigung sozialer Ungleichheiten, die Turbo-Monopolisierung der Datenanalyseindustrie, mangelnde Nachvollziehbarkeit, Zweckentfremdung oder Manipulation.</p> <div class=„netzpolitik-cta wrapper“> <p><a href=„https://netzpolitik.org/spenden“><img src=„https://cdn.netzpolitik.org/wp-upload/2017/12/jetztspenden12-1.jpg“ width=„900“ height=„300“/></a>Wir finanzieren uns zu fast 100 % aus Spenden von Leserinnen und Lesern. Unterst&#252;tze <a href=„https://netzpolitik.org/2017/liebe-leserinnen-und-leser-investiert-in-freiheit/“>unsere Arbeit</a> mit einer <a href=„https://netzpolitik.org/spenden/“>Spende oder einem Dauerauftrag</a>.</p> </div> <p>Die &#214;ffentlichkeit fordert algorithmische Transparenz und Diskriminierungsfreiheit. Techniker experimentieren mit sich selbst-erkl&#228;renden Algorithmen. Datensch&#252;tzer pochen auf die EU-Datenschutz-Grundverordnung, die leider nur Ausnahmef&#228;lle algorithmischer Entscheidungsfindung regelt. Es gab und gibt viele Stimmen in der Debatte, aber wenig &#220;berblick. Ein neues Arbeitspapier von <a href=„https://twitter.com/klischka“ data-versionurl=„http://web.archive.org/web/20180514153756/https://twitter.com/klischka“ data-versiondate=„2018-05-14T15:37:58+00:00“ data-amber-behavior=„“>Konrad Lischka</a> (Bertelsmann Stiftung: <a href=„https://algorithmenethik.de/“>Algorithmen-Ethik</a>) und <a href=„https://twitter.com/phaenomen/“ data-versionurl=„http://web.archive.org/web/20180514154257/https://twitter.com/phaenomen/“ data-versiondate=„2018-05-14T15:42:59+00:00“ data-amber-behavior=„“>Julia Kr&#252;ger</a> (unabh&#228;ngig, <a href=„https://netzpolitik.org/author/juliak/“>freie Autorin bei uns</a>) zeigt jetzt eine &#220;bersicht zu politischem Handlungsbedarf und L&#246;sungsans&#228;tze im Bereich algorithmischer Entscheidungsfindung.</p> <p>Basierend auf internationaler Literaturrecherche fanden dabei Beitr&#228;ge aus Wissenschaft, Wirtschaft, Zivilgesellschaft und Politik Ber&#252;cksichtigung. Schwerpunkt war die Systematisierung der Ans&#228;tze mit Blick auf den Entstehungs- und Anwendungskontext algorithmischer Entscheidungssysteme: Technische, rechtliche und institutionelle Aspekte pr&#228;gen die Art und Weise, wie Algorithmen und K&#252;nstliche Intelligenz entwickelt, verwendet und gepr&#252;ft werden k&#246;nnen &#8211; an vielen Punkten, so zeigen die Autoren anhand bekannter und neuer Beispiele.</p> <p>Herausgekommen ist ein umfassendes <a href=„https://algorithmenethik.de/2018/05/14/welche-loesungen-es-jetzt-braucht-damit-algorithmische-prozesse-den-menschen-dienen/“ data-versionurl=„http://web.archive.org/web/20180514112318/https://algorithmenethik.de/2018/05/14/welche-loesungen-es-jetzt-braucht-damit-algorithmische-prozesse-den-menschen-dienen/“ data-versiondate=„2018-05-14T11:23:23+00:00“ data-amber-behavior=„“>L&#246;sungspanorama</a> &#252;ber folgende Bereiche:</p> <blockquote> <p>1. Zielsetzung algorithmischer Systeme auf gesellschaftliche Angemessenheit pr&#252;fen.<br/> 2. Umsetzung dieser Ziele im Einsatz &#252;berpr&#252;fen.<br/> 3. Vielfalt der Systeme, Ziele und Betreiber schaffen und sichern.<br/> 4. &#220;bergreifende Rahmenbedingungen f&#252;r den teilhabef&#246;rderlichen Einsatz schaffen (&#8230;) staatliche Regulierungskompetenz.</p> </blockquote> <p>Sie umfassen so unterschiedliche Vorschl&#228;ge wie Vertr&#228;glichkeitspr&#252;fungen, Qualit&#228;tssiegel f&#252;r Herkunft und G&#252;te von Daten, Verbandsklagerechte f&#252;r die Antidiskriminierungsstelle des Bundes oder eine kompetente Algorithmenagentur &#8211; ebenso wie eine ausf&#252;hrliche Er&#246;rterung der M&#246;glichkeiten und Grenzen von Algorithmus-Auditing (Pr&#252;fung).</p> <p><img src=„https://cdn.netzpolitik.org/wp-upload/2018/05/BSt_Grafik_03_Algorithmen_Handlungsfelder.jpg“ alt=„“ width=„1772“ height=„1783“ class=„alignnone size-full wp-image-192531“ srcset=„https://cdn.netzpolitik.org/wp-upload/2018/05/BSt_Grafik_03_Algorithmen_Handlungsfelder.jpg 1772w, https://cdn.netzpolitik.org/wp-upload/2018/05/BSt_Grafik_03_Algorithmen_Handlungsfelder-150x150.jpg 150w, https://cdn.netzpolitik.org/wp-upload/2018/05/BSt_Grafik_03_Algorithmen_Handlungsfelder-224x225.jpg 224w, https://cdn.netzpolitik.org/wp-upload/2018/05/BSt_Grafik_03_Algorithmen_Handlungsfelder-543x546.jpg 543w“ sizes=„(max-width: 1772px) 100vw, 1772px“/></p> <p>Das komplette Arbeitspapier mit dem Titel &#8222;Damit Maschinen dem Menschen dienen&#8220; steht unter der CC-BY-SA-Lizenz und findet sich <a href=„https://algorithmenethik.de/2018/05/14/welche-loesungen-es-jetzt-braucht-damit-algorithmische-prozesse-den-menschen-dienen/“ data-versionurl=„http://web.archive.org/web/20180514112318/https://algorithmenethik.de/2018/05/14/welche-loesungen-es-jetzt-braucht-damit-algorithmische-prozesse-den-menschen-dienen/“ data-versiondate=„2018-05-14T11:23:23+00:00“ data-amber-behavior=„“>hier</a>. Die Autoren freuen sich &#252;ber R&#252;ckmeldung, Anregung und Erg&#228;nzung.</p> <div class=„vgwort“><img src=„https://ssl-vg03.met.vgwort.de/na/b669c0d9e5c44fc9b1047d64fb56d52d“ width=„1“ height=„1“ alt=„“/></div> </html>

Cookies helfen bei der Bereitstellung von Inhalten. Diese Website verwendet Cookies. Mit der Nutzung der Website erklären Sie sich damit einverstanden, dass Cookies auf Ihrem Computer gespeichert werden. Außerdem bestätigen Sie, dass Sie unsere Datenschutzerklärung gelesen und verstanden haben. Wenn Sie nicht einverstanden sind, verlassen Sie die Website.Weitere Information