Justizministerin: Automaten können objektiver sein als Menschen

Originalartikel

Backup

<html> <p class=„printversionback-to-article printversion–hide“><a href=„https://www.heise.de/newsticker/meldung/Justizministerin-Automatisierte-Entscheidungen-koennen-objektiver-sein-als-menschliche-4374761.html“>zur&#252;ck zum Artikel</a></p><figure class=„printversionlogo“><img src=„https://1.f.ix.de/icons/svg/logos/svg/heiseonline.svg“ alt=„heise online“ width=„180“ heigth=„40“/></figure><figure class=„aufmacherbild“><img src=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/6/4/7/1/8/0/bitkom-5d8e7699a6b6c41b.jpeg“ srcset=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/6/4/7/1/8/0/bitkom-5d8e7699a6b6c41b.jpeg 700w, https://heise.cloudimg.io/width/1033/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/6/4/7/1/8/0/bitkom-5d8e7699a6b6c41b.jpeg 1033w“ sizes=„(min-width: 80em) 43.75em, (min-width: 64em) 66.66vw, 100vw“ alt=„Justizministerin: Automatisierte Entscheidungen k&#246;nnen objektiver sein als menschliche“ class=„img-responsive“/><figcaption class=„akwa-caption“><p class=„caption akwa-captiontext“>Katarina Barley</p> <p class=„source akwa-captionsource“>(Bild:&#160;hub.berlin)</p> </figcaption></figure><p><strong>Justizministerin Katarina Barley hat sich f&#252;r ein Pr&#252;fverfahren f&#252;r Algorithmen und KI ausgesprochen. Pseudonymisierungssysteme m&#252;ssten zuverl&#228;ssiger werden.</strong></p> <p>Ein hohes gesellschaftliches Potenzial misst Bundesjustizministerin Katarina Barley Systemen zur automatisierten Entscheidungsfindung bei. Algorithmen „k&#246;nnen objektiver sein“ als vergleichbare menschliche Verfahren, erkl&#228;rte die SPD-Spitzenkandidatin zur Europawahl am Mittwoch auf der Hub-Konferenz des IT-Branchenverbands Bitkom. Dies sei etwa im Bankensystem oder bei der Bewerberauswahl feststellbar. Bei letzterer etwa h&#228;tten Arbeitgeber viele Vorurteile: Schon die Hautfarbe oder Nachnamen k&#246;nnten sich negativ auswirken.</p> <p>„Automated Decision-Making“ (ADM) sieht Barley so durchaus als „Chance“ f&#252;r fairere Verfahren. Daf&#252;r m&#252;ssten die Entwickler aber sicherstellen, dass die Programmierweise beziehungsweise die Trainingsdaten nicht selbst wieder Vorurteile in sich tr&#252;gen, sonst drohe eine „unechte Objektivit&#228;t“. F&#252;r <a href=„https://www.heise.de/meldung/Algorithmische-Entscheidungsfindung-Erster-deutscher-ADM-Atlas-zeigt-Diskriminierungspotenzial-4358576.html“><strong>maschinelle Diskriminierungen gebe es schon zahlreiche Beispiele [1]</strong></a>. Da die meisten IT-Spezialisten m&#228;nnlich seien, w&#252;rden sie auch in automatischen Auswahlverfahren bevorzugt. Es sei auch vorgekommen, dass ADM-Systeme weiblichen Bewerbern weniger Gehalt angeboten h&#228;tten.</p> <h3 class=„subheading“ id=„nav_grundrechtseingr0“>Grundrechtseingriffe, Verantwortung und Haftung</h3> <p>Barley pl&#228;dierte daher f&#252;r <a href=„https://www.heise.de/meldung/Algorithmen-und-Scoring-Maas-fordert-digitales-Anti-Diskriminierungsgesetz-3761722.html“><strong>Pr&#252;fverfahren f&#252;r Algorithmen [2]</strong></a> und vor allem f&#252;r lernende Maschinen sowie andere Spielarten der K&#252;nstlichen Intelligenz (KI), die zumindest teilweise durch eine &#246;ffentliche Einrichtung kontrolliert werden sollten. Als wichtige Regel m&#252;sse gelten: Je gr&#246;&#223;er der Grundrechtseingriff und die Auswirkungen eines Systems seien, desto h&#246;her m&#252;ssten auch die Standards gesetzt werden.</p> <div class=„inread“/> <p>Wenn ein Algorithmus eine Prognose anstelle, ob jemand k&#252;nftig ein Verbrechen begehen k&#246;nnte, sei dies ganz anders zu bewerten als eine gezielte Anzeigenplatzierung. Zudem m&#252;ssten die Verantwortlichkeiten gekl&#228;rt sein, wobei Parallelen zur analogen Welt helfen k&#246;nnten: Wenn ein Mitarbeiter einen Schaden verursache, hafte der Unternehmer daf&#252;r nur, wenn er etwa Fehler bei dessen Einstellung oder Kontrolle gemacht habe.</p> <h3 class=„subheading“ id=„navquot_menschen1“>„Menschen sind nicht zu untersch&#228;tzen“</h3> <p>Ihre fr&#252;here Einsch&#228;tzung, dass es wohl keine globalen Regeln f&#252;r KI-Systeme geben werde, revidierte Barley zum Teil wieder. Die Datenschutz-Grundverordnung (<a href=„https://www.heise.de/thema/DSGVO#liste“ rel=„external noopener“ target=„_blank“><strong>DSGVO [3]</strong></a>) zeige gerade, dass es doch m&#246;glich sei, von Europa aus Rahmenwerke mit internationaler Beachtung zu schaffen. Die Menschen seien nicht zu untersch&#228;tzen: Wenn sie wirklich Datenschutz einforderten, seien &#220;bereink&#252;nfte m&#246;glich in Gesellschaften, die auf Vertrauen und Kapital beruhen.</p> <p>Mit Blick auf China zeigte sich Barley aber skeptisch, da die Regierung in Peking zu sehr auf die Kontrolle der eigenen Bev&#246;lkerung aus sei und eine &#252;bergreifende &#220;bereinkunft h&#246;chstens auf einer „oberfl&#228;chlichen, offiziellen Basis“ unterst&#252;tzen d&#252;rfte. In China drohten M&#246;glichkeiten, selbstbestimmt zu leben, mit dem <a href=„https://www.heise.de/meldung/Chinas-Plan-fuer-Kuenstliche-Intelligenz-Orwell-live-erleben-4211515.html“><strong>geplanten Social-Scoring-System [4]</strong></a> weiter zu schwinden. ()<br class=„clear“/></p> <hr/><p><strong>URL dieses Artikels:</strong><br/><small><code>http://www.heise.de/-4374761</code></small></p> <p><strong>Links in diesem Artikel:</strong><br/><small><code><strong>[1]</strong>&#160;https://www.heise.de/meldung/Algorithmische-Entscheidungsfindung-Erster-deutscher-ADM-Atlas-zeigt-Diskriminierungspotenzial-4358576.html</code></small><br/><small><code><strong>[2]</strong>&#160;https://www.heise.de/meldung/Algorithmen-und-Scoring-Maas-fordert-digitales-Anti-Diskriminierungsgesetz-3761722.html</code></small><br/><small><code><strong>[3]</strong>&#160;https://www.heise.de/thema/DSGVO#liste</code></small><br/><small><code><strong>[4]</strong>&#160;https://www.heise.de/meldung/Chinas-Plan-fuer-Kuenstliche-Intelligenz-Orwell-live-erleben-4211515.html</code></small><br/><small><code><strong>[5]</strong>&#160;mailto:anw@ct.de</code></small><br/></p> <p class=„printversioncopyright“><em>Copyright &#169; 2019 Heise Medien</em></p> </html>