Qgelm

Justizministerin: Automaten können objektiver sein als Menschen

Originalartikel

Backup

<html> <p class=„printversionback-to-article printversion–hide“><a href=„https://www.heise.de/newsticker/meldung/Justizministerin-Automatisierte-Entscheidungen-koennen-objektiver-sein-als-menschliche-4374761.html“>zur&#252;ck zum Artikel</a></p><figure class=„printversionlogo“><img src=„https://1.f.ix.de/icons/svg/logos/svg/heiseonline.svg“ alt=„heise online“ width=„180“ heigth=„40“/></figure><figure class=„aufmacherbild“><img src=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/6/4/7/1/8/0/bitkom-5d8e7699a6b6c41b.jpeg“ srcset=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/6/4/7/1/8/0/bitkom-5d8e7699a6b6c41b.jpeg 700w, https://heise.cloudimg.io/width/1033/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/6/4/7/1/8/0/bitkom-5d8e7699a6b6c41b.jpeg 1033w“ sizes=„(min-width: 80em) 43.75em, (min-width: 64em) 66.66vw, 100vw“ alt=„Justizministerin: Automatisierte Entscheidungen k&#246;nnen objektiver sein als menschliche“ class=„img-responsive“/><figcaption class=„akwa-caption“><p class=„caption akwa-captiontext“>Katarina Barley</p> <p class=„source akwa-captionsource“>(Bild:&#160;hub.berlin)</p> </figcaption></figure><p><strong>Justizministerin Katarina Barley hat sich f&#252;r ein Pr&#252;fverfahren f&#252;r Algorithmen und KI ausgesprochen. Pseudonymisierungssysteme m&#252;ssten zuverl&#228;ssiger werden.</strong></p> <p>Ein hohes gesellschaftliches Potenzial misst Bundesjustizministerin Katarina Barley Systemen zur automatisierten Entscheidungsfindung bei. Algorithmen „k&#246;nnen objektiver sein“ als vergleichbare menschliche Verfahren, erkl&#228;rte die SPD-Spitzenkandidatin zur Europawahl am Mittwoch auf der Hub-Konferenz des IT-Branchenverbands Bitkom. Dies sei etwa im Bankensystem oder bei der Bewerberauswahl feststellbar. Bei letzterer etwa h&#228;tten Arbeitgeber viele Vorurteile: Schon die Hautfarbe oder Nachnamen k&#246;nnten sich negativ auswirken.</p> <p>„Automated Decision-Making“ (ADM) sieht Barley so durchaus als „Chance“ f&#252;r fairere Verfahren. Daf&#252;r m&#252;ssten die Entwickler aber sicherstellen, dass die Programmierweise beziehungsweise die Trainingsdaten nicht selbst wieder Vorurteile in sich tr&#252;gen, sonst drohe eine „unechte Objektivit&#228;t“. F&#252;r <a href=„https://www.heise.de/meldung/Algorithmische-Entscheidungsfindung-Erster-deutscher-ADM-Atlas-zeigt-Diskriminierungspotenzial-4358576.html“><strong>maschinelle Diskriminierungen gebe es schon zahlreiche Beispiele [1]</strong></a>. Da die meisten IT-Spezialisten m&#228;nnlich seien, w&#252;rden sie auch in automatischen Auswahlverfahren bevorzugt. Es sei auch vorgekommen, dass ADM-Systeme weiblichen Bewerbern weniger Gehalt angeboten h&#228;tten.</p> <h3 class=„subheading“ id=„nav_grundrechtseingr0“>Grundrechtseingriffe, Verantwortung und Haftung</h3> <p>Barley pl&#228;dierte daher f&#252;r <a href=„https://www.heise.de/meldung/Algorithmen-und-Scoring-Maas-fordert-digitales-Anti-Diskriminierungsgesetz-3761722.html“><strong>Pr&#252;fverfahren f&#252;r Algorithmen [2]</strong></a> und vor allem f&#252;r lernende Maschinen sowie andere Spielarten der K&#252;nstlichen Intelligenz (KI), die zumindest teilweise durch eine &#246;ffentliche Einrichtung kontrolliert werden sollten. Als wichtige Regel m&#252;sse gelten: Je gr&#246;&#223;er der Grundrechtseingriff und die Auswirkungen eines Systems seien, desto h&#246;her m&#252;ssten auch die Standards gesetzt werden.</p> <div class=„inread“/> <p>Wenn ein Algorithmus eine Prognose anstelle, ob jemand k&#252;nftig ein Verbrechen begehen k&#246;nnte, sei dies ganz anders zu bewerten als eine gezielte Anzeigenplatzierung. Zudem m&#252;ssten die Verantwortlichkeiten gekl&#228;rt sein, wobei Parallelen zur analogen Welt helfen k&#246;nnten: Wenn ein Mitarbeiter einen Schaden verursache, hafte der Unternehmer daf&#252;r nur, wenn er etwa Fehler bei dessen Einstellung oder Kontrolle gemacht habe.</p> <h3 class=„subheading“ id=„navquot_menschen1“>„Menschen sind nicht zu untersch&#228;tzen“</h3> <p>Ihre fr&#252;here Einsch&#228;tzung, dass es wohl keine globalen Regeln f&#252;r KI-Systeme geben werde, revidierte Barley zum Teil wieder. Die Datenschutz-Grundverordnung (<a href=„https://www.heise.de/thema/DSGVO#liste“ rel=„external noopener“ target=„_blank“><strong>DSGVO [3]</strong></a>) zeige gerade, dass es doch m&#246;glich sei, von Europa aus Rahmenwerke mit internationaler Beachtung zu schaffen. Die Menschen seien nicht zu untersch&#228;tzen: Wenn sie wirklich Datenschutz einforderten, seien &#220;bereink&#252;nfte m&#246;glich in Gesellschaften, die auf Vertrauen und Kapital beruhen.</p> <p>Mit Blick auf China zeigte sich Barley aber skeptisch, da die Regierung in Peking zu sehr auf die Kontrolle der eigenen Bev&#246;lkerung aus sei und eine &#252;bergreifende &#220;bereinkunft h&#246;chstens auf einer „oberfl&#228;chlichen, offiziellen Basis“ unterst&#252;tzen d&#252;rfte. In China drohten M&#246;glichkeiten, selbstbestimmt zu leben, mit dem <a href=„https://www.heise.de/meldung/Chinas-Plan-fuer-Kuenstliche-Intelligenz-Orwell-live-erleben-4211515.html“><strong>geplanten Social-Scoring-System [4]</strong></a> weiter zu schwinden. ()<br class=„clear“/></p> <hr/><p><strong>URL dieses Artikels:</strong><br/><small><code>http://www.heise.de/-4374761</code></small></p> <p><strong>Links in diesem Artikel:</strong><br/><small><code><strong>[1]</strong>&#160;https://www.heise.de/meldung/Algorithmische-Entscheidungsfindung-Erster-deutscher-ADM-Atlas-zeigt-Diskriminierungspotenzial-4358576.html</code></small><br/><small><code><strong>[2]</strong>&#160;https://www.heise.de/meldung/Algorithmen-und-Scoring-Maas-fordert-digitales-Anti-Diskriminierungsgesetz-3761722.html</code></small><br/><small><code><strong>[3]</strong>&#160;https://www.heise.de/thema/DSGVO#liste</code></small><br/><small><code><strong>[4]</strong>&#160;https://www.heise.de/meldung/Chinas-Plan-fuer-Kuenstliche-Intelligenz-Orwell-live-erleben-4211515.html</code></small><br/><small><code><strong>[5]</strong>&#160;mailto:anw@ct.de</code></small><br/></p> <p class=„printversioncopyright“><em>Copyright &#169; 2019 Heise Medien</em></p> </html>

Cookies helfen bei der Bereitstellung von Inhalten. Diese Website verwendet Cookies. Mit der Nutzung der Website erklären Sie sich damit einverstanden, dass Cookies auf Ihrem Computer gespeichert werden. Außerdem bestätigen Sie, dass Sie unsere Datenschutzerklärung gelesen und verstanden haben. Wenn Sie nicht einverstanden sind, verlassen Sie die Website.Weitere Information