Qgelm

Studie: Algorithmen prognostizieren Rückfallkriminalität besser als Laien

Originalartikel

Backup

<html> <p class=„printversionback-to-article printversion–hide“><a href=„https://www.heise.de/newsticker/meldung/Studie-Algorithmen-prognostizieren-Rueckfallkriminalitaet-besser-als-Laien-4661585.html“>zur&#252;ck zum Artikel</a></p><figure class=„printversionlogo“><img src=„https://1.f.ix.de/icons/svg/logos/svg/heiseonline.svg“ alt=„heise online“ width=„180“ heigth=„40“/></figure><figure class=„aufmacherbild“><img src=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/8/4/3/7/4/8/shutterstock_529299211-a581e88224ac5ad0.jpeg“ srcset=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/8/4/3/7/4/8/shutterstock_529299211-a581e88224ac5ad0.jpeg 700w, https://heise.cloudimg.io/width/1050/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/8/4/3/7/4/8/shutterstock_529299211-a581e88224ac5ad0.jpeg 1050w, https://heise.cloudimg.io/width/1500/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/8/4/3/7/4/8/shutterstock_529299211-a581e88224ac5ad0.jpeg 1500w, https://heise.cloudimg.io/width/2300/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/8/4/3/7/4/8/shutterstock_529299211-a581e88224ac5ad0.jpeg 2300w“ sizes=„(min-width: 80em) 43.75em, (min-width: 64em) 66.66vw, 100vw“ alt=„Studie: Algorithmen prognostizieren R&#252;ckfallkriminalit&#228;t besser als Laien“ class=„img-responsive“/><figcaption class=„akwa-caption“><p class=„source akwa-captionsource“>(Bild:&#160;whiteMocca/Shutterstock.com)</p> </figcaption></figure><p><strong>Big-Data-Programme k&#246;nnen R&#252;ckfallwahrscheinlichkeiten offenbar unter gewissen Bedingungen doch genauer voraussagen als zuf&#228;llig gew&#228;hlte Clickworker.</strong></p> <p>Seit Jahren schon entzweit die Menschheit die Frage, ob Maschinen die besseren Richter sein k&#246;nnten. Eine am Freitag im Fachjournal „Science Advances“ erschienene Studie liefert einen weiteren Beitrag zu dieser Debatte. Sie zeigt laut ihren Autoren, dass Algorithmen unter realistischen Bedingungen R&#252;ckfallwahrscheinlichkeiten bei Kriminellen zumindest besser einsch&#228;tzen k&#246;nnen als menschliche Laien. Ob sie auch ausgebildete Juristen, erfahrene Richter und Bew&#228;hrungshelfer schlagen, haben die Forscher nicht getestet.</p> <h3 class=„subheading“ id=„nav_algorithmen0“>Algorithmen nach wie vor kaum „intelligent“</h3> <div class=„collapse-boxtarget collapse-boxcontent a-inline-textboxcontent a-inline-textboxcontent–horizontal-layout“ data-collapse-target=„“> <figure class=„a-inline-textboximage-container“><img alt=„“ src=„https://heise.cloudimg.io/width/1600/q50.png-lossy-50.webp-lossy-50.foil1/_www-heise-de_/imgs/71/2/8/1/2/5/7/6/daily_grafik-b53d51b363224691.png“ srcset=„https://heise.cloudimg.io/width/3200/q30.png-lossy-30.webp-lossy-30.foil1/_www-heise-de_/imgs/71/2/8/1/2/5/7/6/daily_grafik-b53d51b363224691.png 2x“ class=„c1“/></figure><div class=„a-inline-textboxcontent-container“> <p class=„a-inline-textboxsynopsis“>Keine News verpassen! Mit unserem t&#228;glichen Newsletter erhalten Sie jeden Morgen alle Nachrichten von heise online der vergangenen 24 Stunden.</p> <ul class=„a-inline-textboxlist“><li class=„a-inline-textboxitem“><a class=„a-inline-textboxtext“ href=„https://www.heise.de/newsletter/manage/ho?wt_mc=nl.red.ho.daily.meldung.link.link“ title=„Newsletter jetzt abonnieren“><strong>Newsletter jetzt abonnieren [1]</strong></a></li> </ul></div> </div> <p>Die <a href=„https://advances.sciencemag.org/content/6/7/eaaz0652“ rel=„external noopener“ target=„_blank“><strong>neue Analyse [2]</strong></a> kn&#252;pft an eine <a href=„https://www.heise.de/tp/features/Algorithmus-zur-Vorhersage-der-Rueckfaelligkeit-von-Straftaetern-Blendwerk-an-Komplexitaet-3946628.html“><strong>Anfang 2018 publizierte Vorl&#228;uferuntersuchung [3]</strong></a> zu dem <a href=„https://www.heise.de/select/ct/2017/25/1512700333136715“ rel=„external noopener“ target=„_blank“><strong>in den USA eingesetzten Algorithmus Correctional Offender Management Profiling for Alternative Sanctions [4]</strong></a> (Compas) an. Damals hatte das Ergebnis noch gelautet, dass die Vorhersagen von Laien zur R&#252;ckfallgefahr von Straft&#228;tern &#228;hnlich genau waren wie die des Systems f&#252;r maschinelles Lernen. Auch die Macher der Folgestudie lassen Compas wieder gegen zuf&#228;llig &#252;ber den Crowdworking-Dienst Mechanical Turk von Amazon ausgew&#228;hlte Clickworker antreten. Die Resultate decken sich zun&#228;chst zudem mit denen von vor zwei Jahren, wenn Menschen und Maschine je nur auf Basis von f&#252;nf Risikofaktoren ein Urteil f&#228;llen sollten.</p> <p>Unter lebensn&#228;heren Bedingungen mit mehr Faktoren, keiner unverz&#252;glichen R&#252;ckmeldung zur Richtigkeit der Entscheidungen und bei einem anderen Algorithmus schnitten die Laien aber schlechter ab als das technische System. Die verwendeten Verfahren Compas und LSI-R (Level of Service Inventory-Revised), das ein breiteres Datenset mit mehr Risikofaktoren verarbeiten kann als die Konkurrenz, urteilten in speziellen F&#228;llen mit geringer R&#252;ckfallrate jedoch letztlich nur so gut wie ein einfacher Klassifikator, der immer vorhersagt, die Person w&#252;rde nicht wieder eine Straftat begehen. Ferner konnten die Autoren sogar mit einem einfachen Regressionsmodell eine &#228;hnliche Genauigkeit erreichen wie die Algorithmen, was diese nach wie vor nicht sonderlich „intelligent“ wirken l&#228;sst.</p> <div class=„inread“/> <h3 class=„subheading“ id=„nav_leicht1“>Leicht verbesserte Genauigkeit erzielt</h3> <p>Der zuvor gerade bei Compas kritisierte Aspekt der Voreingenommenheit war nicht Teil der Studie. Die Verfasser erw&#228;hnen ihn auch nur am Rande. Laut einem Bericht des Rechercheportals ProPublica von 2016 beurteilte der Algorithmus Afroamerikaner oft ungerecht. Compas liefert als Ergebnis einen Risikowert von eins bis zehn und teilt auf dieser Basis Beurteilte in die Risikogruppen niedrig (1 bis 4), mittel (5 bis 7) und hoch (8 bis 10) ein. Schwarze stufte das System h&#228;ufiger zu Unrecht in die letzte Kategorie ein. Vor allem in den F&#228;llen, in denen der Algorithmus falsch lag, <a href=„https://www.heise.de/tr/artikel/Sind-Algorithmen-die-besseren-Richter-3861814.html“><strong>attestierte er Afroamerikanern ein h&#246;heres Risiko als Wei&#223;en, erneut straff&#228;llig zu werden [5]</strong></a>.</p> <p>Den Berechnungen der ProPublica-Autoren zufolge wurden insgesamt 61 Prozent der von Compas in die hohe Risikogruppen eingestuften Personen innerhalb von zwei Jahren tats&#228;chlich r&#252;ckf&#228;llig. Die aktuelle Studie attestiert dem Algorithmus bei der korrekten Beurteilung der R&#252;ckfallgefahr jetzt eine etwas h&#246;here Genauigkeit von 65 Prozent. Beide Werte liegen aber unter den 70 Prozent, die der Hersteller Equivant selbst als Grenze zur zufriedenstellenden Verl&#228;sslichkeit der Analyse angibt.</p> <h3 class=„subheading“ id=„nav_in_deutschland2“>In Deutschland keine Rechtsgrundlage</h3> <p>In Deutschland gebe es keine Rechtsgrundlage f&#252;r den Einsatz eines solchen Systems, macht Christian Djeffal klar, Professor f&#252;r Recht, Wissenschaft und Technologie an der TU M&#252;nchen. &#196;hnliche Verfahren seien in der Verwaltung aber bereits in Betrieb, bei der Kasse Hamburg etwa zum Erkennen pr&#252;fw&#252;rdiger F&#228;lle im Hinblick auf Betrug, beim Zoll zur Ressourceneinteilung und bei der Polizei zur Planung von Streifen in Regionen mit einer hohen Gefahr f&#252;r Einbruchsdiebst&#228;hle. Die Finanzverwaltung versuche mit vergleichbaren Ans&#228;tzen, pr&#252;fw&#252;rdigen Steuererkl&#228;rungen auf die Spur zu kommen.</p> <p>Mithilfe der Ergebnisse der Studie k&#246;nnte die Aus- und Weiterbildung von Richtern etwa durch &#220;bungen anhand historischer Datens&#228;tze mit sofortigem Feedback verbessert werden, was die Fehlerrate menschlicher Entscheidungen erkennbar senke, hofft Djeffal. Manchmal k&#228;men diskriminierende Praktiken erst durch digitale Anwendungen ans Licht oder k&#246;nnen abgemildert werden.</p> <h3 class=„subheading“ id=„navquot_menschen3“>„Menschen k&#246;nnen sehr viel mehr“</h3> <p>Trotz der Indizien f&#252;r bessere Prognosef&#228;higkeiten der Algorithmen sei immer zu beachten, „dass Menschen so sehr viel mehr k&#246;nnen als aktuelle Verfahren des maschinellen Lernens“, gibt Kristian Kersting, Leiter des Fachgebiets Maschinelles Lernen an der TU Darmstadt, zu bedenken. Sie seien etwa imstande, sich zu erkl&#228;ren, Stimmungen wahrzunehmen oder Analogien zu schlie&#223;en. Mit „unseren ethischen und moralischen Anspr&#252;chen“ k&#246;nne man kaum vereinbaren, „dass Maschinen &#252;ber das Schicksal von Menschen bestimmen“. Zugleich gebe es ein generelles Diskriminierungsproblem. Kersting pl&#228;diert daher f&#252;r eine „Partnerschaft aus Mensch und Maschine“, wobei letztere ersteren auch auf seine eigenen Vorurteile hinweisen k&#246;nnte.</p> <p>Prinzipiell als profund sch&#228;tzen die Medienrechtler Stephan Dreyer und Johannes Schmees vom Hamburger Hans-Bredow-Institut die neue Analyse ein. Die Autoren machten deutlich, dass die zusammengestellten Informationsgrundlagen zu den zu beurteilenden Personen eine hohe Relevanz f&#252;r die menschlichen wie f&#252;r die errechneten Entscheidungen h&#228;tten. An mancher Stelle k&#246;nnten statistische Voraussagen rechnerisch differenziertere Ergebnisse aufweisen als Menschen. Es d&#252;rfe aber nicht vergessen werden, dass es sich um „Experimentalstudien in einem sehr engen Setting“ handle. Verallgemeinerungen f&#252;r algorithmische und menschliche Entscheidungen k&#246;nnten daraus nur &#228;u&#223;erst begrenzt gezogen werden. ()<br class=„clear“/></p> <hr/><p><strong>URL dieses Artikels:</strong><br/><small>

http://www.heise.de/-4661585

</small></p> <p><strong>Links in diesem Artikel:</strong><br/><small>

<strong>[1]</strong>&#160;https://www.heise.de/newsletter/manage/ho?wt_mc=nl.red.ho.daily.meldung.link.link

</small><br/><small>

<strong>[2]</strong>&#160;https://advances.sciencemag.org/content/6/7/eaaz0652

</small><br/><small>

<strong>[3]</strong>&#160;https://www.heise.de/tp/features/Algorithmus-zur-Vorhersage-der-Rueckfaelligkeit-von-Straftaetern-Blendwerk-an-Komplexitaet-3946628.html

</small><br/><small>

<strong>[4]</strong>&#160;https://www.heise.de/select/ct/2017/25/1512700333136715

</small><br/><small>

<strong>[5]</strong>&#160;https://www.heise.de/tr/artikel/Sind-Algorithmen-die-besseren-Richter-3861814.html

</small><br/><small>

<strong>[6]</strong>&#160;mailto:tiw@heise.de

</small><br/></p> <p class=„printversion__copyright“><em>Copyright &#169; 2020 Heise Medien</em></p> </html>

Cookies helfen bei der Bereitstellung von Inhalten. Diese Website verwendet Cookies. Mit der Nutzung der Website erklären Sie sich damit einverstanden, dass Cookies auf Ihrem Computer gespeichert werden. Außerdem bestätigen Sie, dass Sie unsere Datenschutzerklärung gelesen und verstanden haben. Wenn Sie nicht einverstanden sind, verlassen Sie die Website.Weitere Information