Qgelm

Wie der Mensch die Kontrolle über den Algorithmus behalten kann

Originalartikel

Backup

<html> <p>Seitdem Justizminister Heiko Maas (SPD) die Regulierung von Algorithmen auf die <a href=„https://www.bmjv.de/SharedDocs/Artikel/DE/2017/070317_digitales_Leben.html“ data-versionurl=„http://web.archive.org/web/20180117184254/https://www.bmjv.de/SharedDocs/Artikel/DE/2017/070317_digitales_Leben.html“ data-versiondate=„2018-01-17T18:42:56+00:00“ data-amber-behavior=„down cache“>politische Agenda</a> gesetzt hat, ist das Thema fast so prominent wie das Netzwerkdurchsetzungsgesetz (NetzDG). &#8222;Der Angriff der Algorithmen&#8220;, so lautet die irref&#252;hrende &#220;bersetzung eines Buches von Cathy O&#8216;Neil (im Original <a href=„https://weaponsofmathdestructionbook.com/“ data-versionurl=„http://web.archive.org/web/20180117185253/https://weaponsofmathdestructionbook.com/“ data-versiondate=„2018-01-17T18:52:55+00:00“ data-amber-behavior=„“>Weapons of Math Destruction</a>, 2015), das die Entwicklung und Anwendung so genannter algorithmischer Entscheidungssysteme in den Vereinigten Staaten von Amerika thematisiert. Es stellt oft die Basis der hiesigen Debatte dar und leitet sie dennoch in die falsche Richtung.</p> <div class=„netzpolitik-cta wrapper“> <p><a href=„https://netzpolitik.org/spenden“><img src=„https://cdn.netzpolitik.org/wp-upload/2017/12/jetztspenden4-730x243.jpg“/></a>Wir finanzieren uns zu fast 100 % aus Spenden von Leserinnen und Lesern. Unterst&#252;tze <a href=„https://netzpolitik.org/2017/liebe-leserinnen-und-leser-investiert-in-freiheit/“>unsere Arbeit</a> mit einer <a href=„https://netzpolitik.org/spenden/“>Spende oder einem Dauerauftrag</a>.</p> </div> <p>Das Buch illustriert, wie es dazu kam, dass Maschinen &#8211; aka Algorithmen, aka Software &#8211; dar&#252;ber entscheiden, welcher Mensch etwa zum Bewerbungsgespr&#228;ch eingeladen wird, welcher Mensch welche Bildungsangebote zur Auswahl bekommt oder auch wie hoch das Strafma&#223; von Straft&#228;tern ausfallen soll. Diese Entscheidungen sind abh&#228;ngig von individuellen Bewertungen. Die Berechnung dieser Bewertungen basiert auf Scoring, bekannt aus dem Bereich der Kreditvergabe, und soll auf Basis von gesammelten Erfahrungen aus der Vergangenheit m&#246;glichst zuverl&#228;ssige Prognosen f&#252;r die Zukunft geben. Die Frage ist nat&#252;rlich, welche Daten der Ermittlung eines individuellen Wahrscheinlichkeitswertes zugrunde gelegt werden, in welche Beziehung diese Daten zueinander gesetzt werden und zu welchem Zweck die Bewertung gebildet wird.</p> <p>Das Buch kritisiert, dass die algorithmischen Entscheidungssysteme undurchsichtig sind: Die Anwendung und Funktionsweise ist Betroffenen in den meisten F&#228;llen nicht bekannt. Oft unterliegen die Algorithmen der Geheimhaltung &#8211; ihre Sch&#246;pfer begr&#252;nden das mit Gesch&#228;ftsgeheimnissen und potentieller Manipulation. Viele M&#246;glichkeiten der Kontrolle und Beeinflussung maschineller Entscheidungen entfallen dadurch. Die Entscheidungssysteme werden &#252;berdies gern zweckentfremdet: Die Kredit-Scoring stellt dann etwa nicht nur Grundlage der Kredit-Vergabe, sondern auch der Berechnung von Pr&#228;mien bei Autoversicherungen dar &#8211; unabh&#228;ngig vom individuellen Fahrverhalten. (Hier dazu eine <a href=„https://www.bertelsmann-stiftung.de/fileadmin/files/BSt/Publikationen/GrauePublikationen/ADM_Fallstudien.pdf“ data-versionurl=„http://web.archive.org/web/20180118221254/https://www.bertelsmann-stiftung.de/fileadmin/files/BSt/Publikationen/GrauePublikationen/ADM_Fallstudien.pdf“ data-versiondate=„2018-01-18T22:12:57+00:00“ data-amber-behavior=„“>Analyse der Bertelsmann-Stifung</a>).</p> <p>Das ist sehr praktisch f&#252;r reiche Erben: Sie k&#246;nnen theoretisch auch besoffen Auto fahren, ohne R&#252;ckwirkung auf die Pr&#228;mie. Wer dagegen aus &#228;rmeren Verh&#228;ltnissen kommt, sollte nicht zerknirscht sein, wenn ihm trotz exzellenter Fahrweise h&#246;here Raten aufgebrummt werden &#8211; so funktioniert das System. Fast t&#228;glich h&#228;ufen sich nun die Berichte &#252;ber gravierendere F&#228;lle fehlerhafter oder diskriminierender maschineller Entscheidungen. Diese sollen hier nicht wiederholt werden. Statt dessen widmet sich der Beitrag der Situation in Deutschland und der Frage von nahe liegenden rechtlichen L&#246;sungsans&#228;tzen, die nach einer kurzen Einf&#252;hrung er&#246;rtert werden.</p> <figure id=„attachment_183050“ class=„wp-caption alignnone c1“><img class=„size-full wp-image-183050“ src=„https://cdn.netzpolitik.org/wp-upload/2018/01/15253502399_773f40a35a_z.jpg“ alt=„“ width=„640“ height=„427“ srcset=„https://cdn.netzpolitik.org/wp-upload/2018/01/15253502399_773f40a35a_z.jpg 640w, https://cdn.netzpolitik.org/wp-upload/2018/01/15253502399_773f40a35a_z-300x200.jpg 300w“ sizes=„(max-width: 640px) 100vw, 640px“/><figcaption class=„wp-caption-text“>autumn forest (Symbolbild) <a class=„“ rel=„license“ target=„_blank“ href=„http://creativecommons.org/licenses/by/2.0/deed.de“>CC-BY 2.0</a> <a href=„https://www.flickr.com/photos/a-herzog/15253502399/“>Stiller Beobachter</a></figcaption></figure><h3>Anachronistische Debatten</h3> <p>Das Buch von Cathy O&#8216;Neil ist lesenwert &#8211; f&#252;hrt es doch in die Debatte ein. Und gleichzeitig f&#252;hrt es an den aktuellen politischen Herausforderungen vorbei: Es w&#228;re wohl besser mit dem Titel &#8222;statistische Massenvernichtungswaffen&#8220; zu &#252;bersetzen gewesen. Denn es zeigt einerseits auf, welche Sch&#228;den durch maschinelle Entscheidungen entstehen k&#246;nnen. Andererseits nimmt es vor allem solche Systeme ins Visier, die auf verh&#228;ltnism&#228;&#223;ig einfachen Algorithmen basieren und eher statisch-geschlossen sind. Die Datenbasis ist vergleichsweise &#252;berschaubar: Bei der Ermittlung individueller Risiko-Prognosen von Straft&#228;tern kommt etwa ein Fragebogen zur Anwendung mit Fragen zu Vergangenheit, Umfeld und psychischer Konstitution. W&#228;ren die Algorithmen transparent, k&#246;nnte man sie untersuchen und pr&#252;fen.</p> <p>Anders sieht es bei solchen algorithmischen Entscheidungssystemen aus, die eine Vielzahl an personenbezogenen, kommunikations- und bewegungsbezogenen Daten &#252;ber uns mit neuen Analysemethoden und maschinellem Lernen verbinden: Bekannt sind sie vor allem im Kontext der Beeinflussung unserer Wahrnehmung: Googles Services, Facebooks Newsfeed, Amazons Kaufempfehlungen. Die gro&#223;en Plattformanbieter sammeln, kaufen, analysieren eine Unzahl an pers&#246;nlichen Daten. Unsere Klicks und Likes erm&#246;glichen eine <a href=„http://crackedlabs.org/studie-kommerzielle-ueberwachung“ data-versionurl=„http://web.archive.org/web/20180118222754/http://crackedlabs.org/studie-kommerzielle-ueberwachung“ data-versiondate=„2018-01-18T22:27:56+00:00“ data-amber-behavior=„“>spezifische Analyse unseres psychischen, physischen und sozialen Zustands</a>. Die Verwendungsm&#246;glichkeiten dieser Informationen sind schier unendlich. Sie k&#246;nnen zu <a href=„https://www.inet.ox.ac.uk/files/SLOAN_QUAN-HAASE-Chp20_2pp.pdf“ data-versionurl=„http://web.archive.org/web/20180118202255/https://www.inet.ox.ac.uk/files/SLOAN_QUAN-HAASE-Chp20_2pp.pdf“ data-versiondate=„2018-01-18T20:22:59+00:00“ data-amber-behavior=„“>Werbezwecken und politischer Manipulation</a> eingesetzt werden. Oder auch als Grundlage f&#252;r <a href=„https://lifeinsurancepost.com/8-ways-social-media-raises-insurance-rates/“ data-versionurl=„http://web.archive.org/web/20180118214756/https://lifeinsurancepost.com/8-ways-social-media-raises-insurance-rates/“ data-versiondate=„2018-01-18T21:47:57+00:00“ data-amber-behavior=„“>Versicherungen</a> oder <a href=„https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2819182“ data-versionurl=„http://web.archive.org/web/20180118202755/https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2819182“ data-versiondate=„2018-01-18T20:27:56+00:00“ data-amber-behavior=„“>vorhersagebasierte Polizeiarbeit</a>. Einer Transparenz &#252;ber ihre Funktionsweise stehen Gesch&#228;ftsgeheimnisse entgegen und die private Verf&#252;gungsgewalt &#252;ber zugrunde liegende Daten. Aber auch die Gesamtkomplexit&#228;t des Systems stellt Kontrolle vor Herausforderungen &#8211; dazu braucht man sich nur kurz an den Suchalgorithmus von Google erinnern, der tausende Zeilen Code von unterschiedlichsten Programmierern enth&#228;lt, die hunderte Male pro Jahr ge&#228;ndert werden.</p> <p>Bisher kommen komplexe algorithmischen Systeme vor allem bei Plattformen wie Facebook zum Einsatz, wo sie zur Steuerung unserer Wahrnehmung verwendet werden. Doch die Einf&#252;hrung maschineller Entscheidungen in vielen anderen Bereichen wird mit Big Data und selbst-lernenden Algorithmen erst richtig interessant. Die <a href=„https://www.bundestag.de/blob/529290/6c67be680882ef8e04fa752ab2a15c34/wd-8-031-17-pdf-data.pdf“ data-versionurl=„http://web.archive.org/web/20180118220253/https://www.bundestag.de/blob/529290/6c67be680882ef8e04fa752ab2a15c34/wd-8-031-17-pdf-data.pdf“ data-versiondate=„2018-01-18T22:02:55+00:00“ data-amber-behavior=„“>Wissenschaftlichen Dienste des Bundestages</a> gehen davon aus, dass komplexe Algorithmen zuk&#252;nftig nicht nur im Bereich Wirtschaft und Finanzen Anwendung finden, sondern etwa auch im Bereich des Rechts (Legal Tech), Gesundheit (Robotik im Operationssaal, in der Altenpflege und Diagnostik), Sicherheit (Predictive Policing, Grenzkontrolle, Sicherheit) oder der &#246;ffentlichen Verwaltung.</p> <p>Wissenschaftler sagen, dass dies auf eine <a href=„https://www.nomos-elibrary.de/10.5771/0947-9856-2016-5-227/die-neuen-instrumente-der-weltweiten-digitalen-governance-jahrgang-22-2016-heft-5“>algorithmische Regulierung</a> hinaus l&#228;uft: Die Gesellschaft w&#252;rde nicht mehr durch Zwang und Anreize gesteuert, sondern &#252;ber die Gestaltung von Kontext &#8211; von Umgebungen, in denen sich Menschen zurecht finden m&#252;ssen. Dabei wirken perspektivisch die Personalisierung von informationellen Umgebungen von Menschen und Organisationen, die Profilbildung als automatisierte Zuweisung von Positionen und Lebenschancen und die Entwicklung von technischen Infrastrukturen zur Verhaltensbeeinflussung (Nudging) zusammen.</p> <p>Wie kann man dabei gew&#228;hrleisten, dass diese der Gesellschaft zu Gute kommt?</p> <figure id=„attachment_183053“ class=„wp-caption alignnone c1“><img class=„size-full wp-image-183053“ src=„https://cdn.netzpolitik.org/wp-upload/2018/01/7043878511_9bbced840d_z.jpg“ alt=„“ width=„640“ height=„428“ srcset=„https://cdn.netzpolitik.org/wp-upload/2018/01/7043878511_9bbced840d_z.jpg 640w, https://cdn.netzpolitik.org/wp-upload/2018/01/7043878511_9bbced840d_z-300x201.jpg 300w“ sizes=„(max-width: 640px) 100vw, 640px“/><figcaption class=„wp-caption-text“>Forest <a class=„“ rel=„license“ target=„_blank“ href=„http://creativecommons.org/licenses/by/2.0/deed.de“>CC-BY 2.0</a> <a href=„https://www.flickr.com/photos/umnak/7043878511/“>Joseph</a></figcaption></figure><h3>Herausforderungen der Kontrolle von Algorithmen</h3> <p>F&#252;hrende Experten fordern Kontrolle: Mittels Algorithmen-Analyse (Auditing) und &#220;berpr&#252;fung soll Transparenz hergestellt werden. Denn es gilt, die Zweckm&#228;&#223;igkeit und Angemessenheit algorithmischer Entscheidungssysteme abzusichern. Auch ist zu gew&#228;hrleisten, dass gesellschaftliche Werte wie Teilhabegerechtigkeit und Diversit&#228;t erhalten bleiben und gest&#228;rkt werden. Letztlich gilt es auch, Fehler zu verhindern oder korrigieren zu k&#246;nnen. Denn Bugs und Manipulation von Systemen sind ebenso denkbar wie unvorhersehbare Ergebnisse, insbesondere im Kontext von maschinellem Lernen. Ist das m&#246;glich?</p> <p>Als klassische Teildisziplin der Informatik konzentrierte sich die Pr&#252;fung algorithmischer Entscheidungssystemen traditionell auf die <a href=„https://algorithmwatch.org/de/zweites-arbeitspapier-ueberpruefbarkeit-algorithmen/“ data-versionurl=„http://web.archive.org/web/20180118223254/https://algorithmwatch.org/de/zweites-arbeitspapier-ueberpruefbarkeit-algorithmen/“ data-versiondate=„2018-01-18T22:32:57+00:00“ data-amber-behavior=„“>&#220;berpr&#252;fung der System-Design</a>: In Abh&#228;ngigkeit einer konkreten Fragestellung wird beispielsweise die Datenbasis des Systems, die Modellierung von zugrundeliegenden Variablen und die Entscheidungslogik &#252;berpr&#252;ft. Auch die Implementierung und ihr Kontext sind Teil von Pr&#252;fverfahren.</p> <p>Aktuelle Datenerhebungs- und Datenanalyseverfahren ergeben wie oben geschildert dynamische und komplexe algorithmische Entscheidungssysteme. Diese k&#246;nnen logisch kaum noch gepr&#252;ft werden. Damit verlagert sich der Fokus auf so genannte <a href=„http://www-personal.umich.edu/~csandvig/research/Auditing%20Algorithms%20--%20Sandvig%20--%20ICA%202014%20Data%20and%20Discrimination%20Preconference.pdf“ data-versionurl=„http://web.archive.org/web/20180118222254/http://www-personal.umich.edu/~csandvig/research/Auditing%20Algorithms%20--%20Sandvig%20--%20ICA%202014%20Data%20and%20Discrimination%20Preconference.pdf“ data-versiondate=„2018-01-18T22:22:56+00:00“ data-amber-behavior=„“>Input-Output-Analysen</a>: Daten, die in das System einflie&#223;en, werden systematisch mit den Resultaten verglichen. Ziel ist die Kenntnis der algorithmischen Entscheidungsstrukturen. Eine Spielart ist die Entwicklung von <a href=„http://www.nickdiakopoulos.com/wp-content/uploads/2016/03/Accountability-in-algorithmic-decision-making-Final.pdf“ data-versionurl=„http://web.archive.org/web/20180118231258/http://www.nickdiakopoulos.com/wp-content/uploads/2016/03/Accountability-in-algorithmic-decision-making-Final.pdf“ data-versiondate=„2018-01-18T23:13:01+00:00“ data-amber-behavior=„“>Algorithmen, die erkl&#228;rbare Modelle und Variablen generieren</a>.</p> <p>Das Problem ist: Der Fokus verschiebt sich hier von der Analyse des Algorithmus auf die Analyse relevanter Daten. Der Zugriff auf Daten generiert im Regelfall allerdings &#228;hnliche Probleme wie der propriet&#228;re Algorithmus. Selbst wenn die ganze Welt dar&#252;ber streitet, ob Facebook eine Mitschuld an der Verbreitung von Fake News oder der Generierung von Echokammern tr&#228;gt &#8211; Facebook gibt die Daten nicht raus.</p> <h3>Gesetzgebung, die Algorithmen-Kontrolle behindert</h3> <p>Forscher haben M&#246;glichkeiten entwickelt, auf <a href=„http://www-personal.umich.edu/~csandvig/research/Auditing%20Algorithms%20--%20Sandvig%20--%20ICA%202014%20Data%20and%20Discrimination%20Preconference.pdf“ data-versionurl=„http://web.archive.org/web/20180118222254/http://www-personal.umich.edu/~csandvig/research/Auditing%20Algorithms%20--%20Sandvig%20--%20ICA%202014%20Data%20and%20Discrimination%20Preconference.pdf“ data-versiondate=„2018-01-18T22:22:56+00:00“ data-amber-behavior=„“>Umwegen relevantes Datenmaterial zu erheben</a> &#8211; etwa durch die automatisierte Sammlung von &#246;ffentlich verf&#252;gbaren Informationen (Scrapen) oder den Einsatz von Fake Accounts oder Bots zum Zwecke der Erhebung von Nutzerdaten. Doch diese Methoden, automatisierte Verfahren der Datenerhebung, verletzen im Regelfall die Allgemeinen Gesch&#228;ftsbedingen der jeweiligen Webseitenbetreiber. Aber nicht nur das: Bis zur vergangenen Woche waren sie auch Gegenstand von IT-Sicherheitsgesetzen wie dem Computer Fraud and Abuse Act (1986) in den USA. Sie stellten ein nicht-autorisiertes Eindringen in vernetzte Systeme dar und waren damit Gegenstand des Strafrechts. Die US-amerikanische Rechtsprechung hat sich nun dankenswerterweise gerade <a href=„https://www.eff.org/deeplinks/2018/01/ninth-circuit-doubles-down-violating-websites-terms-service-not-crime“ data-versionurl=„http://web.archive.org/web/20180118215253/https://www.eff.org/deeplinks/2018/01/ninth-circuit-doubles-down-violating-websites-terms-service-not-crime“ data-versiondate=„2018-01-18T21:52:54+00:00“ data-amber-behavior=„“>ge&#228;ndert</a>. Die Wirkung bleibt abzuwarten.</p> <figure id=„attachment_183056“ class=„wp-caption alignnone c1“><img class=„size-full wp-image-183056“ src=„https://cdn.netzpolitik.org/wp-upload/2018/01/4517258560_c407396365_z.jpg“ alt=„“ width=„640“ height=„425“ srcset=„https://cdn.netzpolitik.org/wp-upload/2018/01/4517258560_c407396365_z.jpg 640w, https://cdn.netzpolitik.org/wp-upload/2018/01/4517258560_c407396365_z-300x199.jpg 300w“ sizes=„(max-width: 640px) 100vw, 640px“/><figcaption class=„wp-caption-text“>Korean Forest (Symbolbild) <a class=„“ rel=„license“ target=„_blank“ href=„http://creativecommons.org/licenses/by/2.0/deed.de“>CC-BY 2.0</a> <a href=„https://www.flickr.com/photos/44779601@N06/4517258560/“>lroderick7</a></figcaption></figure><p>Der Kontrolle von Algorithmen steht in manchen F&#228;llen auch das Urheberrecht im Weg: Etwa wenn Bots eingesetzt werden, um festzustellen, ob <a href=„https://www.theverge.com/2018/1/12/16882408/google-racist-gorillas-photo-recognition-algorithm-ai“ data-versionurl=„http://web.archive.org/web/20180118140753/https://www.theverge.com/2018/1/12/16882408/google-racist-gorillas-photo-recognition-algorithm-ai“ data-versiondate=„2018-01-18T14:07:55+00:00“ data-amber-behavior=„“>Gesichtserkennungssoftware auf diskriminierende Art Menschen afrikanischer Abstammung als Gorillas</a> klassifiziert. Das erforderte beispielsweise Technologien der Identit&#228;tspr&#252;fung. Diese zu umgehen verletzt unter Umst&#228;nden die so genannte Anti-Circumvention-Provision des Digital Millennium Copyright Act. Sie kriminalisiert die Produktion und Verbreitung von Technologien, die Zugriffsbeschr&#228;nkungen (DRM) auf kopiergesch&#252;tzte Werke umgehen, selbst wenn dabei kein Urheberrecht verletzt wird.</p> <p>Das hei&#223;t: Bei der Kontrolle algorithmischer Entscheidungssysteme geht es l&#228;ngst nicht nur um Algorithmen. Sie verlagert sich bei komplexeren Systemen auf den Datenzugriff. Wenn dieser von den Systembetreibern nicht zur Verf&#252;gung gestellt wird, gibt es M&#246;glichkeiten, die Daten auf Umwegen zu erheben. Sollten die Methoden automatisiert sein, stehen dem im Regelfall die Allgemeinen Gesch&#228;ftsbedingungen entgegen, mitunter auch IT-Sicherheitsgesetze und das Urheberrecht. Verbesserungen in der Rechtslage w&#252;rden nicht nur Transparenzgebote umfassen. Sie beginnen bereits bei der Abschaffen entsprechender Restriktionen.</p> <h3>Gesetzgebung, die Algorithmen-Kontrolle bef&#246;rdert</h3> <p>Die Kontrolle von algorithmischen Systemen in der Anwendung ist die eine Sache, die Kontrolle ihrer Entwicklung eine andere. Hier kommt der im Mai inkraft tretenden EU-Datenschutzgrundverordnung (DSGVO) und der E-Privacy-Verordnung eine entscheidende Bedeutung zu: Wer darf welche Daten zu welchem Zweck erheben und auswerten?</p> <p>Die Frage ist nicht neu. Aber sie gewinnt im Kontext algorithmischer Entscheidungssysteme eine neue Relevanz. Denn sie bestimmt einerseits dar&#252;ber, welche spezifischen Daten maschinellen Entscheidungen zugrunde liegen, die einen Menschen betreffen. Andererseits bestimmen die Daten in ihrer Gesamtheit auch dar&#252;ber, wie und was Algorithmen lernen. Sie sollten &#8211; in Abh&#228;ngigkeit vom Zweck eines algorithmischen Entscheidungssystems &#8211; mindestens aktuell, vollst&#228;ndig und repr&#228;sentativ sein. Theoretisch m&#252;ssten sie dann auch noch ad&#228;quat klassifiziert sein und in einen sinnvollen Zusammenhang gebracht werden, der kontrolliert werden kann, <a href=„https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2477899“ data-versionurl=„http://web.archive.org/web/20180119072758/https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2477899“ data-versiondate=„2018-01-19T07:27:59+00:00“ data-amber-behavior=„“>so die Experten</a>. Doch am Anfang bleibt die Frage: Wer darf welche Daten zu welchem Zweck erheben und auswerten? Wer gew&#228;hrleistet die Integrit&#228;t?</p> <figure id=„attachment_183059“ class=„wp-caption alignnone c1“><img class=„size-full wp-image-183059“ src=„https://cdn.netzpolitik.org/wp-upload/2018/01/36721502304_68d926c6fc_z.jpg“ alt=„“ width=„640“ height=„427“ srcset=„https://cdn.netzpolitik.org/wp-upload/2018/01/36721502304_68d926c6fc_z.jpg 640w, https://cdn.netzpolitik.org/wp-upload/2018/01/36721502304_68d926c6fc_z-300x200.jpg 300w“ sizes=„(max-width: 640px) 100vw, 640px“/><figcaption class=„wp-caption-text“>Autumn Forest (Symbolbild) <a class=„“ rel=„license“ target=„_blank“ href=„http://creativecommons.org/licenses/by/2.0/deed.de“>CC-BY 2.0</a> <a href=„https://www.flickr.com/photos/dynphoto/36721502304/“>Fred Veenkamp</a></figcaption></figure><p>Um den Algorithmen Herr zu werden, fordern amerikanische Wissenschaftler das Recht auf <a href=„https://futureoflife.org/ai-principles/“ data-versionurl=„http://web.archive.org/web/20180119082758/https://futureoflife.org/ai-principles/“ data-versiondate=„2018-01-19T08:28:00+00:00“ data-amber-behavior=„“>Information zu erhobenen und verarbeiteten Daten und das Recht auf Korrektur erhobener Daten</a> &#8211; sowohl f&#252;r das Individuum wie auch f&#252;r die Allgemeinheit. Denn solche Rechte stellten den direktesten Weg dar, die Basis maschineller Entscheidungen zu sichern. Nun, beide Rechte sind Gegenstand der <a href=„https://dsgvo-gesetz.de/“ data-versionurl=„http://web.archive.org/web/20180117225754/https://dsgvo-gesetz.de/“ data-versiondate=„2018-01-17T22:57:56+00:00“ data-amber-behavior=„“>Datenschutz-Grundverordnung</a>, Art. 13-16. Zumindest in Bezug auf personenbezogene Daten, mit allerlei <a href=„https://www.bfdi.bund.de/SharedDocs/Publikationen/Infobroschueren/INFO6.pdf%3F__blob%3DpublicationFile%26v%3D24“>Ausnahmen</a>. Neuere Formen des Profiling basieren mehr und mehr auf Kommunikations-, Meta- und Bewegungsdaten wie sie etwa Messenger erheben. Diese w&#252;rden theoretisch von der <a href=„https://netzpolitik.org/2017/sechs-gruende-warum-die-totlangweilig-klingende-eprivacy-verordnung-fuer-dich-wichtig-ist/“>E-Privacy-Richtlinie</a> erfasst, welche die Datenschutz-Grundverordnung erg&#228;nzen soll und gegen welche die Wirtschaft gerade Sturm l&#228;uft. Sie sieht beispielsweise das Einverst&#228;ndnis von Nutzern voraus, wenn Daten von WhatsApp, Facebook-Messenger oder Facetime verarbeitet werden. Sie muss dringend verabschiedet werden, es gibt sonst kaum M&#246;glichkeiten der Kontrolle. Auch m&#252;ssen Regelungen f&#252;r die Ausnahmebereiche der Datenschutz-Grundverordnung gefunden werden.</p> <p>Aber die Datenschutz-Grundverordnung bietet noch mehr: Sie gibt den so genannten Datensubjekten im Falle einer automatisierten Entscheidungsfindung, inklusive dem Profiling, ein Recht auf Information bez&#252;glich der involvierten Logik eines Entscheidungssystemen, seiner Tragweite und angestrebter Auswirkungen. Au&#223;erdem sieht sie das Recht vor, nicht einer ausschlie&#223;lich auf einer automatisierten Verarbeitung &#8211; einschlie&#223;lich Profiling &#8211; beruhenden Entscheidung unterworfen zu werden, die ihr gegen&#252;ber rechtliche Wirkung entfaltet oder sie in &#228;hnlicher Weise erheblich beeintr&#228;chtigt. Betroffene haben das Recht auf Erwirkung des Eingreifens einer Person seitens des Verantwortlichen, auf Darlegung des eigenen Standpunkts und auf Anfechtung der Entscheidung (Art. 22).</p> <p>Die Datenschutz-Grundverordnung thematisiert damit wesentliche Herausforderungen maschineller Entscheidungen und fordert &#8211; zu Recht &#8211; Transparenz, Kontrolle und die M&#246;glichkeiten menschlicher Intervention und Korrektur. Das klingt alles erst einmal sehr gut, hat jedoch so einige T&#252;cken im Detail und im Kontext seiner Implementierung.</p> <h3>Welche Neuerungen die Datenschutz-Grundverordnung bringt und welche Herausforderungen sich bei ihrer Umsetzung stellen</h3> <p>Zun&#228;chst einmal regelt der Gesetzestext nur automatisierte Entscheidungen. In vielen F&#228;llen algorithmischer Entscheidungen generiert die Software allerdings Empfehlungen &#8211; Empfehlungen f&#252;r Nachrichten oder Eink&#228;ufe. Oder auch f&#252;r Serviceleistungen, die einem Arbeitslosen angeboten werden. Oder f&#252;r Strafma&#223;e, die einem Richter f&#252;r die Verurteilung eines Straft&#228;ter ans Herz gelegt werden.</p> <p>Wie haben es mit maschinellen Entscheidungssystemen zu tun, die einen unterschiedlichen Grad an Autonomie aufweisen k&#246;nnen. Doch die meisten Systeme sehen zumindest theoretisch M&#246;glichkeiten menschlicher Intervention vor. Doch wie hoch ist die Chance, dass ein Mitarbeiter von Beh&#246;rden von maschinellen Entscheidungen abweicht? Diese kosten ihn Zeit, die muss er erkl&#228;ren und au&#223;erdem sind die Systeme auf interventionsfreie Abl&#228;ufe optimiert. Daher gilt es, auch Regelungen f&#252;r Empfehlungssysteme zu schaffen, welche gravierende und/ oder rechtliche Wirkung entfalten.</p> <figure id=„attachment_183061“ class=„wp-caption alignnone c1“><img class=„size-full wp-image-183061“ src=„https://cdn.netzpolitik.org/wp-upload/2018/01/8273250888_52dfc991b2_z.jpg“ alt=„“ width=„640“ height=„448“ srcset=„https://cdn.netzpolitik.org/wp-upload/2018/01/8273250888_52dfc991b2_z.jpg 640w, https://cdn.netzpolitik.org/wp-upload/2018/01/8273250888_52dfc991b2_z-300x210.jpg 300w“ sizes=„(max-width: 640px) 100vw, 640px“/><figcaption class=„wp-caption-text“>Kohlmeise (Symbolbild) <a class=„“ rel=„license“ target=„_blank“ href=„http://creativecommons.org/licenses/publicdomain/zero/1.0/deed.de“>CC0</a> <a href=„https://www.flickr.com/photos/rolf_weber/8273250888/“>Rolf Weber</a></figcaption></figure><p>Noch schwieriger allerdings ist die Umsetzung der Informationen &#252;ber die maschinellen Entscheidungen zugrunde liegende Logik. Gemeint ist so etwas wie eine Erkl&#228;rung, wie Algorithmen funktionieren. Wie oben er&#246;rtert, kann das unter Umst&#228;nden sehr schwierig sein: Einer Transparenz von Algorithmen k&#246;nnen unterschiedliche Dinge im Weg stehen, dazu z&#228;hlt auch technische Komplexit&#228;t. Ein L&#246;sungsansatz kommt nun vom Oxford Internet Instituts &#8211; unter dem Schlagwort <a href=„https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3063289“ data-versionurl=„http://web.archive.org/web/20180119070255/https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3063289“ data-versiondate=„2018-01-19T07:02:57+00:00“ data-amber-behavior=„“>Counterfactual Explanations</a> &#8211; eine Art Anwendungserl&#228;uterung: Sollte es nicht m&#246;glich ist, die Black Box algorithmischer Entscheidungssysteme zu &#246;ffnen und eine Transparenz herzustellen &#252;ber die Logik eines maschinellen Entscheidungssystems, sollen Algorithmen den Betroffenen zumindest eine Erkl&#228;rung geben k&#246;nnen, wie eine konkrete Entscheidung ver&#228;ndert werden k&#246;nnte. Einfaches Beispiel: Bei einem abgelehnten Kreditantrag sollte ein solcher Algorithmus Aussage dazu geben k&#246;nnen, wie hoch das Jahreseinkommen sein m&#252;sste, damit die Entscheidung anders ausf&#228;llt. Aber das Ganze wird erst im Falle vieler Variablen interessant. Aus einer Matrix von M&#246;glichkeiten w&#228;hlt der Algorithmus dann diejenige M&#246;glichkeit als Erkl&#228;rung aus, die am leichtesten zu &#228;ndern w&#228;re.</p> <p>Das Spannende ist: Die Idee transformiert quasi Recht in Code. Doch bieten diese Erl&#228;uterungen wirklich die &#220;bersicht und Kontrolle, die wir brauchen? Die Idee ist interessant: Sie gibt Betroffenen ein St&#252;ck &#220;bersicht &#252;ber algorithmische Entscheidungsprozesse zur&#252;ck und bietet Handlungsoptionen, diese zu beeinflussen. Allerdings stellt sich die Frage: Wodurch ist gew&#228;hrleistet, dass eine auf komplexen Berechnungen basierende Erl&#228;uterung eines komplexen, intransparenten Gesamtsystems korrekt ist? Wenn zugrunde liegende Daten und Algorithmen generell geheim sind, stellen sich dann nicht die gleichen Probleme wie beim Ursprungsproblem: Sind diese Anwendungserl&#228;uterungen transparent oder propriet&#228;r? Funktionieren sie fehlerfrei und angemessen? Kann eine Zuverl&#228;ssigkeit gew&#228;hrleistet werden, wenn selbst-lernende Algorithmen zum Einsatz kommen? Wie reagieren die Erkl&#228;rungen auf unvollst&#228;ndige, fehlerhafte oder diskriminierende Daten? K&#246;nnte es sein, dass die Idee ganz wunderbar ist f&#252;r bestimmte F&#228;lle, aber bei gravierenden Entscheidungssystemen einfach nicht ausreicht und durch Informationsm&#246;glichkeiten f&#252;r die Allgemeinheit (Algorithmen-Folgenabsch&#228;tzungen) und externe Tests erg&#228;nzt werden muss?</p> <h3>Es ist ein weites Feld &#8230;</h3> <p>Die &#220;berantwortung menschlicher Entscheidungen an Maschinen steigert die gesellschaftliche Komplexit&#228;t. Sie birgt ganz neue Herausforderungen gesellschaftlicher Herrschaftskontrolle. Darin nehmen nicht nur Algorithmen, sondern auch Daten eine zentrale Stellung ein. Maschinelles Lernen und andere Formen k&#252;nstlicher Intelligenz stellen ein ungeheuer <a href=„https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2747994“ data-versionurl=„http://web.archive.org/web/20180119083255/https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2747994“ data-versiondate=„2018-01-19T08:32:58+00:00“ data-amber-behavior=„“>spannendes und risikoreiches Experiment mit der Gesellschaft</a> dar. Es sollte nicht der kurzfristigen Innovationseuphorie zum Opfer fallen. Es gilt genau jetzt, die Weichen zu stellen, wozu die Maschinen dem Menschen dienen sollen. Naheliegende Regulierungsoptionen liegen in der Erm&#246;glichung von Pr&#252;fung und Kontrolle. Hier nehmen die ordentliche Implementierung der Datenschutz-Grundverordnung, die Verabschiedung der E-Privacy-Verordnung und die Pr&#252;fung und Reform von IT-Sicherheitsgesetzen und Urheberrecht eine essentielle Stellung ein.</p> <figure id=„attachment_183064“ class=„wp-caption alignnone c1“><img class=„size-full wp-image-183064“ src=„https://cdn.netzpolitik.org/wp-upload/2018/01/7961154198_47fbe4185a_z.jpg“ alt=„“ width=„640“ height=„426“ srcset=„https://cdn.netzpolitik.org/wp-upload/2018/01/7961154198_47fbe4185a_z.jpg 640w, https://cdn.netzpolitik.org/wp-upload/2018/01/7961154198_47fbe4185a_z-300x200.jpg 300w“ sizes=„(max-width: 640px) 100vw, 640px“/><figcaption class=„wp-caption-text“>Photo (Symbolbild) <a class=„“ rel=„license“ target=„_blank“ href=„http://creativecommons.org/licenses/by-nc/2.0/deed.de“>CC-BY-NC 2.0</a> <a href=„https://www.flickr.com/photos/thomasap/7961154198/“>Thomas Pleil</a></figcaption></figure> </html>

Cookies helfen bei der Bereitstellung von Inhalten. Diese Website verwendet Cookies. Mit der Nutzung der Website erklären Sie sich damit einverstanden, dass Cookies auf Ihrem Computer gespeichert werden. Außerdem bestätigen Sie, dass Sie unsere Datenschutzerklärung gelesen und verstanden haben. Wenn Sie nicht einverstanden sind, verlassen Sie die Website.Weitere Information