Peira – Sprache, Daten, Ethik

Originalartikel

Backup

<html> <h4>Von Prof. Dr. Martin Haase</h4> <p><em>Im letzten Jahr wurde das Stra&#223;enverkehrsgesetz dahingehend ge&#228;ndert, dass nun auch das automatisierte Fahren geregelt ist. Allerdings bleibt die gesamte Verantwortung bei derjenigen Person, die im Zweifelsfall zum Steuer h&#228;tte greifen k&#246;nnen und m&#252;ssen. Das widerspricht dem in Deutschland sonst g&#252;ltigen Prinzip, dass haftet, wer Schuld hat; aber wer sich auf den Autopiloten verl&#228;sst, ist sicher nicht schuld an Programmierfehlern. Wer tr&#228;gt die Verantwortung f&#252;r Algorithmen und k&#252;nstliche Intelligenz, insbesondere wenn sich keine Verantwortlichen ermitteln lassen? Wenn Autorenschaft und Nutzung zusammengeh&#246;ren und kollaborativ gearbeitet wird (Wikiprinzip), wer ist dann verantwortlich? Wenn Texte und Programme selbst aus Daten entstehen, wer haftet dann und wem geh&#246;ren die aggregierten Daten? Eine Maxime der Hackerethik lautet: Private Daten sch&#252;tzen, &#246;ffentliche Daten n&#252;tzen. Wenn sich aber Privates und &#214;ffentliches nicht mehr unterscheiden lassen, wie ist dann mit den Daten zu verfahren? Wenn Menschen nicht gl&#228;sern sein sollen, jedoch der Staat, was passiert, wenn immer mehr Menschen an demokratischen Prozessen beteiligt werden? Wo ist die Grenze zwischen B&#252;rgerbeteiligung und politischer Verantwortung? Wenn Datenaustausch und Vernetzung die Welt sicherer und lebenswerter machen, wo bleibt die informationelle Selbstbestimmung?</em></p> <h4>Systemfehler</h4> <p>errare humanum est &#8211; <em>Irren ist menschlich.</em> Aber besser ist es doch, wenn ich keine Fehler mache. Und wenn doch ein Fehler aufgetreten ist, dann ist es besser, wenn jemand anderes verantwortlich ist &#8211; oder am besten niemand! Bei der deutschen Bahn hei&#223;t das dann: &#8222;St&#246;rungen im Betriebsablauf&#8220; (man beachte, dass das Ph&#228;nomen eigentlich nur im Plural auftritt). Anderswo ist es dann ein bedauerlicher Computerfehler oder gar ein &#8211; <em>horribile dictu</em> &#8211; Systemfehler! Im Neusprechblog schrieb ich dazu:</p> <blockquote readability=„21“> <p>&#8222;Wer einen Fehler macht, ist in der Regel daf&#252;r verantwortlich. Das kann Folgen haben und ist unangenehm. Also schiebt man diese Verantwortung gern auf andere. Am besten ist es, wenn anschlie&#223;end niemand Schuld war, dann gibt es keinen &#196;rger. Vor allem aber muss dann auch nichts ver&#228;ndert werden, alles kann so bleiben, wie es war. Da bietet sich das unpers&#246;nliche System an. Wenn ein System schuld ist, ist die Verantwortung so abstrakt, dass jeder Schuld sein kann oder niemand. Das macht den <em>S.</em> so praktisch. Aber er ist nat&#252;rlich eine L&#252;ge: Denn irgendjemand hat noch immer einen Fehler gemacht. Systeme entstehen nicht von selbst, jemand hat sie entwickelt, programmiert, gestartet, kontrolliert. Gl&#252;cklicherweise lassen sich die Schuldigen leicht erkennen. Es sind die, die am lautesten die Schuld auf das System schieben.&#8220; (<a href=„https://neusprech.org/systemfehler/“>Neusprechblog: Systemfehler</a>)</p> </blockquote> <h4>Verantwortung</h4> <p>Hier geht es um Verantwortung. Und gerade der Computer bietet viele M&#246;glichkeiten, die Verantwortung von sich zu schieben. Wenn der Computer nein sagt, dann muss man sich offenbar nicht weiter rechtfertigen. Dieser ausweichende Umgang mit der Verantwortung ist heute an der Tagesordnung. Kaum mehr erinnert man sich an Politiker, Manager, Verantwortungstr&#228;ger, die &#8211; m&#246;glicherweise selbst unschuldig &#8211; die Verantwortung f&#252;r Fehler &#252;bernommen haben und zur&#252;ckgetreten sind, oder an diejenigen, die Verantwortung gezogen haben oder zur Verantwortung gezogen wurden.</p> <p>Dabei beruht die repr&#228;sentative Demokratie auf Verantwortung: Gew&#228;hlte haben ihr Tun zu verantworten vor den W&#228;hlern, sonst werden sie sicher nicht mehr gew&#228;hlt, vielleicht sogar abgew&#228;hlt, Delegierte vor den Delegierenden, Regierungen vor dem Parlament und mittelbar eben auch vor den W&#228;hlern.</p> <p>Das soll nat&#252;rlich kein Pl&#228;doyer gegen B&#252;rgerbeteiligung sein, aber insbesondere plebiszit&#228;re B&#252;rgerbeteiligung wie auch Wahlen beruhen nicht auf dem Prinzip der Verantwortung. Wie hier emotional und/oder aufgewiegelt entschieden wird, zeigen in j&#252;ngerer Zeit Wahlen in mehreren demokratischen Staaten. Allerdings k&#246;nnte in einer Zeit, wo Menschen gemeinsam eine Enzyklop&#228;die schreiben, auch dar&#252;ber nachgedacht werden, dass Menschen gemeinsam Gesetze schreiben. Aber dies m&#252;sste in einer Art und Weise geschehen, in der &#228;hnlich wie im Parlament mit &#8222;offenem Visier&#8220; gearbeitet wird. In j&#252;ngster Zeit gibt es interessante Ans&#228;tze im Rahmen der so genannten &#8222;flie&#223;enden Demokratie&#8220; (<em>Liquid Democracy</em>).</p> <p>Auch unser Rechtswesen funktioniert nach dem Verantwortungsprinzip: Der Verursacher wird zur Verantwortung gezogen. Aber gerade wenn es um Daten und ihre Verarbeitung geht, wird es schwierig, den Verursacher ausfindig zu machen, insbesondere wenn eine Vielzahl von Personen oder neuerdings sogar Algorithmen f&#252;r Fehler verantwortlich sind. Aber k&#246;nnen Algorithmen &#252;berhaupt verantwortlich sein?</p> <p>Dieser Frage m&#246;chte ich mit zwei Beispielen nachgehen: dem autonomen Fahren und der automatischen bzw. kollaborativen Texterstellung:</p> <h4 class=„western“>Autonomes Fahren</h4> <p>Die Stufen des autonomen bzw. automatisierten Fahrens sind wahrscheinlich allgemein bekannt: [sub:autonomesfahren]</p> <ul><li>&#8222;Driver only&#8220;</li> <li>Assistenzsysteme</li> <li>&#8222;Teilautomatisierung&#8220;: automatisches Einparken, Spurhaltefunktion, beschleunigen usw. durch Assistenzsysteme</li> <li>&#8222;Hochautomatisierung&#8220;: Fahrzeug nicht dauernd zu &#252;berwachen</li> <li>&#8222;Vollautomatisierung&#8220;: dauerhaft autonom</li> <li>Kein Fahrer erforderlich.</li> </ul><p>Hierauf bezieht sich inzwischen auch das Stra&#223;enverkehrsgesetz. Dort ist auch geregelt, wer im hoch- und vollautomatisierten Auto die Verantwortung hat:</p> <blockquote readability=„9“> <p>&#8222;(1) Der Fahrzeugf&#252;hrer darf sich w&#228;hrend der Fahrzeugf&#252;hrung mittels hoch- oder vollautomatisierter Fahrfunktionen gem&#228;&#223; &#167;1a vom Verkehrsgeschehen und der Fahrzeugsteuerung abwenden; dabei muss er derart wahrnehmungsbereit bleiben, dass er seiner Pflicht nach Absatz 2 jederzeit nachkommen kann.&#8220; (<a href=„https://www.gesetze-im-internet.de/stvg/__1b.html“>StVG &#167;1b</a>)</p> </blockquote> <p>Schon Anfang 2017 hat Heribert Prantl in der <em>S&#252;ddeutschen Zeitung</em> festgestellt, dass es sich hierbei um ein schlechtes Gesetz handelt, um einen <a href=„http://www.sueddeutsche.de/auto/2.220/autonomes-fahren-ein-gesetz-wie-ein-anschlag-auf-den-strassenverkehr-1.3350581“>&#8222;Anschlag auf den Stra&#223;enverkehr&#8220;</a>, denn einerseits bleibt die wichtigste Stufe 5 ungeregelt, andererseits wird selbst beim vollautomatisierten Fahren die Verantwortung auf den &#8222;Fahrzeugf&#252;hrer&#8220; geschoben, der aber gerade das Fahrzeug gar nicht f&#252;hrt. Im Zusammenhang des Uber-Unfalls (wenn das Fahrzeug &#252;berhaupt zur Stufe 4 und nicht zur Stufe 5 geh&#246;rt) ist also die Fahrzeugf&#252;hrerin schuld, obwohl inzwischen bekannt wurde, dass vors&#228;tzlich die Notbremsfunktion des Volvos durch Uber ausgeschaltet worden war; Uber hatte sie durch ein Warnsignal ersetzt, das so konfiguriert war, dass der Fahrerin praktisch keine Reaktionszeit (1s) blieb, obwohl die Fu&#223;g&#228;ngerin schon sechs Sekunden lang erkannt war. Das Beispiel zeigt noch einmal, wie schlecht das Gesetz ist, denn verantwortlich sind hier nat&#252;rlich diejenigen, die an der Notbremsfunktion herumgepfuscht haben. Sie werden wahrscheinlich in den USA auch zur Verantwortung gezogen werden.</p> <p>Inwiefern das autonome Fahren der Stufe 5 geregelt ist, bleibt unklar, obwohl es so etwas in Deutschland im Probebetrieb schon gibt (Berliner Charit&#233;-Gel&#228;nde und EUREF-Campus). Vielleicht ist es durch folgende Regelung eingeschlossen:</p> <blockquote readability=„9“> <p>&#8222;(4) Fahrzeugf&#252;hrer ist auch derjenige, der eine hoch- oder vollautomatisierte Fahrfunktion im Sinne des Absatzes 2 aktiviert und zur Fahrzeugsteuerung verwendet, auch wenn er im Rahmen der bestimmungsgem&#228;&#223;en Verwendung dieser Funktion das Fahrzeug nicht eigenh&#228;ndig steuert.&#8220; (<a href=„https://www.gesetze-im-internet.de/stvg/__1a.html“>StVG &#167;1a</a>)</p> </blockquote> <p>Das klingt dann schon etwas absurd, wenn jemand der nicht steuern kann, steuern muss.</p> <p>Zus&#228;tzlich ist auch eine 6-monatige Speicherpflicht f&#252;r die Blackbox-Daten vorgeschrieben (<a href=„https://www.gesetze-im-internet.de/stvg/__63a.html“>StVG &#167;63a</a>), die wenigstens aus der Sicht des Datenschutzes problematisch ist (wie bereits das schon bestehende e-Call-System).</p> <h4 class=„western“>Automatische Texterstellung</h4> <p>Schon seit einigen Jahren ist es m&#246;glich, aus strukturierten Daten Texte zu generieren. Solche Verfahren kennen wir von den Google-Suchergebnissen (die <em>Snippets</em> werden oft automatisch aus dem Text erstellt) oder auch von den aus so genannten Infoboxen oder mit Wikidata erstellten Texten in kleineren Sprachversionen der Wikipedia. Wer ist der Autor solcher Texte und somit verantwortlich, wenn da etwas steht, das man so nicht lesen will? Das Problem beginnt allerdings schon fr&#252;her, n&#228;mlich bei Texten, die &#8222;kollaborativ&#8220; verfasst werden, also sehr viele Autoren haben, und bei denen eine Version auf unz&#228;hlige Vorversionen aufbaut. Die letzten Autoren stehen als &#8222;Zwerge&#8220; nicht etwa &#8222;auf den Schultern von Giganten&#8220;, sondern auf den Schultern von ganz vielen Zwergen, die zusammen genommen Giganten ergeben (was vielleicht auch schon f&#252;r fr&#252;here &#8222;Zwerge auf den Schultern von Giganten&#8220; galt).</p> <h4>&#8222;Arbeit&#8220; und &#8222;Werk&#8220;</h4> <p>Das Bild von den &#8222;Zwergen auf den Schultern von vielen Zwergen&#8220; steht in Zusammenhang mit dem tiefgreifenden Wandel zwischen dem Industriezeitalter (19. und 20.&#160;Jahrhundert) und dem Informationszeitalter, das am Ende des 20.&#160;Jahrhunderts begonnen hat. Wie &#8222;Industrie&#8220; im Wortsinn Flei&#223; oder Arbeit bedeutet, ist das 19. und 20.&#160;Jahrhundert durch Arbeit charakterisiert. Der Lohnarbeiter steht im Mittelpunkt und am Ende arbeitet jeder f&#252;r ein Gehalt. Es gibt Arbeiterparteien, und gerade in Deutschland sind am Ende alle Parteien Arbeiterparteien, die SPD seit ihrer Gr&#252;ndung, die CDU/CSU im Rahmen der katholischen Soziallehre auch schon von Anfang an, die FDP als die Partei der selbsternannten &#8222;Leistungstr&#228;ger&#8220;, die Gr&#252;nen sp&#228;testens seit dem &#8222;Green New Deal&#8220;, aber eigentlich in der GAL schon l&#228;nger. Gesellschaftlich ist angesehen, wer Arbeit hat, und das &#8222;hehrste Ziel&#8220; des BA-Studiums ist angeblich die &#8222;Employability&#8220;. Doch passt das noch ins Informationszeitalter? Computer wurden ja geschaffen, um uns Arbeit abzunehmen. Und tats&#228;chlich verschwinden immer mehr Berufe, weil der Computer sie ersetzt. Vom Autofahren und vom Texteschreiben &#8211; immerhin f&#252;r Jahrtausende Privileg der Eliten &#8211; war ja schon die Rede.</p> <p>Es hat eine Verschiebung stattgefunden: Nicht mehr die Arbeit selbst steht im Mittelpunkt der Aufmerksamkeit als Dreh- und Angelpunkt von Kultur und Gesellschaft, sondern das Werk. Nat&#252;rlich beruht auch ein Werk immer auf Arbeit, aber die wird eben gegebenenfalls von vielen verrichtet. Im kollaborativen Prinzip gehen Autor und Nutzer ineinander &#252;ber. Ein Computerprogramm ist ein Werk (beruht also auf Arbeit), verrichtet dann aber selbst Arbeit, schreibt Texte oder sogar neue Programme, die Werke sind und selbst wieder Werke produzieren. Bei der K&#252;nstlichen Intelligenz kommt noch als zus&#228;tzliche Schwierigkeit hinzu, dass es sich um Programme handelt, deren Verhalten auf Training beruht und damit nur sehr schwer vorhersagbar ist.</p> <p>Aber selbst in diesem Fall ist klar: Irgendwo gibt es einen Anfang, vielleicht ist ein Werk sehr weit von einer intentionalen T&#228;tigkeit entfernt, das Verh&#228;ltnis also sehr indirekt, dennoch l&#228;sst sich ein Punkt finden, wo verantwortliches Handeln stattgefunden hat. Wenn es also zu Unf&#228;llen oder Sch&#228;den kommt, dann muss &#252;berpr&#252;ft werden, ob alles getan wurde, Unf&#228;lle oder Sch&#228;den zu vermeiden &#8211; und zwar vom <em>Ur</em>heber. Nun gilt aber auch hier &#8211; und damit komme ich zur&#252;ck zum Anfang &#8211;, dass Irren menschlich ist. Gerade bei Algorithmen, und insbesondere bei K&#252;nstlicher Intelligenz, kann ein Einzelner m&#246;glicherweise nicht mehr alle Konsequenzen &#252;berblicken. Daher ist es gerade hier notwendig, dass Algorithmen offen, frei und gut dokumentiert zug&#228;nglich sind, damit viele Menschen darauf schauen. Ohne Transparenz sind solche Werke problematisch. Das Argument, man k&#246;nne mit quelloffener Software keine Gesch&#228;fte machen, ist zum Gl&#252;ck schon durch die Praxis widerlegt. Statt durch Patente, ist zu &#252;berlegen, inwieweit Software &#228;hnlich wie andere Werke (z.B. B&#252;cher und Filme) urheberrechtlich gesch&#252;tzt werden kann, allerdings mit einem zeitgem&#228;&#223;en Urheberrecht, das &#228;hnlich wie in der Wissenschaft die Weiterentwicklung von Ideen erm&#246;glicht. Mehr Transparenz h&#228;tte zum Beispiel auch den Dieselskandal verhindert. Neben dem Betrug an den Betroffenen ist der Kern des Skandals, dass die eigentliche Funktion der &#8222;Akustikmodule&#8220; nicht von den Firmen &#246;ffentlich gemacht wurde, selbst als schon klar war, dass sie betrogen hatten, sondern erst durch <em>Reverse Engineering</em>, also von Hackern.</p> <h4>Daten m&#252;ssen frei sein</h4> <p>In der <a href=„https://www.ccc.de/de/hackerethik“>Hackerethik</a> hei&#223;t es:</p> <blockquote readability=„5“> <p>&#8222;&#214;ffentliche Daten n&#252;tzen, private Daten sch&#252;tzen.&#8220;</p> </blockquote> <p>Als diese Maxime Anfang der 1980er Jahre formuliert wurde, war es noch einfach zwischen &#246;ffentlichen und privaten Daten zu unterscheiden. Doch die Zeiten haben sich ge&#228;ndert. In Zeiten &#8222;sozialer Medien&#8220; m&#246;chten wir alle gern Dinge &#252;ber uns &#246;ffentlich machen, aber nat&#252;rlich will niemand auf seine Privatsph&#228;re verzichten. Ich bezeichne &#8211; als nicht Facebook-Nutzer &#8211; dieses Problem gern als das Facebook-Dilemma. Nach dem Bekanntwerden der Social-Media-Manipulationen von Cambridge Analytica war niemand begeistert, aber eben so wenige Menschen wollten auf ihre Social-Media-Aktivit&#228;ten k&#252;nftig verzichten. Damit soziale Medien funktionieren, m&#252;ssen sch&#252;tzenswerte Daten &#246;ffentlich sein. Dabei ist auch nach der Datenschutz-Grundverordnung die Situation noch unbefriedigend: Facebook muss mir zwar erkl&#228;ren, was es mit meinen Daten anstellt, aber kann doch selbst bestimmen, was es tut. Wenn ich es nicht will, muss ich auf Facebook, Google, Amazon usw. verzichten. Dabei sind es doch meine Daten und informationelle Selbstbestimmung bedeutet doch, dass <em>ich</em> selbst bestimme &#8211; und nicht andere f&#252;r mich.</p> <p>In einer idealen Welt w&#252;rde ich gern meinen Daten eine Art Lizenz mitgeben, in der ich festlege, f&#252;r was sie genutzt werden k&#246;nnen. &#196;hnlich einer Nutzungslizenz f&#252;r Software (z.B. die <em>GNU General Public License</em>) oder die besser bekannten <em>Creative Commons</em>-Lizenzen. &#196;hnlich wie es hier verschiedene Stufen an Restriktionen gibt, k&#246;nnte es so etwas doch auch f&#252;r Daten geben &#8211; etwa wie folgt:</p> <ol><li>Daten k&#246;nnen verarbeitet und an alle weitergeben werden.</li> <li>Daten k&#246;nnen verarbeitet und nur an Menschen weitergeben werden, f&#252;r die ich es erlaubt habe.</li> <li>Daten k&#246;nnen verarbeitet und aggregiert werden, wenn die Ergebnisse mir mitgeteilt werden.</li> <li>usw.</li> </ol><p>Die Lizenzen k&#246;nnen dann mit den Daten mitwandern, und es ist immer ersichtlich, was erlaubt ist und was nicht. Es k&#246;nnte sogar an Systemen gearbeitet werden, die mir R&#252;ckmeldung &#252;ber die Nutzung meiner Daten machen. Am Ende lie&#223;en sich sogar Gesch&#228;ftsmodelle aus der informationellen Selbstbestimmung entwickeln. Falls hier also noch wer eine Start-Up-Idee sucht &#8230;</p> <h4>Ethik im Informationszeitalter</h4> <p>Das Informationszeitalter wirft eine Reihe von ethischen Fragen auf, auf die ich hier nicht eingehen kann. Eine, die ich wenigstens noch in den Raum stellen will, ohne sie zu beantworten, ist die nach dem Auskommen der Menschen: Wenn immer mehr Menschen durch Computer von Arbeit entbunden werden, woher beziehen sie dann ihr Einkommen? Wenn in Zukunft nur noch Werke verg&#252;tet werden (was wiederum eine Urheberrechtsreform notwendig macht), wie kann man davon leben? Insbesondere angesichts dessen, dass selbst erfolgreiche Urheber in der Regel nur eine begrenzte Zahl von gro&#223;en Werken zustande bringen (9-Symphonien-Problem).</p> <p>Es ist sicher falsch, vor Neuem zur&#252;ckzuschrecken. Neophobie, die Angst vor Neuem, frommt selbst Konservativen nicht, aber es ist wichtig, &#252;ber die Folgen von Neuerungen nachzudenken. Das gilt besonders dann, wenn man selbst Neues schafft. Die Ethik des 21.&#160;Jahrhunderts ist also gerade dort wichtig, wo Neues entsteht: Programmierer, Ingenieure, Manager, Politiker m&#252;ssen verantwortlich absch&#228;tzen, welche Folgen ihr Handeln hat. Gerade das nicht zu tun, sich nicht der Verantwortung zu stellen, bewirkt Schuld. Andersherum formuliert wurde es <a href=„https://en.wikipedia.org/wiki/Spider-Man“>in einer bekannten Comic-Serie</a>:</p> <blockquote readability=„4“> <p>&#8222;With great power there must also come great responsibility&#8220;</p> </blockquote> <p>Computer, Algorithmen, soziale Netzwerke verleihen uns allen viel Macht, &#252;bernehmen wir auch die Verantwortung!</p> </html>