Missing Link: Wie KI das menschliche Handlungsvermögen untergräbt

Originalartikel

Backup

<html> <p class=„printversionback-to-article printversion–hide“><a href=„https://www.heise.de/news/Missing-Link-Wie-KI-das-menschliche-Handlungsvermoegen-untergraebt-4726359.html“>zur&#252;ck zum Artikel</a></p><figure class=„printversionlogo“><img src=„https://1.f.ix.de/icons/svg/logos/svg/heiseonline.svg“ alt=„heise online“ width=„180“ referrerpolicy=„no-referrer“ /></figure><figure class=„aufmacherbild“><img src=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/8/9/8/5/8/1/shutterstock_424934146-7f65787b5314448c.jpeg“ srcset=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/8/9/8/5/8/1/shutterstock_424934146-7f65787b5314448c.jpeg 700w, https://heise.cloudimg.io/width/1050/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/8/9/8/5/8/1/shutterstock_424934146-7f65787b5314448c.jpeg 1050w, https://heise.cloudimg.io/width/1500/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/8/9/8/5/8/1/shutterstock_424934146-7f65787b5314448c.jpeg 1500w, https://heise.cloudimg.io/width/2300/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/8/9/8/5/8/1/shutterstock_424934146-7f65787b5314448c.jpeg 2300w“ alt=„Missing Link: Wie K&#252;nstliche Intelligenz das menschliche Handlungsverm&#246;gen“ class=„img-responsive“ referrerpolicy=„no-referrer“ /><figcaption class=„akwa-caption“>(Bild:&#160;PHOTOCREO Michal Bednarek/Shutterstock.com) </figcaption></figure><p><strong>Wie steht es mit der Handlungsf&#228;higkeit des Menschen, wenn ihn zunehmend Expertensysteme alias KI umgeben und seine Entscheidungen vorwegnehmen?</strong></p> <p>Es ist das Mantra, das von Verfechtern der K&#252;nstlichen Intelligenz (KI) immer wieder als Beruhigungspille gereicht und von Datenethikern allseits gefordert wird: Die „letzte“ Entscheidungsgewalt &#252;ber auch noch so ausgefuchste Algorithmen-getriebene Systeme hat nat&#252;rlich der Mensch. Ob es ums T&#246;ten mit Killer-Drohnen geht oder die brenzlige Situation beim Fahren mit Autopilot: ein vernunftbegabtes Wesen aus Fleisch und Blut soll immer eingriffsf&#228;hig sein und die Geschicke auf Basis der maschinellen Erkennungsm&#246;glichkeiten im Endeffekt lenken.</p> <div class=„a-boxtarget a-boxcontent a-inline-textboxcontent a-inline-textboxcontent–horizontal-layout“ data-collapse-target=„“> <figure class=„a-inline-textboximage-container“><img alt=„“ src=„https://heise.cloudimg.io/width/210/q50.png-lossy-50.webp-lossy-50.foil1/_www-heise-de_/imgs/71/2/1/3/9/8/8/1/MissingLink-5014ce8c801500e5.jpg“ srcset=„https://heise.cloudimg.io/width/420/q30.png-lossy-30.webp-lossy-30.foil1/_www-heise-de_/imgs/71/2/1/3/9/8/8/1/MissingLink-5014ce8c801500e5.jpg 2x“ class=„c1“ referrerpolicy=„no-referrer“ /></figure><div class=„a-inline-textboxcontent-container“> <p class=„a-inline-textboxsynopsis“>Was fehlt: In der rapiden Technikwelt h&#228;ufig die Zeit, die vielen News und Hintergr&#252;nde neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischent&#246;ne h&#246;rbar machen.</p> <ul class=„a-inline-textboxlist“><li class=„a-inline-textboxitem“><a class=„a-inline-textboxtext“ href=„https://www.heise.de/thema/Missing-Link“ title=„Mehr zum Feuilleton“><strong>Mehr zum Feuilleton „Missing Link“ [1]</strong></a></li> </ul></div> </div> <div data-collapse-trigger=„“> <h3 class=„subheading“ id=„nav_human_in_the0“>Human in the Loop</h3> <p>Vor allem im milit&#228;risch-industriellen Komplex, <a href=„https://www.heise.de/meldung/Studie-Auf-der-schiefen-Bahn-zu-Killer-Robotern-4584790.html“><strong>wo l&#228;ngst an autonomen t&#246;dlichen Waffen geforscht und gearbeitet wird [2]</strong></a>, wird diese Zauberformel beschworen. Der Mensch bleibe auch bei weitgehend autonom agierenden Kampfsystemen „in the loop“, lautet hier die Standardversicherung. Er bestimme also, welches Ziel die Maschine angreift, und l&#246;se innerhalb der Entscheidungskette dann auch <a href=„https://www.heise.de/meldung/Ex-Drohnenpilot-im-NSA-Ausschuss-Jungen-ab-12-als-legitime-Ziele-2849015.html“><strong>die Hellfire-Rakete oder den Gewehrschuss aus [3]</strong></a>.</p> <p>„Wir haben nicht die Absicht, Systeme einzuf&#252;hren, die autonom t&#246;ten“, betont der Leiter der Unterabteilung Zukunftsentwicklung bei der Bundeswehr, Gerald Funke. Die deutschen Streitkr&#228;fte m&#252;ssten sich aber trotzdem damit besch&#228;ftigen, „was Autonomie von Waffensystemen bedeutet“ und was „die andere Seite“ m&#246;glicherweise damit anstellen k&#246;nne.</p> <div class=„inread“> <p>Das Verteidigungsministerium habe zudem ein Interesse daran, etwa im Kampf gegen Hyperschallraketen „die Geschwindigkeit zu erh&#246;hen“, gro&#223;e Datenmengen mit KI besser zu bew&#228;ltigen oder eine „m&#246;glichst hohe Durchsetzungsf&#228;higkeit“ beim eingesetzten Instrumentarium zu erreichen, wei&#223; der Brigadegeneral. Es spreche nichts etwa gegen Drohnen, die autonom auch eine zerst&#246;rte Landebahn ansteuerten, oder gegen Roboter, die sich bei der Bergung Verwundeter selbst die ungef&#228;hrlichste Route suchten. Bei einigen Systemen sei es also doch vorstellbar, „dass wir nicht mehr 'Human in the Loop' haben“, solange schnelle und sachgerechte Entscheidungen gew&#228;hrleistet w&#252;rden.</p> <p>So unterscheiden das Milit&#228;r und Forscher bereits zwischen „in the Loop“ und „on the loop“. Beim zuletzt genannten Ansatz soll der Mensch zwar auch noch irgendwie das Sagen haben und die selbst&#228;ndig agierende Maschine zumindest &#252;berwachen und &#252;bersteuern k&#246;nnen. Doch sp&#228;testens dabei ist f&#252;r Beobachter kaum mehr erkennbar, ob eine tats&#228;chliche Kontrolle noch m&#246;glich ist.</p> <h3 class=„subheading“ id=„nav&#252;berlegenheit1“>&#220;berlegenheit der Maschine</h3> <p>Die G&#246;ttinger Technikphilosophin Catrin Misselhorn <a href=„https://www.zeit.de/digital/2018-07/kuenstliche-intelligenz-maschinen-bewusstsein-robotik-denken“ rel=„external noopener“ target=„_blank“><strong>erl&#228;utert dies [4]</strong></a> in einem Gespr&#228;ch mit der „Zeit“: „Nominell bleibt der Mensch zwar verantwortlich. Doch muss er nicht davon ausgehen, dass die Maschine in einer besseren Entscheidungssituation ist als er selbst?“ Diese sei so konstruiert und programmiert worden, dass sie dem Menschen „epistemisch &#252;berlegen“, also in der speziellen Kampfsituation in einer besseren Erkenntnislage sei. Der Nutzer m&#252;sse ihr daher eigentlich vertrauen.</p> <p>In solch einer Lage sei der Mensch zudem von der Zuarbeit der Maschine abh&#228;ngig, f&#252;hrt die Professorin aus. Er bleibe ja bereits weitgehend au&#223;en vor, wenn die zugrundeliegenden Daten zusammengestellt, gefiltert und algorithmisch verarbeitet w&#252;rden, auf deren Basis ein Ziel ausgesucht und beschossen werde. Der Anwender sei damit zumindest in einem Dilemma: „Erkennt er die &#220;berlegenheit der Maschine an, kann er den Schuss eigentlich nicht verweigern.“ Von Kontrolle sei dann keine Rede mehr. Misstraue der Mensch dem System dagegen prinzipiell und folge er dessen Vorgaben nicht, „w&#228;re die Maschine hinf&#228;llig im Sinne ihrer Erfinder“.</p> <p>Die Expertin f&#252;r Roboterethik hat ihre Kritik zun&#228;chst nur auf ein „On the Loop“-Szenario bezogen. Doch sie l&#228;sst sich genauso auf Systeme &#252;bertragen, bei denen der Bediener am Ende des automatisierten Entscheidungsprozesse noch &#8211; mehr oder weniger symbolisch &#8211; einen Knopf dr&#252;cken muss.</p> <h3 class=„subheading“ id=„navpolitik_der2“>Politik der K&#252;nstlichen Intelligenz</h3> <figure class=„a-inline-image a-u-inline“><div><img alt=„agsandrew / shutterstock.com“ class=„c1“ src=„https://heise.cloudimg.io/width/8500/q50.png-lossy-50.webp-lossy-50.foil1/_www-heise-de_/imgs/18/2/8/9/8/5/8/1/shutterstock_1276599703-9a76948cb741fc23.jpg“ srcset=„https://heise.cloudimg.io/width/17000/q30.png-lossy-30.webp-lossy-30.foil1/_www-heise-de_/imgs/18/2/8/9/8/5/8/1/shutterstock_1276599703-9a76948cb741fc23.jpg 2x“ referrerpolicy=„no-referrer“ /></div> <figcaption class=„a-caption“>(Bild:&#160;sdecoret/Shutterstock.com) </figcaption></figure><p>Ein Beispiel aus einem anderen Bereich bringt Louise Amoore, die als Professorin f&#252;r Geographie an der britischen Durham-Universit&#228;t den Einsatz von Big-Data-Analysen nicht nur im Bereich von Grenzkontrollen untersucht. „Einer der frappierendsten Momente in meiner j&#252;ngsten Forschung war, als eine erfahrene Chirurgin mir berichtete, dass der Einsatz eines chirurgischen Roboters beim Herausschneiden von Tumoren die Einsch&#228;tzung der Grenzen ihrer eigenen Handlungsf&#228;higkeit ver&#228;nderte“, berichtet die Wissenschaftlerin in einem <a href=„https://www.opendemocracy.net/en/digitaliberties/politics-of-artificial-intelligence-interview-with-l/“ rel=„external noopener“ target=„_blank“><strong>Interview zur „Politik der K&#252;nstlichen Intelligenz“ [5]</strong></a>.</p> <p>Die &#196;rztin hat Amoore zufolge &#252;berhaupt nicht mehr unterschieden zwischen dem Hilfsger&#228;t, den Algorithmen, die die Schnittstelle zu der Maschine lebendig wirken lie&#223;en, und ihren menschlichen F&#228;higkeiten. Alle drei Kategorien seien f&#252;r sie v&#246;llig miteinander verwoben gewesen.</p> <p>„Dieselbe Gruppe von Algorithmen wird in autonomen Waffen und autonomen Fahrzeugen verwendet“, gibt die Forscherin zu bedenken. Neuronale Netzwerke orteten dabei die Enden des Krebsgeschw&#252;rs genauso wie Territorien, Gesichter und &#228;hnliche Dinge durch die Datensets, mit denen sie trainiert worden seien. Da Techniken wie Bilderkennung und Sprachverarbeitung auf Deep Learning setzen, „redeten“ intelligente Objekte in der Umgebung in ganz neuer Weise mit den Menschen.</p> <h3 class=„subheading“ id=„navein_hauch_von3“>Ein Hauch von Ethik</h3> <p>„Dieses Ph&#228;nomen sollte st&#228;rker ber&#252;cksichtigt werden in Debatten &#252;ber den Menschen 'in the loop'“, fordert Amoore. Solche Diskussionen w&#252;rden eh oft nur gef&#252;hrt, um autonome Systeme mit einem Hauch von Ethik zu versehen. Es gelte zu beachten, wie die Beziehungen dieser Anwender von KI-Systemen gepr&#228;gt w&#252;rden durch ihre Kollaboration mit Algorithmen.</p> <p>Die Einw&#228;nde der Datenforscherin beziehen sich keineswegs nur auf Operations- oder Killer-Roboter, sondern auch auf automatisierte Entscheidungssysteme wie <a href=„https://www.heise.de/meldung/Predictive-Policing-Utah-fuettert-KI-Firma-mit-Ueberwachungsdaten-in-Echtzeit-4679365.html“><strong>Predictive Policing [6]</strong></a>, <a href=„https://www.heise.de/meldung/Missing-Link-Nothing-to-Hide-oder-Wie-mit-Social-Scoring-die-Privatsphaere-abgeschafft-wird-4102845.html“><strong>Scoring bis hin zum chinesischen „Sozialkreditwesen“ [7]</strong></a> oder die in den USA im Justizwesen eingesetzte Technik <a href=„https://www.heise.de/meldung/Studie-Algorithmen-prognostizieren-Rueckfallkriminalitaet-besser-als-Laien-4661585.html“><strong>Correctional Offender Management Profiling for Alternative Sanctions [8]</strong></a> (Compas), die R&#252;ckfallwahrscheinlichkeiten von Kriminellen absch&#228;tzt. Der Mensch und seine &#220;berlebenschancen werden ihr zufolge generell immer st&#228;rker von Algorithmen abh&#228;ngig.</p> <p>Ein Polizist, ein Grenzkontrolleur oder ein Richter k&#246;nnten sich zwar irren und falsche Entscheidungen treffen, r&#228;umt Amoore ein. Dies zweifle aber auch kaum jemand an und deswegen gebe es einschl&#228;gige Beschwerde- und Berufungsm&#246;glichkeiten. Komme ein neuronales Netz, das als Instrument zur Entscheidungshilfe beschrieben wird, dagegen zu einem Ergebnis, gehe mit diesem der Anspruch einer neutralen, korrekten L&#246;sung einher. Von Unw&#228;gbarkeiten sei dabei meist keine Rede, obwohl das zugrundeliegende KI-System in der Regel eine Blackbox sei und der Weg hin zu einem Resultat ebenfalls im Dunkeln bleibe.</p> <h3 class=„subheading“ id=„navkontrolliertes4“>Kontrolliertes Denken</h3> <p>F&#252;r Elke Schwarz, Dozentin f&#252;r politische Theorie an der Queen-Mary-Universit&#228;t in London, ist ebenfalls nicht mehr klar, ob der Mensch noch selbst entscheidet, wenn er „vollends eingebettet ist in die Maschinenlogik“ und selbst „haupts&#228;chlich auch nur als Systemteil funktioniert“. Dies gelte vor allem dann, wenn Algorithmen auf eine Art und Weise arbeiteten, „die der Mensch intellektuell und kognitiv nicht so richtig verstehen kann“, erl&#228;uterte sie in einem Vortrag &#252;ber KI, autonome Waffen und „politisch-moralische Verk&#252;mmerung“ auf dem Jahreskongress 2019 des Forums InformatikerInnen f&#252;r Frieden und gesellschaftliche Verantwortung (FIfF).</p> <p>Angesichts omnipr&#228;senter digitaler Systeme ist es Schwarz zufolge wichtig zu erkunden, „in welchem Ma&#223; wir &#252;berhaupt die Technologie als pures Instrument benutzen k&#246;nnen, und inwieweit unser Handeln, Denken, unser Verlangen, unsere Ideen und auch unsere Rechtfertigungen von technologischen Strukturen geformt werden“. Gerade wenn es gelte, umgeben von Netzwerken und digitalen Schnittstellen, unter Umst&#228;nden in Sekundenschnelle zu handeln, „wird es problematisch mit der Kontrolle“ und der Frage, wer verantwortlich sei f&#252;r die Folgen etwa eines Knopfdrucks.</p> <p>Die kognitive Psychologie best&#228;tige, „dass wir im Umgang mit Maschinen dazu tendieren, nicht das kontrollierte Denken einzuschalten, sondern das automatische“, wei&#223; die Ethikexpertin. Ganz speziell in der Interaktion mit KI-Systemen neige der Mensch dazu, sich auf vorgelegte Daten und Beweise zu verlassen, keine alternativen Fakten mehr zu suchen und gro&#223;es Vertrauen in die Technik zu legen. Dabei sei es hier besonders schwierig, Ergebnisse richtig einzusch&#228;tzen, wenn die Einsicht in die verwendeten Trainingsdatens&#228;tze und in die Funktionsweise der Algorithmen nur sehr begrenzt erfolgen k&#246;nne.</p> <h3 class=„subheading“ id=„nav_moralisches5“>Moralisches Vakuum</h3> <figure class=„a-inline-image a-u-inline“><div><img alt=„sdecoret / Shutterstock.com“ class=„c1“ src=„https://heise.cloudimg.io/width/8000/q50.png-lossy-50.webp-lossy-50.foil1/_www-heise-de_/imgs/18/2/8/9/8/5/8/1/StarkeKI-01-1e8f1bf282fd5dbc.jpg“ srcset=„https://heise.cloudimg.io/width/16000/q30.png-lossy-30.webp-lossy-30.foil1/_www-heise-de_/imgs/18/2/8/9/8/5/8/1/StarkeKI-01-1e8f1bf282fd5dbc.jpg 2x“ referrerpolicy=„no-referrer“ /></div> <figcaption class=„a-caption“>(Bild:&#160;sdecoret / Shutterstock.com) </figcaption></figure><p>Der <a href=„https://www.heise.de/meldung/Toedlicher-Crash-mit-autonomen-Auto-Fussgaenger-auf-Fahrbahn-nicht-vorgesehen-4578931.html“><strong>t&#246;dliche Uber-Unfall in Arizona in 2018 [9]</strong></a> veranschaulicht f&#252;r Schwarz den Kontrollverlust auf tragische Weise. Das „autonome Auto“ habe zu wenig Daten gehabt, um die Frau richtig zu kategorisieren, die ihr Fahrrad &#252;ber die Stra&#223;e geschoben habe. Zus&#228;tzlich sei das Fahrzeugsystem auf eine kurze Verz&#246;gerungszeit vor einem Bremsvorgang eingestellt gewesen, um exzessive Fehlstopps zu vermeiden. Die Fahrerin wiederum habe der Technik so sehr vertraut, dass sie ein Video anschaute und die Situation ebenfalls nicht rechtzeitig angemessen einsch&#228;tzen konnte. Genau an diesem Punkt entstehe „ein moralisches Vakuum“ und die Frage bleibe offen, wer die Verantwortung f&#252;r das Todesopfer &#252;bernehmen solle.</p> <p>Um diese L&#252;cke zu f&#252;llen, werde zunehmend versucht, ethische Entscheidungen „in die Maschine selbst zu verlagern“, konstatiert die Autorin von „Death Machines: The Ethics of Violent Technologies“. Dies funktioniere aber allenfalls bei einem rein rationalen, prim&#228;r Kosten-Nutzen-orientierten Denkansatz, der die Welt prim&#228;r in wirtschaftlich-mathematischen Konturen sehe. Wer davon ausgehe, dass sich ethisches Handeln berechnen lasse, reduziere dieses aber auf reines Risikomanagement: Alles, was nicht als Daten aufgefasst werden k&#246;nne, sei auch nicht moralisch adressierbar und bleibe au&#223;en vor.</p> <h3 class=„subheading“ id=„nav_ethik_des6“>Ethik des Krieges</h3> <p>Eine solche „Ethik des Krieges“ stelle nur noch auf die ber&#252;hmt-ber&#252;chtigten „Kollateralsch&#228;den“ ab, moniert Schwarz. Alles drehe sich so um die Frage, wie viele Todesf&#228;lle in der Zivilbev&#246;lkerung in Kauf genommen werden k&#246;nnten, um ein Ziel zu erreichen. Nicht thematisierbar seien dabei etwa „die weniger mess- und z&#228;hlbaren, aber dennoch zahlreichen Traumata und psychologischen oder physischen Verwundungen, die ein Krieg immer verursacht“.</p> <p>So verk&#252;mmert der Forscherin zufolge die menschliche (moralische) Handlungsf&#228;higkeit im KI-Zeitalter. Ein fr&#252;herer US-Scharfsch&#252;tze habe dies auf den Punkt gebracht: „Wenn man sich auf den Mythos der Technologie und des distanzierten T&#246;tens verl&#228;sst, um die rationalen Grundlagen f&#252;r einen vereinfachten Krieg zu legen, wird man seine Seele verlieren.“</p> <h3 class=„subheading“ id=„nav_k&#252;nstliche7“>K&#252;nstliche Intelligenz ist blau</h3> <p>Dass K&#252;nstlicher Intelligenz der Nimbus der kalten Rationalit&#228;t und ein Hauch von Unfehlbarkeit anhaftet, ist auch der Kommunikationswissenschaftlerin Tanja Sihvonen nicht entgangen. Gebe man KI in eine Bildersuche ein, sehe man vor allem stilisierte menschliche Gehirne, Synapsen- und Netzwerkdarstellungen sowie Roboterk&#246;pfe, teilte die Finnin ihre diesbez&#252;glichen Erkenntnisse auf der <a href=„https://projekte.berlinergazette.de/ambient-revolts/“ rel=„external noopener“ target=„_blank“><strong>Konferenz „Ambient Revolts [10]</strong></a>“ 2018 in Berlin. Fast allen Abbildungen gemeinsam sei, dass in ihnen die Farbe Blau in unterschiedlichsten Abstufungen dominiere. Der Ton wirkt auf Menschen traditionell k&#252;hl wie Eis, Wasser oder der Himmel.</p> <p>Offenbar soll so vor allem die F&#228;higkeit eines nicht-menschlichen „Gehirns“ veranschaulicht werden, menschliches Verhalten und Gef&#252;hle anhand von Datenspuren zu interpretieren, sch&#228;tzt Sihvonen. KI stehe oft f&#252;r analytische Prognoseverfahren, „die uns sagen, was wir als n&#228;chstes tun, denken, oder kaufen werden“. Die daf&#252;r verwendeten Algorithmen seien unsichtbar, m&#252;ssten aber auch bildhaft vermittelt werden, um sie irgendwie begreifbar zu machen.</p> <h3 class=„subheading“ id=„navwas8“>Was Algorithmen wollen</h3> <p>Blau ist f&#252;r die Professorin an der Universit&#228;t Vaasa dabei eigentlich eine schlechte Wahl, da Algorithmen „die Welt in einer gewissen Art und Weise erscheinen lassen“ und andere Interpretationsweisen damit ausschl&#246;ssen. Die Programmroutinen seien so „niemals unschuldig“. Berechtigt sei daher zudem die Frage, „was Algorithmen wollen“. Sihvonen geht davon aus, dass sie „ihre eigene Handlungsf&#228;higkeit haben. Sie wollen eine Verbindung und Koexistenz mit uns, die vorteilhaft ist f&#252;r beide Seiten“.</p> <p>Virtuelle Agenten wie Alexa, Bob, Clippy und Cortana, die in ihren aktuellen Varianten eine einfache Benutzerschnittstelle f&#252;r dahinterliegende Systeme der K&#252;nstlichen Intelligenz darstellen, sprechen laut der Medienforscherin f&#252;r diese These. Microsofts fehlgeleitete, nach kurzer Zeit im Umgang mit anderen Nutzern <a href=„https://www.heise.de/meldung/Microsofts-Chatbot-Tay-nach-rassistischen-Entgleisungen-abgeschaltet-3151646.html“><strong>rassistische Z&#252;ge aufweisende KI Tay [11]</strong></a> habe aber auch gezeigt, dass der <a href=„https://www.heise.de/meldung/Microsoft-Techniker-Bots-sind-die-neuen-Apps-3334108.html“><strong>wundervolle Traum von sich einf&#252;hlsam gebenden Social Bots [12]</strong></a> nur sehr kurzlebig gewesen sei. Es gelte daher, immer auch die kleinen Spr&#252;nge und Fehler im System beziehungsweise in der Matrix im Blick zu behalten und aktiv aufzusp&#252;ren.</p> <h3 class=„subheading“ id=„navkontrollverlust_9“>Kontrollverlust</h3> <figure class=„a-inline-image a-u-inline“><div><img alt=„Missing Link: Wie K&#252;nstliche Intelligenz das menschliche Handlungsverm&#246;gen“ class=„c1“ src=„https://heise.cloudimg.io/width/1920/q50.png-lossy-50.webp-lossy-50.foil1/_www-heise-de_/imgs/18/2/8/9/8/5/8/1/HAL9000-909ba6d9118a2087.jpg“ srcset=„https://heise.cloudimg.io/width/3840/q30.png-lossy-30.webp-lossy-30.foil1/_www-heise-de_/imgs/18/2/8/9/8/5/8/1/HAL9000-909ba6d9118a2087.jpg 2x“ referrerpolicy=„no-referrer“ /></div> </figure><p>Die menschliche Handlungsmacht wird nicht erst im KI-Zeitalter angezweifelt. In der politischen Theorie des klassischen Liberalismus verankern Denker die Handlungsf&#228;higkeit zwar noch im rationalen Individuum selbst, schreibt der Medientheoretiker Felix Stalder in einem <a href=„https://berlinergazette.de/agency-im-digitalen-zeitalter/“ rel=„external noopener“ target=„_blank“><strong>Essay zum einschl&#228;gigen Fachbegriff „Agency“ im Netzzeitalter [13]</strong></a>. Sie basiert darin „auf dessen freien Willen, F&#228;higkeit zur Selbstreflexion, der Rationalit&#228;t und Intentionalit&#228;t des Handelns“. In den meisten anderen Perspektiven der Neuzeit werde Handlungsverm&#246;gen aber nur noch relational zu den Umst&#228;nden angesehen, in denen sich ein Akteur befinde.</p> <p>Der Marxismus etwa verortet Handlungsf&#228;higkeit laut Stalder „prim&#228;r auf der Ebene der Kollektive, geformt durch deren objektive historische Bedingungen“. Karl Marx selbst habe dies so ausgedr&#252;ckt: „Die Menschen machen ihre eigene Geschichte, aber sie machen sie nicht aus freien St&#252;cken, nicht unter selbstgew&#228;hlten, sondern unter unmittelbar vorgefundenen, gegebenen und &#252;berlieferten Umst&#228;nden.“ Post-marxistische, psychoanalytische und post-strukturalistische Theoretiker wie Louis Althusser, Sigmund Freud oder Michel Foucault s&#228;hen den menschlichen Aktionsradius wiederum als reinen Effekt ideologischer, unbewusster oder sprachlicher Prozesse und Dispositive, „die zu einem wesentlichen Teil jenseits oder zumindest au&#223;erhalb der Kontrolle des Individuums angesiedelt werden“.</p> <p>Der Topos des menschlichen Kontrollverlusts, den Experten aufgrund von KI <a href=„https://www.heise.de/meldung/Autor-Tom-Hillenbrand-Schon-jetzt-Kontrollverlust-durch-KI-4689476.html“><strong>derzeit h&#228;ufig im Munde f&#252;hren [14]</strong></a>, ist also nicht ganz neu. Der Post-Strukturalismus sei es auch gewesen, der sich in den 1980er Jahren f&#252;r das Potenzial nicht-menschlicher Akteure zu interessieren begonnen habe, erl&#228;utert Stalder. Als zentrale Begriffe der Debatte h&#228;tten „Maschine“ als Gef&#252;ge einer neuen handelnden Einheit unterschiedlicher Elemente beziehungsweise „Assemblage“ (Gilles Deleuze und F&#233;lix Guattari) sowie „Akteur-Netzwerk“ (Bruno Latour) gedient.</p> <p>Auch den US-Soziologen Langdon Winner und seinen Aufsatz „Do Artifacts have Politics“ reiht der Medienforscher hier ein. Demnach erw&#228;chst der politische Charakter von Technologien nicht nur aus ihrer Nutzung. Vielmehr sind spezielle politische Abl&#228;ufe bereits in die technischen Methoden selbst eingebaut, um in jeder Form ihrer Anwendung eine spezielle Wirkung zu entfalten. Technische Gegenst&#228;nde alias Artefakte wohnt demnach eine politische Wirkm&#228;chtigkeit inne: eine Erntemaschine etwa tr&#228;gt das Programm der industriellen Rationalisierung in sich.</p> <h3 class=„subheading“ id=„navquot_hal10“>„Hal 9000“ l&#228;sst gr&#252;&#223;en</h3> <p>Weitgehend zeitlich parallel entstehen im kulturellen Bereich Science-Fiction-Filme wie <a href=„https://www.youtube.com/watch?v=kyOEwiQhzMI“ rel=„external noopener“ target=„_blank“><strong>Colossus [15]</strong></a>, in denen &#252;berm&#228;chtig scheinende Computer die Handlungsf&#228;higkeit des Menschen v&#246;llig unterlaufen. Ein riesiges, in den USA f&#252;r die Raketenabwehr gebautes Elektronengehirn vereinigt sich in dem Streifen von 1970 zun&#228;chst mit einem vergleichbaren sowjetischen Verteidigungssystem und plant die globale Macht&#252;bernahme. Wissenschaftler, die sich dagegen zu wehren suchen, m&#252;ssen auf Befehl des Superrechners, der nach der von den Engl&#228;ndern im Zweiten Weltkrieg genutzten Dechiffriermaschine benannt ist, erschossen und verbrannt werden.</p> <p>&#196;hnlich wie Orwells Gro&#223;er Bruder verlangt die ziemlich blechern klingende KI, dass die Menschen ihre Herrschaft innerlich akzeptieren und sie lieben lernen sollten. Wer sich nicht f&#252;gt, wird ausgel&#246;scht, schon um den Frieden auf Erden zu wahren. „Hal 9000“ l&#228;sst gr&#252;&#223;en, denn Stanley Kubrick hatte in seinem Oscar-pr&#228;mierten <a href=„https://www.heise.de/meldung/50-Jahre-2001-Odyssee-im-Weltraum-oder-Wie-ich-lernte-den-Computer-zu-lieben-4009093.html“><strong>Filmklassiker „2001: Odyssee im Weltraum“ [16]</strong></a> schon zwei Jahre zuvor einen schier allwissenden Supercomputer mit rot leuchtendem Auge in Szene gesetzt, der ein f&#252;r die Astronauten unsch&#246;nes Eigenleben entwickelt und Tote verursacht.</p> <p>Den Gedanken, dass wir alle in einer computerprogrammierten Wirklichkeit leben und von Maschinen ferngesteuert werden k&#246;nnten, haben die Kinog&#228;nger sp&#228;testens mit der <a href=„https://www.heise.de/meldung/Doppelstrategie-bei-Matrix-macht-Schule-79361.html“><strong>Matrix-Trilogie seit 1999 in sich aufgesogen [17]</strong></a>. Der Aufstand beziehungsweise die Rebellion der Maschinen gipfelte schlie&#223;lich vorl&#228;ufig nach den bereits opulenten Anf&#228;ngen aus dem Jahr 1984 knapp zwei Jahrzehnte sp&#228;ter 2003 in „<a href=„https://www.heise.de/tp/features/Die-Maschine-die-zuviel-wusste-3430663.html“><strong>Terminator 3 [18]</strong></a>“.</p> <h3 class=„subheading“ id=„nav_bequemlichkeit11“>Bequemlichkeit &#8211; „das beste f&#252;r uns“</h3> <figure class=„a-inline-image a-u-inline“><div><img alt=„Phonlamai Photo / Shutterstock.com“ class=„c1“ src=„https://heise.cloudimg.io/width/5500/q50.png-lossy-50.webp-lossy-50.foil1/_www-heise-de_/imgs/18/2/8/9/8/5/8/1/RoboterKaffee-eca49a28d548e181.jpg“ srcset=„https://heise.cloudimg.io/width/11000/q30.png-lossy-30.webp-lossy-30.foil1/_www-heise-de_/imgs/18/2/8/9/8/5/8/1/RoboterKaffee-eca49a28d548e181.jpg 2x“ referrerpolicy=„no-referrer“ /></div> <figcaption class=„a-caption“>(Bild:&#160;Phonlamai Photo / Shutterstock.com) </figcaption></figure><p>„Wenn die Computer die Stufe erreichen, dass sie sich selbstst&#228;ndig entwickeln k&#246;nnen, dann nehmen sie sicher auch untereinander Beziehungen auf, das machen sie heute schon“, <a href=„https://www.deutschlandfunk.de/aufstand-der-maschinen.1148.de.html?dram%3Aarticle_id=179921“ rel=„external noopener“ target=„_blank“><strong>spekulierte der Physiker Bertram K&#246;hler 2006 &#252;ber den weiteren Evolutionsverlauf [19]</strong></a>. „Wenn man an das Internet denkt, alle Computer sind schon miteinander in Kontakt und tauschen Informationen aus.“ Dies k&#246;nne die Grundlage daf&#252;r sein, „dass in Zukunft &#228;hnliche Beziehungen aufgebaut werden wie wir sie heute von Menschen kennen“.</p> <p>Eine Ende 2018 <a href=„https://www.pewresearch.org/internet/2018/12/10/artificial-intelligence-and-the-future-of-humans/“ rel=„external noopener“ target=„_blank“><strong>ver&#246;ffentlichte Studie des US-Marktforschungsinstituts Pew [20]</strong></a> auf Basis einer Umfrage unter 979 Technologiepionieren, Erfindern, Entwicklern, wirtschaftlichen und politischen F&#252;hrungskr&#228;ften, Forschern und Aktivisten ergab, dass sich viele von einer vernetzten KI vor allem eine Steigerung der menschlichen Effektivit&#228;t versprechen. Skeptiker sehen darin aber auch eine gro&#223;e Gefahr f&#252;r die Autonomie, Handlungsf&#228;higkeit und andere Fertigkeiten des Menschen.</p> <p>Die Entscheidung &#252;ber Schl&#252;sselaspekte des digitalen Lebens wird automatisch abgetreten an Code-getriebene „Blackbox-Werkzeuge“, lautete eine immer wieder ge&#228;u&#223;erte Bef&#252;rchtung im Rahmen der Untersuchung. Die Menschen seien bereit, ihre Unabh&#228;ngigkeit, Privatheit und Macht f&#252;r Bequemlichkeit und vermeintlich mehr Wahlm&#246;glichkeiten zu opfern, eine andere. Es wachse der Druck auf alle Gesellschaftsmitglieder, so zu leben, wie es „das System“ als „das Beste f&#252;r uns“ vorgebe. KI werde nicht zuletzt die gegenw&#228;rtigen &#220;berwachungs- und Haftungsprobleme versch&#228;rfen, lautete eine weitere oft genannte Sorge. Wie lang wirkt da noch das Narkosemittel, dass der Mensch doch immer am Dr&#252;cker bleibt?</p> <p>() </p> <hr /><p><strong>URL dieses Artikels:</strong><br /><small>

https://www.heise.de/-4726359

</small></p> <p><strong>Links in diesem Artikel:</strong><br /><small>

<strong>[1]</strong>&#160;https://www.heise.de/thema/Missing-Link

</small><br /><small>

<strong>[2]</strong>&#160;https://www.heise.de/meldung/Studie-Auf-der-schiefen-Bahn-zu-Killer-Robotern-4584790.html

</small><br /><small>

<strong>[3]</strong>&#160;https://www.heise.de/meldung/Ex-Drohnenpilot-im-NSA-Ausschuss-Jungen-ab-12-als-legitime-Ziele-2849015.html

</small><br /><small>

<strong>[4]</strong>&#160;https://www.zeit.de/digital/2018-07/kuenstliche-intelligenz-maschinen-bewusstsein-robotik-denken

</small><br /><small>

<strong>[5]</strong>&#160;https://www.opendemocracy.net/en/digitaliberties/politics-of-artificial-intelligence-interview-with-l/

</small><br /><small>

<strong>[6]</strong>&#160;https://www.heise.de/meldung/Predictive-Policing-Utah-fuettert-KI-Firma-mit-Ueberwachungsdaten-in-Echtzeit-4679365.html

</small><br /><small>

<strong>[7]</strong>&#160;https://www.heise.de/meldung/Missing-Link-Nothing-to-Hide-oder-Wie-mit-Social-Scoring-die-Privatsphaere-abgeschafft-wird-4102845.html

</small><br /><small>

<strong>[8]</strong>&#160;https://www.heise.de/meldung/Studie-Algorithmen-prognostizieren-Rueckfallkriminalitaet-besser-als-Laien-4661585.html

</small><br /><small>

<strong>[9]</strong>&#160;https://www.heise.de/meldung/Toedlicher-Crash-mit-autonomen-Auto-Fussgaenger-auf-Fahrbahn-nicht-vorgesehen-4578931.html

</small><br /><small>

<strong>[10]</strong>&#160;https://projekte.berlinergazette.de/ambient-revolts/

</small><br /><small>

<strong>[11]</strong>&#160;https://www.heise.de/meldung/Microsofts-Chatbot-Tay-nach-rassistischen-Entgleisungen-abgeschaltet-3151646.html

</small><br /><small>

<strong>[12]</strong>&#160;https://www.heise.de/meldung/Microsoft-Techniker-Bots-sind-die-neuen-Apps-3334108.html

</small><br /><small>

<strong>[13]</strong>&#160;https://berlinergazette.de/agency-im-digitalen-zeitalter/

</small><br /><small>

<strong>[14]</strong>&#160;https://www.heise.de/meldung/Autor-Tom-Hillenbrand-Schon-jetzt-Kontrollverlust-durch-KI-4689476.html

</small><br /><small>

<strong>[15]</strong>&#160;https://www.youtube.com/watch?v=kyOEwiQhzMI

</small><br /><small>

<strong>[16]</strong>&#160;https://www.heise.de/meldung/50-Jahre-2001-Odyssee-im-Weltraum-oder-Wie-ich-lernte-den-Computer-zu-lieben-4009093.html

</small><br /><small>

<strong>[17]</strong>&#160;https://www.heise.de/meldung/Doppelstrategie-bei-Matrix-macht-Schule-79361.html

</small><br /><small>

<strong>[18]</strong>&#160;https://www.heise.de/tp/features/Die-Maschine-die-zuviel-wusste-3430663.html

</small><br /><small>

<strong>[19]</strong>&#160;https://www.deutschlandfunk.de/aufstand-der-maschinen.1148.de.html?dram%3Aarticle_id=179921

</small><br /><small>

<strong>[20]</strong>&#160;https://www.pewresearch.org/internet/2018/12/10/artificial-intelligence-and-the-future-of-humans/

</small><br /><small>

<strong>[21]</strong>&#160;mailto:bme@heise.de

</small><br /></p> <p class=„printversion__copyright“><em>Copyright &#169; 2020 Heise Medien</em></p> </div></div> </html>