Qgelm

Missing Link: "Der große Plan" | heise online

Originalartikel

Backup

<html> <div class=„article-layoutheader-container“> <header class=„&#10; a-article-header&#10; &#10; &#10; &#10;“><h1 class=„&#10; a-article-headertitle&#10; &#10;“ dir=„ltr“>Missing Link: „Der gro&#223;e Plan“ </h1> <p class=„a-article-headerlead“ dir=„ltr“> Elon Musk gilt als Prototyp des egomanischen und skrupellosen Tech-Unternehmers. Doch hinter seinen Eskapaden steckt wahrscheinlich eine toxische Ideologie. </p> <a-lightbox class=„article-image“ tabindex=„1“ src=„/imgs/18/4/8/3/6/5/9/2/shutterstock_2318800287-12a1c38065d72d09.jpeg“ modal-id=„a-8721“><figure><div class=„article-imagegallery-container“> <img src=„https://heise.cloudimg.io/width/610/q85.png-lossy-85.webp-lossy-85.foil1/_www-heise-de_/imgs/18/4/8/3/6/5/9/2/shutterstock_2318800287-12a1c38065d72d09.jpeg“ srcset=„https://heise.cloudimg.io/width/336/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/8/3/6/5/9/2/shutterstock_2318800287-12a1c38065d72d09.jpeg 336w, https://heise.cloudimg.io/width/1008/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/8/3/6/5/9/2/shutterstock_2318800287-12a1c38065d72d09.jpeg 1008w, https://heise.cloudimg.io/width/610/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/8/3/6/5/9/2/shutterstock_2318800287-12a1c38065d72d09.jpeg 610w, https://heise.cloudimg.io/width/1220/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/8/3/6/5/9/2/shutterstock_2318800287-12a1c38065d72d09.jpeg 1220w&#10;“ sizes=„(max-width: 991px) 95vw,610px“ alt=„Elon Musk“ width=„610“ height=„342“ class=„legacy-img“ referrerpolicy=„no-referrer“ /></div> <figcaption class=„a-caption“> (Bild:&#160;Frederic Legrand - COMEO/Shutterstock.com) </figcaption></figure><section class=„heise-modal“><div class=„stage“></div></section></a-lightbox><div class=„a-article-headerpublish-info“> <div class=„a-publish-info“> <div class=„a-publish-inforead-time“> Lesezeit: 11&#160;Min. </div> <div class=„a-publish-infobranding“> </div> </div> <div class=„creator“> Von <ul class=„creatornames“><li class=„creatorname“><a href=„https://www.heise.de/autor/Wolfgang-Stieler-4320086“ class=„creatorlink“>Dr. Wolfgang Stieler</a></li> <li class=„creatorname“><a href=„https://www.heise.de/autor/Volker-Zota-3672633“ class=„creatorlink“>Dr. Volker Zota</a></li> </ul></div> </div></header><aside class=„article-layoutheader-wrbng“><div> <div id=„HEI_D_Incontent-1-label“ class=„ad-label“>Anzeige</div> <div id=„HEI_D_Incontent-1“ data-size=„300×250,300×600,300×3,fluid“ class=„ad ad–sticky“> </div> </div></aside></div><div class=„article-layoutcontent-container“> <div class=„article-layoutcontent“ dir=„ltr“> <div class=„article-content js-upscore-article-content-for-paywall“> <p>Den meisten Menschen wird das Akronym TESCREAL vermutlich nicht viel sagen. Dabei hat dieser Komplex aus <strong>T</strong>ranshumanismus, <strong>E</strong>ffektivem Altruismus, <strong>S</strong>ingularit&#228;t, <strong>C</strong>atastrophic <strong>R</strong>isk (Katastrophenrisiken), <strong>E</strong>ugenik, <a href=„https://www.heise.de/thema/Kuenstliche-Intelligenz“ rel=„external noopener“ target=„_blank“><b>A</b>rtificial Intelligence</a> und <strong>L</strong>ongtermism die Eliten des Silicon Valley vermutlich entscheidend gepr&#228;gt, allen voran <a href=„https://www.heise.de/thema/Elon-Musk“ rel=„external noopener“ target=„_blank“>Elon Musk</a>. Es handelt sich um eine interpretative Perspektive auf verschiedene technologische und philosophische Str&#246;mungen, die zwar im Valley pr&#228;sent sind, aber nicht zwangsl&#228;ufig als einheitliche Weltanschauung verfolgt werden.</p> <div class=„ad-mobile-group-3“> <div class=„ad-label“ id=„HEI_M_Incontent-1-label“>Anzeige</div> <div class=„ad ad–sticky“ id=„HEI_M_Incontent-1“> </div><p>Der Philosoph <a href=„https://www.xriskology.com/“ rel=„external noopener“ target=„_blank“>&#201;mile Torres</a> hat <a href=„https://www.truthdig.com/articles/the-acronym-behind-our-wildest-ai-dreams-and-nightmares/“ rel=„external noopener“ target=„_blank“>den Begriff TESCREAL</a> gemeinsam mit der KI-Kritikerin Timnit Gebru entwickelt, um deutlich zu machen, dass viel der schillernden, angesagten Ideologien aus dem Silicon Valley einen gemeinsamen Kern haben: Den tief verankerten Glauben an die angebliche &#220;berlegenheit einer technologischen Elite gegen&#252;ber den minderwertigen Massen. Und obwohl es so aussieht, als ob die Tech-Bros im Moment vollkommen damit ausgelastet sind, die USA auszupl&#252;ndern, spielt diese Ideologie noch immer eine wichtige Rolle.</p><div class=„a-u-inline“> </div><h3 class=„subheading“ id=„nav_die_rolle_von0“>Die Rolle von Ideologie</h3><p>Ideologie zu analysieren, mag auf den ersten Blick sehr akademisch wirken &#8211; zumal ein Teil der darin enthaltenen Konzepte ein wenig bizarr sind. Es ist jedoch aus zwei Gr&#252;nden wichtig: Zum einen dient Ideologie immer der Selbstversicherung und Rechtfertigung des eigenen Tuns nach Au&#223;en. Zum anderen ist Ideologie auch immer eine Art geistiger Filter, der hilft, Sinn und Struktur in die Welt zu bringen und Unwichtiges von Wichtigem zu unterscheiden. Jemandes Ideologie zu verstehen, bedeutet also auch immer, zu verstehen, wie er oder sie „die Welt sieht“. Werfen wir also einen Blick auf die unterschiedlichen Elemente von TESCREAL.</p><h3 class=„subheading“ id=„nav_singularit&#xe4;t1“>Singularit&#228;t durch Superintelligenz</h3><p>Die Anh&#228;nger der Idee einer technischen Singularit&#228;t gehen davon aus, dass der technische Fortschritt der Menschheit sich im Laufe der Geschichte immer weiter beschleunigt hat. Bereits in K&#252;rze w&#228;ren die Menschen also in der Lage, eine KI zu bauen, die sich selbst verbessern kann. Ab diesem Zeitpunkt &#8211; der Singularit&#228;t &#8211; sei der weitere Verlauf der technischen Entwicklung nicht mehr vorherzusagen. Aus der KI werde sich dann eine &#252;bermenschliche „Superintelligenz“ entwickeln, die im schlimmsten Fall die Menschheit vernichtet.</p> <div class=„ad-mobile-group-1“> <div class=„ad-label“ id=„HEI_M_Incontent-3-label“>Anzeige</div> <div class=„ad ad–sticky“ id=„HEI_M_Incontent-3“> </div><p><a href=„https://www.heise.de/hintergrund/Die-Zukunftsvision-des-Vernor-Vinge-278819.html“>Die Idee der Singularit&#228;t</a> wurde in den 1990er Jahren durch den Mathematiker Vernor Vinge popul&#228;r und sp&#228;ter von Ray Kurzweil weiterentwickelt. Sie fand besonders im Silicon Valley Anklang, wo sie durch Organisationen wie das Singularity Institute (heute MIRI) institutionalisiert wurde. Es ist jedoch wichtig anzumerken, dass die Singularit&#228;tstheorie zwar diskutiert wird, aber es keine empirischen Beweise f&#252;r ihre unmittelbare Realisierbarkeit gibt.</p><p>Timnit Gebru vermutet hinter dem Vorhaben keine technische, sondern eine politische Agenda. Gemeinsam mit Torres zieht sie eine historische Linie von den amerikanischen Eugenikern &#252;ber die Transhumanisten zu den f&#252;hrenden K&#246;pfen von OpenAI, in der es nie um die Zukunft und das Wohl der gesamten Menschheit ging, sondern darum, alles Unn&#252;tze und &#220;berfl&#252;ssige auszusortieren.</p><h3 class=„subheading“ id=„nav_der_digitale2“>Der digitale Erl&#246;ser</h3><p>K&#252;nstliche Intelligenz nimmt in der TESCREAL-Ideologie eine Doppelrolle ein: Sie ist gleichzeitig die gr&#246;&#223;te Bedrohung und die ultimative Erl&#246;sung. Diese paradoxe Position erkl&#228;rt sich aus dem fast religi&#246;sen Glauben an die transformative Kraft der Technologie im Silicon Valley.</p><p>Bezeichnend ist, wie sich die KI-Sicherheitsforschung entwickelt hat: Statt sich auf konkrete Probleme wie Diskriminierung durch Algorithmen zu konzentrieren, besch&#228;ftigen sich prominente Forscher mit hypothetischen Szenarien einer Superintelligenz. Das von Musk mitgegr&#252;ndete OpenAI startete als Non-Profit-Organisation f&#252;r „sichere KI“, verwandelte sich aber sp&#228;ter in ein gewinnorientiertes Unternehmen mit Microsoft-Kooperation.</p><p>Die Ironie: Unter dem Vorwand, eine sichere KI zum Wohle der Menschheit zu entwickeln, entsteht eine neue Machtkonzentration in den H&#228;nden derselben Tech-Elite. Wie Gebru betont, gehen die gr&#246;&#223;ten unmittelbaren Gefahren der KI nicht von einer hypothetischen Superintelligenz aus, sondern von ihrer Nutzung zur Verst&#228;rkung bestehender Ungleichheiten.</p><h3 class=„subheading“ id=„nav_intelligenz_3“>Intelligenz</h3><p>Tats&#228;chlich ist Gebru nicht die erste, die auf das schwierige Erbe der Intelligenzforschung verweist: Bereits 1981 kritisierte der Biologe Stephen Jay Gould in seinem Buch „Der falsch vermessene Mensch“ das Konzept „Intelligenz“ als objektive Messlatte f&#252;r allgemeine kognitive F&#228;higkeiten. Dieses Konzept und die zugeh&#246;rigen Tests wurde ganz wesentlich von Forschern wie Charles Spearman vorangetrieben, einem hochrangigen Mitglied der britischen Eugenischen Gesellschaft. Die statistischen Methoden, die Spearman entwickelte, entwickelte Frank Rosenblatt dann sp&#228;ter f&#252;r das erste k&#252;nstliche neuronale Netz weiter.</p><h3 class=„subheading“ id=„nav_eugenik_4“>Eugenik</h3><p>Wie sein Lehrer, der britische Naturforscher Francis Galton war Spearman davon &#252;berzeugt, dass man durch politische Eingriffe daf&#252;r sorgen m&#252;sse, dass intelligente Menschen sich st&#228;rker vermehren als der Rest &#8211; eine Idee, die letztendlich zur Rassenlehre der Nazis f&#252;hrte. Doch auch nach dem Ende des zweiten Weltkriegs war die Eugenik nicht restlos diskreditiert.</p><h3 class=„subheading“ id=„nav_transhumanismus_5“>Transhumanismus</h3><p>In den 1990er Jahren entwickelte sich in den USA mit dem Transhumanismus eine Ideologie, die den Grundgedanken der Eugenik aufgriff, aber nicht mehr auf Biopolitik, sondern auf individuelle Verbesserungen durch KI oder Gentechnik setzte.</p><p>F&#252;r Transhumanisten geht die Evolution des Menschen mithilfe von Technologie weiter. Sie glauben, <a href=„https://t3n.de/news/transhumanismus-mensch-zukunft-technologie-1522196/“ rel=„external noopener“ target=„_blank“>dass Menschen immer st&#228;rker mit Technologie zusammenwachsen</a> und schlie&#223;lich auch ihren Geist in Computer hochladen k&#246;nnen, um unsterblich zu werden. Viele moderne Transhumanisten distanzieren sich jedoch ausdr&#252;cklich von der Eugenik und betonen stattdessen individuelle Wahlfreiheit und ethische Verantwortung.</p><div class=„a-u-inline“> </div><h3 class=„subheading“ id=„nav_catastrophic6“>Catastrophic Risk: Die Obsession mit dem Weltuntergang</h3><p>Die Besch&#228;ftigung mit existenziellen Risiken &#8211; im Jargon der Szene „xrisks“ genannt &#8211; hat sich seit den fr&#252;hen 2000er Jahren zu einem eigenen Forschungsfeld entwickelt. Institutionen wie das Future of Humanity Institute in Oxford widmen sich ausschlie&#223;lich der Frage, welche Ereignisse die Menschheit ausl&#246;schen k&#246;nnten.</p><p>Bemerkenswert ist die Priorisierung: W&#228;hrend der Klimawandel als „lediglich“ zivilisationsgef&#228;hrdend eingestuft wird, gelten hypothetische Szenarien wie eine au&#223;er Kontrolle geratene KI als existenziell bedrohlich. Diese Gewichtung erkl&#228;rt sich aus der Logik des Longtermism: Ein Ereignis, das die Menschheit ausl&#246;scht, verhindert die Existenz aller potenziellen zuk&#252;nftigen Menschen.</p><p>Diese Fokussierung hat konkrete Auswirkungen: Milliard&#228;re wie Dustin Moskovitz oder Jaan Tallinn investieren Millionen in die Erforschung von KI-Risiken, w&#228;hrend unmittelbarere Bedrohungen f&#252;r lebende Menschen als weniger dringlich betrachtet werden.</p><h3 class=„subheading“ id=„nav_effektiver7“>Effektiver Altruismus und Earn to Give</h3><p>Einige Transhumanisten, wie etwa Nick Bostrom, entwickelten die Philosophie des „<a href=„https://t3n.de/news/effektiver-altruismus-was-hinter-der-ideologie-von-tech-bros-wie-sam-bankman-fried-steckt-1674961/“ rel=„external noopener“ target=„_blank“>Effektiven Altruismus</a>“ (EA). Der Name leitet sich daraus her, dass es im Kern darum geht, so zu handeln, dass der Nutzen f&#252;r die gesamte Menschheit maximiert wird &#8212; allerdings unter der Pr&#228;misse einer neoliberalen &#214;konomie. Die Grundannahme: Das „knappe Gut“ Hilfe muss m&#246;glichst „gewinnbringend“ eingesetzt werden.</p><p>Daraus folgt unter anderem das Prinzip „Earn to Give“: Weil jeder Mensch nur begrenzte Zeit und Energie hat, ist es ethisch geboten, so schnell wie m&#246;glich viel Geld zu machen, um einen Teil davon zu spenden. Traditionelle ethische &#220;berlegungen werden von diesem Prinzip &#252;bergeregelt.</p><p>Ein prominentes Beispiel ist Sam Bankman-Fried, der Gr&#252;nder der kollabierten Kryptow&#228;hrungsb&#246;rse FTX. Er folgte explizit dem „Earn to Give“-Prinzip und wurde zum Milliard&#228;r, bevor sein Unternehmen unter Betrugsverdacht zusammenbrach.</p><p>Es sollte jedoch angemerkt werden, dass die EA-Bewegung vielf&#228;ltiger ist, als oft dargestellt. W&#228;hrend einige Vertreter existenzielle Risiken priorisieren, konzentrieren sich viele EA-Initiativen auf aktuelle Probleme wie globale Gesundheit oder Armutsbek&#228;mpfung.</p><h3 class=„subheading“ id=„nav_longtermism8“>Longtermism: Existenz der Menschheit sichern</h3><p>W&#228;hrend sich die EA-Bewegung zun&#228;chst auf „evidenzbasierte“ Hilfsprojekte konzentrierte, gewann zunehmend ein ideologischer Zweig an Bedeutung, der „Longtermism“ genannt wird. Die Idee: Weil in der Zukunft bedeutend mehr Menschen leben werden als bisher, bedeutet die Maximierung des menschlichen Gl&#252;cks zun&#228;chst mal, die Existenz der Menschheit zu sichern.</p><p>Longtermism darf jedoch nicht mit langfristigem Denken verwechselt werden. Wer glaubt, dass sich aus dem Nachdenken &#252;ber existenzielle Risiken ein entschiedener Kampf gegen den Klimawandel ableiten l&#228;sst, der irrt. Da der Klimawandel voraussichtlich nicht zum Aussterben der Menschheit f&#252;hren wird, gilt er in EA-Kreisen nicht als existenzielle Bedrohung. Ein Atomkrieg, eine von Menschen verursachte Pandemie, der Ausbruch eines Supervulkans, kaskadierendes Systemversagen und nat&#252;rlich auch eine au&#223;er Kontrolle geratene Super-Intelligenz geh&#246;ren dagegen ganz sicher zu den existenziellen Krisen, und sind somit auf jeden Fall zu vermeiden &#8211; wenn die Menschheit es denn schafft. Laut KI-Pionier Geoffrey Hinton k&#246;nne und werde eine <a href=„https://www.heise.de/meinung/Welche-Ideologie-hinter-Geoffrey-Hintons-Warnungen-steckt-8988646.html“>entsprechend intelligente KI Menschen so manipulieren</a>, dass sie mehr Autonomie erlangt, eine Idee, die aus dem sogenannten AI-Box-Experiment stammt, das in xrisk-Kreisen seit den 2000ern diskutiert wird.</p><div class=„a-u-inline“> </div><p>Daraus folgt &#8211; wenig &#252;berraschend: EA hat sich seit Anfang der 2000er vorwiegend im Silicon Valley zu einer Bewegung entwickelt, die &#252;ber viel Geld und Einfluss verf&#252;gt, weil sie Tech-Bros wie Peter Thiel, Elon Musk oder <a href=„https://www.heise.de/news/FTX-Betrug-Sam-Bankman-Fried-zu-25-Jahren-Gefaengnis-verurteilt-9670650.html“>Sam Bankman-Fried</a> angezogen hat. <a href=„https://www.heise.de/news/Facebook-Peter-Thiel-verlaesst-Meta-Verwaltungsrat-um-Trump-zu-unterstuetzen-6354944.html“>Thiel hat &#246;ffentlich erkl&#228;rt</a>, dass er nicht mehr glaube, Freiheit und Demokratie seien miteinander vereinbar &#8211; eine pers&#246;nliche politische &#220;berzeugung, die jedoch nicht notwendigerweise die Haltung aller mit TESCREAL assoziierten Personen darstellt.</p><p>Bef&#252;rworter dieser Ideologien argumentieren, dass sie rational versuchen, die gr&#246;&#223;ten Herausforderungen der Menschheit zu bew&#228;ltigen. Kritiker wie Gebru und Torres hingegen weisen darauf hin, dass diese scheinbar rationalen Ans&#228;tze oft bestehende Machtverh&#228;ltnisse reproduzieren und dr&#228;ngende Probleme wie Klimawandel oder soziale Ungerechtigkeit vernachl&#228;ssigen.</p><div class=„a-u-inline“> </div><h3 class=„subheading“ id=„nav_relevanz_der9“>Relevanz der Ideologie heute</h3><p>Auf den ersten Blick scheint es so, als ob all dieser ideologischen Elemente keine Rolle mehr spielen w&#252;rden. Stattdessen konzentrieren sich die Tech-Eliten jetzt auf die neoliberale Erz&#228;hlung vom unf&#228;higen und ineffizienten Staat, den man abschaffen und durch eine dynamische Struktur nach dem Vorbild eines Hightech-Unternehmens ersetzen m&#252;sse.</p><p>Die praktischen Auswirkungen dieser Ideologie sind weitreichend: Sie beeinflussen Investitionsentscheidungen in Milliardenh&#246;he und pr&#228;gen die Entwicklungsrichtung von Zukunftstechnologien. In der Praxis f&#252;hrt sie oft zu einer Privatisierung gesellschaftlicher Zukunftsfragen, bei der demokratische Prozesse durch die Visionen einzelner Tech-Milliard&#228;re ersetzt werden. Diese Einsch&#228;tzung spiegelt allerdings eine bestimmte kritische Perspektive wider, die nicht universell anerkannt ist.</p><p>Musks Engagement spiegelt diese Ideologie in vielf&#228;ltiger Weise wider: Seine Raumfahrtfirma SpaceX verfolgt mit dem Mars-Kolonisierungsprojekt die transhumanistische Vision einer multiplanetaren Menschheit, Neuralink zielt auf die direkte Verbindung von Gehirn und Computer ab, und seine KI-Aktivit&#228;ten folgen der Logik des Longtermism.</p><p>„Was hat Musk wirklich vor?“, fragt Torres. „Ich denke, dass die offensichtlichen Antworten zwar wahr, aber unvollst&#228;ndig sind. Offensichtliche Antworten sind zum Beispiel: Man wird nicht zum Milliard&#228;r, wenn man nicht diese Art von gr&#246;&#223;enwahnsinniger Selbstwahrnehmung hat, in der man sich in jeder Hinsicht &#252;berlegen f&#252;hlt. Und diese Leute sind extrem gierig. Wenn sie sich mit der Trump-Regierung anfreunden, ist das gut f&#252;r das Gesch&#228;ft, f&#252;r die weitere Festigung ihrer Macht.“</p><p>„Aber ich denke, f&#252;r Leute wie Musk, und ich w&#252;rde wahrscheinlich dasselbe f&#252;r Jeff Bezos sagen, gibt es ein h&#246;heres Ziel. Musk hat so viele Hinweise darauf gegeben, dass Macht nicht das Endziel ist. Sogar in dieser Rede, die er gehalten hat, der sehr kurzen Rede nach der Amtseinf&#252;hrung von Trump, in der er den Hitlergru&#223; zeigte. In dieser kleinen Rede sagt er: „Dank Ihnen ist die Zukunft der Zivilisation gesichert.“ Und so denke ich, dass es ein sehr starkes Argument daf&#252;r gibt, dass hinter all dem sein tieferes Ziel steht, seine transhumanistischen Projekte zu verwirklichen.“</p><div class=„a-u-inline“> </div><p>(<a class=„redakteurskuerzel__link“ title=„Volker Zota“>vza</a>)</p> <div class=„paywall-delimiter“> </div> </div> </div></div></div></div> </html>

Cookies helfen bei der Bereitstellung von Inhalten. Diese Website verwendet Cookies. Mit der Nutzung der Website erklären Sie sich damit einverstanden, dass Cookies auf Ihrem Computer gespeichert werden. Außerdem bestätigen Sie, dass Sie unsere Datenschutzerklärung gelesen und verstanden haben. Wenn Sie nicht einverstanden sind, verlassen Sie die Website.Weitere Information