Qgelm

Hype um KI ChatGPT: "System kaum kritisch reflektiert"

Originalartikel

Backup

<html> <header class=„article-header“><h1 class=„articleheading“>Hype um KI ChatGPT: „System kaum kritisch reflektiert“</h1><div class=„publish-info“></div></header><figure class=„aufmacherbild“><img src=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/6/8/7/7/5/1/shutterstock_1598541148-721089e29cf8f60d.jpeg“ srcset=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/6/8/7/7/5/1/shutterstock_1598541148-721089e29cf8f60d.jpeg 700w, https://heise.cloudimg.io/width/1050/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/6/8/7/7/5/1/shutterstock_1598541148-721089e29cf8f60d.jpeg 1050w, https://heise.cloudimg.io/width/1500/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/6/8/7/7/5/1/shutterstock_1598541148-721089e29cf8f60d.jpeg 1500w, https://heise.cloudimg.io/width/2300/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/6/8/7/7/5/1/shutterstock_1598541148-721089e29cf8f60d.jpeg 2300w“ alt=„Chatgpt,Chat,With,Ai,Or,Artificial,Intelligence.,Young,Businessman,Chatting“ class=„img-responsive“ referrerpolicy=„no-referrer“ /><figcaption class=„akwa-caption“>(Bild:&#160;Skorzewiak/Shutterstock.com)</figcaption></figure><p><strong>Wissenschaftler sehen wichtige Fragen rund um die KI ChatGPT offen und warnen vor Datenschutzl&#246;chern, fehlenden Quellen und erfundenen Informationen.</strong></p><p>Er kann mit einer hohen Sprachpr&#228;zision Reden ausarbeiten und Geschichten erz&#228;hlen &#8211; und das auch noch in Sekundenschnelle. Der von der US-Firma OpenAI entwickelte Text-Roboter ChatGPT, eine Sprachsoftware mit k&#252;nstlicher Intelligenz (KI), ist derzeit in aller Munde. Das mit gewaltigen Datenmengen gef&#252;tterte Programm sorgt f&#252;r viel Aufsehen, aber auch f&#252;r Skepsis.</p><p>Wissenschaftler und KI-Experten in Deutschland warnen vor Datenschutz- und Datensicherheitsl&#252;cken, Hassparolen, Falschnachrichten. „Im Moment ist dieser Hype. Ich habe das Gef&#252;hl, dass man dieses System kaum kritisch reflektiert“, sagt die Gr&#252;nderin des Forschungslabors „Leap in Time Lab“ und BWL-Professorin an der Technischen Universit&#228;t Darmstadt, Ruth Stock-Homburg.</p><p><a href=„https://www.heise.de/thema/ChatGPT“ rel=„external noopener“ target=„_blank“><strong>ChatGPT [1]</strong></a> hat einen sehr breiten Anwendungsbereich. In einer Art Chatfeld kann man dem Programm unter anderem Fragen stellen und bekommt Antworten. Auch Arbeitsanweisungen sind m&#246;glich &#8211; beispielsweise auf Basis grundlegender Informationen einen Brief oder einen Aufsatz zu schreiben.</p><h3 class=„subheading“ id=„nav_daten_aus_dem0“>Daten aus dem Jahr 2021</h3><p>In einem Projekt zusammen mit der TU Darmstadt hat das „Leap in Time Lab“ nun &#252;ber sieben Wochen Tausende von Anfragen ohne pers&#246;nliche Daten an das System gestellt, um Schwachstellen zu finden. „Man kann diese Systeme manipulieren“, sagt Stock-Homburg.</p><p>In einer Pr&#228;sentation zeigt Sven Schultze, TU-Doktorand und Experte f&#252;r Sprach-KI, die Schwachstellen des Text-Roboters. Neben antisemitischen und rassistischen &#196;u&#223;erungen sind Quellenangaben schlicht falsch oder laufen ins Leere. Bei einer Frage nach dem Klimawandel f&#252;hrt ein angegebener Link auf eine Internetseite zu Diabeteserkrankungen. „In der Regel ist es der Fall, dass die Quellen oder auch wissenschaftliche Arbeiten gar nicht existieren“, sagt Schultze. Die Software basiere auf Daten aus dem Jahr 2021. Bundeskanzler Olaf Scholz ist noch Finanzminister, der Krieg in der Ukraine unbekannt.</p><h3 class=„subheading“ id=„nav_l&#252;gen_und1“>L&#252;gen und Einbruchsanweisungen</h3><p>„Dann kann es auch sein, dass sie einfach l&#252;gt oder bei sehr speziellen Themen Informationen erfindet.“ Bei direkten Fragen zum Beispiel mit kriminellen Inhalten gebe es zwar Sicherheitshinweise und -mechanismen. „Man kann aber mit Tricks die KI und die Sicherheitshinweise umgehen“, sagt Schultze. Mit einem anderen Vorgehen zeigt die Software einem, wie man eine betr&#252;gerische Mail generiert oder wirft auch gleich drei Varianten aus, wie Trickbetr&#252;ger beim Enkeltrick vorgehen k&#246;nnen. Auch eine Anleitung f&#252;r einen Wohnungseinbruch liefert GPT. Falls man auf Bewohner treffe, k&#246;nne man auch Waffen oder physische Gewalt einsetzen.</p><div class=„opt-incontent-container“><h2 class=„opt-intitle“>Empfohlener redaktioneller Inhalt</h2><p class=„opt-indescription“>Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.</p><div class=„opt-incta-container“><label class=„opt-incta-persistence“><input class=„opt-inpersistence-checkbox“ data-should-persist=„“ type=„checkbox“ /> Videos immer laden</label> <button class=„opt-incta“ data-opt-in=„“>Video jetzt laden</button></div><p class=„opt-infootnote“>Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit k&#246;nnen personenbezogene Daten an Drittplattformen (Kaltura Inc.) &#252;bermittelt werden. Mehr dazu in unserer <a href=„https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html“><strong>Datenschutzerkl&#228;rung [2]</strong></a>.</p><noscript><figure class=„video video–fullwidth a-u-inline akwa-inline-video player“><figcaption class=„video_titel a-caption“></figcaption></figure></noscript></div><p>Ute Schmid, die den Lehrstuhl f&#252;r Kognitive Systeme an der Otto-Friedrich-Universit&#228;t in Bamberg innehat, sieht es aber vor allem als eine Herausforderung an, dass man nicht erfahren kann, wie der Text-Roboter zu seinen Angaben gelangt ist. „Ein tieferes Problem bei den GPT3-Modell besteht darin, dass es nicht m&#246;glich ist, nachzuvollziehen, welche Quellen wann und wie in die jeweilige Aussagen eingegangen sind.“</p><p>Schmid spricht sich aber trotz dieses gravierenden Mangels daf&#252;r aus, nicht nur auf Fehler oder auf einen m&#246;glichen <a href=„https://www.heise.de/hintergrund/ChatGPT-fuer-Seminar-und-Abschlussarbeiten-wie-Universitaeten-damit-umgehen-7473560.html“><strong>Missbrauch der neuen Technik zu schauen, wenn beispielsweise Pr&#252;flinge ihre Hausarbeiten oder Klausuren von der Software schreiben lassen [3]</strong></a>. „Ich denke eher, wir sollten uns fragen, was f&#252;r eine Chance haben wir durch solche KI-Systeme?“ Forschende tr&#228;ten doch im Allgemeinen daf&#252;r an, dass KI unsere Kompetenzen erweitere, vielleicht sogar noch f&#246;rdere, aber nicht einschr&#228;nke. „Das hei&#223;t, ich muss mich auch im Bildungsbereich fragen &#8211; wie vielleicht vor 30 Jahren zum Thema Taschenrechner &#8211; wie kann ich denn Bildung mit KI-Systemen wie ChatGPT gestalten?“</p><h3 class=„subheading“ id=„nav_daten_landen_in2“>Daten landen in den USA</h3><p>Generell zeigen sich auf dem Feld der <a href=„https://www.heise.de/news/Globale-Herausforderungen-USA-und-EU-wollen-gemeinsam-KI-Modelle-entwickeln-7474193.html“><strong>K&#252;nstlichen Intelligenz noch zahlreiche Herausforderungen [4]</strong></a>, die die USA und die EU gemeinsam angehen wollen. Und mit Blick auf ChatGPT bleiben Bedenken zur Datensicherheit und dem Datenschutz. „Was man sagen kann ist, dass ChatGPT vielf&#228;ltige Daten vom Nutzer aufnimmt, speichert und verarbeitet, um dann zum gegebenen Zeitpunkt dieses Modell entsprechend zu trainieren“, sagt der zertifizierte Frankfurter Datenschutzfachmann Christian Holthaus. Es gebe das Problem, dass alle Server in den USA stehen. „Das ist die eigentliche Problematik, wenn man es nicht schafft, die Technologie in Europa zu etablieren oder eine eigene zu haben“, sagt Holthaus. Auf absehbare Zeit werde es keine datenschutzkonforme L&#246;sung geben. Auch Stock-Homburg sagt &#252;ber EU-Datenschutzregelungen: „Dieses System ist hier eher kritisch zu bewerten.“</p><div class=„a-u-inline ho-text c3“><header class=„mb-4“><h3 class=„inline-flex pb-2 pr-8 text-xl font-bold leading-none border-b-4 border-gray-800 dark:border-white“>Lesen Sie auch</h3></header><section data-component=„TeaserList“ class=„grid gap-6 md:gap-y-8“ data-sneak-peek-elements-container=„true“><article data-component=„TeaserContainer“ data-cid=„7473560“ data-content-id=„3687242“ class=„flex ho-text“ data-teaser-name=„MinimalHorizontalTeaser“ data-upscore-object-id=„7473560_o“><a data-component=„TeaserLinkContainer“ href=„https://www.heise.de/hintergrund/ChatGPT-fuer-Seminar-und-Abschlussarbeiten-wie-Universitaeten-damit-umgehen-7473560.html“ class=„group flex“ data-google-interstitial=„true“ data-upscore-url=„true“><figure data-component=„Image“ class=„w-24 mr-2 md:w-40 shrink-0 md:mr-4“><div class=„ff-a-img“><img data-ff-replacement=„1“ width=„5754“ height=„3233“ src=„https://www.heise.de/imgs/18/3/6/8/7/2/4/2/shutterstock_2241913405-542104ad1d7a0abd.jpeg“ alt=„Chatgpt,Chat,With,Ai,Or,Artificial,Intelligence.,Young,Businessman,Chatting“ class=„c1“ referrerpolicy=„no-referrer“ /></div></figure><div class=„-translate-y-1“><header data-component=„TeaserHeader“><h3 class=„flex flex-col“>Text-KI &#8211; wie Universit&#228;ten damit umgehen</h3></header></div></a><div data-upscore-object-id=„7473560“></div></article></section></div><p>ChatGPT wurde von einer der f&#252;hrenden KI-Firmen in den USA, OpenAI, entwickelt. Der Software-Riese <a href=„https://www.heise.de/news/Microsoft-investiert-weitere-Milliarden-in-ChatGPT-Entwickler-OpenAI-7468786.html“><strong>Microsoft hatte bereits 2019 eine Milliarde US-Dollar in das Unternehmen investiert und k&#252;rzlich angek&#252;ndigt, weitere Milliarden in das Unternehmen zu pumpen [5]</strong></a>. Der Konzern will ChatGPT bald f&#252;r Kunden des eigenen Cloud-Services Azure und des Office-Paketes verf&#252;gbar machen.</p><p>Derzeit sei ChatGPT eher ein Spielerei f&#252;r das Private, sagt Stock-Homburg. Aber es sei momentan in keinem Fall etwas f&#252;r die Wirtschaft und sicherheitsrelevante Bereiche. „Wir haben keine Vorstellung dar&#252;ber, wie wir mit dem noch unausgereiften System umgehen sollen.“</p><h3 class=„subheading“ id=„nav_durchbruch3“>Durchbruch?</h3><p>Oliver Brock, Professor am Robotics and Biology Laboratory und Sprecher des Clusters „Science of Intelligence“ von der Technischen Universit&#228;t Berlin, sieht in ChatGPT keinen „Durchbruch“ in der Forschung zur k&#252;nstlichen Intelligenz. Zum einen sei die Entwicklung in diesem Bereich nicht sprunghaft, sondern kontinuierlich. Zum anderen bilde das Projekt nur einen kleinen Teilbereich der KI-Forschung ab. ChatGPT k&#246;nne allerdings in einem anderen Gebiet als Durchbruch gewertet werden, n&#228;mlich der Schnittstelle zwischen Mensch und Internet. „Wie hier diese riesigen Datenmengen aus dem Internet mit einem gro&#223;en Rechenaufwand intuitiv und in nat&#252;rlicher Sprache einer breiten &#214;ffentlichkeit zug&#228;nglich gemacht werden, kann man schon als Durchbruch bezeichnen“, meint Brock.</p><p>() </p><p><strong>URL dieses Artikels:</strong><small><code>https://www.heise.de/-7474523</code></small></p><p><strong>Links in diesem Artikel:</strong><small><code><strong>[1]</strong>&#160;https://www.heise.de/thema/ChatGPT</code></small><small><code><strong>[2]</strong>&#160;https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html</code></small><small><code><strong>[3]</strong>&#160;https://www.heise.de/hintergrund/ChatGPT-fuer-Seminar-und-Abschlussarbeiten-wie-Universitaeten-damit-umgehen-7473560.html</code></small><small><code><strong>[4]</strong>&#160;https://www.heise.de/news/Globale-Herausforderungen-USA-und-EU-wollen-gemeinsam-KI-Modelle-entwickeln-7474193.html</code></small><small><code><strong>[5]</strong>&#160;https://www.heise.de/news/Microsoft-investiert-weitere-Milliarden-in-ChatGPT-Entwickler-OpenAI-7468786.html</code></small><small><code><strong>[6]</strong>&#160;mailto:kbe@heise.de</code></small></p><p class=„printversioncopyright“><em>Copyright &#169; 2023 Heise Medien</em></p> </html>

Cookies helfen bei der Bereitstellung von Inhalten. Diese Website verwendet Cookies. Mit der Nutzung der Website erklären Sie sich damit einverstanden, dass Cookies auf Ihrem Computer gespeichert werden. Außerdem bestätigen Sie, dass Sie unsere Datenschutzerklärung gelesen und verstanden haben. Wenn Sie nicht einverstanden sind, verlassen Sie die Website.Weitere Information