Qgelm

Studie: 50 Prozent der Systeme für "Künstliche Intelligenz" schummeln

Originalartikel

Backup

<html> <p class=„printversionback-to-article printversion–hide“><a href=„https://www.heise.de/newsticker/meldung/Studie-50-Prozent-der-Systeme-fuer-Kuenstliche-Intelligenz-schummeln-4332279.html“>zur&#252;ck zum Artikel</a></p><figure class=„printversionlogo“><img src=„https://1.f.ix.de/icons/svg/logos/svg/heiseonline.svg“ alt=„heise online“ width=„180“ heigth=„40“/></figure><figure class=„aufmacherbild“><img src=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/6/1/8/3/8/3/shutterstock_641526955-254c5b35e2ecf6e8.jpeg“ srcset=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/6/1/8/3/8/3/shutterstock_641526955-254c5b35e2ecf6e8.jpeg 700w, https://heise.cloudimg.io/width/1000/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/6/1/8/3/8/3/shutterstock_641526955-254c5b35e2ecf6e8.jpeg 1000w“ sizes=„(min-width: 80em) 43.75em, (min-width: 64em) 66.66vw, 100vw“ alt=„Studie: 50 Prozent der Systeme f&#252;r &quot;K&#252;nstliche Intelligenz&quot; schummeln“ class=„img-responsive“/><figcaption class=„akwa-caption“><p class=„source akwa-captionsource“>(Bild:&#160;whiteMocca/Shutterstock.com)</p> </figcaption></figure><p><strong>Viele vermeintliche KI-Modelle bedienen sich wenig intelligenter L&#246;sungsstrategien, erkl&#228;rte der Berliner Forscher Klaus-Robert M&#252;ller im Bundestag.</strong></p> <p>Klaus-Robert M&#252;ller, Professor f&#252;r Maschinelles Lernen an der TU Berlin, hat am Montag in der Enquete-Kommission K&#252;nstliche Intelligenz (KI) des Bundestags eine st&#228;rkere Analyse g&#228;ngiger Systeme f&#252;r sogenannte KI gefordert. „50 Prozent der Modelle sind von der 'Clever Hans'-Strategie betroffen“, beklagte der Experte die H&#228;ufigkeit von Schummelalgorithmen. Das Feld der „erkl&#228;rbaren K&#252;nstlichen Intelligenz“ („explainable AI“) m&#252;sse daher ausgebaut und h&#228;ufiger eingesetzt werden.</p> <p>M&#252;ller hat zusammen mit Kollegen vom Heinrich-Hertz-Institut (HHI) und der Singapore University of Technology and Design nach eigenen Angaben das ganze „Intelligenz“-Spektrum bestehender KI-Systeme mit einem speziellen, automatisierten Verfahren analysiert und quantifiziert. Laut den gerade in „Nature Communications“ <a href=„https://www.tu-berlin.de/?203846“ rel=„external noopener“ target=„_blank“><strong>ver&#246;ffentlichten Ergebnissen [1]</strong></a> haben selbst moderne KI-Modelle nicht immer einen aus menschlicher Perspektive sinnvollen L&#246;sungsweg gefunden, sondern „schummelten“ &#228;hnlich wie der „Kluge Hans“.</p> <p>Dabei handelte es sich um ein Pferd, das angeblich rechnen und z&#228;hlen konnte und um 1900 herum als wissenschaftliche Sensation galt. Wie sich sp&#228;ter herausstellte, beherrschte Hans nicht die Mathematik, sondern konnte in etwa 90 Prozent der F&#228;lle die richtige Antwort aus der Reaktion des Fragestellers beziehungsweise dem Gesichtsausdruck des Besitzers ableiten.</p> <div class=„inread“/> <h3 class=„subheading“ id=„nav_schummelnde_und0“>Schummelnde und gef&#228;hrliche KI</h3> <p>Ein von den Wissenschaftlern untersuchtes System, das vor einigen Jahren mehrere internationale Wettbewerbe zur Klassifikation von Bildern gewonnen hat, „beurteilte“ Fotos oder vergleichbare Darstellungen vorwiegend anhand des Kontextes. Es ordnete etwa Bilder der Kategorie „Schiff“ zu, wenn viel Wasser zu sehen war. Auf einen „Zug“ schloss es, wenn Schienen vorhanden waren. Andere Aufnahmen steckte es mithilfe von zus&#228;tzlichen Erkl&#228;rungen innerhalb des Copyright-Schriftzuges in die richtige Kategorie. Die eigentliche Aufgabe, Gegenst&#228;nde oder Tiere zu erkennen, hat dieser Algorithmus nach Ansicht der Forscher aber nicht gel&#246;st.</p> <p>„Ich m&#246;chte so nicht im Gebiet der medizinischen Diagnostik behandelt werden“, betonte M&#252;ller. In sicherheitskritischen Bereichen b&#228;rgen solche Systeme enorme Gefahren. Selbst bei einigen der neuesten KI-Algorithmen in Form tiefer neuronaler Netzwerke fanden die Analysten fehlerhafte L&#246;sungsstrategien: Diese st&#252;tzten ihre Klassifikationsentscheidung teils auf Artefakte, die w&#228;hrend der Pr&#228;paration der Bilder entstanden und mit dem eigentlichen Inhalt gar nichts zu tun hatten.</p> <h3 class=„subheading“ id=„nav_transparente_ki_1“>Transparente KI</h3> <p>„Man hat Millionen Daten, aber kein Mensch guckt die mehr an“, beklagte der Vertreter der Max-Planck-Gesellschaft aktuelle Ausw&#252;chse im KI-Hype. Dies sei unhaltbar: „Man muss wissen, was die Modelle machen.“ Dies sei kein Zauberwerk, da etwa die Computerbilderkennung gut transparent gemacht werden k&#246;nne. In der Regel w&#252;rden daf&#252;r „Heatmaps“ gebastelt, die jedem Pixel eine Wahrscheinlichkeit geben. Generell sei die Darstellung von Algorithmen als Blackbox „Unfug“. Um etwa bei der erkl&#228;rbaren KI weiter zu kommen, „braucht es aber halt Geld“.</p> <p>Das ganze KI-Feld „bewegt sich sehr schnell, wir m&#252;ssen einen Zacken zulegen“, unterstrich der <a href=„https://www.heise.de/meldung/Big-Data-Forscher-Klaus-Robert-Mueller-erhaelt-Berliner-Wissenschaftspreis-2461826.html“><strong>Big-Data-Forscher [2]</strong></a>. „Wir brauchen mehr Professoren, die das wirklich machen und k&#246;nnen.“ Sonst drohe Deutschland, den Anschluss an die internationale Entwicklung zu verpassen. Allein US-Konzerne investierten Milliarden in die Grundlagen der Technik, wobei der Weg von einer neuen Algorithmik in Produkte und Anwendungen hinein „enorm kurz“ geworden sei und so schon eine kleine Idee eines Mitarbeiters Millionen zur&#252;ck in die Kassen sp&#252;len k&#246;nne.</p> <h3 class=„subheading“ id=„nav_jeder_kann_ki2“>Jeder kann KI „machen“</h3> <p>Weil sie die n&#246;tige Infrastruktur mit st&#228;ndig verf&#252;gbaren Hochleistungsrechnern und Cloud-Speichern h&#228;tten, seien Amazon, Google, Microsoft und Facebook „so weit vorn“, konstatierte Morris Riedel von der Helmholtz-Gemeinschaft. Mittlerweile k&#246;nnten sich selbst Startups und Firmen aus dem Mittelstand den R&#252;ckgriff auf die erforderlichen technischen Architekturen f&#252;r <a href=„https://www.heise.de/thema/K&#252;nstliche-Intelligenz“><strong>K&#252;nstliche Intelligenz [3]</strong></a> leisten, da etwa kosteng&#252;nstige Grafikprozessoren (GPUs) „perfekt“ seien f&#252;r Algorithmen rund ums Maschinenlernen. Da es ferner dazu passende Open-Source-Rahmenwerke gebe, k&#246;nne quasi jeder Interessierte „direkt anfangen, KI zu machen“.</p> <p>Bei einschl&#228;gigen Anwendungen etwa im Medizin- oder Einzelhandelsbereich komme es oft auch auf die Personalisierung an, gab Riedel zu bedenken. Hier <a href=„https://www.heise.de/meldung/DSGVO-und-KI-Unvertraeglichkeiten-beim-Datenschutz-4049785.html“><strong>werfe die Datenschutz-Grundverordnung (DSGVO) [4]</strong></a> die europ&#228;ischen Entwickler „etwas zur&#252;ck gegen&#252;ber den USA und China“. In &#220;bersee habe sich etwa bereits mit „Patients like me“ eine Art „Facebook f&#252;r Kranke“ entwickelt, wof&#252;r der Professor am Forschungszentrum J&#252;lich Verst&#228;ndnis hat: „Wenn ich einmal krank bin, ist der Datenschutz vielleicht teilweise nicht mehr so wichtig.“ &#196;hnlich sei es bei Strategien, um Fu&#223;g&#228;ngerzonen wiederzubeleben: In China werde hier nur noch anhand von Nutzerbewertungen eingekauft.</p> <h3 class=„subheading“ id=„nav_haftung_bei3“>Haftung bei Fehlern</h3> <p>Emmanuel M&#252;ller, Datenwissenschaftler an der Uni Bonn, machte den Schutz von personenbezogenen Daten dagegen als eine der „gro&#223;en Herausforderungen f&#252;r Informatiker“ aus, um etwa Vertrauen in Assistenzsysteme zur Krebsbek&#228;mpfung bei Patienten und &#196;rzte aufzubauen. Genauso m&#252;sse etwa noch gekl&#228;rt werden, wer im Fehlerfall haftet. Der Vertreter der Fraunhofer-Gesellschaft warb daf&#252;r, die vielfach frei als Open Source verf&#252;gbaren Big-Data-Systeme zu zertifizieren und so besser abzusichern.</p> <p>F&#252;r einen dezentralen Ansatz, um die f&#252;r die oft schon jahrzehntealten Algorithmen f&#252;r lernende Systeme in Europa mit ausreichend Trainingsdaten zu versorgen, sprach sich der Direktor der Technischen Informationsbibliothek (TIB) Hannover, S&#246;ren Auer, aus. Damit k&#246;nne Europa auch der Heterogenit&#228;t Rechnung tragen und sich gegen zentrale Datensilos aussprechen, wie sie die US-Techr-Riesen hegten. Weiter sprach sich der Forscher der Leibniz-Gemeinschaft daf&#252;r aus, wissenschaftliche Literatur st&#228;rker semantisch zu strukturieren, „damit KI uns unterst&#252;tzen kann, um einen &#220;berblick &#252;ber den Stand der Forschung in einem Gebiet zu bekommen“.</p> <h3 class=„subheading“ id=„nav_freir&#228;ume_f&#252;r4“>Freir&#228;ume f&#252;r das Menschliche</h3> <p>Zuvor hatte Alexander Filipovi&#263; von der Hochschule f&#252;r Philosophie M&#252;nchen angesichts des zunehmenden Einsatzes von KI-Systemen nach „Freir&#228;umen f&#252;r das spezifisch Menschliche“ gerufen, „was nicht automatisiert werden kann“ sowie „so schr&#228;g und anders ist, dass selbst selbstlernende Maschinen kapitulieren“. Zudem m&#252;sse es Abwehrrechte etwa gegen die Gesichtserkennung geben.</p> <p>Der Medienethiker bewertete KI als zweischneidiges Schwert. Einerseits k&#246;nne die Technologie „unsere Freiheit erweitern“ und den Menschen von &#228;u&#223;eren Zw&#228;ngen befreien oder etwa das Kernelement der Autonomie im Alter durch intelligente Pflegeroboter bewahren helfen. Andererseits gingen solche Anwendungen oft „mit Unterdr&#252;ckungseffekten“ oder der &#220;bernahme maschineller Verhaltensweisen einher. Letztlich glaubt der Geisteswissenschaftler, dass sich mit KI „unser Selbstverst&#228;ndnis sehr stark &#228;ndern wird: Wir werden zu neuen Menschen.“ ()<br class=„clear“/></p> <hr/><p><strong>URL dieses Artikels:</strong><br/><small><code>http://www.heise.de/-4332279</code></small></p> <p><strong>Links in diesem Artikel:</strong><br/><small><code><strong>[1]</strong>&#160;https://www.tu-berlin.de/?203846</code></small><br/><small><code><strong>[2]</strong>&#160;https://www.heise.de/meldung/Big-Data-Forscher-Klaus-Robert-Mueller-erhaelt-Berliner-Wissenschaftspreis-2461826.html</code></small><br/><small><code><strong>[3]</strong>&#160;https://www.heise.de/thema/K%C3%BCnstliche-Intelligenz</code></small><br/><small><code><strong>[4]</strong>&#160;https://www.heise.de/meldung/DSGVO-und-KI-Unvertraeglichkeiten-beim-Datenschutz-4049785.html</code></small><br/><small><code><strong>[5]</strong>&#160;mailto:olb@heise.de</code></small><br/></p> <p class=„printversioncopyright“><em>Copyright &#169; 2019 Heise Medien</em></p> </html>

Cookies helfen bei der Bereitstellung von Inhalten. Diese Website verwendet Cookies. Mit der Nutzung der Website erklären Sie sich damit einverstanden, dass Cookies auf Ihrem Computer gespeichert werden. Außerdem bestätigen Sie, dass Sie unsere Datenschutzerklärung gelesen und verstanden haben. Wenn Sie nicht einverstanden sind, verlassen Sie die Website.Weitere Information