Maschinelles Lernen – Wie geht es weiter?

Originalartikel

Backup

<html> <p>&#160;&#187;&#160;<a href=„https://www.informatik-aktuell.de/betrieb.html“ target=„_self“>Betrieb</a>&#160;&#187;&#160;<a href=„https://www.informatik-aktuell.de/betrieb/kuenstliche-intelligenz.html“ target=„_self“>K&#252;nstliche Intelligenz</a></p>Prof. Dr. Christian Bauckhage 04. September 2018<header></header><div class=„ce-textpic ce-left ce-intext“><div class=„ce-gallery ce-row ce-column“ data-ce-columns=„1“ data-ce-images=„1“><figure class=„image“><img class=„image-embed-item“ title=„Maschinelles Lernen ist mittlerweile eine Alltagstechnologie. &#169; fotomek / Fotolia.com“ alt=„Maschinelles Lernen ist mittlerweile eine Alltagstechnologie. &#169; fotomek / Fotolia.com“ src=„https://www.informatik-aktuell.de/fileadmin/_processed_/8/7/csm_720-KI_Fotolia_214778389_fotomek_ce4b7aee81.jpg“ width=„350“ height=„196“ referrerpolicy=„no-referrer“ /><figcaption class=„image-caption“>&#169; fotomek / Fotolia.com</figcaption></figure></div><div class=„ce-bodytext“><p><strong>Seit einiger Zeit erlebt die K&#252;nstliche Intelligenz immer neue H&#246;henfl&#252;ge. Beeindruckende Systeme wie AlphaGO, Google Duplex oder IBM Debater sind in aller Munde. M&#246;glich werden solche Leistungen vor allem durch lernende Algorithmen, die mittels Big Data trainiert werden, kognitive Aufgaben zu l&#246;sen. Was aber ist, wenn Trainingsdaten verzerrt oder fehlerhaft sind oder schlicht nicht in der Menge vorliegen, die n&#246;tig w&#228;re, um robust lernen zu k&#246;nnen? Wie kann sichergestellt werden, dass die Entscheidungen eines komplexen Algorithmus f&#252;r Anwender nachvollziehbar sind? Hier ergeben sich Herausforderungen f&#252;r das maschinelle Lernen, die gel&#246;st werden m&#252;ssen, um m&#246;glichen Risiken oder der Monopolisierung der K&#252;nstlichen Intelligenz zu begegnen.</strong></p><p>Im Zuge der rasch voranschreitenden Digitalisierung von Wirtschaft und Gesellschaft h&#228;lt K&#252;nstliche Intelligenz (KI) zunehmend Einzug in unseren Alltag. Routenplaner, Sprachassistenten auf dem Smartphone oder Chatbots im webbasierten Kundenservice sind mittlerweile Standardprodukte. Aber auch in professionellen Anwendungen, etwa in der medizinischen Diagnostik, in der industriellen Qualit&#228;tskontrolle oder in autonomen Fahrzeugen, werden KI-Systeme mit gro&#223;em Erfolg eingesetzt.</p><p>Momentan wird diese Entwicklung vor allem durch Techniken des maschinellen Lernens getrieben und insbesondere <em>Deep Learning</em> und k&#252;nstliche neuronale Netze haben zuletzt zu deutlichen Fortschritten gef&#252;hrt. Vereinfacht gesagt bestehen solche auf Computern implementierte neuronale Netze aus kleinen, miteinander vernetzten Recheneinheiten, die die Funktionsweise der Neuronen im Gehirn simulieren. Jedes einzelne Neuron berechnet eine vergleichsweise einfache, parametrisierte mathematische Funktion seiner Eingaben und &#252;bermittelt seine Ergebnisse an andere Neuronen, die damit weitere Berechnungen anstellen. Um komplizierte Aufgaben l&#246;sen zu k&#246;nnen, muss ein neuronales Netz zum einen aus sehr vielen Neuronen bestehen, die heutzutage typischerweise in vielen aufeinanderfolgenden Schichten angeordnet werden, wodurch das Netz tief wird. Zum anderen muss jedes seiner Neuronen lernen, was es genau berechnen soll. Dazu werden die Parameter des Netzes zun&#228;chst zuf&#228;llig initialisiert. Anschlie&#223;end werden dem Netz in einer Trainingsphase Eingabedaten pr&#228;sentiert, zu denen es Ausgaben berechnet. Falls diese vom gew&#252;nschten Ergebnis abweichen, werden die Parameter durch statistische Optimierungsalgorithmen so lange justiert, bis der durchschnittliche Ausgabefehler klein genug ist, um das Netz sinnvoll nutzen zu k&#246;nnen.</p></div></div><div class=„ce-image ce-center ce-above ce-gallery ce-outer ce-inner ce-row ce-column“><figure class=„image“><a href=„https://www.ittage.informatik-aktuell.de/programm/themen/ki-machine-learning.html“ title=„IT-Tage - KI &amp; Machine Learning“ target=„_blank“><img class=„image-embed-item“ title=„IT-Tage - KI &amp; Machine Learning“ alt=„IT-Tage - KI &amp; Machine Learning“ src=„https://www.informatik-aktuell.de/fileadmin/templates/wr/pics/Banner/IT-Tage_Themen_Banner/IT-Tage_Themen_Banner_KI.png“ width=„720“ height=„80“ referrerpolicy=„no-referrer“ /></a></figure></div><p>An dieser Stelle stellt sich die Frage, wieso k&#252;nstliche neuronale Netze in den letzten Jahren pl&#246;tzlich so popul&#228;r und gut geworden sind. Denn schlie&#223;lich sind die zugrundeliegenden Ideen keinesfalls neu, sondern reichen bis in die 1940er Jahre zur&#252;ck. Die Antwort ist fast banal: im Wesentlichen sind es vier Ph&#228;nomene, die die Leistung dieser Technologie befeuert haben: Big Data, g&#252;nstige Rechenleistungen, Open-Source-Bibliotheken und betr&#228;chtliche Investitionen in Know-how.</p><p>Je gr&#246;&#223;er ein neuronales Netz ist, desto schwierigere Aufgaben kann es l&#246;sen. Gleichzeitig braucht es aber auch umso mehr Trainingsdaten, um seine Aufgabe optimal zu lernen. Im Zeitalter von Big Data sind Trainingsdaten f&#252;r viele Anwendungen jedoch oft massenhaft vorhanden. Zugleich ist der Trainingsprozess f&#252;r gro&#223;e Netze sehr rechenintensiv und dauerte fr&#252;her wochen- oder monatelang. Seit einiger Zeit lassen sich die erforderlichen Berechnungen aber insbesondere dank leistungsstarker Grafikkarten in einem Bruchteil dieser Zeit durchf&#252;hren. Zudem wird Software zum Training neuronaler Netze heutzutage in Open-Source-Projekten entwickelt, wodurch sich die Nutzung dieser Technologie vereinfacht und verbreitet, was Innovationen erleichtert. Und nicht zuletzt haben die Technologie-Giganten wie Google, Amazon oder Facebook das praktische Potential moderner neuronaler Netze fr&#252;hzeitig erkannt und in den letzten Jahren Milliarden in Start-ups und Experten investiert, die ihre Arbeiten vermehrt wissenschaftlich publizieren und zu Open-Source-Projekten beitragen.</p><blockquote><p><em>Big Data</em> allein ist nicht genug, was modernes maschinelles Lernen braucht ist <em>Thick Data</em>.</p></blockquote><p>All diese Entwicklungen und der einfache Zugang zu entsprechenden Technologien lassen ein weiterhin rasantes Fortschreiten der KI und eine zunehmende Automatisierung kognitiver Aufgaben erwarten. Gleichzeitig wird jedoch deutlich, dass die aktuelle Verfahrensgeneration in vielen praktischen Szenarien au&#223;erhalb der IT-Industrie an Grenzen st&#246;&#223;t. Eines der fundamentalen Probleme ist, dass keineswegs immer gen&#252;gend gro&#223;e, vorklassifizierte Trainingsdaten zur Verf&#252;gung stehen. Oft stellen insbesondere Unternehmen, die anfangen m&#246;chten, KI f&#252;r ihre Prozesse und Produkte zu nutzen, fest, dass sie zwar massenhaft Daten haben, diese aber nicht in einer Form vorliegen, die ohne weiteres f&#252;r maschinelles Lernen genutzt werden k&#246;nnte. W&#228;hrend die Betreiber webbasierter sozialer Netzwerke oder &#228;hnlicher Services annotierte Daten von ihren Nutzern quasi umsonst geliefert bekommen (man denke an die vielen Millionen mit Text versehenen Fotos, die jeden Tag bei Facebook oder Instagram hochgeladen werden), ist es f&#252;r traditionelle Branchen oft mit erheblichem Aufwand verbunden, Daten so aufzubereiten, dass gen&#252;gend Ein-/Ausgabepaare f&#252;r das Training tiefer Netze vorliegen. Mit anderen Worten, <em>Big Data</em> allein ist nicht genug &#8211; was modernes maschinelles Lernen braucht ist <em>Thick Data</em>. Viele potentielle Nutzer verf&#252;gen tats&#228;chlich aber nur &#252;ber <em>Thin Data.</em></p><p>Ein weiteres fundamentales Problem ist, dass Trainingsdaten fehlerhaft oder verzerrt sein k&#246;nnen. Selbst die Giganten des Silicon Valleys sind hiervon betroffen. Legend&#228;r ist etwa ein Zwischenfall aus dem Jahr 2015 als Google-Fotos ein Bild, auf dem dunkelh&#228;utige Menschen zu sehen waren, als „Gorilla“ klassifizierte; die Entwickler der entsprechenden Bilderkennungssoftware hatten schlicht vergessen, nicht nur Bilder hellh&#228;utiger Menschen in ihre Trainingsdaten aufzunehmen. Sobald das Problem erkannt war, lie&#223; es sich durch entsprechendes Nachtraining einfach l&#246;sen. Generelle Methoden, die es erlauben w&#252;rden, automatisch festzustellen, ob Trainingsdaten verzerrt sind, gibt es allerdings noch nicht. Dies ist durchaus kritisch, denn ein gefl&#252;geltes Wort besagt „<em>garbage in, garbage out</em>“; datengetriebene KI ist immer nur so gut, wie die Daten, mit denen sie trainiert wurde. Im schlimmsten Fall w&#228;re es denkbar, dass ein Anbieter eines KI-Systems bewusst mit verzerrten Daten trainiert, beispielsweise in der Finanzbranche, wo auf diese Art und Weise Kaufs- oder Verkaufsentscheidungen manipuliert werden k&#246;nnten. Dieses eher hypothetische Szenario zeigt unmittelbar das letzte fundamentale Problem auf.</p><p>Rein datengetriebene KI-Systeme sind oft Black Boxes, deren interne Berechnungen nicht unmittelbar transparent oder nachvollziehbar sind. Anders gesagt ist zwar sehr gut verstanden, wie ein neuronales Netz rechnet und funktioniert, welche seiner Millionen gekoppelten Berechnungen letztendlich konkret dazu f&#252;hren, dass eine gewisse Ausgabe produziert wird, ist im praktischen Einsatz aber typischerweise nicht zu erkennen. Dies ist immer dann problematisch, wenn KI-Technologien dort genutzt werden sollen, wo Entscheidungsfindungsprozesse aufgrund rechtlicher Vorgaben zwingend nachvollziehbar sein m&#252;ssen, etwa in der Kreditvergabe oder bei der Steuerung kritischer Anlagen oder Infrastrukturen. Zwar gibt es hier Bestrebungen, mit Methoden der „<em>Neural Network Tomography“</em> die inneren Prozesse neuronaler Netze zu visualisieren und anschaulicher zu machen, das generelle Problem bleibt aber bestehen. Es reicht schlicht nicht aus, zu erkennen, dass ein bestimmtes Neuron in den Tiefen eines Netzes bei einer bestimmten Art von Eingabe immer besonders aktiv ist. Regelartige Erkl&#228;rungen lassen sich daraus (noch) nicht ableiten.</p><p>Diesen Problemen muss sich Forschung und Entwicklung zum maschinellen Lernen stellen, um k&#252;nftig eine m&#246;glichst breitfl&#228;chige und m&#246;glichst risikolose Nutzung zu erm&#246;glichen. In der Tat r&#252;ckt das Problem der erkl&#228;rbaren KI (<em>explainable AI</em>) zunehmend in den Fokus der Forschung. In Bezug auf das maschinelle Lernen ergeben sich hier mehrere Ans&#228;tze. Hinsichtlich des Problems geringer Trainingsdaten werden etwa sogenannte <em>Transfer-Learning</em>-Verfahren untersucht, die es erlauben, Systeme auf einer Dom&#228;ne, f&#252;r die es viele Daten gibt, anzulernen und dann mit vergleichsweise wenig Daten auf das eigentliche Problem anzupassen. Eine andere Idee, mit wenig Trainingsdaten umzugehen und gleichzeitig gr&#246;&#223;ere Robustheit und bessere Nachvollziehbarkeit zu erreichen, ist <em>Informed Machine Learning</em>.</p><blockquote><p>Noch ist maschinelles Lernen nicht so universell nutzbar, wie es w&#252;nschenswert w&#228;re.</p></blockquote><p>Hier ist die Beobachtung, dass Anwender in der Praxis oft sehr viel &#252;ber den Bereich wissen, in dem ein KI-System eingesetzt werden soll. Es gilt also dieses Expertenwissen zu nutzen, um hybride KI-Systeme zu entwickeln, die sowohl daten- als auch wissensgetrieben funktionieren. Auch diese Idee ist nicht neu, jedoch ergeben sich auch hier dank j&#252;ngster Fortschritte, etwa im Bereich der semantischen Technologien oder der Meta-Lernverfahren, neue M&#246;glichkeiten. Besonders erfolgsversprechend sind dabei Methoden, bei denen <em>Reinforcement Learning</em> eingesetzt wird, um zu lernen, welche vorformulierten und bew&#228;hrten funktionalen Module auf welche Art und Weise zu einem gr&#246;&#223;eren System komponiert werden k&#246;nnten, um ein neuartiges Problem zu l&#246;sen oder um verschiedene L&#246;sungen zuf&#228;llig &#8211; aber gezielt &#8211; zu erzeugen und zu bewerten.</p><p>Zusammenfassend bleibt festzustellen, dass maschinelles Lernen mittlerweile eine Alltagstechnologie ist, die in vielen Bereichen unseres professionellen und privaten Lebens erfolgreich eingesetzt wird. Nach der Euphorie der letzten Jahre hat aber insbesondere bei Praktikern mittlerweile eine gewisse Ern&#252;chterung eingesetzt, denn noch ist maschinelles Lernen nicht so universell nutzbar, wie es w&#252;nschenswert w&#228;re. Probleme etwa in Bezug auf Verl&#228;sslichkeit und Robustheit sind nun jedoch gut verstanden und werden weltweit aktiv beforscht. Es bleibt also weiterhin spannend, vor allem da weitere Disruptionen jederzeit m&#246;glich sind, etwa durch k&#252;nftige bahnbrechende Entwicklungen im Bereich des Quantencomputings, die viele der harten Berechnungsprobleme im maschinellen Lernen deutlich vereinfachen w&#252;rden.</p><p><a href=„https://www.informatik-aktuell.de/betrieb/kuenstliche-intelligenz/maschinelles-lernen-wie-geht-es-weiter.html#top“><img src=„https://www.informatik-aktuell.de/fileadmin/templates/wr/images/LinkToTop.png“ width=„50“ height=„50“ alt=„“ referrerpolicy=„no-referrer“ /></a></p><header><p>Autor</p></header><div class=„tx-pwteaser-pi1 main odd“><a href=„https://www.informatik-aktuell.de/autoren-cv/prof-dr-christian-bauckhage.html“><img src=„https://www.informatik-aktuell.de/fileadmin/_processed_/3/5/csm_200_Prof_Christian_Bauckhage_baae651950.jpg“ width=„150“ height=„150“ alt=„“ referrerpolicy=„no-referrer“ /></a><h3><a href=„https://www.informatik-aktuell.de/autoren-cv/prof-dr-christian-bauckhage.html“>Prof. Dr. Christian Bauckhage</a><br /></h3>Prof. Dr. Christian Bauckhage ist Professor f&#252;r Informatik an der Universit&#228;t Bonn, wissenschaftlicher Direktor des Fraunhofer-Zentrums f&#252;r Maschinelles Lernen und Lead Scientist f&#252;r Maschinelles Lernen am Fraunhofer-Institut f&#252;r&#8230;<a href=„https://www.informatik-aktuell.de/autoren-cv/prof-dr-christian-bauckhage.html“><br />&gt;&gt;&#160;Weiterlesen</a></div><header><p>Das k&#246;nnte Sie auch interessieren</p></header><p>Kommentare (0)</p> </html>