Qgelm

StableLM: Stability AI veröffentlicht große KI-Sprachmodelle als Open Source

Originalartikel

Backup

<html> <header class=„article-header“><h1 class=„articleheading“>StableLM: Stability AI ver&#246;ffentlicht gro&#223;e KI-Sprachmodelle als Open Source</h1><div class=„publish-info“> Silke Hahn</div></header><figure class=„aufmacherbild“><img src=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/4/1/4/6/5/0/7/FuFhgiEaAAEIap5-085768a33eb7b7b1.jpeg“ srcset=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/4/1/4/6/5/0/7/FuFhgiEaAAEIap5-085768a33eb7b7b1.jpeg 700w, https://heise.cloudimg.io/width/1050/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/4/1/4/6/5/0/7/FuFhgiEaAAEIap5-085768a33eb7b7b1.jpeg 1050w, https://heise.cloudimg.io/width/1462/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/4/1/4/6/5/0/7/FuFhgiEaAAEIap5-085768a33eb7b7b1.jpeg 1462w“ alt=„“ class=„img-responsive“ referrerpolicy=„no-referrer“ /><figcaption class=„akwa-caption“>„A Stochastic Parrot, flat design, vector art“ &#8211; Stable Diffusion.(Bild:&#160;<a href=„https://stability.ai/blog/stability-ai-launches-the-first-of-its-stablelm-suite-of-language-models“ target=„_blank“ rel=„external noopener“>Stability AI</a>)</figcaption></figure><p><strong>Die Firma hinter Stable Diffusion hat zwei Sprachmodelle als Open Source ver&#246;ffentlicht. Die LLMs stehen unter Copyleft-Lizenz, weitere Modelle sollen folgen.</strong></p><p>Stability AI hat mit StableLM zwei gro&#223;e Sprachmodelle als Open Source ver&#246;ffentlicht: Die beiden Large Language Models (LLM) umfassen je 3 und 7 Milliarden Parameter. Bei dem Release handelt es sich um Alphaversionen. Entwickler k&#246;nnen sie unter Beachtung der Lizenz f&#252;r Forschungs- und kommerzielle Zwecke frei verwenden, untersuchen und adaptieren.</p><p>StableLM-3B und StableLM-7B stehen unter der <a href=„https://creativecommons.org/licenses/by-sa/4.0/deed.de“ rel=„external noopener“ target=„_blank“><strong>Lizenz CC BY-SA-4.0 [1]</strong></a>: Das ist eine <a href=„https://www.heise.de/hintergrund/Chancen-und-Risiken-Copyleft-in-der-Softwareentwicklung-4926808.html“><strong>Copyleft-Lizenz [2]</strong></a>, die festlegt, dass die unter ihr stehende Software in jeder Format vervielf&#228;ltigt und weiterverbreitet werden darf. Wer mit StableLM arbeitet, darf die Modelle ver&#228;ndern und weiterbearbeiten f&#252;r beliebige Zwecke, auch kommerziell. Allerdings erben Ableger und Produkte stets die Copyleft-Lizenz.</p><h3 class=„subheading“ id=„nav_stablelm_steht0“>StableLM steht unter Copyleft-Lizenz</h3><p>Das bedeutet, dass von StableLM abgeleitete neue Modelle den urspr&#252;nglichen Urheber (Stability AI) und die Lizenz in unver&#228;nderter Form nennen und weitergeben m&#252;ssen. So ist es untersagt, solcherart erstellte Software zu Closed Source zu machen, etwa zum eigenen geistigen Eigentum zu erkl&#228;ren oder an der geerbten Lizenz &#196;nderungen vorzunehmen. Diese Vorgaben sind rechtlich durch keine zus&#228;tzlichen Klauseln oder technischen Verfahren auszuhebeln, die CC BY-SA-4.0 gilt als eine <a href=„https://www.heise.de/news/Copyleft-org-Was-Sie-schon-immer-ueber-die-GPL-wissen-wollten-2445300.html“><strong>besonders starke Copyleft-Lizenz [3]</strong></a>.</p><p>Wie vom StabilityAI-CEO Emad Mostaque angek&#252;ndigt soll StableLM eine offene, transparente und skalierbare Alternative zu propriet&#228;ren KI-Modellen wie denen von OpenAI bieten. Modelle im Umfang von 15 bis 65 Milliarden Parametern sollen in absehbarer Zeit folgen, ist dem Blogpost zum Release zu entnehmen. Die Modelle der StableLM-Serie sollen Text und Quellcode erzeugen k&#246;nnen und lassen sich laut Mostaque f&#252;r zahlreiche darauf aufbauende Anwendungen nutzen. Mit den verh&#228;ltnism&#228;&#223;ig kleinen LLMs will Stability dem Blogeintrag zufolge zeigen, dass auch kleinere Modelle zu hoher Leistung f&#228;hig sind, sofern sie ein angemessenes Training durchlaufen haben und &#252;ber eine effiziente Architektur verf&#252;gen.</p><h3 class=„subheading“ id=„nav_sind_modelle1“>Sind Modelle, die auf The Pile basieren, Open Source?</h3><p>Stability AI hatte zuvor die Arbeit der KI-Graswurzel EleutherAI unterst&#252;tzt, die Anfang April 2023 mit Pythia eine Serie kleinerer KI-Basismodelle f&#252;r die Forschung ver&#246;ffentlicht hatten. Pythia-12B ist unter anderem das Ausgangsmodell f&#252;r Dolly 2.0 von Databricks, und <a href=„https://www.heise.de/news/OpenAssistant-an-open-Alternative-to-ChatGPT-Conversational-AI-for-Everyone-8971294.html“><strong>OpenAssistant von LAION fu&#223;t auf den quelloffenen Pythia-Modellen [4]</strong></a>. Auch Erfahrungen mit fr&#252;heren Open-Source-Modellen wie GPT-J und GPT-NeoX von EleutherAI h&#228;tten zum jetzigen Release von StableLM beigetragen.</p><p>StableLM wurde auf einem neuen experimentellen Datensatz trainiert, der auf dem bekannten, <a href=„https://arxiv.org/abs/2101.00027“ rel=„external noopener“ target=„_blank“><strong>800 Gigabyte gro&#223;en Datensatz „The Pile“ [5]</strong></a> f&#252;r das Modellieren gro&#223;er Sprachmodelle aufbaut, allerdings mit insgesamt 1,5 Billionen Token an Inhalt etwa dreimal so umfangreich ist wie dieser. Der Datensatz gilt als problematisch, da in ihm <a href=„https://twitter.com/sepia_fw/status/1648721507919491073“ rel=„external noopener“ target=„_blank“><strong>wohl auch urheberrechtlich gesch&#252;tzte Werke enthalten [6]</strong></a> sind (welche Konsequenzen sich daraus f&#252;r Open-Source-Lizenzen ergeben, ist derzeit noch offen und betrifft auch andere Projekte, die diesen Datensatz oder Common Crawl aus dem Internet verwenden). Mit der Gr&#246;&#223;e des Trainingsdatensatzes liegt StableLM gleichauf mit dem propriet&#228;ren KI-Modell LLaMA von Meta AI, das ausgew&#228;hlten Forschungsprojekten zur Verf&#252;gung gestellt wurde und durch einen Leak auch mit semi-offiziellen bis illegalen Ablegern im Netz kursiert.</p><h3 class=„subheading“ id=„nav_redpajama_baut2“>RedPajama baut LLaMA offen nach: Basisdatensatz verf&#252;gbar</h3><p>Ein weiteres Open-Source-Projekt arbeitet mit einem selbst erstellten Datensatz in &#228;hnlichem Umfang: Mitte April 2023, wenige Tage vor dem Release von StableLM, hat eine hochkar&#228;tige Forschungskooperation aus den USA und Kanada mit Partnern den <a href=„https://www.heise.de/news/LLaMA-Nachbau-RedPajama-erste-dezentrale-Open-Source-KI-mit-offenem-Datensatz-8971752.html“><strong>Trainingsdatensatz f&#252;r RedPajama ver&#246;ffentlicht, der 1,2 Billionen Token umfasst [7]</strong></a> und ebenfalls das LLaMA-Paper als Vorbild nahm. RedPajama plant, eine quelloffene Modellserie auf dem neuesten Stand der Technik mit starken Leistungswerten zu ver&#246;ffentlichen und das nicht freigegebene LLaMA so in Eigenregie in freier Lizenz nachzubauen. Anders als StableLM steht zumindest der Datensatz von RedPajama unter der Apache-2.0-Lizenz, damit trainierte Modelle und Anwendungen k&#246;nnen uneingeschr&#228;nkt auch kommerziell genutzt werden.</p><h3 class=„subheading“ id=„nav_laion_und_der3“>LAION und der Offene Brief</h3><p>Das an RedPajama beteiligte Large-Scale Artificial Intelligence Open Network (LAION e.V.) hatte zuvor angek&#252;ndigt, dass Mitglieder des Netzwerkes gro&#223;e KI-Sprachmodelle auf dem neuesten Stand der Technik und mit vergleichbaren F&#228;higkeiten zu den leistungsf&#228;higsten kommerziellen Angeboten erstellen wollen. Eine Petition zum <a href=„https://www.heise.de/news/Open-Source-KI-LAION-ruft-zu-offenem-GPT-4-Nachbau-auf-genug-Wissen-sei-da-8651446.html“><strong>Einrichten eines internationalen Hochleistungs-Rechenclusters f&#252;r KI l&#228;uft zurzeit [8]</strong></a>, auch als Antwort auf den <a href=„https://www.heise.de/news/Tech-Prominenz-fordert-Pausiert-die-Entwicklung-der-Riesen-KI-Modelle-8178216.html“><strong>Offenen Brief des Future of Life Institute [9]</strong></a>, unterzeichnet von Elon Musk und weiteren Prominenten, die eine Entwicklungspause f&#252;r gro&#223;e KI-Modelle gefordert hatten.</p><p>Zugleich hatte Musk eine eigene KI-Unternehmung angek&#252;ndigt, die unter der Domain x.ai und mit dem Arbeitsnamen <a href=„https://www.heise.de/news/TruthGPT-Musk-warnt-vor-luegendem-ChatGPT-eigene-KI-sei-beste-Moeglichkeit-8970175.html“><strong>TruthGPT in Konkurrenz zu OpenAI [10]</strong></a> treten soll. Dass es sich hierbei um Open-Source-KI handeln wird, ist eher unwahrscheinlich.</p><h3 class=„subheading“ id=„nav_forschungsmodell4“>Forschungsmodelle mitver&#246;ffentlicht</h3><p>Neben den Alphaversionen von StableLM ver&#246;ffentlicht Stability AI eine Reihe von Forschungsmodellen, die mit Anweisungen feingetuned sind. Diese Forschungsmodelle greifen auf Kombinationen verschiedener Open-Source-Datens&#228;tze f&#252;r agentische Konversations-KI zu, n&#228;mlich auf die Datens&#228;tze von Alpaca, GPT4All, Dolly, ShareGPT und HH. Diese Modelle sind ausdr&#252;cklich nicht f&#252;r kommerzielle Zwecke geeignet und d&#252;rfen nur zu Forschungszwecken verwendet werden. Ihre Lizenz ist eine nichtkommerzielle CC BY-NC-SA 4.0, analog zur Lizenz von Alpaca der Universit&#228;t Stanford (einem der zahlreichen LLaMA-Ableger, die zu Forschungszwecken seitens Meta AI erlaubt waren).</p><p>Im Blogeintrag zum Release finden sich einige Konversationsbeispiele von StableLM-7B, dem gr&#246;&#223;eren der beiden nun ver&#246;ffentlichten Modelle. StableLM reiht sich nahtlos in die Bewegung inzwischen entstehender quelloffener KI-Modelle ein. Drei Schlagw&#246;rter liefert Stability AI zur Zielsetzung: Transparenz, Zug&#228;nglichkeit und Unterst&#252;tzung. Die Open-Source-Modelle seien dazu da, die Nutzer zu unterst&#252;tzen, nicht hingegen, sie zu ersetzen. Es gehe um effizente, spezialisierte und praktische KI-Anwendungen, die auch mit kleineren Modellen umzusetzen sei. Am Rennen um „Gott-gleiche KI“ wolle man sich ausdr&#252;cklich nicht beteiligen. Der Fokus liegt auf Alltagsanwendungen und einem Einsatz, der die Produktivit&#228;t erh&#246;ht sowie die Menschen kreativer werden l&#228;sst, so die Stellungenahme im Blogeintrag.</p><p>F&#252;r Forscher ist relevant, dass sie den so ver&#246;ffentlichten Modellen „unter die Haube schauen“ k&#246;nnen, um gemeinschaftlich die Nachvollziehbarkeit und Erkl&#228;rbarkeit von KI-Modellen zu verbessern, Risiken zu identifizieren und Sicherheitsma&#223;nahmen zu entwickeln. Privater und &#246;ffentlicher Bereich k&#246;nnen Open-Source-Modelle an ihre Zwecke anpassen (Finetuning), ohne sensible Daten zu teilen oder die Kontrolle der KI-F&#228;higkeiten preiszugeben.</p><h3 class=„subheading“ id=„nav_technischer5“>Technischer Bericht folgt</h3><p><a href=„https://github.com/stability-AI/stableLM/“ rel=„external noopener“ target=„_blank“><strong>StableLM ist im GitHub-Repository [11]</strong></a> von Stability AI verf&#252;gbar. Ein technischer Bericht und Benchmarks zum Leistungsvergleich liegen zurzeit noch nicht vor, sollen aber „in der nahen Zukunft“ nachgereicht werden. Gleichzeitig mit dem Release beginnt ein Crowdsourcing-Programm f&#252;r Reinforcement Learning mit menschlichem Feedback (RLHF), einer &#252;blichen Praxis zum Finetunen gro&#223;er Sprachmodelle.</p><p>Als Vorbild dienen hierbei <a href=„https://www.heise.de/news/OpenAssistant-an-open-Alternative-to-ChatGPT-Conversational-AI-for-Everyone-8971294.html“><strong>Community-Arbeiten wie bei OpenAssistant [12]</strong></a>, dessen Projekt in gemeinschaftlicher Arbeit einen hochwertigen, qualit&#228;tsgesicherten und frei zug&#228;nglichen Basisdatensatz f&#252;r KI-Assistenten ver&#246;ffentlicht hat. <a href=„https://stability.ai/blog/stability-ai-launches-the-first-of-its-stablelm-suite-of-language-models“ rel=„external noopener“ target=„_blank“><strong>Weitere Details [13]</strong></a> lassen sich dem Blogeintrag entnehmen.</p><p>() </p><p><strong>URL dieses Artikels:</strong><small><code>https://www.heise.de/-8973343</code></small></p><p><strong>Links in diesem Artikel:</strong><small><code><strong>[1]</strong>&#160;https://creativecommons.org/licenses/by-sa/4.0/deed.de</code></small><small><code><strong>[2]</strong>&#160;https://www.heise.de/hintergrund/Chancen-und-Risiken-Copyleft-in-der-Softwareentwicklung-4926808.html</code></small><small><code><strong>[3]</strong>&#160;https://www.heise.de/news/Copyleft-org-Was-Sie-schon-immer-ueber-die-GPL-wissen-wollten-2445300.html</code></small><small><code><strong>[4]</strong>&#160;https://www.heise.de/news/OpenAssistant-an-open-Alternative-to-ChatGPT-Conversational-AI-for-Everyone-8971294.html</code></small><small><code><strong>[5]</strong>&#160;https://arxiv.org/abs/2101.00027</code></small><small><code><strong>[6]</strong>&#160;https://twitter.com/sepia_fw/status/1648721507919491073</code></small><small><code><strong>[7]</strong>&#160;https://www.heise.de/news/LLaMA-Nachbau-RedPajama-erste-dezentrale-Open-Source-KI-mit-offenem-Datensatz-8971752.html</code></small><small><code><strong>[8]</strong>&#160;https://www.heise.de/news/Open-Source-KI-LAION-ruft-zu-offenem-GPT-4-Nachbau-auf-genug-Wissen-sei-da-8651446.html</code></small><small><code><strong>[9]</strong>&#160;https://www.heise.de/news/Tech-Prominenz-fordert-Pausiert-die-Entwicklung-der-Riesen-KI-Modelle-8178216.html</code></small><small><code><strong>[10]</strong>&#160;https://www.heise.de/news/TruthGPT-Musk-warnt-vor-luegendem-ChatGPT-eigene-KI-sei-beste-Moeglichkeit-8970175.html</code></small><small><code><strong>[11]</strong>&#160;https://github.com/stability-AI/stableLM/</code></small><small><code><strong>[12]</strong>&#160;https://www.heise.de/news/OpenAssistant-an-open-Alternative-to-ChatGPT-Conversational-AI-for-Everyone-8971294.html</code></small><small><code><strong>[13]</strong>&#160;https://stability.ai/blog/stability-ai-launches-the-first-of-its-stablelm-suite-of-language-models</code></small><small><code><strong>[14]</strong>&#160;mailto:sih@ix.de</code></small></p><p class=„printversioncopyright“><em>Copyright &#169; 2023 Heise Medien</em></p> </html>

Cookies helfen bei der Bereitstellung von Inhalten. Diese Website verwendet Cookies. Mit der Nutzung der Website erklären Sie sich damit einverstanden, dass Cookies auf Ihrem Computer gespeichert werden. Außerdem bestätigen Sie, dass Sie unsere Datenschutzerklärung gelesen und verstanden haben. Wenn Sie nicht einverstanden sind, verlassen Sie die Website.Weitere Information