Qgelm

Aufgedeckt: So intransparent sind große KI-Modelle

Originalartikel

Backup

<html> <figure class=„aufmacherbild“><img src=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/4/3/2/4/9/2/1/shutterstock_767827225-efbd8bfb498d84d0.jpeg“ srcset=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/4/3/2/4/9/2/1/shutterstock_767827225-efbd8bfb498d84d0.jpeg 700w, https://heise.cloudimg.io/width/1050/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/4/3/2/4/9/2/1/shutterstock_767827225-efbd8bfb498d84d0.jpeg 1050w, https://heise.cloudimg.io/width/1500/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/4/3/2/4/9/2/1/shutterstock_767827225-efbd8bfb498d84d0.jpeg 1500w, https://heise.cloudimg.io/width/2300/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/4/3/2/4/9/2/1/shutterstock_767827225-efbd8bfb498d84d0.jpeg 2300w“ width=„6431“ height=„3613“ sizes=„(min-width: 80em) 43.75em, (min-width: 64em) 66.66vw, 100vw“ alt=„KI-Gestalt auf schwarzem Hintergrund, der aussieht wie ein Weltraum“ class=„img-responsive“ referrerpolicy=„no-referrer“ /><figcaption class=„akwa-caption“>(Bild:&#160;metamorworks/Shutterstock.com)</figcaption></figure><p><strong>KI-Forscher haben zehn Foundation Models hinsichtlich ihrer Transparenz bewertet. Das Ergebnis zeigt, dass durch die Bank Nachholbedarf besteht.</strong></p><p>Ein Team aus KI-Forschern der Universit&#228;ten Stanford, MIT und Princeton hat einen Transparenzindex f&#252;r Foundation Models erstellt, also f&#252;r gro&#223;e KI-Modelle. Anhand von 100 Faktoren bewertet es zehn bekannte Modelle wie GPT-4, Stable Diffusion 2 und PaLM 2. Volle Transparenz w&#228;re bei einem Score von 100 Prozent erreicht.</p><p>Das Ergebnis wirkt ern&#252;chternd: Die Spitzenreiter erreichen einen Score, der nur knapp &#252;ber 50 Prozent liegt, die rote Laterne tr&#228;gt Amazons Titan Text mit einem Score von gerade einmal 12 Prozent.</p><h3 class=„subheading“ id=„nav_transparenz_vom0“>Transparenz vom Erstellen bis zum Einsatz</h3><p>Die Motivation hinter dem Foundation Model Transparency Index (FMTI) liegt laut dem Team darin, dass es den gro&#223;en KI-Modellen zunehmend an Transparenz mangele. Unternehmen k&#246;nnten daher schwer einsch&#228;tzen, ob sie die Foundation Models problemlos in ihre Anwendungen integrieren k&#246;nnen. Ebenso ben&#246;tige sowohl die Forschung als auch Endanwender Informationen zur Transparenz beim Einsatz von KI.</p><p>Das FMTI-Team hat zehn verbreitete Modelle untersucht und bewertet. An der Spitze steht Metas Large Language Model (LLM) LLaMA 2 mit einem Score von 54 Prozent. Dicht dahinter folgt BLOOMZ von Hugging Face mit 53 Prozent, und GPT-4 von OpenAI nimmt mit 48 Prozent den dritten Platz ein.</p><figure class=„a-inline-image a-u-inline“><div><img alt=„“ class=„legacy-img c1“ height=„370“ sizes=„“ src=„https://heise.cloudimg.io/width/696/q85.png-lossy-85.webp-lossy-85.foil1/_www-heise-de_/imgs/18/4/3/2/4/9/2/1/Transparency_model_image_1_0-01cd0b2ecbfd2a10.jpg“ srcset=„https://heise.cloudimg.io/width/336/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/3/2/4/9/2/1/Transparency_model_image_1_0-01cd0b2ecbfd2a10.jpg 336w, https://heise.cloudimg.io/width/1008/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/3/2/4/9/2/1/Transparency_model_image_1_0-01cd0b2ecbfd2a10.jpg 1008w, https://heise.cloudimg.io/width/696/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/3/2/4/9/2/1/Transparency_model_image_1_0-01cd0b2ecbfd2a10.jpg 696w, https://heise.cloudimg.io/width/1392/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/3/2/4/9/2/1/Transparency_model_image_1_0-01cd0b2ecbfd2a10.jpg 1392w“ width=„696“ referrerpolicy=„no-referrer“ /></div><figcaption class=„a-caption“>Das Team hat zehn Foundation Models in unterschiedlichen Bereichen auf Transparenz untersucht, um einen Score zu ermitteln.(Bild:&#160;<a href=„https://crfm.stanford.edu/fmti/“ rel=„external noopener“ target=„_blank“><strong>Stanford University [1]</strong></a>)</figcaption></figure><h3 class=„subheading“ id=„nav_100_indikatoren1“>100 Indikatoren aus drei Modellstufen</h3><p>F&#252;r die Bewertung hat das Team 100 Indikatoren zusammengestellt, die in die Bereiche Upstream, Modell und Downstream unterteilt sind. Die vorgelagerten (Upstream) Faktoren beschreiben den Prozess zum Erstellen des Modells, darunter die Datenquellen, geografische Verbreitung und Rechenressourcen f&#252;r das Training der Foundation Models. Zu den Modellindikatoren geh&#246;ren unter anderem die Architektur, die F&#228;higkeiten und die Limitierungen des Modells. Schlie&#223;lich finden sich in den nachgelagerten Faktoren der Release- und Update-Prozess, die Lizenz sowie die Auswirkung des Modells auf User und M&#228;rkte.</p><figure class=„a-inline-image a-u-inline“><div><img alt=„“ class=„legacy-img c1“ height=„370“ sizes=„“ src=„https://heise.cloudimg.io/width/696/q85.png-lossy-85.webp-lossy-85.foil1/_www-heise-de_/imgs/18/4/3/2/4/9/2/1/subdomain-scores-41d311f9b82843f5.png“ srcset=„https://heise.cloudimg.io/width/336/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/3/2/4/9/2/1/subdomain-scores-41d311f9b82843f5.png 336w, https://heise.cloudimg.io/width/1008/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/3/2/4/9/2/1/subdomain-scores-41d311f9b82843f5.png 1008w, https://heise.cloudimg.io/width/696/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/3/2/4/9/2/1/subdomain-scores-41d311f9b82843f5.png 696w, https://heise.cloudimg.io/width/1392/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/3/2/4/9/2/1/subdomain-scores-41d311f9b82843f5.png 1392w“ width=„696“ referrerpolicy=„no-referrer“ /></div><figcaption class=„a-caption“>Die drei Hauptbereiche hat das Team in dreizehn Unterbereiche unterteilt, darunter Daten, Methoden und Risiken.(Bild:&#160;Stanford University)</figcaption></figure><p>Nachdem das Team die Scores erstellt hatte, gab es den Verantwortlichen f&#252;r die Modelle die Gelegenheit zur Stellungnahme und passte die Werte bei berechtigten Einw&#228;nden an. Die Bewertung zeichnet kein positives Bild bez&#252;glich der Transparenz, mit einem Sieger, der knapp &#252;ber 50 Prozent liegt, und einem Durchschnitts-Score von 37 Prozent.</p><p>Auff&#228;llig und wenig &#252;berraschend ist, dass die drei offenen Modelle LLaMA 2, BLOOMZ und Stable Diffusion 2 in den ersten vier Pl&#228;tzen zu finden sind. Dass OpenAIs Modell auf dem dritten Platz landet, ist dagegen durchaus eine kleine &#220;berraschung, da sich das Unternehmen seinem Namen zum Trotz bei den Details zu seinen Modellen bedeckt h&#228;lt.</p><figure class=„a-inline-image a-u-inline“><div><img alt=„“ class=„legacy-img c1“ height=„370“ sizes=„“ src=„https://heise.cloudimg.io/width/696/q85.png-lossy-85.webp-lossy-85.foil1/_www-heise-de_/imgs/18/4/3/2/4/9/2/1/fmti-score-stacked-0537ee852addc58c.png“ srcset=„https://heise.cloudimg.io/width/336/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/3/2/4/9/2/1/fmti-score-stacked-0537ee852addc58c.png 336w, https://heise.cloudimg.io/width/1008/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/3/2/4/9/2/1/fmti-score-stacked-0537ee852addc58c.png 1008w, https://heise.cloudimg.io/width/696/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/3/2/4/9/2/1/fmti-score-stacked-0537ee852addc58c.png 696w, https://heise.cloudimg.io/width/1392/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/3/2/4/9/2/1/fmti-score-stacked-0537ee852addc58c.png 1392w“ width=„696“ referrerpolicy=„no-referrer“ /></div><figcaption class=„a-caption“>Die offenen Modelle k&#246;nnen vor allem in den vorgelagerten Faktoren beim Training des Modells (gr&#252;ner Anteil der Balken) punkten.(Bild:&#160;Stanford University)</figcaption></figure><p>Die Wurzeln des FMTI-Teams, das weitgehend aus Studenten, Doktoranden und einer Doktorandin sowie Forschungsleitern und einem Professor besteht, <a href=„https://www.heise.de/news/Stanford-University-startet-Institute-for-Human-Centered-AI-4341355.html“><strong>liegen im 2019 gegr&#252;ndeten [2]</strong></a> Stanford Institute for Human-Centered Artificial Intelligence. Das Team sieht bei allen getesteten Foundation Models „erhebliches Verbesserungspotenzial“, das es in k&#252;nftigen Versionen des Index verfolgen m&#246;chte.</p><p>Weitere Details lassen <a href=„https://crfm.stanford.edu/fmti/“ rel=„external noopener“ target=„_blank“><strong>sich der FMTI-Website [3]</strong></a> und dem zugeh&#246;rigen <a href=„https://github.com/stanford-crfm/fmti“ rel=„external noopener“ target=„_blank“><strong>GitHub-Repository entnehmen [4]</strong></a>. Die vollst&#228;ndige <a href=„https://arxiv.org/abs/2310.12941“ rel=„external noopener“ target=„_blank“><strong>Abhandlung findet sich auf arXiv [5]</strong></a>.</p><p>() </p><hr /><p><strong>URL dieses Artikels:</strong><br /><small>

https://www.heise.de/-9346416

</small></p><p><strong>Links in diesem Artikel:</strong><br /><small>

<strong>[1]</strong>&#160;https://crfm.stanford.edu/fmti/

</small><br /><small>

<strong>[2]</strong>&#160;https://www.heise.de/news/Stanford-University-startet-Institute-for-Human-Centered-AI-4341355.html

</small><br /><small>

<strong>[3]</strong>&#160;https://crfm.stanford.edu/fmti/

</small><br /><small>

<strong>[4]</strong>&#160;https://github.com/stanford-crfm/fmti

</small><br /><small>

<strong>[5]</strong>&#160;https://arxiv.org/abs/2310.12941

</small><br /><small>

<strong>[6]</strong>&#160;mailto:rme@ix.de

</small><br /></p><p class=„printversion__copyright“><em>Copyright &#169; 2023 Heise Medien</em></p> </html>

Cookies helfen bei der Bereitstellung von Inhalten. Diese Website verwendet Cookies. Mit der Nutzung der Website erklären Sie sich damit einverstanden, dass Cookies auf Ihrem Computer gespeichert werden. Außerdem bestätigen Sie, dass Sie unsere Datenschutzerklärung gelesen und verstanden haben. Wenn Sie nicht einverstanden sind, verlassen Sie die Website.Weitere Information