Qgelm

Erklärbare Künstliche Intelligenz: Red Hat gibt Quellcode für TrustyAI frei

Originalartikel

Backup

<html> <header class=„article-header“><h1 class=„articleheading“>Erkl&#228;rbare K&#252;nstliche Intelligenz: Red Hat gibt Quellcode f&#252;r TrustyAI frei</h1><div class=„publish-info“> Madeleine Domogalla</div></header><figure class=„aufmacherbild“><img src=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/0/9/7/2/4/0/Gehirn-Computer-Schnittstelle-0fa4c276ec23542b.jpeg“ srcset=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/0/9/7/2/4/0/Gehirn-Computer-Schnittstelle-0fa4c276ec23542b.jpeg 700w, https://heise.cloudimg.io/width/1050/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/0/9/7/2/4/0/Gehirn-Computer-Schnittstelle-0fa4c276ec23542b.jpeg 1050w, https://heise.cloudimg.io/width/1500/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/0/9/7/2/4/0/Gehirn-Computer-Schnittstelle-0fa4c276ec23542b.jpeg 1500w, https://heise.cloudimg.io/width/2300/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/3/0/9/7/2/4/0/Gehirn-Computer-Schnittstelle-0fa4c276ec23542b.jpeg 2300w“ alt=„“ class=„img-responsive“ referrerpolicy=„no-referrer“ /><figcaption class=„akwa-caption“>(Bild:&#160;Peshkova / shutterstock.com)</figcaption></figure><p><strong>TrustyAI nutzt Techniken der Explainable Artificial Intelligence, um Entscheidungsprozesse von KI-Software erkl&#228;rbar zu machen.</strong></p><p>Vertrauen ins System, darum geht es bei Red Hats Bibliothek TrustyAI, deren Code als eigenst&#228;ndiges Open-Source-Paket nun allgemein verf&#252;gbar ist. Die Verwendung von Machine-Learning-Algorithmen erfordert Vertrauen dahingehend, dass das System die Entscheidungen im Sinne des Unternehmens trifft. TrustyAI soll das Vertrauen in auf Basis von K&#252;nstlicher Intelligenz getroffener Entscheidungsprozesse erh&#246;hen. Sogenannte Black-Box-Modelle, die auf Machine Learning (ML) basieren, sollen mit Techniken der Explainable Artificial Intelligence (XAI) erkl&#228;rbar und nachvollziehbar werden.</p><h3 class=„subheading“ id=„nav_laufzeit0“>Laufzeit, Erkl&#228;rbarkeit und Nachvollziehbarkeit</h3><p>Forscher bei Red Hat haben bereits im vergangenen Jahr das TrustyAI Explainability Toolkit entwickelt, eine Bibliothek, die Techniken zur Erkl&#228;rung von automatisierten Entscheidungsfindungssystemen nutzt. Als Teil von Kogito, dem Cloud-nativen Business-Automatisierungs-Framework von Red Hat, reichert TrustyAI Informationen zur Ausf&#252;hrung von KI-Modellen durch Algorithmen an und extrahiert, sammelt und ver&#246;ffentlicht Metadaten f&#252;r Audits und Compliance.</p><p>Der Fokus liegt dabei auf drei Aspekten: Laufzeit, Erkl&#228;rbarkeit und Nachvollziehbarkeit. Erkl&#228;rbarkeit meint das Anreichern der Modellausf&#252;hrungsinformationen durch XAI. Metadaten sollen zur Nachverfolgung und f&#252;r das Auditing und Compliance extrahiert, gesammelt und ver&#246;ffentlicht werden. Die Laufzeit&#252;berwachung erfolgt mit dem Offenlegen der Services in einem von TrustyAI bereitgestellten Dashboard (Audit UI) und dient der Bewertung von Daten aus gesch&#228;ftlicher und betrieblicher Sicht.</p><header class=„a-boxheader“ data-collapse-trigger=„“>Lesen Sie auch</header><div class=„a-boxtarget a-boxcontent“ data-collapse-target=„“><article class=„a-article-teaser a-article-teaser–horizontal-layout article-teaser–articlebox a-u-no-margin-bottom a-theme“ data-cid=„0“><a class=„a-article-teaserlink“ data-google-interstitial=„false“ href=„https://www.heise.de/hintergrund/Interpretierbare-KI-Kuenstliche-Intelligenz-verstehen-koennen-4238205.html“ name=„meldung.newsticker.inline.article-teaser.1“ title=„Interpretierbare KI: K&#252;nstliche Intelligenz verstehen k&#246;nnen“><figure class=„a-article-teaserimage-container“><div><strong><img alt=„Interpretierbare KI: K&#252;nstliche Intelligenz verstehen k&#246;nnen“ height=„1151“ src=„https://static.wallabag.it/7862d1b7aff4c3b00f37212fefade4e0e2c4cf00/64656e6965643a646174613a696d6167652f7376672b786d6c2c253343737667253230786d6c6e733d27687474703a2f2f7777772e77332e6f72672f323030302f7376672725323077696474683d273639367078272532306865696768743d2733393170782725323076696577426f783d2730253230302532303639362532303339312725334525334372656374253230783d273027253230793d27302725323077696474683d27363936272532306865696768743d273339312725323066696c6c3d27253233663266326632272533452533432f726563742533452533432f737667253345/“ class=„c1“ width=„2048“ referrerpolicy=„no-referrer“ /></strong></div></figure><div class=„a-article-teasercontent-container“><header><h1 class=„a-article-teasertitle a-u-mb-1“><strong>Interpretierbare KI: K&#252;nstliche Intelligenz verstehen k&#246;nnen</strong></h1></header></div>[1]</a></article></div><h3 class=„subheading“ id=„nav_trustyai_nimmt1“>TrustyAI nimmt Entscheidungsprozess unter die Lupe</h3><p>Innerhalb von TrustyAI wolle man ML-Modelle und Entscheidungslogik kombinieren (Integration von DMN und PMML), um automatisierte Entscheidungen durch das Einbeziehen von Predictive Analytics anzureichern, schrieb Rebecca Withworth (Mitglied der TrustyAI-Initiative bei RedHat) bereits im vergangenen Jahr in einem <a href=„https://blog.kie.org/2020/06/trusty-ai-introduction.html“ rel=„external noopener“ target=„_blank“><strong>Beitrag auf dem KIE-Blog [2]</strong></a>. DMN steht f&#252;r Decision Model and Notation, damit lassen sich Entscheidungstabellen definieren und technisch automatisieren. Bei Predictive Model Markup Language (PMML) handelt es sich um einen XML-Dialekt, der als Standard zum Einsatz kommt, wenn es um den Austausch von Ergebnissen zwischen unterschiedlichen Data-Mining-Programmen geht.</p><p>Durch die &#220;berwachung des Ergebnisses der Entscheidungsfindung lie&#223;en sich Systeme auditieren, um sicherzustellen, dass sie den Vorschriften entsprechen. Die Ergebnisse lie&#223;en sich zudem durch das System verfolgen, um einen weitreichenden &#220;berblick &#252;ber die getroffenen Entscheidungen und Vorhersagen zu erhalten. TrustyAI werde sich die Kombination dieser beiden Standards zunutze machen, um eine vertrauensw&#252;rdige automatisierte Entscheidungsfindung zu erzielen. N&#228;here Informationen finden sich im <a href=„https://kogito.kie.org/trustyai/“ rel=„external noopener“ target=„_blank“><strong>Beitrag zur TrustyAI Initiative auf dem Kogito-Blog [3]</strong></a>.</p><p>() </p><hr /><p><strong>URL dieses Artikels:</strong><br /><small>

https://www.heise.de/-6031642

</small></p><p><strong>Links in diesem Artikel:</strong><br /><small>

<strong>[1]</strong>&#160;https://www.heise.de/hintergrund/Interpretierbare-KI-Kuenstliche-Intelligenz-verstehen-koennen-4238205.html

</small><br /><small>

<strong>[2]</strong>&#160;https://blog.kie.org/2020/06/trusty-ai-introduction.html

</small><br /><small>

<strong>[3]</strong>&#160;https://kogito.kie.org/trustyai/

</small><br /><small>

<strong>[4]</strong>&#160;mailto:mdo@ix.de

</small><br /></p><p class=„printversion__copyright“><em>Copyright &#169; 2021 Heise Medien</em></p> </html>

Cookies helfen bei der Bereitstellung von Inhalten. Diese Website verwendet Cookies. Mit der Nutzung der Website erklären Sie sich damit einverstanden, dass Cookies auf Ihrem Computer gespeichert werden. Außerdem bestätigen Sie, dass Sie unsere Datenschutzerklärung gelesen und verstanden haben. Wenn Sie nicht einverstanden sind, verlassen Sie die Website.Weitere Information