Qgelm

Diskussionen zwischen KI-Systemen sollen Entscheidungen nachvollziehbar machen

Originalartikel

Backup

<html> <p class=„printversionback-to-article printversion–hide“><a href=„https://www.heise.de/newsticker/meldung/Diskussionen-zwischen-KI-Systemen-sollen-Entscheidungen-nachvollziehbar-machen-4052268.html“>zur&#252;ck zum Artikel</a></p><figure class=„printversionlogo“><img src=„https://1.f.ix.de/icons/svg/logos/svg/heiseonline.svg“ alt=„heise online“ width=„180“ heigth=„40“/></figure><figure class=„aufmacherbild“><img src=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/4/2/8/0/2/8/Argumentative_AI_-_700-b338a83b4e8418c9.png“ alt=„Diskussionen zwischen KI-Systemen sollen Entscheidungen f&#252;r Menschen nachvollziehbar machen“/><figcaption class=„akwa-caption“><p class=„caption akwa-captiontext“>Ist das wirklich ein Hund? KIs debattieren.</p> <p class=„source akwa-captionsource“>(Bild:&#160;OpenAI)</p> </figcaption></figure><p><strong>Viele Menschen treibt die Sorge um, die Schlussfolgerungen von KI-Systemen bald nicht mehr verstehen zu k&#246;nnen. Forscher bei OpenAI schlagen deshalb vor, Computer in nat&#252;rlicher Sprache dar&#252;ber diskutieren zu lassen.</strong></p> <p>Forscher der Nonprofit-Organisation OpenAI haben ein Konzept vorgestellt, das daf&#252;r sorgen soll, dass Entscheidungen von hoch entwickelten k&#252;nstlichen Intelligenzen f&#252;r Menschen nachvollziehbar bleiben und ihren Werten entsprechen: Sie regen an, jeweils zwei KI-Systeme in nat&#252;rlicher Sprache &#252;ber ein bestimmtes Ziel diskutieren zu lassen. Menschen sollen diese Diskussion verfolgen und sich auf diese Weise eine Meinung dar&#252;ber bilden k&#246;nnen. Das berichtet <em>Technology Review</em> online in „<strong>Wenn Computer streiten[1]</strong>“.</p> <div class=„a-inline-textbox a-u-inline-right“> <h4>Lesen Sie dazu auch:</h4> <h4><strong>Virtuelle Schnitzeljagd soll KIs smarter machen[2]</strong></h4> <h4><strong>Schlaue Maschinen: Asiatische Weisheit[3]</strong></h4> <h4><strong>Wenn KI von Tieren lernt[4]</strong></h4> <h4><strong>Finde den Fehler[5]</strong></h4> </div> <p>Um KI-Programme miteinander diskutieren zu lassen, ist jedoch Technik erforderlich, die es heute noch nicht gibt. Bislang haben die OpenAI-Forscher die Idee nur mit ein paar extrem einfachen Beispielen untersucht. Bei einem davon sollten zwei KI-Systeme einen Beobachter von der Existenz eines verborgenen Zeichens &#252;berzeugen, indem sie schrittweise einzelne Pixel davon enth&#252;llen. Auf einer <strong>Website[6]</strong> k&#246;nnen zwei Menschen zur Demonstration die Rolle der streitenden KIs einnehmen, ein dritter tritt als der Richter auf.</p> <p>„Ich halte die Idee, &#252;ber Diskussionen zu einer Orientierung an Werten zu kommen, f&#252;r sehr interessant und potenziell n&#252;tzlich“, sagt <strong>Ariel Procaccia[7]</strong>, der sich als Professor f&#252;r Informatik an der Carnegie Mellon University mit Entscheidungsfindung bei autonomen Systemen besch&#228;ftigt. Allerdings merkt er an, dass die Arbeit noch sehr vorl&#228;ufig ist. M&#246;glicherweise enthalte das Konzept sogar einen grundlegenden Widerspruch: „Um Diskussionen &#252;ber Werte so zu f&#252;hren, dass ein menschlicher Richter sie verstehen kann, m&#252;ssten die KI-Agenten erst einmal sehr genaues Wissen &#252;ber menschliche Werte haben“, erkl&#228;rt er. „Also k&#246;nnte man finden, dass das Pferd bei diesem Ansatz von hinten aufgez&#228;umt wird.“</p> <p><em>Mehr dazu bei Technology Review online:</em></p> <ul class=„rtelist rtelist–unordered“><li><strong>Wenn Computer streiten[8]</strong></li> </ul> (<strong>sma[9]</strong>)<br class=„clear“/><hr/><p><strong>URL dieses Artikels:</strong><br/><small>

http://www.heise.de/-4052268

</small></p> <p><strong>Links in diesem Artikel:</strong><br/><small>

<strong>[1]</strong>&#160;https://www.heise.de/tr/artikel/Wenn-Computer-streiten-4052254.html

</small><br/><small>

<strong>[2]</strong>&#160;https://www.heise.de/tr/artikel/Virtuelle-Schnitzeljagd-soll-KIs-smarter-machen-4038210.html

</small><br/><small>

<strong>[3]</strong>&#160;https://www.heise.de/tr/artikel/Schlaue-Maschinen-Asiatische-Weisheit-4038084.html

</small><br/><small>

<strong>[4]</strong>&#160;https://www.heise.de/tr/artikel/Wenn-KI-von-Tieren-lernt-4025890.html

</small><br/><small>

<strong>[5]</strong>&#160;https://www.heise.de/tr/artikel/Finde-den-Fehler-4022371.html

</small><br/><small>

<strong>[6]</strong>&#160;https://debate-game.openai.com/

</small><br/><small>

<strong>[7]</strong>&#160;http://procaccia.info/

</small><br/><small>

<strong>[8]</strong>&#160;https://www.heise.de/tr/artikel/Wenn-Computer-streiten-4052254.html

</small><br/><small>

<strong>[9]</strong>&#160;mailto:s.mattke@gmail.com

</small><br/></p> <p class=„printversion__copyright“><em>Copyright &#169; 2018 Heise Medien</em></p> </html>

Cookies helfen bei der Bereitstellung von Inhalten. Diese Website verwendet Cookies. Mit der Nutzung der Website erklären Sie sich damit einverstanden, dass Cookies auf Ihrem Computer gespeichert werden. Außerdem bestätigen Sie, dass Sie unsere Datenschutzerklärung gelesen und verstanden haben. Wenn Sie nicht einverstanden sind, verlassen Sie die Website.Weitere Information