Diskussionen zwischen KI-Systemen sollen Entscheidungen nachvollziehbar machen

Originalartikel

Backup

<html> <p class=„printversionback-to-article printversion–hide“><a href=„https://www.heise.de/newsticker/meldung/Diskussionen-zwischen-KI-Systemen-sollen-Entscheidungen-nachvollziehbar-machen-4052268.html“>zur&#252;ck zum Artikel</a></p><figure class=„printversionlogo“><img src=„https://1.f.ix.de/icons/svg/logos/svg/heiseonline.svg“ alt=„heise online“ width=„180“ heigth=„40“/></figure><figure class=„aufmacherbild“><img src=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/4/2/8/0/2/8/Argumentative_AI_-_700-b338a83b4e8418c9.png“ alt=„Diskussionen zwischen KI-Systemen sollen Entscheidungen f&#252;r Menschen nachvollziehbar machen“/><figcaption class=„akwa-caption“><p class=„caption akwa-captiontext“>Ist das wirklich ein Hund? KIs debattieren.</p> <p class=„source akwa-captionsource“>(Bild:&#160;OpenAI)</p> </figcaption></figure><p><strong>Viele Menschen treibt die Sorge um, die Schlussfolgerungen von KI-Systemen bald nicht mehr verstehen zu k&#246;nnen. Forscher bei OpenAI schlagen deshalb vor, Computer in nat&#252;rlicher Sprache dar&#252;ber diskutieren zu lassen.</strong></p> <p>Forscher der Nonprofit-Organisation OpenAI haben ein Konzept vorgestellt, das daf&#252;r sorgen soll, dass Entscheidungen von hoch entwickelten k&#252;nstlichen Intelligenzen f&#252;r Menschen nachvollziehbar bleiben und ihren Werten entsprechen: Sie regen an, jeweils zwei KI-Systeme in nat&#252;rlicher Sprache &#252;ber ein bestimmtes Ziel diskutieren zu lassen. Menschen sollen diese Diskussion verfolgen und sich auf diese Weise eine Meinung dar&#252;ber bilden k&#246;nnen. Das berichtet <em>Technology Review</em> online in „<strong>Wenn Computer streiten[1]</strong>“.</p> <div class=„a-inline-textbox a-u-inline-right“> <h4>Lesen Sie dazu auch:</h4> <h4><strong>Virtuelle Schnitzeljagd soll KIs smarter machen[2]</strong></h4> <h4><strong>Schlaue Maschinen: Asiatische Weisheit[3]</strong></h4> <h4><strong>Wenn KI von Tieren lernt[4]</strong></h4> <h4><strong>Finde den Fehler[5]</strong></h4> </div> <p>Um KI-Programme miteinander diskutieren zu lassen, ist jedoch Technik erforderlich, die es heute noch nicht gibt. Bislang haben die OpenAI-Forscher die Idee nur mit ein paar extrem einfachen Beispielen untersucht. Bei einem davon sollten zwei KI-Systeme einen Beobachter von der Existenz eines verborgenen Zeichens &#252;berzeugen, indem sie schrittweise einzelne Pixel davon enth&#252;llen. Auf einer <strong>Website[6]</strong> k&#246;nnen zwei Menschen zur Demonstration die Rolle der streitenden KIs einnehmen, ein dritter tritt als der Richter auf.</p> <p>„Ich halte die Idee, &#252;ber Diskussionen zu einer Orientierung an Werten zu kommen, f&#252;r sehr interessant und potenziell n&#252;tzlich“, sagt <strong>Ariel Procaccia[7]</strong>, der sich als Professor f&#252;r Informatik an der Carnegie Mellon University mit Entscheidungsfindung bei autonomen Systemen besch&#228;ftigt. Allerdings merkt er an, dass die Arbeit noch sehr vorl&#228;ufig ist. M&#246;glicherweise enthalte das Konzept sogar einen grundlegenden Widerspruch: „Um Diskussionen &#252;ber Werte so zu f&#252;hren, dass ein menschlicher Richter sie verstehen kann, m&#252;ssten die KI-Agenten erst einmal sehr genaues Wissen &#252;ber menschliche Werte haben“, erkl&#228;rt er. „Also k&#246;nnte man finden, dass das Pferd bei diesem Ansatz von hinten aufgez&#228;umt wird.“</p> <p><em>Mehr dazu bei Technology Review online:</em></p> <ul class=„rtelist rtelist–unordered“><li><strong>Wenn Computer streiten[8]</strong></li> </ul> (<strong>sma[9]</strong>)<br class=„clear“/><hr/><p><strong>URL dieses Artikels:</strong><br/><small>

http://www.heise.de/-4052268

</small></p> <p><strong>Links in diesem Artikel:</strong><br/><small>

<strong>[1]</strong>&#160;https://www.heise.de/tr/artikel/Wenn-Computer-streiten-4052254.html

</small><br/><small>

<strong>[2]</strong>&#160;https://www.heise.de/tr/artikel/Virtuelle-Schnitzeljagd-soll-KIs-smarter-machen-4038210.html

</small><br/><small>

<strong>[3]</strong>&#160;https://www.heise.de/tr/artikel/Schlaue-Maschinen-Asiatische-Weisheit-4038084.html

</small><br/><small>

<strong>[4]</strong>&#160;https://www.heise.de/tr/artikel/Wenn-KI-von-Tieren-lernt-4025890.html

</small><br/><small>

<strong>[5]</strong>&#160;https://www.heise.de/tr/artikel/Finde-den-Fehler-4022371.html

</small><br/><small>

<strong>[6]</strong>&#160;https://debate-game.openai.com/

</small><br/><small>

<strong>[7]</strong>&#160;http://procaccia.info/

</small><br/><small>

<strong>[8]</strong>&#160;https://www.heise.de/tr/artikel/Wenn-Computer-streiten-4052254.html

</small><br/><small>

<strong>[9]</strong>&#160;mailto:s.mattke@gmail.com

</small><br/></p> <p class=„printversion__copyright“><em>Copyright &#169; 2018 Heise Medien</em></p> </html>