Qgelm

KI bei der Bundeswehr: Was ist erlaubt und was nicht?

Originalartikel

Backup

<html> <p class=„printversionback-to-article printversion–hide“><a href=„https://www.heise.de/newsticker/meldung/KI-bei-der-Bundeswehr-Was-ist-erlaubt-und-was-nicht-4572038.html“>zur&#252;ck zum Artikel</a></p><figure class=„printversionlogo“><img src=„https://1.f.ix.de/icons/svg/logos/svg/heiseonline.svg“ alt=„heise online“ width=„180“ heigth=„40“/></figure><figure class=„aufmacherbild“><img src=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/7/7/8/8/4/2/shutterstock_167361152-d295b2bf24b83c23.jpeg“ srcset=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/7/7/8/8/4/2/shutterstock_167361152-d295b2bf24b83c23.jpeg 700w, https://heise.cloudimg.io/width/1050/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/7/7/8/8/4/2/shutterstock_167361152-d295b2bf24b83c23.jpeg 1050w, https://heise.cloudimg.io/width/1500/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/7/7/8/8/4/2/shutterstock_167361152-d295b2bf24b83c23.jpeg 1500w, https://heise.cloudimg.io/width/2300/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/imgs/18/2/7/7/8/8/4/2/shutterstock_167361152-d295b2bf24b83c23.jpeg 2300w“ sizes=„(min-width: 80em) 43.75em, (min-width: 64em) 66.66vw, 100vw“ alt=„KI bei der Bundeswehr: Was ist erlaubt und was nicht?“ class=„img-responsive“/><figcaption class=„akwa-caption“><p class=„source akwa-captionsource“>(Bild:&#160;boscorelli/Shutterstock.com)</p> </figcaption></figure><p><strong>Algorithmen erm&#246;glichen nicht nur t&#246;dlichere Waffen, sondern auch bessere Logistik. Was der Armee erlaubt ist und sein sollte, wird aber noch diskutiert.</strong></p> <p>Der Einsatz von K&#252;nstlicher Intelligenz (KI) beim Milit&#228;r wird in der &#214;ffentlichkeit bislang &#252;berwiegend im Zusammenhang mit autonomen Waffensystemen diskutiert. Doch die Technologie bietet weit umfassendere Verwendungsm&#246;glichkeiten. Eine Tagung der Deutschen Gesellschaft f&#252;r Wehrtechnik (DWT) versucht jetzt, das Thema aus der Weitwinkelperspektive zu betrachten.</p> <p>Unter dem Titel <a href=„https://www.dwt-sgw.de/veranstaltungen/veranstaltungen-der-sgw/detail/?tx_dwtevents%5Bevent%5D=489&amp;cHash=3621bbcfec1afc63e1315531b6786239“ rel=„external noopener“ target=„_blank“><strong>K&#252;nstliche Intelligenz &#8211; Chancen und Risiken f&#252;r die Bundeswehr [1]</strong></a> sollen in Bonn insbesondere die Aspekte Logistik, F&#252;hrungsprozess sowie KI in technischen Systemen (wozu dann auch Waffensysteme z&#228;hlen) er&#246;rtert werden. Zum Abschluss stehen auch Vortr&#228;ge zu „KI und Ethik“ auf dem Programm.</p> <h3 class=„subheading“ id=„nav_was_kann_die0“>Was kann die Bundeswehr, was darf sie?</h3> <p>Die Konferenzteilnehmer lie&#223;en sich indessen nicht davon abhalten, ethische Fragen bereits nach den ersten Vortr&#228;gen aufzuwerfen: „Wir m&#252;ssen zu Antworten kommen, was wir d&#252;rfen und was nicht“, forderte ein Teilnehmer und bezweifelte zugleich, dass die ethischen Kriterien schon verf&#252;gbar seien, um das zu bewerten. Ein anderer warnte vor der Auffassung, dass die Logistik im Vergleich mit Waffensystemen ein „harmloses“ Einsatzgebiet w&#228;re: Entscheidungen &#252;ber Nachschublieferungen k&#246;nnten den Verlust von mehr Menschenleben bewirken als ein einzelnes Waffensystem.</p> <p>Katharina Zweig (TU Kaiserslautern) hatte zuvor bereits auf das Max-Flow-Min-Cut-Theorem aus der Graphentheorie verwiesen, mit dessen Hilfe bestimmt werden k&#246;nne, wie bei begrenzten Transportkapazit&#228;ten m&#246;glichst viel Nachschub an die Front gebracht werden kann &#8211; das aber auch dem Gegner zeigt, an welchen Stellen der Logistik-Kette der maximale Schaden bewirkt werden kann.</p> <div class=„inread“/> <p>Anders als bei solchen klassischen Algorithmen, so Zweig, gebe es bei Verfahren der KI und des maschinellen Lernens keine Garantien und eindeutigen L&#246;sungen. Sie demonstrierte es an einem einfachen Beispiel, bei dem kriminelle Personen und unschuldige B&#252;rger hinsichtlich ihrer jeweiligen Anteile an „Kriminolin“ und „Sanftosan“ in einem zweidimensionalen Koordinatensystem erfasst wurden. Die Aufgabe bestand nun darin, eine Linie zu finden, die beide Gruppen m&#246;glichst gut voneinander trennt &#8211; ein Verfahren, das als „Support Vector Machine“ bekannt ist. Rasch wurde deutlich: Es gibt keine perfekte L&#246;sung. Entweder bleiben Kriminelle unentdeckt, oder es werden Unschuldige als kriminell eingestuft.</p> <h3 class=„subheading“ id=„nav_die1“>Die Gesellschaft muss sich entscheiden</h3> <p>Die Frage, in welche Richtung das System optimiert werden soll, sei keine mathematische, sondern eine gesellschaftliche, betonte Zweig. Sie zitierte den Rechtsphilosophen William Blackstone, der 1760 postulierte, dass es besser sei, wenn zehn Schuldige entk&#228;men, bevor ein Unschuldiger leide. Der ehemalige US-Vizepr&#228;sident Dick Cheney dagegen habe erkl&#228;rt, er sei mehr um die B&#246;sen besorgt, die entkommen, als um einige, die tats&#228;chlich unschuldig seien.</p> <p>Hinzu k&#228;me, dass manche Delikte sich leichter verfolgen lie&#223;en als andere. Dies f&#252;hre zu Verzerrungen des Algorithmus, der dann zum Beispiel Wirtschaftskriminalit&#228;t weniger gut erfassen k&#246;nne. Als Beispiel nannte sie Netzwerkanalysen, die auf Grundlage von Reiseverhalten, Aktivit&#228;ten in sozialen Netzwerken oder Mobilfunkdaten Terroristen identifizieren sollen. <a href=„https://www.heise.de/select/ct/2016/3/1454568655653911“><strong>Das Skynet-Programm des US-Geheimdienstes NSA [2]</strong></a> etwa habe auf diese Weise den Journalisten Ahmad Muaffaq Zaidan zum Topterroristen erkl&#228;rt. Daten b&#246;ten immer nur einen Ausschnitt der Wirklichkeit, erkl&#228;rte Zweig. Mobilfunkdaten w&#252;rden von den Geheimdiensten nicht verwendet, weil sie eine hohe Qualit&#228;t h&#228;tten, sondern weil sie verf&#252;gbar sind. „Ethik kommt &#252;ber Sie, mich, uns in den Rechner“, mahnte sie.</p> <p>Nicht nur aus diesem Grund waren die meisten Vortr&#228;ge von einer gewissen Zur&#252;ckhaltung gepr&#228;gt. Zwar wurde nicht bezweifelt, dass es sich bei KI um eine „disruptive“ Technologie handle, mit dem Potenzial, bestehende Gesch&#228;ftsmodelle zu ver&#228;ndern, wie Wolfgang G&#228;belein (Planungsamt der Bundeswehr) erkl&#228;rte. Gerade im Bereich der Menschenf&#252;hrung sei Vertrauen aber unerl&#228;sslich. &#8222;Die Einf&#252;hrung von KI kann nicht einfach geschehen, sie muss gestaltet werden&#8220;, lautete seine Forderung.</p> <h3 class=„subheading“ id=„nav_mehr_effizienz2“>Mehr Effizienz dank KI</h3> <p>Michael Mittelst&#228;dt, der sich beim Bundesverteidigungsministerium mit der Logistik-Planung besch&#228;ftigt, verspricht sich von KI eine Erh&#246;hung der Effektivit&#228;t und Effizienz wie auch der Entscheidungsqualit&#228;t bei logistischen Prozessen. Wenn auch noch neue F&#228;higkeiten hinzuk&#228;men, w&#228;re das ein „Sahneh&#228;ubchen“, das aber nicht an erster Stelle stehe. Die Einf&#252;hrung d&#252;rfe jedenfalls nicht als „disruptive Revolution“ erfolgen, sondern m&#252;sse schrittweise geschehen. Die derzeitigen Prozesse, die auf dem SAP-Standard S/4HANA beruhten, d&#252;rften nicht gef&#228;hrdet werden. Den Einsatz von KI hielt Mittelst&#228;dt zudem nur f&#252;r vertretbar, wenn sie unter anderem abschaltbar und ersetzbar sei. Eine solche Forderung nach R&#252;ckfalll&#246;sungen fand in der Diskussion allgemein Zustimmung.</p> <p>Ganz frei w&#228;hlen kann die Bundeswehr das Tempo, mit dem sie KI einf&#252;hren will, jedoch nicht. Kai Perv&#246;lz (Fraunhofer IAIS) verwies auf „Hyperwar“-Szenarien mit Cyberangriffen sowie Angriffen mit gro&#223;en Mengen automatisch und autonom gesteuerter Systeme, die die Kriegf&#252;hrung massiv beschleunigten und r&#228;umlich entgrenzten. Wer schneller plane und entscheide, sei dabei klar im Vorteil. Insbesondere bei der Lagefeststellung und Entscheidungsfindung sah Perv&#246;lz Ansatzpunkte f&#252;r Unterst&#252;tzung durch KI. „Wir m&#252;ssen in vielen Bereichen schneller und agiler werden“, sagte er.</p> <p>Noch deutlicher formulierte es Jan Wilhelm Brendecke (Amt f&#252;r Heeresentwicklung): „Wer schneller zielt und besser trifft, bleibt Sieger im Feuerkampf.“ Am Beispiel von Computerspielen wie StarCraft 2 und Quake III Arena, bei denen KI mittlerweile Menschen &#252;berlegen ist, zeigte er, wie KI Entscheidungsprozesse beschleunigen, das Ressourcen-Management verbessern oder die Entwicklung neuer Strategien unterst&#252;tzen k&#246;nne. Der Einsatz von neuronalen Netzen in milit&#228;rischen Systemen sei daher nur eine Frage der Zeit. Entscheidend f&#252;r deren Qualit&#228;t seien weniger die Algorithmen, die frei verf&#252;gbar seien, sondern vor allem die Trainingsdaten. Bei der Beantwortung zwei entscheidender Fragen, die Brendecke in den Raum stellte, d&#252;rfte KI jedoch kaum helfen k&#246;nnen: „Was k&#246;nnen/wollen wir an KI &#252;bergeben? Was m&#252;ssen wir an KI &#252;bergeben?“ ()<br class=„clear“/></p> <hr/><p><strong>URL dieses Artikels:</strong><br/><small>

http://www.heise.de/-4572038

</small></p> <p><strong>Links in diesem Artikel:</strong><br/><small>

<strong>[1]</strong>&#160;https://www.dwt-sgw.de/veranstaltungen/veranstaltungen-der-sgw/detail/?tx_dwtevents%5Bevent%5D=489&amp;cHash=3621bbcfec1afc63e1315531b6786239

</small><br/><small>

<strong>[2]</strong>&#160;https://www.heise.de/select/ct/2016/3/1454568655653911

</small><br/><small>

<strong>[3]</strong>&#160;mailto:mho@heise.de

</small><br/></p> <p class=„printversion__copyright“><em>Copyright &#169; 2019 Heise Medien</em></p> </html>

Cookies helfen bei der Bereitstellung von Inhalten. Diese Website verwendet Cookies. Mit der Nutzung der Website erklären Sie sich damit einverstanden, dass Cookies auf Ihrem Computer gespeichert werden. Außerdem bestätigen Sie, dass Sie unsere Datenschutzerklärung gelesen und verstanden haben. Wenn Sie nicht einverstanden sind, verlassen Sie die Website.Weitere Information