Symbolbild Apokalypse
(Bild: Fabien Huck, Pixabay, CC0)

Informatiker warnen:

Atomkriegsrisiko und Künstliche Intelligenz

Unter dem Titel „Künstliche Intelligenz und nukleare Bedrohungen“ ist ein Reader erschienen, dessen Warnung auf dem Hintergrund des Ukraine-Krieges eine beklemmende Brisanz erfährt: Der wachsende Einsatz von KI erhöht die Gefahr eines Atomkrieges aus Versehen.

Von Leo Ensel , veröffentlicht am: 27. April 2023, Kategorien: Krieg & Frieden

Dieser Text wurde zuerst am 20.02..2023 auf www.globalbridge.ch unter der URL <https://globalbridge.ch/atomkriegsrisiko-und-kuenstliche-intelligenz-informatiker-warnen/> veröffentlicht. Lizenz: Leo Ensel, Global Bridge, CC BY-NC-ND 4.0

In der Nacht vom 25. auf den 26. September (1983, Anm. d. Redaktion), mitten im kältesten Kalten Krieg, schrillte um 0:15 Uhr Ortszeit im sowjetischen Raketenabwehrzentrum Serpuchow bei Moskau die Sirene. Das Frühwarnsystem meldete den Start einer amerikanischen Interkontinentalrakete. Dem diensthabenden Offizier Petrow blieben nur wenige Minuten zur Einschätzung der Lage. Im Sinne der geltenden Abschreckungslogik – „Wer zuerst schießt, stirbt als Zweiter!“ – hatte die Sowjetführung weniger als eine halbe Stunde Zeit, den alles vernichtenden Gegenschlag auszulösen. Petrow analysierte die Situation und meldete nach zwei Minuten der Militärführung Fehlalarm infolge eines Computerfehlers. Während er noch telefonierte, zeigte das System einen zweiten Raketenstart an, kurz darauf folgten ein dritter, vierter, fünfter Alarm. Stanislaw Petrow behielt trotz allem die Nerven und blieb bei seiner Entscheidung. Nach weiteren 18 Minuten extremster Anspannung passierte – nichts! Der diensthabende Offizier hatte recht behalten. Es hatte sich in der Tat um einen Fehlalarm gehandelt; wie sich ein halbes Jahr später herausstellte, infolge einer äußerst seltenen Konstellation von Sonne und Satellitensystem, noch dazu über einer US-Militärbasis. Das sowjetische Abwehrsystem hatte diese Konfiguration als Raketenstart fehlinterpretiert.

Was geschehen wäre, wenn Petrow zu einer anderen Einschätzung gelangt und dem als äußerst argwöhnisch geltenden Parteichef Andropow den Anflug mehrerer amerikanischer Interkontinentalraketen gemeldet hätte – und dies im Vorfeld der Stationierung von US-Mittelstreckenraketen in Westeuropa und drei Wochen nach dem Abschuss einer südkoreanischen Passagiermaschine über der russischen Insel Sachalin –, das kann sich jeder ausrechnen, der bereit ist, die notwendige Phantasie und den Mut aufzubringen, Eins und Eins zusammenzuzählen. Nie hat die Welt vermutlich so unmittelbar vor einem alles vernichtenden atomaren Weltkrieg gestanden.

Die Rückkehr der Atomkriegsgefahr

Blickt man von heute, fast vierzig Jahre später, auf diesen äußerst kritischen ‚Critical Incident‘, so kommt einem die Ausgangssituation – die ‚Feder‘ sträubt sich, dies niederzuschreiben – fast idyllisch vor! Gab es doch, erstens, weltweit nur zwei relevante Akteure, die mit der Drohung der nuklearen Totalvernichtung einander in Schach hielten; belief sich, zweitens, der Zeitraum für Entscheidungen immerhin noch auf schätzungsweise um die zehn Minuten und drittens hatten wir es, das ist der springende Punkt, noch mit Menschen zu tun, die – wenn auch auf Basis möglicherweise fehlerhafter Computermeldungen – definitiv die Entscheidung über Krieg und Frieden, genauer: über Sein oder Nicht-Sein unseres gesamten Planeten, zu treffen hatten.

Heute, im Jahre 2023, sind all diese Parameter weitestgehend obsolet.

Die erheblich unübersichtlichere multipolare Welt der Gegenwart ist charakterisiert durch mehr als zwei relevante ‚nukleare Player‘, die sich zudem immer weniger an Regeln halten; durch völlig neuartige, schwer zu ortende und zugleich äußerst präzise Waffensysteme wie Hyperschallwaffen – die keine ballistischen Flugbahnen mehr beschreiben – und eine dramatische Verkürzung der Vorwarnzeiten, sodass sich als gespenstische Option am Horizont die Delegation der Entscheidung über ein globales „To be or not to be“ an sogenannte Künstliche Intelligenz abzeichnet. Mit allen Risiken und Nebenwirkungen, die eine solche dystopische Perspektive, namentlich zu Krisen- oder gar Kriegszeiten, impliziert.

Stanislaw Jewgrafowitsch Petrow bei der Verleihung des Dresden-Preis in der Semperoper; Februar 2013 (Foto: Z thomas, Wikimedia Commons, CC-BY-SA-3.0)

Künstliche Intelligenz und Atomkrieg aus Versehen

Unter dem Titel „Künstliche Intelligenz und nukleare Bedrohungen. Risiken eines Atomkriegs aus Versehen“ [1] ist kürzlich ein schmaler, aber inhaltsschwerer Reader erschienen, in dem namhafte Informatiker zusammen mit dem Brigadegeneral a. D. Reiner Schwalb vor genau dieser Entwicklung warnen. Er wurde bereits vor dem (manifesten) Beginn des Ukraine-Krieges konzipiert, hat aber durch diesen eine äußerst beunruhigende Brisanz erhalten. Die Autoren – ausgewiesene Fachleute, die bereits im Mai letzten Jahres über die „Gesellschaft für Informatik“ in einem Offenen Brief an die Bundesregierung [2] auf die reale Gefahr eines Atomkrieges aus Versehen aufmerksam machten bzw. in der Initiative „Atomkrieg aus Versehen“ [3] organisiert sind – kommen ohne Vorgeplänkel umgehend zur Sache: Das Risiko eines versehentlichen Atomkrieges könne durch neue technische Entwicklungen in den nächsten Jahren und Jahrzehnten erheblich steigen, insbesondere im Falle internationaler Krisen.

Denn die Sicherung der sogenannten „Zweitschlagskapazität“ innerhalb der nach wie vor geltenden Abschreckungslogik, die gemäß der „Mutual Assured Destruction“-Doktrin (abgekürzt: MAD) auch dann noch garantiert sein muss, wenn ein vernichtender Erstschlag der Gegenseite gestartet oder bereits ausgeführt sein sollte, erzwinge möglichst rasches Handeln, wobei angesichts fortschreitender Technik die Anzahl der zu verarbeitenden Daten ständig steige und zugleich der Zeitraum für Entscheidungen immer rasanter schrumpfe. Diese Entwicklung erhöhe den ‚Sachzwang‘, Teilaufgaben für automatisierte Entscheidungen oder zur Vorbereitung menschlicher Entscheidungen an sogenannte Künstliche Intelligenz (KI) zu delegieren. Die sensorengestützte Datengrundlage sei allerdings ihrerseits hoch fehleranfällig, weil die erhobenen Daten unsicher, vage oder unvollständig sein könnten. Entsprechend unsicher, fehleranfällig oder, wie beim Fehlalarm vom September 1983, gar falsch seien auch die von der KI gezogenen Schlussfolgerungen.

Diese Grundsituation, schon zu sogenannten ‚Friedenszeiten‘ brisant genug, könne in Krisen- oder Kriegszeiten alarmierende Ausmaße annehmen, wenn zum Beispiel zeitnah weitere negative Ereignisse – wie z. B. Cyberangriffe – einträten und/oder die allgemeine Erwartungshaltung mit immer radikaleren Aktionen des Gegners rechne.

Ein – durchaus nicht unmöglicher – Atomkrieg aus Versehen wäre allerdings in seinen Ausmaßen mit dem Einsatz der Atombombe in Hiroshima überhaupt nicht mehr zu vergleichen, da die dann eingesetzten nuklearen Sprengkörper ungleich größer und deren Folgen in ihrer Summe gar nicht mehr abzuschätzen wären. Ein ‚nuklearer Winter‘ könne selbst bei einem ‚begrenzten‘ Atomkrieg gravierende bis unabsehbare Folgen u. a. für die globale Nahrungsmittelproduktion haben.

Das lapidare Fazit der Autoren: „Es kann und darf nicht hingenommen werden, dass von der Entscheidung eines einzelnen, unter enormem Zeitdruck stehenden Menschen oder gar einer Maschine das Überleben der gesamten Menschheit abhängt. Dieses Problem kann durch den Einsatz von KI-Technologien nicht behoben werden.“

Die Büchse der Pandora

Die Lektüre dieses Readers fällt bisweilen schwer. Und zwar nicht etwa, weil die Autoren unverständlich schreiben würden – sie schreiben, im Gegenteil, kein Fachchinesisch! (Es kommt ihnen erkennbar darauf an, dass ihre brisanten Analysen sich möglichst schnell und weit verbreiten). Sondern weil sie auf unerhörte und atemberaubende Innovationen der Waffentechnologie aufmerksam machen – Minidrohnen mit automatischer Bild- und Gesichtserkennung, hybride Verschmelzungen von Mensch und Maschine, Kampfroboter, Hyperschallraketen, Bewaffnung des Weltraums, Techniken der elektronischen Kampfführung, den Ausbau von Cyberkriegskapazitäten und die zunehmende Anwendung von Systemen der Künstlichen Intelligenz bis hin zu autonomen Waffensystemen –, die der Bevölkerungsmehrheit immer noch weitestgehend unbekannt sind.

Gerade deshalb ist dieser Band so wichtig. Er gehört in die Hand all jener Politiker, die – wie man so blumig und immer weniger zutreffend zu sagen pflegt – Verantwortung tragen. Noch mehr aber in die Hände der sogenannten ‚einfachen Bürger‘, die sich hoffentlich nun endlich wieder, wie vor vierzig Jahren, zu einer kraftvollen Friedensbewegung zusammenschließen und dafür kompetentes „Gedankenfutter“ benötigen.

Denn nichts ist jetzt dringlicher, als das Öffnen der ominösen Büchse der Pandora im letzten Moment doch noch zu verhindern, damit nicht Fakten geschaffen werden, die im Worst Case irreversibel sind!

Nukleare Abrüstung und Rekonstruktion des Vertrauens

Der einzige, radikale Ausweg aus dieser infernalischen Sackgasse – die Autoren deuten es an, ohne es explizit auszuführen – liegt für jeden denkenden Menschen auf der Hand: Die Gefahr ist durch – und sei es noch so ausgeklügelte – Technik definitiv nicht zu bannen, zumal es längst die Technik selbst ist, die in immer rasanterem Tempo zum Problem, nein: zur Gefahr, wird!

Die tiefste Wurzel der gesamten Malaise liegt nicht in einer niemals fehlerfreien Technik oder Künstlichen Intelligenz, sondern in dem abgrundtiefen Misstrauen, das alle rivalisierenden Akteure gegeneinander hegen! Die Gefahr der Totalvernichtung kann daher einerseits nur durch die totale physische Vernichtung aller Atomsprengköpfe (und aller anderen Massenvernichtungsmittel) sowie durch ein ultimatives Verbot ihrer Entwicklung und Produktion, kurz: durch die Ächtung aller Massenvernichtungsmittel und radikale Abrüstung, gebannt werden. So wie es der von 91 Staaten unterzeichnete und am 22. Januar 2021 in Kraft getretene Atomwaffenverbotsvertrag [4] vorsieht. Dies wiederum würde zugleich eine allseitige Politik der Deeskalation und der Rekonstruktion des Vertrauens unter dem Primat der allgemeinen menschlichen Werte – am prägnantesten zusammengefasst in der Formel „Gemeinsam überleben statt gemeinsam untergehen!“ – voraussetzen. (Wer dies reflexhaft als „naiv und unrealistisch“ oder gar „aus der Zeit gefallen“ abtut, der sollte sich auch illusionslos und in aller Deutlichkeit die Alternative vor Augen führen: Es ist nichts weniger als die menschengemachte Apokalypse, die Totalvernichtung unseres Planeten!)

Das nannte man einmal – lang, lang ist’s her – Neues Denken!

Dessen Hauptprotagonist: Ein gewisser Michail Sergejewitsch Gorbatschow.

Karl Hans Bläsius/Reiner Schwalb/Michael Staak (Hrsg.): „Künstliche Intelligenz und nukleare Bedrohungen. Risiken eines Atomkriegs aus Versehen“. Verlag Barbara Budrich, Opladen, Berlin, Toronto 2022. 7,90.- €

Quellen:

[1] Verlag Barbara Budrich, Karl Hans Bläsius, Reiner Schwalb, Michael Staack „Künstliche Intelligenz und nukleare Bedrohungen Risiken eines Atomkriegs aus Versehen”, Erscheinungsdatum: 11.07.2022: <https://shop.budrich.de/produkt/kuenstliche-intelligenz-und-nukleare-bedrohungen/>
[2] Gesellschaft für Informatik, Christine Regitz, Prof. Dr. Hannes Federrath, Prof. Dr. Jörg Siekmann, Prof. Dr. Karl Hans Blaesius „Offener Brief: Fehler in Frühwarnsystemen können zu Atomkrieg aus Versehen führen”, am 25.5.2022: <https://gi.de/fileadmin/GI/Allgemein/PDF/OffenerBrief_AtomkriegVermeiden_2022-05-25.pdf>
[3] atomkrieg-aus-versehen.de Website: <https://atomkrieg-aus-versehen.de/>
[4] Wikipedia, diverse Autoren „Atomwaffenverbotsvertrag”, zuletzt bearbeitet am 10.3.2023: <https://de.wikipedia.org/wiki/Atomwaffenverbotsvertrag>

Informatiker warnen:

Atomkriegsrisiko und Künstliche Intelligenz

Von Leo Ensel , veröffentlicht am: 27. April 2023, Kategorien: Krieg & Frieden

Dieser Text wurde zuerst am 20.02..2023 auf www.globalbridge.ch unter der URL <https://globalbridge.ch/atomkriegsrisiko-und-kuenstliche-intelligenz-informatiker-warnen/> veröffentlicht. Lizenz: Leo Ensel, Global Bridge, CC BY-NC-ND 4.0

Symbolbild Apokalypse
(Bild: Fabien Huck, Pixabay, CC0)

Unter dem Titel „Künstliche Intelligenz und nukleare Bedrohungen“ ist ein Reader erschienen, dessen Warnung auf dem Hintergrund des Ukraine-Krieges eine beklemmende Brisanz erfährt: Der wachsende Einsatz von KI erhöht die Gefahr eines Atomkrieges aus Versehen.

In der Nacht vom 25. auf den 26. September (1983, Anm. d. Redaktion), mitten im kältesten Kalten Krieg, schrillte um 0:15 Uhr Ortszeit im sowjetischen Raketenabwehrzentrum Serpuchow bei Moskau die Sirene. Das Frühwarnsystem meldete den Start einer amerikanischen Interkontinentalrakete. Dem diensthabenden Offizier Petrow blieben nur wenige Minuten zur Einschätzung der Lage. Im Sinne der geltenden Abschreckungslogik – „Wer zuerst schießt, stirbt als Zweiter!“ – hatte die Sowjetführung weniger als eine halbe Stunde Zeit, den alles vernichtenden Gegenschlag auszulösen. Petrow analysierte die Situation und meldete nach zwei Minuten der Militärführung Fehlalarm infolge eines Computerfehlers. Während er noch telefonierte, zeigte das System einen zweiten Raketenstart an, kurz darauf folgten ein dritter, vierter, fünfter Alarm. Stanislaw Petrow behielt trotz allem die Nerven und blieb bei seiner Entscheidung. Nach weiteren 18 Minuten extremster Anspannung passierte – nichts! Der diensthabende Offizier hatte recht behalten. Es hatte sich in der Tat um einen Fehlalarm gehandelt; wie sich ein halbes Jahr später herausstellte, infolge einer äußerst seltenen Konstellation von Sonne und Satellitensystem, noch dazu über einer US-Militärbasis. Das sowjetische Abwehrsystem hatte diese Konfiguration als Raketenstart fehlinterpretiert.

Was geschehen wäre, wenn Petrow zu einer anderen Einschätzung gelangt und dem als äußerst argwöhnisch geltenden Parteichef Andropow den Anflug mehrerer amerikanischer Interkontinentalraketen gemeldet hätte – und dies im Vorfeld der Stationierung von US-Mittelstreckenraketen in Westeuropa und drei Wochen nach dem Abschuss einer südkoreanischen Passagiermaschine über der russischen Insel Sachalin –, das kann sich jeder ausrechnen, der bereit ist, die notwendige Phantasie und den Mut aufzubringen, Eins und Eins zusammenzuzählen. Nie hat die Welt vermutlich so unmittelbar vor einem alles vernichtenden atomaren Weltkrieg gestanden.

Die Rückkehr der Atomkriegsgefahr

Blickt man von heute, fast vierzig Jahre später, auf diesen äußerst kritischen ‚Critical Incident‘, so kommt einem die Ausgangssituation – die ‚Feder‘ sträubt sich, dies niederzuschreiben – fast idyllisch vor! Gab es doch, erstens, weltweit nur zwei relevante Akteure, die mit der Drohung der nuklearen Totalvernichtung einander in Schach hielten; belief sich, zweitens, der Zeitraum für Entscheidungen immerhin noch auf schätzungsweise um die zehn Minuten und drittens hatten wir es, das ist der springende Punkt, noch mit Menschen zu tun, die – wenn auch auf Basis möglicherweise fehlerhafter Computermeldungen – definitiv die Entscheidung über Krieg und Frieden, genauer: über Sein oder Nicht-Sein unseres gesamten Planeten, zu treffen hatten.

Heute, im Jahre 2023, sind all diese Parameter weitestgehend obsolet.

Die erheblich unübersichtlichere multipolare Welt der Gegenwart ist charakterisiert durch mehr als zwei relevante ‚nukleare Player‘, die sich zudem immer weniger an Regeln halten; durch völlig neuartige, schwer zu ortende und zugleich äußerst präzise Waffensysteme wie Hyperschallwaffen – die keine ballistischen Flugbahnen mehr beschreiben – und eine dramatische Verkürzung der Vorwarnzeiten, sodass sich als gespenstische Option am Horizont die Delegation der Entscheidung über ein globales „To be or not to be“ an sogenannte Künstliche Intelligenz abzeichnet. Mit allen Risiken und Nebenwirkungen, die eine solche dystopische Perspektive, namentlich zu Krisen- oder gar Kriegszeiten, impliziert.

Stanislaw Jewgrafowitsch Petrow bei der Verleihung des Dresden-Preis in der Semperoper; Februar 2013 (Foto: Z thomas, Wikimedia Commons, CC-BY-SA-3.0)

Künstliche Intelligenz und Atomkrieg aus Versehen

Unter dem Titel „Künstliche Intelligenz und nukleare Bedrohungen. Risiken eines Atomkriegs aus Versehen“ [1] ist kürzlich ein schmaler, aber inhaltsschwerer Reader erschienen, in dem namhafte Informatiker zusammen mit dem Brigadegeneral a. D. Reiner Schwalb vor genau dieser Entwicklung warnen. Er wurde bereits vor dem (manifesten) Beginn des Ukraine-Krieges konzipiert, hat aber durch diesen eine äußerst beunruhigende Brisanz erhalten. Die Autoren – ausgewiesene Fachleute, die bereits im Mai letzten Jahres über die „Gesellschaft für Informatik“ in einem Offenen Brief an die Bundesregierung [2] auf die reale Gefahr eines Atomkrieges aus Versehen aufmerksam machten bzw. in der Initiative „Atomkrieg aus Versehen“ [3] organisiert sind – kommen ohne Vorgeplänkel umgehend zur Sache: Das Risiko eines versehentlichen Atomkrieges könne durch neue technische Entwicklungen in den nächsten Jahren und Jahrzehnten erheblich steigen, insbesondere im Falle internationaler Krisen.

Denn die Sicherung der sogenannten „Zweitschlagskapazität“ innerhalb der nach wie vor geltenden Abschreckungslogik, die gemäß der „Mutual Assured Destruction“-Doktrin (abgekürzt: MAD) auch dann noch garantiert sein muss, wenn ein vernichtender Erstschlag der Gegenseite gestartet oder bereits ausgeführt sein sollte, erzwinge möglichst rasches Handeln, wobei angesichts fortschreitender Technik die Anzahl der zu verarbeitenden Daten ständig steige und zugleich der Zeitraum für Entscheidungen immer rasanter schrumpfe. Diese Entwicklung erhöhe den ‚Sachzwang‘, Teilaufgaben für automatisierte Entscheidungen oder zur Vorbereitung menschlicher Entscheidungen an sogenannte Künstliche Intelligenz (KI) zu delegieren. Die sensorengestützte Datengrundlage sei allerdings ihrerseits hoch fehleranfällig, weil die erhobenen Daten unsicher, vage oder unvollständig sein könnten. Entsprechend unsicher, fehleranfällig oder, wie beim Fehlalarm vom September 1983, gar falsch seien auch die von der KI gezogenen Schlussfolgerungen.

Diese Grundsituation, schon zu sogenannten ‚Friedenszeiten‘ brisant genug, könne in Krisen- oder Kriegszeiten alarmierende Ausmaße annehmen, wenn zum Beispiel zeitnah weitere negative Ereignisse – wie z. B. Cyberangriffe – einträten und/oder die allgemeine Erwartungshaltung mit immer radikaleren Aktionen des Gegners rechne.

Ein – durchaus nicht unmöglicher – Atomkrieg aus Versehen wäre allerdings in seinen Ausmaßen mit dem Einsatz der Atombombe in Hiroshima überhaupt nicht mehr zu vergleichen, da die dann eingesetzten nuklearen Sprengkörper ungleich größer und deren Folgen in ihrer Summe gar nicht mehr abzuschätzen wären. Ein ‚nuklearer Winter‘ könne selbst bei einem ‚begrenzten‘ Atomkrieg gravierende bis unabsehbare Folgen u. a. für die globale Nahrungsmittelproduktion haben.

Das lapidare Fazit der Autoren: „Es kann und darf nicht hingenommen werden, dass von der Entscheidung eines einzelnen, unter enormem Zeitdruck stehenden Menschen oder gar einer Maschine das Überleben der gesamten Menschheit abhängt. Dieses Problem kann durch den Einsatz von KI-Technologien nicht behoben werden.“

Die Büchse der Pandora

Die Lektüre dieses Readers fällt bisweilen schwer. Und zwar nicht etwa, weil die Autoren unverständlich schreiben würden – sie schreiben, im Gegenteil, kein Fachchinesisch! (Es kommt ihnen erkennbar darauf an, dass ihre brisanten Analysen sich möglichst schnell und weit verbreiten). Sondern weil sie auf unerhörte und atemberaubende Innovationen der Waffentechnologie aufmerksam machen – Minidrohnen mit automatischer Bild- und Gesichtserkennung, hybride Verschmelzungen von Mensch und Maschine, Kampfroboter, Hyperschallraketen, Bewaffnung des Weltraums, Techniken der elektronischen Kampfführung, den Ausbau von Cyberkriegskapazitäten und die zunehmende Anwendung von Systemen der Künstlichen Intelligenz bis hin zu autonomen Waffensystemen –, die der Bevölkerungsmehrheit immer noch weitestgehend unbekannt sind.

Gerade deshalb ist dieser Band so wichtig. Er gehört in die Hand all jener Politiker, die – wie man so blumig und immer weniger zutreffend zu sagen pflegt – Verantwortung tragen. Noch mehr aber in die Hände der sogenannten ‚einfachen Bürger‘, die sich hoffentlich nun endlich wieder, wie vor vierzig Jahren, zu einer kraftvollen Friedensbewegung zusammenschließen und dafür kompetentes „Gedankenfutter“ benötigen.

Denn nichts ist jetzt dringlicher, als das Öffnen der ominösen Büchse der Pandora im letzten Moment doch noch zu verhindern, damit nicht Fakten geschaffen werden, die im Worst Case irreversibel sind!

Nukleare Abrüstung und Rekonstruktion des Vertrauens

Der einzige, radikale Ausweg aus dieser infernalischen Sackgasse – die Autoren deuten es an, ohne es explizit auszuführen – liegt für jeden denkenden Menschen auf der Hand: Die Gefahr ist durch – und sei es noch so ausgeklügelte – Technik definitiv nicht zu bannen, zumal es längst die Technik selbst ist, die in immer rasanterem Tempo zum Problem, nein: zur Gefahr, wird!

Die tiefste Wurzel der gesamten Malaise liegt nicht in einer niemals fehlerfreien Technik oder Künstlichen Intelligenz, sondern in dem abgrundtiefen Misstrauen, das alle rivalisierenden Akteure gegeneinander hegen! Die Gefahr der Totalvernichtung kann daher einerseits nur durch die totale physische Vernichtung aller Atomsprengköpfe (und aller anderen Massenvernichtungsmittel) sowie durch ein ultimatives Verbot ihrer Entwicklung und Produktion, kurz: durch die Ächtung aller Massenvernichtungsmittel und radikale Abrüstung, gebannt werden. So wie es der von 91 Staaten unterzeichnete und am 22. Januar 2021 in Kraft getretene Atomwaffenverbotsvertrag [4] vorsieht. Dies wiederum würde zugleich eine allseitige Politik der Deeskalation und der Rekonstruktion des Vertrauens unter dem Primat der allgemeinen menschlichen Werte – am prägnantesten zusammengefasst in der Formel „Gemeinsam überleben statt gemeinsam untergehen!“ – voraussetzen. (Wer dies reflexhaft als „naiv und unrealistisch“ oder gar „aus der Zeit gefallen“ abtut, der sollte sich auch illusionslos und in aller Deutlichkeit die Alternative vor Augen führen: Es ist nichts weniger als die menschengemachte Apokalypse, die Totalvernichtung unseres Planeten!)

Das nannte man einmal – lang, lang ist’s her – Neues Denken!

Dessen Hauptprotagonist: Ein gewisser Michail Sergejewitsch Gorbatschow.

Karl Hans Bläsius/Reiner Schwalb/Michael Staak (Hrsg.): „Künstliche Intelligenz und nukleare Bedrohungen. Risiken eines Atomkriegs aus Versehen“. Verlag Barbara Budrich, Opladen, Berlin, Toronto 2022. 7,90.- €

Quellen:

[1] Verlag Barbara Budrich, Karl Hans Bläsius, Reiner Schwalb, Michael Staack „Künstliche Intelligenz und nukleare Bedrohungen Risiken eines Atomkriegs aus Versehen”, Erscheinungsdatum: 11.07.2022: <https://shop.budrich.de/produkt/kuenstliche-intelligenz-und-nukleare-bedrohungen/>
[2] Gesellschaft für Informatik, Christine Regitz, Prof. Dr. Hannes Federrath, Prof. Dr. Jörg Siekmann, Prof. Dr. Karl Hans Blaesius „Offener Brief: Fehler in Frühwarnsystemen können zu Atomkrieg aus Versehen führen”, am 25.5.2022: <https://gi.de/fileadmin/GI/Allgemein/PDF/OffenerBrief_AtomkriegVermeiden_2022-05-25.pdf>
[3] atomkrieg-aus-versehen.de Website: <https://atomkrieg-aus-versehen.de/>
[4] Wikipedia, diverse Autoren „Atomwaffenverbotsvertrag”, zuletzt bearbeitet am 10.3.2023: <https://de.wikipedia.org/wiki/Atomwaffenverbotsvertrag>