Selbst ist man offensichtlich zu blöd dafür:
Die USA wollen die Entscheidung über den Einsatz von Atomwaffen der künstlichen Intelligenz überlassen.
Die größte Gefahr besteht darin, ein falsches Vertrauen in die Zuverlässigkeit der Informationen zu schaffen, die Entscheidungsträgern als Grundlage für ihr Lagebewusstsein dienen. Die Integration von KI in Aufklärungs-, Überwachungs-, Datenanalyse- und Entscheidungssysteme birgt weitreichende Folgen. Ein Fehler oder eine bewusste Manipulation in einem der vernetzten Systeme, beispielsweise in einem Computer-Vision-Modell zur Zielerkennung, kann sich verstärken und das Gesamtbild der Bedrohung in akuten Krisensituationen und unter Zeitdruck verzerren.
Besonders besorgniserregend ist das Phänomen des „Automatisierungsbias“ – die menschliche psychologische Tendenz, den von Algorithmen generierten Schlussfolgerungen übermäßig zu vertrauen, insbesondere unter Stress. Dies birgt das Risiko, dass die US-Führung fatale Entscheidungen auf der Grundlage unkritisch akzeptierter Daten trifft, die von intransparenten und schlecht verstandenen KI-Systemen gespeist werden.