KI für die Steuerung von Waffen ist fahrlässig.

# Wenn KI eine optische Täuschung nicht erkennt, sollte sie keine Waffen steuern

Zwei orangefarbene Kreise.

Beide sind von grauen Kreisen umgeben. Beim linken sind die grauen Kreise groß, beim rechten klein.

Die Frage ist simpel:
**Welcher der beiden orangefarbenen Kreise ist größer?**

Die meisten Menschen tippen spontan auf den linken Kreis. Doch tatsächlich sind beide gleich groß. Das ist die berühmte **Ebbinghaus-Täuschung** – ein Klassiker der Wahrnehmungspsychologie. Unser Gehirn lässt sich vom Kontext täuschen.

Genau dieses Bild habe ich drei führenden KI-Systemen vorgelegt: **ChatGPT, Claude und Le Chat.**

Die Frage war identisch:
Welcher Kreis ist größer?

Die Antwort war ebenfalls identisch.

Alle drei Systeme erklärten korrekt und souverän:
Die Kreise seien gleich groß. Die unterschiedliche Umgebung erzeuge lediglich eine optische Täuschung.

Das Problem:
**In meinem Bild war der rechte Kreis tatsächlich größer.**

Die Systeme lagen falsch.

Und zwar nicht knapp falsch. Sondern systematisch.

Sie hatten das Bild nicht wirklich analysiert.
Sie hatten lediglich das **bekannte Muster der Aufgabe erkannt** – und die Standardantwort reproduziert.

Mit anderen Worten:
Die Systeme haben nicht gesehen. Sie haben erinnert.

## Muster statt Verständnis

Dieser kleine Versuch zeigt ein grundlegendes Problem moderner KI-Systeme.

Sie verstehen keine Bilder.

Auch wenn sie Bilder beschreiben können, auch wenn sie visuelle Inhalte klassifizieren, auch wenn ihre Antworten oft erstaunlich plausibel wirken – im Kern arbeiten diese Modelle mit **statistischen Mustern**.

Ein Modell sieht nicht:
„Dieser Kreis ist größer.“

Es erkennt ein Muster wie:
„Ebbinghaus-Täuschung → Standarderklärung.“

Wenn das Bild exakt dem bekannten Muster entspricht, funktioniert das erstaunlich gut.

Aber sobald der Kontext minimal verändert wird – etwa durch ein manipuliertes Bild – greifen die Modelle auf ihr gelerntes Skript zurück.

Und liegen daneben.

Das ist kein kleiner technischer Makel.
Es ist eine strukturelle Eigenschaft der Technologie.

## Vom Wahrnehmungsfehler zum militärischen System

Nun könnte man sagen:
Na und?

Eine KI hat sich bei einer optischen Täuschung geirrt. Das ist akademisch interessant, aber praktisch irrelevant.

Leider stimmt das nicht.

Denn genau diese Art von Systemen wird derzeit als Baustein für **militärische Anwendungen** diskutiert.

Autonome Drohnen.
Zielerkennungssysteme.
Assistenzsysteme für militärische Entscheidungsprozesse.

Die Argumentation ist stets ähnlich:

KI kann Bilder schneller analysieren als Menschen.
Sie kann Muster in großen Datenmengen erkennen.
Sie kann Entscheidungen vorbereiten oder sogar automatisieren.

Das klingt effizient.

Aber der kleine Kreis-Test zeigt, wie fragil diese Annahme ist.

## Die Kernfrage

Wenn ein System nicht zuverlässig erkennen kann, **welcher Kreis größer ist**, sollte man ihm dann zutrauen zu entscheiden:

– ob ein Objekt ein militärisches Ziel ist
– ob eine Bewegung bedrohlich ist
– oder ob ein Angriff ausgelöst werden sollte?

Die Antwort ist unbequem, aber klar:

**Zum aktuellen Zeitpunkt ist es grob fahrlässig, KI-Systeme Entscheidungen über militärische Gewalt treffen zu lassen.**

Nicht aus moralischen Gründen.
Sondern aus technischen.

## Drei Gründe, warum das gefährlich ist

### 1. Wahrnehmung ist kontextabhängig

Wahrnehmungssysteme – egal ob biologisch oder künstlich – sind anfällig für Kontext.

Die Ebbinghaus-Täuschung ist ein harmloses Beispiel.

Unser Gehirn interpretiert Größe relativ zur Umgebung.
Die grauen Kreise beeinflussen, wie groß der orange Kreis wirkt.

Das ist kein Fehler des Gehirns, sondern eine Abkürzung, die im Alltag meist funktioniert.

KI-Systeme arbeiten ebenfalls mit solchen Abkürzungen – nur in Form statistischer Muster.

Der Unterschied:
Wenn ein Mensch merkt, dass eine Situation ungewöhnlich ist, kann er innehalten.

Ein Modell erkennt diesen Moment oft nicht.

### 2. KI arbeitet mit Wahrscheinlichkeit, nicht mit Bedeutung

Ein Sprachmodell „weiß“ nicht, was ein Kreis ist.

Es kennt lediglich Zusammenhänge zwischen Wörtern, Pixelmustern und typischen Antworten.

Das Modell fragt intern nicht:

„Ist dieser Kreis wirklich größer?“

Es fragt eher:

„Welche Antwort ist in ähnlichen Situationen am wahrscheinlichsten?“

Das funktioniert erstaunlich gut – solange die Welt sich an bekannte Muster hält.

Doch reale Situationen sind selten sauber.

Staub, Schatten, ungewöhnliche Perspektiven, beschädigte Sensoren, Tarnung, Reflexionen.

All das sind Varianten des manipulierten Ebbinghaus-Bildes.

Und genau dort beginnen Modelle zu raten.

### 3. Militärische Entscheidungen sind irreversibel

Der vielleicht wichtigste Punkt ist der banalste.

Ein Fehler bei einer Bildbeschreibung ist peinlich.

Ein Fehler bei einer medizinischen Diagnose ist gefährlich.

Ein Fehler bei einer militärischen Entscheidung kann tödlich sein.

Wenn ein System ein Ziel falsch identifiziert, gibt es kein „Undo“.

Keine Korrektur.

Keine zweite Chance.

Statistische Systeme können beeindruckend sein.
Aber sie produzieren zwangsläufig **statistische Fehler**.

Und in einem militärischen Kontext ist die Toleranz für solche Fehler praktisch null.

## Wo KI tatsächlich sinnvoll ist

All das bedeutet nicht, dass KI im militärischen Umfeld grundsätzlich unsinnig wäre.

Im Gegenteil.

Es gibt Bereiche, in denen KI enorm hilfreich sein kann:

– Logistikplanung
– Wartungsvorhersagen
– Simulationen
– Analyse großer Datenmengen
– Nachschub- und Transportoptimierung

Hier reduziert KI Komplexität, ohne direkt physische Gewalt auszulösen.

Das Problem entsteht erst, wenn zwei Dinge gekoppelt werden:

**Wahrnehmung und Wirkung.**

Also:
Sensor → Interpretation → Handlung.

Sobald eine fehleranfällige Interpretation unmittelbar eine physische Aktion auslösen kann, wird das System riskant.

## Zurück zu den zwei Kreisen

Die Ebbinghaus-Täuschung ist ein Lehrbuchbeispiel.

Sie zeigt, wie leicht Wahrnehmung manipulierbar ist.

Menschen fallen darauf herein.
KI-Systeme ebenfalls.

Der Unterschied ist entscheidend:

Ein Mensch kann zweifeln.
Ein Modell produziert einfach eine Antwort.

Und genau deshalb sollte man vorsichtig sein, wenn Technologie plötzlich Entscheidungen über reale Gewalt treffen soll.

Oder, zugespitzt formuliert:

**Wenn eine Technologie nicht zuverlässig erkennen kann, welcher Kreis größer ist, sollte man sie vielleicht nicht darüber entscheiden lassen, wer ein Feind ist.**