Kettner Edelmetalle
28.08.2025
06:30 Uhr

Wenn Algorithmen über Leben und Tod entscheiden: Die erschreckende Realität von KI-gesteuerten Tötungslisten

Die schöne neue Welt der Künstlichen Intelligenz zeigt ihre hässlichste Fratze ausgerechnet dort, wo es um Leben und Tod geht. Während die Bundesregierung Milliarden in die sogenannte "Kriegstüchtigkeit" pumpt und dabei die gesamte Gesellschaft militarisiert, diskutieren Friedensaktivisten in Köln über eine beunruhigende Entwicklung: Algorithmen, die darüber entscheiden, wer als nächstes sterben soll.

Das Geschäft mit dem automatisierten Tod

Auf dem Rheinmetall-Entwaffnen-Camp in Köln, wo sich bis zu 1000 Teilnehmer aus dem antimilitaristischen Spektrum versammelt haben, wurde ein Thema diskutiert, das selbst hartgesottene Kriegsgegner erschaudern lässt. Die Verschmelzung von Big Data, Social Media und militärischer Künstlicher Intelligenz habe eine neue Dimension der Kriegsführung geschaffen, die jegliche menschliche Verantwortung in den Hintergrund dränge.

Besonders brisant: Das israelische KI-System "Lavender" erstelle automatisierte Todeslisten. Zwei Millionen Palästinenser seien bereits in dieser Datenbank erfasst worden. Das System analysiere Facebook-Profile, WhatsApp-Nachrichten und andere Social-Media-Aktivitäten, um potenzielle "Ziele" zu identifizieren. Ein weiteres Programm namens "Where's Daddy?" verfolge diese Menschen dann bis in ihre Wohnungen - wo sie nachts zusammen mit ihren Familien bombardiert würden.

Die perverse Logik des "Kollateralschadens"

Was die Referenten auf dem Camp präsentierten, liest sich wie ein dystopischer Science-Fiction-Roman: Für einen einfachen Hamas-Kämpfer kalkuliere das System 5 bis 20 zivile Opfer als akzeptablen "Kollateralschaden" ein. Bei einem Kommandeur dürften es sogar bis zu 100 unbeteiligte Zivilisten sein. Diese Zahlen würden nicht von Menschen festgelegt, sondern von Algorithmen berechnet - eine Dehumanisierung des Tötens, die selbst erfahrene Militärkritiker sprachlos mache.

"Es gibt nichts Ziviles in der Präsenz des Militärischen", warnte einer der Workshop-Leiter eindringlich. Eine Erkenntnis, die angesichts der zunehmenden Verflechtung von ziviler Technologie und militärischen Anwendungen besonders beunruhigend wirkt.

Ihre Selfies als Munition für Killermaschinen

Die bittere Ironie dabei: Wir alle füttern diese Todesmaschinerie täglich mit Daten. Jeder Facebook-Post, jede WhatsApp-Nachricht, jedes Instagram-Foto könnte theoretisch dazu beitragen, dass irgendwo auf der Welt ein Mensch zum Ziel wird. Die "lustigen KI-Systeme", die uns den Alltag vermeintlich erleichtern, würden gleichzeitig die Grundlage für militärische Anwendungen bilden.

Besonders perfide sei die Verbindung zur Palantir-Software, die nicht nur im Ausland, sondern auch hierzulande Daten sammle und auswerte. Die Technologie, die heute zur Identifizierung von vermeintlichen Terroristen eingesetzt werde, könnte morgen schon gegen jeden verwendet werden, der dem System unbequem wird.

Transhumanismus trifft auf Eugenik

Die Veranstaltung zeigte auch die ideologischen Hintergründe dieser Entwicklung auf. Der Einsatz von KI beim Militär sei eng mit transhumanistischen Ideen verknüpft - einer Verschmelzung von Mensch und Maschine, die letztlich auf eugenischen Konzepten basiere. Die Entscheidung darüber, welches Leben lebenswert sei und welches nicht, werde zunehmend an Algorithmen delegiert. Eine Entwicklung, die an die dunkelsten Kapitel der Menschheitsgeschichte erinnert.

800 Milliarden Euro für die Kriegsmaschinerie

Während in Köln über Widerstandsmöglichkeiten diskutiert wurde, treibt die Bundesregierung die Militarisierung unbeirrt voran. Ein Paket von 800 Milliarden Euro solle die "Kriegsfähigkeit" auf EU-Ebene stärken. Die gesamte Bevölkerung solle für Kriegszwecke mobilisiert werden - notfalls auch durch Zwangsdienste. Eine Entwicklung, die zeigt, wie weit sich die politische Klasse bereits von den Interessen der Bürger entfernt hat.

Die Forderung der Organisationen FIFF, IMI und des Arbeitskreises gegen bewaffnete Drohnen, "Targeted Killing" mit KI-Unterstützung als Kriegsverbrechen einzustufen, wirkt angesichts der rasanten technologischen Entwicklung fast schon hilflos. Während Juristen noch über Definitionen streiten, schaffen Militärs und Tech-Konzerne längst Fakten.

Zeit für digitalen Widerstand?

Die Botschaft des Camps war eindeutig: Wer nicht will, dass seine Daten zur Munition für Killermaschinen werden, müsse sein Verhältnis zu sozialen Medien grundlegend überdenken. Jeder Like, jeder Kommentar, jede geteilte Information könne potenziell dazu beitragen, dass irgendwo auf der Welt ein Algorithmus über Leben und Tod entscheidet.

Die erschreckende Realität zeigt: Die Dystopie ist längst Gegenwart geworden. Während wir uns über Gender-Sternchen und Klimakleber aufregen, bauen Militärs und Tech-Giganten im Hintergrund eine Tötungsmaschinerie auf, die jeden Science-Fiction-Albtraum in den Schatten stellt. Es wird höchste Zeit, dass wir uns wieder auf das Wesentliche konzentrieren: den Schutz von Menschenleben und die Bewahrung unserer Freiheit vor technokratischen Allmachtsfantasien.

In einer Zeit, in der die Kriminalität in Deutschland Rekordwerte erreicht und die Regierung lieber Milliarden in Aufrüstung statt in innere Sicherheit investiert, sollten wir uns fragen: Wollen wir wirklich in einer Welt leben, in der Algorithmen darüber entscheiden, wer leben darf und wer sterben muss? Die Antwort darauf wird nicht nur über die Zukunft der Kriegsführung entscheiden, sondern über die Zukunft der Menschheit selbst.

Wissenswertes zum Thema