<?xml version="1.0" encoding="UTF-8"?>
<feed xmlns="http://www.w3.org/2005/Atom">
  <title>AIStrikeMap — AI Live-Radar</title>
  <subtitle>Laufende KI-Ereignisse mit offenem Ausgang / Ongoing AI events with open outcomes</subtitle>
  <link href="https://aistrikemap.org/feed.xml" rel="self" type="application/atom+xml" />
  <link href="https://aistrikemap.org/radar.html" rel="alternate" type="text/html" />
  <id>https://aistrikemap.org/radar</id>
  <updated>2026-04-15T11:43:52.634Z</updated>
  <author><name>AIStrikeMap</name></author>
  <rights>Data: CC BY-NC-SA 4.0 | Code: AGPL-3.0</rights>
  <generator>AIStrikeMap Feed Generator</generator>
  <entry>
    <title>Anthropic Mythos / Pentagon-Konflikt [ESKALIEREND]</title>
    <link href="https://aistrikemap.org/radar.html?radar=anthropic-mythos-pentagon" rel="alternate" />
    <id>https://aistrikemap.org/radar.html?radar=anthropic-mythos-pentagon</id>
    <updated>2026-04-13T00:00:00Z</updated>
    <published>2026-03T00:00:00Z</published>
    <summary type="text">Anthropic hält Claude Mythos Preview wegen erhöhter Cybersicherheits-Risiken zurück, während gleichzeitig ein Interessenkonflikt mit dem Pentagon eskaliert. Project Glasswing, eine Koalition aus Apple, Google, Microsoft, Cisco und der Linux Foundation, fordert Transparenz. Mehrere Dimensionen — Cybersicherheit, Geopolitik, Unternehmensethik, Regulierung und Militär — entwickeln sich gleichzeitig.

Neuste Entwicklung (2026-04-08): Project Glasswing fordert Offenlegung der Sicherheitsbewertung — Die Glasswing-Koalition veröffentlicht einen offenen Brief, der Anthropic auffordert, die vollständige Cybersicherheitsbewertung von Claude Mythos zu publizieren, bevor militärische Verträge weitergeführt werden.</summary>
    <category term="eskalierend" label="Status: eskalierend" />
    <category term="dimensions" label="cybersicherheit, geopolitik, unternehmensethik, regulierung, militaer" />
    <category term="severity-4" label="Severity: 4/5" />
  </entry>
  <entry>
    <title>Deepfake-Krise — Regulierung vs. Realität [ESKALIEREND]</title>
    <link href="https://aistrikemap.org/radar.html?radar=deepfake-regulierung-global" rel="alternate" />
    <id>https://aistrikemap.org/radar.html?radar=deepfake-regulierung-global</id>
    <updated>2026-04-13T00:00:00Z</updated>
    <published>2023-01T00:00:00Z</published>
    <summary type="text">Die globale Deepfake-Krise eskaliert: KI-generierte nicht-einvernehmliche intime Bilder (NCII), politische Desinformation und Betrugsmaschen nehmen exponentiell zu. Während Südkorea, die EU und einzelne US-Bundesstaaten erste Gesetze verabschieden, übersteigt die technische Entwicklung die Regulierung bei weitem. Die Verfügbarkeit offener Modelle macht Durchsetzung nahezu unmöglich.

Neuste Entwicklung (2026-03): FTC klagt erstmals gegen Deepfake-Plattform — Die US-Handelskommission reicht erstmals eine Klage gegen einen Betreiber einer 'Face-Swap'-Plattform ein, die überwiegend für nicht-einvernehmliche intime Inhalte genutzt wurde.</summary>
    <category term="eskalierend" label="Status: eskalierend" />
    <category term="dimensions" label="regulierung, diskriminierung, desinformation" />
    <category term="severity-4" label="Severity: 4/5" />
  </entry>
  <entry>
    <title>EU AI Act — Umsetzungsdebatte [AKTIV]</title>
    <link href="https://aistrikemap.org/radar.html?radar=eu-ai-act-umsetzung" rel="alternate" />
    <id>https://aistrikemap.org/radar.html?radar=eu-ai-act-umsetzung</id>
    <updated>2026-04-13T00:00:00Z</updated>
    <published>2024-08T00:00:00Z</published>
    <summary type="text">Der EU AI Act ist seit August 2024 in Kraft, doch die nationale Umsetzung und technische Standardisierung offenbaren tiefe Konflikte. Die Industrie warnt vor Wettbewerbsnachteilen, Zivilgesellschaft fordert strengere Durchsetzung, und die Definition von 'Hochrisiko-KI-Systemen' bleibt umstritten. Die ersten Verbote (Social Scoring, biometrische Echtzeit-Fernidentifizierung) greifen ab Februar 2025.

Neuste Entwicklung (2026-03): Erste Durchsetzungsmaßnahmen angekündigt — Das EU AI Office kündigt erste Untersuchungen gegen KI-Systeme an, die möglicherweise gegen die seit Februar 2025 geltenden Verbote verstoßen, darunter Social-Scoring-Anwendungen in zwei Mitgliedstaaten.</summary>
    <category term="aktiv" label="Status: aktiv" />
    <category term="dimensions" label="regulierung, arbeitsmarkt, diskriminierung" />
    <category term="severity-3" label="Severity: 3/5" />
  </entry>
  <entry>
    <title>KI-gestützte Zielerfassung im Gazastreifen [AKTIV]</title>
    <link href="https://aistrikemap.org/radar.html?radar=gaza-ai-targeting" rel="alternate" />
    <id>https://aistrikemap.org/radar.html?radar=gaza-ai-targeting</id>
    <updated>2026-04-13T00:00:00Z</updated>
    <published>2023-10T00:00:00Z</published>
    <summary type="text">Israelische Streitkräfte setzen KI-Systeme wie 'Lavender' und 'The Gospel' zur automatisierten Zielerfassung im Gazastreifen ein. Investigativrecherchen dokumentieren, dass diese Systeme Ziellisten mit tausenden Personen generieren, wobei die menschliche Überprüfung auf unter 20 Sekunden pro Ziel reduziert wurde. Die ethische und völkerrechtliche Debatte über autonome Waffen und KI im Krieg verschärft sich.

Neuste Entwicklung (2026-02): UN-Sonderbericht zu autonomen Waffen in Gaza — Der UN-Sonderberichterstatter für außergerichtliche Hinrichtungen veröffentlicht einen Bericht, der den Einsatz von KI-Systemen im Gazastreifen als mögliche Verletzung des humanitären Völkerrechts einstuft.</summary>
    <category term="aktiv" label="Status: aktiv" />
    <category term="dimensions" label="militaer, ueberwachung, geopolitik" />
    <category term="severity-5" label="Severity: 5/5" />
  </entry>
  <entry>
    <title>OpenAI — Sicherheitsbedenken und Whistleblower [AKTIV]</title>
    <link href="https://aistrikemap.org/radar.html?radar=openai-sicherheit-whistleblower" rel="alternate" />
    <id>https://aistrikemap.org/radar.html?radar=openai-sicherheit-whistleblower</id>
    <updated>2026-04-13T00:00:00Z</updated>
    <published>2024-05T00:00:00Z</published>
    <summary type="text">Anhaltende Krise um KI-Sicherheit bei OpenAI: Seit der Auflösung des Superalignment-Teams und dem Weggang von Schlüsselfiguren wie Ilya Sutskever und Jan Leike häufen sich Whistleblower-Berichte über unzureichende Sicherheitstests, aggressive Geheimhaltungsvereinbarungen und die Priorisierung von Geschwindigkeit über Sicherheit. Die SEC untersucht mögliche Verstöße gegen Whistleblower-Schutzgesetze.

Neuste Entwicklung (2026-02): SEC eröffnet formelle Untersuchung zu NDAs — Die US-Börsenaufsicht SEC eröffnet eine formelle Untersuchung, ob OpenAIs Geheimhaltungsvereinbarungen gegen Whistleblower-Schutzgesetze verstoßen. Mehrere ehemalige Mitarbeiter haben Aussagen eingereicht.</summary>
    <category term="aktiv" label="Status: aktiv" />
    <category term="dimensions" label="unternehmensethik, regulierung, cybersicherheit" />
    <category term="severity-4" label="Severity: 4/5" />
  </entry>
  <entry>
    <title>UN-Verhandlungen über autonome Waffensysteme [AKTIV]</title>
    <link href="https://aistrikemap.org/radar.html?radar=un-autonome-waffen-verhandlungen" rel="alternate" />
    <id>https://aistrikemap.org/radar.html?radar=un-autonome-waffen-verhandlungen</id>
    <updated>2026-04-13T00:00:00Z</updated>
    <published>2014-05T00:00:00Z</published>
    <summary type="text">Seit über einem Jahrzehnt verhandeln die UN-Mitgliedstaaten im Rahmen der Convention on Certain Conventional Weapons (CCW) über die Regulierung letaler autonomer Waffensysteme (LAWS). Nach dem Scheitern eines verbindlichen Abkommens in der CCW verlagert sich die Debatte 2024 in die UN-Generalversammlung. Über 100 Staaten fordern ein Verbot, während Großmächte wie USA, Russland und China blockieren. Der Einsatz von KI-Drohnen in der Ukraine und Gaza verschärft die Dringlichkeit.

Neuste Entwicklung (2026-03): Zweite UN-Generalversammlungs-Resolution angenommen — Die UN-Generalversammlung verabschiedet eine zweite Resolution zu autonomen Waffen mit breiter Mehrheit. Die Resolution fordert die Aufnahme formeller Verhandlungen über ein rechtsverbindliches Instrument bis 2027.</summary>
    <category term="aktiv" label="Status: aktiv" />
    <category term="dimensions" label="militaer, regulierung, geopolitik" />
    <category term="severity-5" label="Severity: 5/5" />
  </entry>
</feed>
