Anthropic nimmt nach anfänglicher Pattsituation erneut Kontakt zum US-Militär auf

17

Anthropic, das KI-Unternehmen hinter dem Claude-Chatbot, scheint bereit zu sein, die Zusammenarbeit mit dem US-Verteidigungsministerium wieder aufzunehmen, obwohl die Verhandlungen über militärische Anwendungen seiner Technologie zuvor eingestellt wurden. Diese Kehrtwende folgt auf Drohungen von Beamten, Anthropic als nationales Sicherheitsrisiko einzustufen, wodurch das Unternehmen effektiv unter Druck gesetzt wird, seine Haltung zu überdenken.

Der anfängliche Streit und die Forderungen von Anthropic

Der Konflikt begann, nachdem Anthropic einen 200-Millionen-Dollar-Vertrag mit dem Verteidigungsministerium abgeschlossen hatte, anschließend aber explizite Garantien gegen den Einsatz seiner KI-Modelle zur inländischen Überwachung oder zur Entwicklung autonomer Waffen einforderte. Die Trump-Administration lehnte diese Bedingungen ab und berief sich auf das Recht, die Technologie für jeden „rechtmäßigen“ Zweck zu nutzen. Dies führte zum Scheitern der Gespräche, und Verteidigungsminister Pete Hegseth drohte sogar, Anthropic als Lieferkettenrisiko einzustufen. Präsident Trump kritisierte das Unternehmen öffentlich als „radikal links“ und ordnete ein sechsmonatiges Verbot der bundesstaatlichen Nutzung der Tools von Anthropic an.

Positionswechsel und laufende Verhandlungen

Berichten der Financial Times zufolge hat Anthropic-CEO Dario Amodei die Verhandlungen wieder aufgenommen, um die Ausweisung der Lieferkette zu vermeiden. Derzeit laufen Gespräche mit dem Unterstaatssekretär im Verteidigungsministerium, Emil Michael, der Amodei kürzlich als „Lügner“ mit einem „Gottkomplex“ bezeichnete. In einem internen Memo gab Amodei bekannt, dass das Verteidigungsministerium angeboten habe, die aktuellen Bedingungen von Anthropic zu akzeptieren, wenn ein einziger Satz bezüglich der „Analyse massenhaft erfasster Daten“ aus dem Vertrag gestrichen würde.

OpenAIs Deal und Anthropics Kritik

Der Zeitpunkt fällt mit der jüngsten Vereinbarung von OpenAI mit der US-Regierung zusammen, seine KI-Tools in militärischen Umgebungen einzusetzen. In der internen Kommunikation von Anthropic wurde Berichten zufolge der CEO von OpenAI, Sam Altman, verspottet. Er warf ihm vor, sich an „Sicherheitstheater“ zu beteiligen, und deutete an, dass OpenAI-Mitarbeiter „leichtgläubig“ seien, weil sie den Zusicherungen des Unternehmens über die nicht überwachte Nutzung geglaubt hätten.

Mögliche Auswirkungen

Wenn eine neue Einigung erzielt wird, wird das US-Militär wahrscheinlich weiterhin die Technologie von Anthropic nutzen, die Berichten zufolge bereits bei Operationen, einschließlich Angriffen im Iran, eingesetzt wird. Diese Situation verdeutlicht die wachsende Spannung zwischen KI-Unternehmen und Regierungen über die ethischen und sicherheitsrelevanten Auswirkungen militärischer Anwendungen künstlicher Intelligenz.

Das Wiederaufleben dieser Verhandlungen unterstreicht den erheblichen Einfluss, den Regierungen auf KI-Unternehmen haben, insbesondere wenn es um nationale Sicherheitsinteressen geht. Diese Dynamik wirft Fragen über die Zukunft der KI-Entwicklung und ihre mögliche Ausrichtung auf militärische Ziele auf, auch wenn dies bedeutet, dass anfängliche ethische Grenzen aufgegeben werden.