Pentagon erklärt Anthropic zum „inakzeptablen Sicherheitsrisiko“
Das US-Verteidigungsministerium (DOD) hat in seiner ersten Gerichtsantwort auf Anthropics Klage erklärt, das KI-Unternehmen stelle ein „inakzeptables Risiko für die nationale Sicherheit“ dar. Im Kern des Streits stehen zwei rote Linien, die Anthropic-CEO Dario Amodei gezogen hat: Die KI-Modelle des Unternehmens dürfen nicht für die Massenüberwachung von US-Bürgern eingesetzt werden und nicht in autonomen Waffensystemen zum Einsatz kommen.
Das DOD argumentiert, genau diese Einschränkungen machten Anthropic zu einem unzuverlässigen Partner. Die Befürchtung: Das Unternehmen könnte „versuchen, seine Technologie zu deaktivieren oder das Verhalten seines Modells präventiv zu ändern“, wenn es der Ansicht ist, dass seine ethischen Grundsätze verletzt werden — und zwar möglicherweise mitten in laufenden „Kampfoperationen“. Ein KI-System, das in kritischen Momenten den Dienst verweigern könnte, sei ein Risiko, das sich das Militär nicht leisten könne.
Die Einstufung als „Supply Chain Risk“ wurde Ende Februar von Verteidigungsminister Pete Hegseth angeordnet und ist in ihrer Anwendung auf ein US-Unternehmen historisch beispiellos. Bisher wurde diese Kategorie ausschließlich für Firmen mit Verbindungen zu ausländischen Gegnern verwendet. Die praktischen Folgen sind gravierend: Nicht nur das Pentagon selbst, sondern auch sämtliche Militärauftragnehmer dürfen keine Geschäftsbeziehungen mit Anthropic unterhalten.
Die Ironie der Situation ist nicht zu übersehen: Anthropics Claude-Modelle wurden zuvor bereits in klassifizierten Umgebungen des Militärs eingesetzt, unter anderem für Zielanalysen im Iran-Konflikt. Das Unternehmen war also ein geschätzter Partner — bis es Bedingungen stellte. Anthropic hat gegen die Einstufung Klage eingereicht und argumentiert, sie sei rechtswidrig.
Der Konflikt wirft eine fundamentale Frage auf, die weit über den konkreten Fall hinausgeht: In einer Welt, in der KI-Systeme zunehmend in militärische Entscheidungsketten integriert werden, wer bestimmt dann die Grenzen ihres Einsatzes — die Entwickler, die das Risikopotenzial verstehen, oder die Anwender, die Operationsfähigkeit benötigen?