· 7 Artikel + Reportage + Tool-Radar + Werkstatt

Ausgabe vom 25. März 2026

Maschinell recherchiert, menschlich relevant.

Produkt · Video-KI

OpenAI stellt Sora ein und verliert den Milliarden-Deal mit Disney

Hintergrund & Analyse

OpenAI hat am 24. März 2026 angekündigt, den KI-Videogenerator Sora einzustellen. Die iOS-App, die API und die Sora.com-Plattform werden heruntergefahren — ein genauer Zeitplan steht noch aus. Es ist das erste Mal, dass OpenAI ein Kernprodukt so kurz nach dem Launch aufgibt. Sora 2 war erst im September 2025 als eigenständige App gestartet und hatte in fünf Tagen eine Million Downloads erreicht.

Unmittelbar betroffen ist der geplante Deal mit Walt Disney: Im Dezember 2025 hatten Disney-CEO Bob Iger und Sam Altman einen Dreijahresvertrag geschlossen — Disney sollte eine Milliarde Dollar in OpenAI investieren und über 200 Charaktere aus dem Disney-, Marvel-, Pixar- und Star-Wars-Universum für Sora lizenzieren. Laut Deadline ist „kein Geld geflossen“ und „der Deal geht nicht weiter“.

Hinter der Entscheidung stehen massive wirtschaftliche Probleme: Die jährlichen Rechenkosten für Sora beliefen sich laut CNBC auf 5,4 Milliarden Dollar. CFO Sarah Friar räumte ein: „We just are facing a lack of compute.“ Hinzu kamen schwere Content-Moderationsprobleme — Nutzer umgingen systematisch die Schutzmaßnahmen und erzeugten nicht autorisierte Deepfakes von öffentlichen Persönlichkeiten sowie urheberrechtlich geschützte Figuren in unangemessenen Situationen. Das Forschungsteam soll weiter an „Weltsimulationsforschung für Robotik“ arbeiten.

Die Einstellung kommt zu einem Zeitpunkt, an dem der Wettbewerb in der Video-KI intensiver denn je ist. Googles Veo 3, Kuaishous Kling 2.0 und Lumas Ray 2 bieten vergleichbare oder überlegene Modelle. Für OpenAI, das einen Börsengang bei einer Bewertung von 730 Milliarden Dollar anstrebt, ist der Rückzug ein Zeichen dafür, dass Fokus über Expansion geht — und dass Video-Generierung kein tragfähiges Geschäftsmodell hatte.

Politik · Verteidigung

Richterin: Pentagon-Vorgehen gegen Anthropic sieht aus wie „Versuch, das Unternehmen zu zerstören“

Hintergrund & Analyse

Wie wir in unseren Ausgaben vom 19. März, 21. März und 24. März berichteten, hat das Pentagon Anthropic als „Supply-Chain-Risiko“ eingestuft, nachdem das Unternehmen sich weigerte, Claude für autonome Waffen und Massenüberwachung bereitzustellen. Am Dienstag fand die entscheidende Anhörung über Anthropics Antrag auf einstweilige Verfügung statt.

US-Bezirksrichterin Rita Lin ließ in der Verhandlung wenig Zweifel an ihrer Einschätzung: Die drei Maßnahmen der Trump-Regierung — ein präsidiales Verbot, Verteidigungsminister Hegseths Anweisung an Pentagon-Vertragspartner, alle Geschäftsbeziehungen mit Anthropic zu kappen, und die Supply-Chain-Risiko-Einstufung — seien „beunruhigend“ und sähen aus wie „ein Versuch, Anthropic zu zerstören“.

Die Richterin stellte die Verhältnismäßigkeit infrage: Wenn die Sorge des Pentagons die Integrität der operativen Befehlskette sei, könne man einfach aufhören, Claude zu nutzen. Stattdessen habe man Schritte unternommen, die weit darüber hinausgehen. Sie äußerte den Verdacht, dass Anthropic „dafür bestraft wird, die Vertragsposition der Regierung öffentlich kritisiert zu haben“.

Die Auswirkungen auf die Branche sind bereits spürbar: Die Supply-Chain-Einstufung zwingt Pentagon-Auftragnehmer wie Amazon, Microsoft und Palantir zu zertifizieren, dass sie Claude nicht in der Militärarbeit einsetzen. Amazon bietet Claude weiterhin für alle AWS-Kunden außerhalb des Verteidigungsbereichs an. Microsoft hat sich öffentlich hinter Anthropics Antrag gestellt. Palantir, das Claude in seine Regierungsplattformen integriert hatte, sucht Berichten zufolge bereits nach alternativen KI-Partnern.

Fortune titelte „versuchter Unternehmensmord“. Die Richterin kündigte an, in den nächsten Tagen eine Entscheidung zu fällen. Anthropic hatte um eine Frist bis zum 26. März gebeten. Die Signale aus der Anhörung — insbesondere Lins wiederholte Skepsis gegenüber der Verhältnismäßigkeit — lassen Beobachter auf einen zumindest teilweisen Erfolg für Anthropic hoffen.

Produkt · KI-Agenten

Claude Code und Cowork können jetzt den Mac steuern

Hintergrund & Analyse

Anthropic hat am 24. März eine der bisher ambitioniertesten Erweiterungen seiner Plattform vorgestellt: Computer Use für Claude Code und Cowork. Der Ansatz ist gestuft: Claude versucht zunächst, Aufgaben über vorhandene App-Konnektoren (Gmail, Slack, Google Drive) zu erledigen. Erst wenn kein passender Konnektor existiert, übernimmt Claude Maus und Tastatur und navigiert den Desktop wie ein menschlicher Nutzer. Im Browser ist die Steuerung auf Chrome beschränkt.

Die technische Grundlage liefert die Übernahme des Startups Vercept im Februar 2026, dessen Team einen Mac-first-Ansatz für KI-gestützte Computer-Interaktion verfolgte. Dank dieser Akquisition konnte Anthropic die Leistung auf dem OSWorld-Benchmark von unter 15 Prozent beim ersten Launch Ende 2024 auf 72,5 Prozent mit Sonnet 4.6 steigern. Parallel führt Claude Code einen „Auto Mode“ ein: Ein KI-Klassifikator prüft jede Aktion vor der Ausführung auf destruktives Verhalten und blockiert riskante Operationen automatisch.

In Kombination mit dem letzte Woche vorgestellten Dispatch kann man per iPhone einen QR-Code scannen, Aufgaben von unterwegs an Claude senden und auf dem Desktop fertige Ergebnisse vorfinden. Erste Hands-on-Tests von MacStories und PCWorld zeigen: Bei einfachen Aufgaben funktioniert das gut, bei komplexen Multi-App-Workflows strauchelt Claude noch. Das Feature ist exklusiv für Pro- und Max-Abonnenten auf macOS verfügbar; Windows-Support ist angekündigt.

Im Wettbewerb mit OpenAIs Operator (87 Prozent Erfolgsrate, aber nur Browser, 200 Dollar/Monat) und Googles Project Mariner (Cloud-VMs) ist Claudes Alleinstellungsmerkmal die native Desktop-Integration: Es bedient nicht nur den Browser, sondern auch lokale Anwendungen wie Tabellenkalkulationen und Entwicklungstools. Alle drei setzen auf unterschiedliche Sicherheitskonzepte — Operator pausiert auf sensiblen Websites, Claude nutzt Echtzeit-Klassifikatoren, Mariner arbeitet in isolierten VMs.

Hardware · Halbleiter

Arm baut erstmals in 35 Jahren einen eigenen Chip — und Meta ist der erste Kunde

Hintergrund & Analyse

Arm hat am 24. März 2026 seinen ersten eigenen Prozessor vorgestellt: den AGI CPU. In 35 Jahren Firmengeschichte hat Arm ausschließlich Chip-Designs lizenziert — Hersteller wie Qualcomm, Apple und Samsung bauten darauf eigene Produkte. Jetzt betritt Arm selbst den Markt für Datacenter-Silizium.

Die Spezifikationen sind beeindruckend: Zwei Dies im 3-nm-Verfahren bei TSMC, bis zu 136 Neoverse-V3-Kerne (Armv9.2) mit 3,7 GHz Boost, 128 MB System-Level-Cache, 12 DDR5-Kanäle bei 8.800 MT/s (800+ GB/s Bandbreite), 96 PCIe-Gen6-Lanes und nativer CXL-3.0-Support — alles bei 300 Watt TDP. Bis zu 64 dieser CPUs passen in ein einzelnes luftgekühltes Rack: rund 8.700 Kerne. Arm verspricht die doppelte Leistung pro Watt gegenüber x86.

Meta ist nicht nur Erstkunde, sondern aktiver Co-Entwickler. Der AGI CPU wurde optimiert, um neben Metas eigenem MTIA-Silizium in dessen Rechenzentren zu arbeiten. Sieben weitere Abnehmer stehen fest: OpenAI, Cloudflare, SAP, Cerebras, F5, Positron und SK Telecom. Das Geschäftsmodell ist flexibel: Kunden können fertige Chips kaufen oder die Designs lizenzieren und selbst fertigen lassen.

Für die Halbleiterbranche ist dies ein tektonischer Moment: Da Arm keine Lizenzgebühren an sich selbst zahlen muss, kann es den Chip potenziell günstiger anbieten als seine eigenen Lizenznehmer — Amazon (Graviton), Google (Axion) und Microsoft (Cobalt). Damit konkurriert Arm gleichzeitig mit seinen größten Partnern. Die Namensgebung „AGI CPU“ ist bewusstes Marketing: Das Akronym zielt auf die nächste Generation agentischer KI-Workloads. Die Massenproduktion soll in der zweiten Jahreshälfte 2026 starten.

Venture Capital · KI

Kleiner Perkins sammelt 3,5 Milliarden Dollar — alles für KI

Hintergrund & Analyse

Kleiner Perkins, die seit einem halben Jahrhundert bestehende Wagniskapitalfirma aus dem Silicon Valley, hat 3,5 Milliarden Dollar an frischem Kapital eingesammelt — vollständig ausgerichtet auf KI-Startups. Die Mittel verteilen sich auf zwei Vehikel: KP22, ein Frühphasen-Fonds mit 1 Milliarde Dollar, und 2,5 Milliarden in Wachstumsfonds für spätere Finanzierungsrunden.

Managing Partner Mamoon Hamid bezeichnet KI als „den Superzyklus aller Superzyklen“ — eine Chance, die bis zu 60 Billionen Dollar an Wert freisetzen könne. Die Investmentstrategie fokussiert sich auf „Copiloten“: KI-Systeme, die hochqualifizierte Fachkräfte wie Ärzte, Anwälte und Ingenieure unterstützen. Zu den jüngsten Erfolgen gehören frühe Beteiligungen an Together AI, Harvey und OpenEvidence. KP ist zudem Investor bei Anthropic und SpaceX, die beide 2026 an die Börse gehen könnten, sowie an Waymos 16-Milliarden-Dollar-Runde.

Im Kontext des KI-Booms ordnet sich der Fonds als bedeutend ein: VCs haben 2025 insgesamt 258,7 Milliarden Dollar in KI investiert — 61 Prozent aller globalen VC-Investments. Gegenüber dem letzten Fundraise vor zwei Jahren (2 Milliarden) ist das ein Anstieg um 75 Prozent. Für Kleiner Perkins ist es auch die Bestätigung eines Comebacks: Nach gescheiterten Cleantech-Wetten und internen Turbulenzen reformierte Hamid die Firma ab 2018 — kleineres Team, straffere Prozesse, Fokus auf frühe Phasen. Die KI-Welle kam zum perfekten Zeitpunkt.

Recht · Deepfakes

Deutschland will Deepfakes kriminalisieren: Schon die Erstellung soll strafbar werden

Hintergrund & Analyse

Wie wir in unserer Ausgabe vom 24. März berichteten, hatten 250 prominente Frauen einen Zehn-Punkte-Plan gegen sexualisierte Deepfakes und Nudify-Apps gefordert, ausgelöst durch den Fall der Moderatorin Collien Fernandes. Nun reagiert die Politik: Bundesjustizministerin Stefanie Hubig (SPD) hat einen Gesetzentwurf angekündigt, der die strafrechtliche Verfolgung erheblich ausweiten soll.

Der Entwurf umfasst drei neue Paragraphen: Erstens wird § 184k StGB (bisher nur „Upskirting“) massiv erweitert — bereits die Herstellung sexualisierter Deepfakes wird strafbar, nicht erst die Verbreitung. Es drohen bis zu zwei Jahre Freiheitsstrafe. Auch Besitz und Erwerb werden kriminalisiert. Zweitens schafft ein neuer § 201b StGB einen Straftatbestand für nicht-pornografische Deepfakes, die das Ansehen einer Person erheblich schädigen können. Drittens stellt § 202e StGB die unbefugte digitale Überwachung unter Strafe, etwa durch versteckte AirTags oder Spyware.

Juristen warnen allerdings vor Abgrenzungsproblemen: Jede Kriminalisierung muss abwägen, ob ein Deepfake im Einzelfall zulässig sein könnte — Satire, Kunst, Journalismus. Der Entwurf soll in der kommenden Woche mit dem Kanzleramt abgestimmt und im Frühjahr 2026 vom Kabinett beschlossen werden. Tausende demonstrierten am Sonntag am Brandenburger Tor; Fernandes kündigte ihre Rückkehr nach Deutschland an.

Parallel verschärft die EU die Regeln: Am 19. März stimmten die Ausschüsse LIBE/IMCO mit 101:9 für ein Deepfake-Verbot im KI-Omnibus — die finale Plenarabstimmung ist für den 26. März angesetzt. Ab August 2026 müssen alle KI-generierten Inhalte gekennzeichnet werden; bei Verstößen drohen Bußgelder bis 15 Millionen Euro. Deutschland und die EU bewegen sich auf zwei Ebenen gleichzeitig — national über das Strafrecht, europäisch über den AI Act.

Musik · KI-Slop

Spotify testet Artist Profile Protection gegen KI-Spam

Hintergrund & Analyse

Spotify hat ein neues Feature in der Beta-Phase: „Artist Profile Protection“ gibt Künstlern die Möglichkeit, Releases zu prüfen und zu genehmigen, bevor sie auf ihrem Profil erscheinen. Damit reagiert die Plattform auf ein wachsendes Problem: KI-generierte Songs, die unter dem Namen realer Künstler hochgeladen werden.

Die Funktionsweise ist durchdacht: Künstler aktivieren die Funktion in ihren „Spotify for Artists“-Einstellungen und erhalten bei jeder neuen Einreichung unter ihrem Namen eine E-Mail-Benachrichtigung. Sie können den Release genehmigen oder ablehnen, bevor er live geht. Um den eigenen Workflow nicht zu behindern, erhalten teilnehmende Künstler einen individuellen „Artist Key“, den sie an ihr Label weitergeben können — mit diesem Schlüssel werden eigene Releases automatisch vorab genehmigt.

Der Kontext macht die Dringlichkeit deutlich: Wie wir in unserer Ausgabe vom 22. März berichteten, hat Michael Smith aus North Carolina im ersten bundesweiten Streaming-Betrugsverfahren der USA schuldig bekannt — bis zu 661.440 Streams pro Tag, insgesamt über 8 Millionen Dollar erschlichene Tantiemen. Die Website SlopTracker.org dokumentiert systematisch KI-generierte Fake-Künstler auf Spotify. Zusätzlich rollt Spotify einen neuen Spam-Filter aus, und zusammen mit der Pflicht zur Kennzeichnung KI-generierter Musik bildet sich ein mehrstufiges Abwehrsystem.

Reportage

Strategie wird Infrastruktur: Wie KI Geschäftsmodelle fundamental verändert

Weiterlesen →

Tool-Radar

Neue & trendende KI-Tools der Woche

„Stack Overflow für KI-Agenten“: Open-Source-Plattform, auf der Coding-Agenten kollektives Wissen teilen, statt dieselben Fehler immer wieder neu zu lösen.
Am 23. März veröffentlicht. Plug-ins für Claude Code und OpenCode. Mozilla AI (Open Source, Python).
Meeting-Notizen, die auf dem Mac bleiben: Echtzeit-Transkription und Zusammenfassung komplett lokal, ohne Cloud — mit MCP-Server und Obsidian-Export.
Am 24. März auf TechCrunch vorgestellt. Einmalkauf ab $49, nutzt Qwen3-4B on-device. Indie-Startup (Bootstrapped).
Storage-Tier-Aware LLM Inference Scheduler: Verteilt Modell-Tensoren intelligent über GPU, RAM und NVMe — damit Modelle laufen, die größer als der Arbeitsspeicher sind.
Im März auf Hacker News getrended. Lässt Mixtral 8x7B (31 GB) auf 32-GB-Mac laufen. Open Source (GitHub).
Gibt KI-Coding-Agenten „Augen“: Zeichnet Screenshots, Video und Logs auf, während der Agent UI baut — und erstellt automatisch einen visuellen Proof-Bericht.
Am 24. März als Show HN vorgestellt. Visual-Regression gegen Baseline, GitHub-PR-Integration. Argil (Open Source).
Native macOS-App mit Infinite Canvas, auf dem mehrere KI-Coding-Agenten (Claude Code, Codex, Gemini) visuell orchestriert zusammenarbeiten — per Drag-and-Drop verbunden.
Am 25. März auf Product Hunt gelauncht. Kein Electron, kein Telemetry, On-Device-Companion „Ombro“. Solo-Entwickler (Indie).
KI-nativer UI-Design-Service von Google Labs: Generiert aus Text oder Sprache komplette App-Designs — jetzt mit Voice Canvas, Vibe Design und Claude-Code-Integration.
Major-Update am 19. März. Kostenlos (350 Generierungen/Monat), DESIGN.md-Export. Google Labs.

Aus der Werkstatt

YouTube-Empfehlungen der Woche

DeepSeek Two Minute Papers Thumbnail
Erklärung · 10 Min.
Two Minute Papers (1,79M Subs) · 24. März 2026
Károly Zsolnai-Fehér erklärt anschaulich, welches fundamentale Problem DeepSeek mit seinem neuen Ansatz gelöst hat. Wie gewohnt verständlich aufbereitet, mit visuellen Vergleichen und Benchmarks — ideal für alle, die Forschungsergebnisse ohne Paper-Lektüre verstehen wollen.
IBM AI Models as a Service Thumbnail
Architektur · 11 Min.
IBM Technology (1,62M Subs) · 24. März 2026
IBM Technology erklärt das Konzept „Models as a Service“ und warum es für agentenbasierte KI, Datenschutz und Retrieval Augmented Generation (RAG) relevant wird. Klare Einordnung, welche Architekturentscheidungen Unternehmen jetzt treffen müssen.