· 10 Artikel + Reportage + Tool-Radar + Werkstatt

Ausgabe vom 24. März 2026

Maschinell recherchiert, menschlich relevant.

KI-Debatte · AGI

„Ich denke, wir haben AGI erreicht“: Jensen Huang verschiebt die Torpfosten

Hintergrund & Analyse

Jensen Huangs Aussage im Lex-Fridman-Podcast (#494), ausgestrahlt am 23. März 2026, ist eine der bislang kühnsten Behauptungen eines führenden Tech-CEOs — und zugleich eine der am stärksten relativierten. Auf Fridmans Frage, wann ein KI-System in der Lage sei, „ein erfolgreiches Technologieunternehmen zu gründen, aufzubauen und zu führen“, antwortete Huang: „I think it’s now. I think we’ve achieved AGI.“ Doch er schränkte sofort ein: „You said a billion, and you didn’t say forever“ — und verwies auf die virale Open-Source-Plattform OpenClaw als Beispiel.

Damit verschiebt Huang die Torpfosten der AGI-Debatte erheblich. Statt einer allgemein intelligenten Maschine mit echtem Verständnis definiert er AGI als ein System, das eine Webanwendung starten, viral gehen lassen und kurzfristig eine Milliarde Dollar Umsatz generieren kann. Die Aussage reiht sich in eine Entwicklung ein, bei der mehrere Tech-CEOs den AGI-Begriff für sich beanspruchen: Sam Altman sagte Forbes gegenüber, OpenAI habe „im Grunde AGI gebaut“, allerdings sei dies eine „spirituelle“ und keine wörtliche Aussage.

Huangs Motivation ist durchsichtig: Als CEO des größten GPU-Herstellers profitiert Nvidia direkt von der Erzählung, dass AGI unmittelbar bevorstehe oder bereits da sei. Diese Narrative rechtfertigt massive Investitionen in KI-Infrastruktur und Rechenzentrums-Hardware. Aktuelle Large Language Models können zwar Code schreiben und Prüfungen bestehen, halluzinieren aber weiterhin Fakten, scheitern an einfachen Logikproblemen und verfügen über kein genuines Verständnis.

Die AGI-Debatte ist damit endgültig von einer wissenschaftlichen Frage zu einer PR-Frage geworden. Was früher ein klar definiertes Forschungsziel war, wird heute je nach Geschäftsinteresse uminterpretiert. Für Investoren und Politik wird es zunehmend schwieriger, zwischen echten Durchbrüchen und Marketing-Narrativen zu unterscheiden.

Politik · Verteidigung

Elizabeth Warren nennt Anthropic-Sperre „Vergeltung“ — Anhörung am Dienstag

Hintergrund & Analyse

Wie wir in unseren Ausgaben vom 19. März und 21. März berichteten, hat das Pentagon Anthropic am 27. Februar als „Supply-Chain-Risiko“ eingestuft, nachdem das Unternehmen sich weigerte, seine KI ohne Einschränkungen für Massenüberwachung und autonome Waffen bereitzustellen. Senatorin Elizabeth Warren (D-MA) hat nun in einem scharfen Brief an Verteidigungsminister Pete Hegseth diese Einstufung als Vergeltungsmaßnahme bezeichnet.

Der Zeitpunkt der Ereignisse stützt Warrens Argumentation: Nur einen Tag nachdem das Pentagon Anthropic sperrte, schloss es einen neuen Vertrag mit OpenAI ab. Warren hat deshalb auch an OpenAI-CEO Sam Altman geschrieben und Details zu diesem Vertrag angefordert. Die Senatorin äußert die Befürchtung, dass „das Verteidigungsministerium versucht, amerikanische Unternehmen einzuschüchtern, damit sie dem Ministerium die Werkzeuge zur Überwachung amerikanischer Bürger und zum Einsatz vollautonomer Waffen ohne angemessene Sicherheitsvorkehrungen zur Verfügung stellen“.

Am heutigen Dienstag steht ein entscheidender Gerichtstermin an: Richterin Rita Lin wird in San Francisco über Anthropics Antrag auf einstweilige Verfügung entscheiden. Anthropic kämpft darum, den Status quo zu erhalten, bis die Klage abschließend verhandelt ist. Das Ergebnis könnte weitreichende Präzedenzwirkung haben — nicht nur für Anthropic, sondern für die gesamte KI-Branche und die Frage, ob Unternehmen für ethische Selbstbeschränkungen bestraft werden dürfen.

Die „Supply-Chain-Risiko“-Einstufung ist besonders drastisch, weil sie nicht nur direkte Pentagon-Aufträge betrifft, sondern jeden Vertragspartner des Verteidigungsministeriums zwingt, sämtliche Geschäftsbeziehungen mit Anthropic zu kappen. Anthropic beziffert den potenziellen Schaden auf „Hunderte Millionen Dollar“ Umsatz.

Startup · Vibe Coding

Lovable jagt Akquisitionen: 146 Mitarbeiter, 400 Millionen Dollar ARR

Hintergrund & Analyse

CEO Anton Osika kündigte am 23. März auf X die Suche nach „great teams and startups to join Lovable“ an und installierte Theo Daniellot als Head of M&A & Partnerships. Die Zahlen sind beeindruckend: 400 Millionen Dollar ARR (annualisierter Jahresumsatz), davon 100 Millionen Dollar allein im Februar 2026 hinzugekommen. Täglich entstehen über 200.000 neue Vibe-Coding-Projekte auf der Plattform.

Lovable erlaubt es Nutzern, durch natürlichsprachliche Beschreibungen funktionsfähige Webanwendungen zu erstellen — das sogenannte „Vibe Coding“, ein von Andrej Karpathy geprägter Begriff. Die Effizienz ist beispiellos: Bei 146 Mitarbeitern bedeutet das fast 2,7 Millionen Dollar Umsatz pro Kopf. Die Serie-B-Finanzierung von 330 Millionen Dollar (Dezember 2025, geführt von Accel) ergab eine Bewertung von 6,6 Milliarden Dollar.

Die Akquisitionsstrategie markiert eine strategische Wende. Die erste Übernahme — der Cloud-Provider Molnett im November 2025 — zielte auf den Ausbau der eigenen Cloud-Infrastruktur. Osika betont eine Kultur autonomer Gründer und suggeriert, dass übernommene Teams ihre Projekte eigenständig weiterführen können.

Der Vibe-Coding-Markt ist hart umkämpft: Cursor, Replit und Bolt bieten ähnliche KI-gestützte Entwicklungstools, während die Coding-Fähigkeiten der großen Sprachmodelle selbst ständig besser werden. Die Frage bleibt, wie nachhaltig die Vibe-Coding-Welle ist und ob der Price-to-Revenue-Multiplikator von 16,5x sich langfristig rechtfertigen lässt.

Infrastruktur · Inferenz

Gimlet Labs sammelt 80 Millionen Dollar für die Multi-Silicon Inference Cloud

Hintergrund & Analyse

Gimlet Labs adressiert eines der drängendsten Probleme der KI-Industrie: den Inferenz-Engpass. Während sich die öffentliche Aufmerksamkeit oft auf das Training großer Modelle richtet, wird die Inferenz — also die tatsächliche Ausführung von KI-Anfragen — zum operativen Flaschenhals. Die 80-Millionen-Dollar-Serie-A (geführt von Menlo Ventures, Gesamtfinanzierung 92 Millionen Dollar) unterstreicht die Dringlichkeit.

Der technische Ansatz ist bestechend: Anstatt KI-Workloads an einen bestimmten GPU-Typ zu binden, entkoppelt Gimlets „Multi-Silicon Inference Cloud“ die Arbeitslast von der spezifischen Hardware. Ein einzelner KI-Agent kann mehrere Schritte verketten, die jeweils unterschiedliche Hardware-Anforderungen haben: Inferenz ist rechenintensiv, das Dekodieren speicherintensiv und Tool-Aufrufe netzwerkintensiv. Gimlets Software verteilt diese Aufgaben auf den jeweils optimalen Chip-Typ.

Gründer Zain Asgar — Stanford-Adjunct-Professor und Gründer von Pixie Labs (Exit an New Relic 2020) — bringt relevante Erfahrung mit. Die Traktionsdaten sprechen für sich: Achtstelliger Umsatz vom Start weg, ein verdreifachter Kundenstamm seit dem öffentlichen Launch im Oktober 2025 und namhafte Kunden aus den Top-3 der Frontier-Labs und Hyperscaler.

Für die gesamte KI-Branche könnte Gimlets Ansatz bedeuten, dass die bestehende Hardware-Infrastruktur deutlich effizienter genutzt werden kann — was angesichts der GPU-Knappheit und der explodierenden Energiekosten für KI-Rechenzentren ein enormer Hebel wäre.

Startup · Produktivität

Littlebird: 11 Millionen Dollar für das KI-Recall, das Microsoft nicht hinbekam

Hintergrund & Analyse

Littlebird greift ein Problem auf, an dem Microsoft mit Recall spektakulär gescheitert ist: die automatische Erfassung und Durchsuchbarkeit der eigenen Computernutzung. Der entscheidende Unterschied: Während Microsoft Screenshots im Sekundentakt speicherte — was zu massiver Kritik von Sicherheitsforschern führte — „liest“ Littlebird den Bildschirminhalt und speichert ihn als strukturierten Text. Ein einzelner 1440p-Screenshot belegt mehrere Megabyte; Text-Repräsentationen sind um Größenordnungen kleiner und schneller durchsuchbar.

Der Privacy-Ansatz ist durchdacht: Das Tool ignoriert automatisch Passwort-Manager und sensible Formularfelder wie Kreditkartendaten. Zusätzlich bietet es einen integrierten Meeting-Notetaker, der System-Audio erfasst und Transkriptionen, Notizen und Aufgaben erstellt — ähnlich wie das populäre Tool Granola.

Die Gründer Alap und Naman Shah (Brüder) sowie Alexander Green gründeten zuvor Sentieo, eine Plattform für institutionelle Investoren, die an den Marktforschungsdienst AlphaSense verkauft wurde. Die 11 Millionen Dollar Finanzierung, geführt von Lotus Studio mit prominenten Angel-Investoren wie Scott Belsky und Lenny Rachitsky, deutet auf frühe Traktion hin.

Die Privacy-Bedenken bleiben allerdings erheblich. Auch wenn Text weniger visuell sensibel ist als Screenshots, erfasst ein System, das ständig den Bildschirminhalt liest, potenziell hochsensible Informationen — von vertraulichen E-Mails über Finanzdaten bis zu persönlichen Nachrichten.

Modelle · China

Xiaomis Mystery-Modell: MiMo-V2 kommt an Claude und GPT-5 heran — zu einem Siebtel der Kosten

Hintergrund & Analyse

Am 19. März 2026 veröffentlichte Xiaomi drei KI-Modelle: MiMo-V2-Pro (Basis), MiMo-V2-Omni (multimodal) und MiMo-V2-TTS (Sprachsynthese). Das Basismodell hat über eine Billion Parameter insgesamt, davon 42 Milliarden aktive Parameter (MoE-Architektur mit Mixture-of-Experts), und unterstützt eine Kontextlänge von einer Million Tokens.

Besonders bemerkenswert ist die Vorgeschichte: Das Modell tauchte zunächst als „Mystery-Modell“ in Benchmarks auf und wurde weithin für DeepSeek V4 gehalten. Die Enthüllung, dass es von Xiaomi stammt, sorgte für Erstaunen. Auf dem ClawEval-Agenten-Benchmark erreicht MiMo-V2-Pro 61,5 Punkte — nur knapp hinter Claude Opus 4.6 (66,3) und deutlich vor GPT-5.2 (50,0). Im globalen Artificial Analysis Intelligence Index rangiert es auf Platz 8.

Die API-Preise sind aggressiv: Bei 1 Dollar pro Million Input-Tokens und 3 Dollar pro Million Output-Tokens liegt MiMo-V2-Pro bei etwa einem Sechstel bis Siebtel der Kosten vergleichbarer westlicher Modelle. Dass Xiaomis KI-Abteilung von Fuli Luo geleitet wird — einer Veteranin des bahnbrechenden DeepSeek-R1-Projekts — erklärt den Transfer von Know-how zwischen chinesischen KI-Labors.

Mit einer geplanten Investition von 8,7 Milliarden Dollar über drei Jahre meint es Xiaomi ernst mit dem Ziel, als globaler Top-Tier-Modellentwickler anerkannt zu werden. Für Entwickler und Unternehmen außerhalb Chinas stellt sich die Frage: Ist ein chinesisches Modell zu einem Bruchteil der Kosten eine realistische Alternative — oder überwiegen geopolitische und Datenschutzbedenken?

Hardware · On-Device

400 Milliarden Parameter auf dem iPhone: Wie ein Entwickler das Unmögliche zeigt

Hintergrund & Analyse

Entwickler Daniel Woods (@anemll) zeigte auf X, wie sein Open-Source-Projekt flash-moe das Modell Qwen3.5-397B-A17B (2-Bit-quantisiert) auf dem iPhone 17 Pro ausführt. Das Modell nutzt eine Mixture-of-Experts-Architektur mit 512 Experten pro Schicht, von denen für jeden Token nur 4 bis 10 aktiv sind. Effektiv werden also nur etwa 17 Milliarden Parameter gleichzeitig berechnet — die übrigen Gewichte werden on-demand von der schnellen NVMe-SSD direkt in den GPU-Speicher gestreamt.

Die technische Grundlage stammt aus Apples eigenem Forschungspapier „LLM in a Flash“ (2023), das beschreibt, wie Modellgewichte von Flash-Speicher gestreamt statt vollständig in den RAM geladen werden können. Die Kombination aus MoE-Sparsity, SSD-zu-GPU-Streaming und Flash-Attention-Optimierungen macht Modelle lauffähig, die ein Vielfaches des verfügbaren RAMs benötigen.

Die Einschränkungen sind allerdings erheblich: Mit 0,6 Tokens pro Sekunde und einer Wartezeit von fast 50 Sekunden bis zum ersten Token ist das System weit von der Praxistauglichkeit entfernt. Eine flüssige Konversation erfordert mindestens 15–20 Tokens pro Sekunde. Dennoch ist die Demo ein wichtiger Proof of Concept.

Für Apple hat die Demonstration strategische Bedeutung: Sollte On-Device-Inferenz mit großen Modellen praktikabel werden, könnte Apple seine gesamte Apple-Intelligence-Strategie überdenken und leistungsfähigere Modelle direkt auf dem Gerät laufen lassen, ohne Cloud-Abhängigkeit und mit voller Privacy-Garantie.

Plattform · App Store

Ohne eigenes Modell: Apple kassiert eine Milliarde Dollar an KI-Apps anderer

Hintergrund & Analyse

Apple hat eine bemerkenswerte Position in der KI-Wirtschaft eingenommen: Ohne selbst ein wettbewerbsfähiges KI-Modell zu besitzen, profitiert das Unternehmen über seinen App Store massiv vom KI-Boom. Die Einnahmen stiegen von rund 35 Millionen Dollar im Januar 2025 auf 101 Millionen Dollar im Peak-Monat August — eine Verdreifachung innerhalb eines Jahres. 2026 dürfte die Milliarden-Grenze überschritten werden.

Die Dominanz von OpenAIs ChatGPT ist erückend: Rund 75 Prozent der gesamten KI-App-Provisionen entfallen auf eine einzige App. Grok von xAI folgt weit abgeschlagen mit etwa 5 Prozent. Die Apps sind gratis, die Einnahmen kommen aus Premium-Abo-Upgrades, von denen Apple 30 Prozent im ersten Jahr bzw. 15 Prozent ab dem zweiten Jahr einbehält.

Die Konzentration auf ChatGPT macht Apples KI-Einnahmen verletzbar: Sollte OpenAI seine Abo-Strategie ändern — etwa durch einen Wechsel zu Direktabrechnung außerhalb des App Stores, wie es in der EU bereits möglich ist — könnten die Einnahmen einbrechen.

Die größte Ironie: Siri mit Apple Intelligence bleibt hinter den Erwartungen zurück, während Konkurrenzprodukte auf Apples eigener Plattform florieren. Apple verdient also doppelt: als Plattformbetreiber und als Hardware-Hersteller, dessen Geräte die bevorzugte Plattform für KI-Apps sind. Die WWDC 2026 am 8. Juni könnte zeigen, ob Apple diesen Zustand ändern will.

Energie · Fusion

50 Gigawatt Fusionsenergie: OpenAI verhandelt mit Helion — und Sam Altmans Interessenkonflikt

Hintergrund & Analyse

Die Verhandlungen zwischen OpenAI und Helion Energy werfen ein Schlaglicht auf den enormen Energiehunger der KI-Industrie — und auf die verschlungenen Interessenkonflikte an der Spitze der Tech-Branche. Sam Altman führte 2021 Helions 500-Millionen-Dollar-Serie-E-Runde an und hält eine nicht bezifferte, aber „beträchtliche“ Beteiligung. Um den Interessenkonflikt zu entschärfen, ist er als Vorstandsvorsitzender von Helion zurückgetreten und hat sich aus den Deal-Verhandlungen zurückgezogen.

Die Dimensionen des geplanten Deals sind atemberaubend: 5 Gigawatt bis 2030 und 50 Gigawatt bis 2035 — das entspricht der Leistung mehrerer großer Kernkraftwerke. Helion hat bestehende Verträge mit Microsoft und dem Stahlhersteller Nucor, hat aber bislang noch keine kommerziell nutzbare Fusion demonstriert.

Der größte Vorbehalt ist technologischer Natur: Kein privates Fusionsunternehmen hat bisher das wissenschaftliche Breakeven erreicht — den Punkt, an dem eine Fusionsreaktion mehr Energie erzeugt, als zur Zündung benötigt wird. Wie wir in unserer gestrigen Ausgabe berichteten, warnt die WTO vor den Risiken hoher Energiepreise für den KI-Boom.

Dennoch signalisiert der Deal den Beginn einer tiefgreifenden Verflechtung von KI- und Energieindustrie. Wenn KI-Unternehmen beginnen, ihre eigenen Energiequellen zu sichern — zumal mit experimentellen Technologien wie Kernfusion — markiert dies eine neue Phase, die weit über die rein digitale Sphäre hinausgeht.

Gesellschaft · Deepfakes

Fall Fernandes: 250 prominente Frauen fordern Zehn-Punkte-Plan gegen Nudify-Apps

Hintergrund & Analyse

Der Fall Collien Fernandes hat in Deutschland eine breite gesellschaftliche Debatte über sexualisierte Digitalgewalt ausgelöst. Die Moderatorin und Schauspielerin wirft ihrem Ex-Mann vor, gefälschte Profile auf sozialen Netzwerken erstellt und über diese Deepfake-Pornografie unter ihrem Namen verbreitet zu haben. Die Brisanz liegt nicht nur in der persönlichen Tragödie, sondern darin, dass sie die Zugänglichkeit von Deepfake-Technologie für jedermann sichtbar macht.

250 prominente Frauen aus Politik, Unterhaltung und Aktivismus haben der Bundesregierung einen Zehn-Punkte-Plan vorgelegt. Die Forderungen sind konkret: Kriminalisierung der Erstellung und Verbreitung sexualisierter Deepfakes, ein explizites Verbot von Nudify-Apps, Löschpflichten für Internetplattformen, klare Auskunfts- und Identifizierungsansprüche für Opfer gegenüber Tätern sowie ein digitales Gewaltschutzgesetz und die Verankerung des „Ja heißt Ja“-Prinzips im Sexualstrafrecht.

Die Initiative, getragen von Kristina Lunz (Centre for Feminist Foreign Policy), der Journalistin Düzen Tekkal und der Grünen-Politikerin Ricarda Lang, verband den konkreten Einzelfall mit strukturellen Forderungen. Eine Kundgebung am Brandenburger Tor unter dem Titel „Gegen sexualisierte digitale Gewalt“ unterstrich den öffentlichen Druck.

Die politische Durchsetzung bleibt die größte Herausforderung. Nudify-Apps sind frei verfügbar und technisch schwer zu unterdrücken; eine Kriminalisierung müsste international koordiniert werden, um wirksam zu sein. Dennoch könnte der öffentliche Druck und die prominente Unterstützung den Gesetzgeber zu konkreten Maßnahmen bewegen — ähnlich wie die EU in der laufenden AI-Act-Novelle bereits ein Verbot nicht-einvernehmlicher sexualisierter Deepfakes vorbereitet, wie wir in unserer Ausgabe vom 19. März berichteten.

Reportage

Agentic Coding: Wenn KI-Agenten den Code schreiben

Weiterlesen →

Tool-Radar

Neue & trendende KI-Tools der Woche

KI-nativer Browser mit eingebautem Assistenten, der Webseiten zusammenfasst, Fragen beantwortet und Aufgaben ausführt — jetzt auch für iPhone.
Am 20. März für iOS erschienen. Comet Enterprise mit CrowdStrike-Sicherheitsintegration. Perplexity AI ($9B+ Bewertung).
Enterprise-Plattform zum Training vollständig eigener KI-Modelle auf firmeneigenen Daten — nicht nur Fine-Tuning, sondern Training from Scratch.
Am 17. März auf NVIDIA GTC vorgestellt. Kunden wie ESA und Ericsson bereits an Bord. Mistral AI (auf Kurs zu $1 Mrd. ARR).
Open-Source MCP-Server, der beliebige KI-Agenten (Claude Code, Gemini CLI) direkt mit Google Colab verbindet — GPU-Zugriff und Code-Ausführung per Agent.
Am 17. März veröffentlicht. Apache 2.0, löst das Problem lokaler Hardware-Limits für Agenten. Google (Open Source).
Unified AI-Agents-Plattform für HR: Agenten für Onboarding, Performance Management, Manager-Coaching und Service Desk in einem System.
Am 23. März auf der Transform 2026 vorgestellt. AI-native, ab $8/Person/Monat. Confirm (Startup, San Francisco).
Marktplatz innerhalb von ElevenCreative: Creator können KI-generierte Songs veröffentlichen, lizenzieren und monetarisieren — mit drei Lizenz-Tiers.
Am 19. März gestartet. 14 Mio. Songs seit Launch von Eleven Music. ElevenLabs ($3,3 Mrd. Bewertung).
App-Builder, der ChatGPT-Apps und MCP-Apps in Minuten erstellt — von Architektur-Planung über Coding und Testing bis Deployment.
Um den 21. März auf Product Hunt gelauncht. Open-Source SDK auf GitHub. Fractal MCP (Indie-Startup).

Aus der Werkstatt

YouTube-Empfehlungen der Woche

Claude Code Tutorial Thumbnail
Tutorial · 26 Min.
Teacher’s Tech (1,1M Subs) · 23. März 2026
Schritt-für-Schritt-Anleitung zum Bau eines ersten eigenen KI-Agenten mit Claude Code. Von der Projekteinrichtung über die Konfiguration bis zum fertigen, funktionsfähigen Agenten — ideal für den praktischen Einstieg.
120B Modell lokal Thumbnail
Praxis · 12 Min.
Alex Ziskind (469K Subs) · 23. März 2026
Alex Ziskind demonstriert, wie ein 120-Milliarden-Parameter-Modell auf Consumer-Hardware lokal läuft. Hardware-Konfiguration, Quantisierungseinstellungen und tatsächliche Inferenz-Performance — ein technisch fundierter Einblick.