„Ich denke, wir haben AGI erreicht“: Jensen Huang verschiebt die Torpfosten
· Quellen: Sherwood News, Let’s Data Science, Digit, Yahoo Finance
Nvidias CEO erklärt im Lex-Fridman-Podcast, AGI sei bereits da — definiert den Begriff aber so eng, dass eine virale App als Beweis reicht. Was als wissenschaftliches Forschungsziel begann, wird zur Marketing-Behauptung.
Hintergrund & Analyse
Jensen Huangs Aussage im Lex-Fridman-Podcast (#494), ausgestrahlt am 23. März 2026, ist eine der bislang kühnsten Behauptungen eines führenden Tech-CEOs — und zugleich eine der am stärksten relativierten. Auf Fridmans Frage, wann ein KI-System in der Lage sei, „ein erfolgreiches Technologieunternehmen zu gründen, aufzubauen und zu führen“, antwortete Huang: „I think it’s now. I think we’ve achieved AGI.“ Doch er schränkte sofort ein: „You said a billion, and you didn’t say forever“ — und verwies auf die virale Open-Source-Plattform OpenClaw als Beispiel.
Damit verschiebt Huang die Torpfosten der AGI-Debatte erheblich. Statt einer allgemein intelligenten Maschine mit echtem Verständnis definiert er AGI als ein System, das eine Webanwendung starten, viral gehen lassen und kurzfristig eine Milliarde Dollar Umsatz generieren kann. Die Aussage reiht sich in eine Entwicklung ein, bei der mehrere Tech-CEOs den AGI-Begriff für sich beanspruchen: Sam Altman sagte Forbes gegenüber, OpenAI habe „im Grunde AGI gebaut“, allerdings sei dies eine „spirituelle“ und keine wörtliche Aussage.
Huangs Motivation ist durchsichtig: Als CEO des größten GPU-Herstellers profitiert Nvidia direkt von der Erzählung, dass AGI unmittelbar bevorstehe oder bereits da sei. Diese Narrative rechtfertigt massive Investitionen in KI-Infrastruktur und Rechenzentrums-Hardware. Aktuelle Large Language Models können zwar Code schreiben und Prüfungen bestehen, halluzinieren aber weiterhin Fakten, scheitern an einfachen Logikproblemen und verfügen über kein genuines Verständnis.
Die AGI-Debatte ist damit endgültig von einer wissenschaftlichen Frage zu einer PR-Frage geworden. Was früher ein klar definiertes Forschungsziel war, wird heute je nach Geschäftsinteresse uminterpretiert. Für Investoren und Politik wird es zunehmend schwieriger, zwischen echten Durchbrüchen und Marketing-Narrativen zu unterscheiden.
Politik · Verteidigung
Elizabeth Warren nennt Anthropic-Sperre „Vergeltung“ — Anhörung am Dienstag
· Quellen: TechCrunch, CNBC, Warren.senate.gov
Die US-Senatorin wirft dem Pentagon vor, Anthropic für ethische Selbstbeschränkungen zu bestrafen. Am Dienstag entscheidet eine Bundesrichterin über die einstweilige Verfügung — mit weitreichenden Folgen für die gesamte KI-Branche.
Hintergrund & Analyse
Wie wir in unseren Ausgaben vom 19. März und 21. März berichteten, hat das Pentagon Anthropic am 27. Februar als „Supply-Chain-Risiko“ eingestuft, nachdem das Unternehmen sich weigerte, seine KI ohne Einschränkungen für Massenüberwachung und autonome Waffen bereitzustellen. Senatorin Elizabeth Warren (D-MA) hat nun in einem scharfen Brief an Verteidigungsminister Pete Hegseth diese Einstufung als Vergeltungsmaßnahme bezeichnet.
Der Zeitpunkt der Ereignisse stützt Warrens Argumentation: Nur einen Tag nachdem das Pentagon Anthropic sperrte, schloss es einen neuen Vertrag mit OpenAI ab. Warren hat deshalb auch an OpenAI-CEO Sam Altman geschrieben und Details zu diesem Vertrag angefordert. Die Senatorin äußert die Befürchtung, dass „das Verteidigungsministerium versucht, amerikanische Unternehmen einzuschüchtern, damit sie dem Ministerium die Werkzeuge zur Überwachung amerikanischer Bürger und zum Einsatz vollautonomer Waffen ohne angemessene Sicherheitsvorkehrungen zur Verfügung stellen“.
Am heutigen Dienstag steht ein entscheidender Gerichtstermin an: Richterin Rita Lin wird in San Francisco über Anthropics Antrag auf einstweilige Verfügung entscheiden. Anthropic kämpft darum, den Status quo zu erhalten, bis die Klage abschließend verhandelt ist. Das Ergebnis könnte weitreichende Präzedenzwirkung haben — nicht nur für Anthropic, sondern für die gesamte KI-Branche und die Frage, ob Unternehmen für ethische Selbstbeschränkungen bestraft werden dürfen.
Die „Supply-Chain-Risiko“-Einstufung ist besonders drastisch, weil sie nicht nur direkte Pentagon-Aufträge betrifft, sondern jeden Vertragspartner des Verteidigungsministeriums zwingt, sämtliche Geschäftsbeziehungen mit Anthropic zu kappen. Anthropic beziffert den potenziellen Schaden auf „Hunderte Millionen Dollar“ Umsatz.
Startup · Vibe Coding
Lovable jagt Akquisitionen: 146 Mitarbeiter, 400 Millionen Dollar ARR
· Quellen: TechCrunch, Bloomberg, Mezha.net
Das schwedische Vibe-Coding-Startup sucht aktiv nach Übernahmezielen. Mit nur 146 Mitarbeitern und einer Bewertung von 6,6 Milliarden Dollar ist Lovable das vielleicht effizienteste Softwareunternehmen der Welt — und will jetzt anorganisch wachsen.
Hintergrund & Analyse
CEO Anton Osika kündigte am 23. März auf X die Suche nach „great teams and startups to join Lovable“ an und installierte Theo Daniellot als Head of M&A & Partnerships. Die Zahlen sind beeindruckend: 400 Millionen Dollar ARR (annualisierter Jahresumsatz), davon 100 Millionen Dollar allein im Februar 2026 hinzugekommen. Täglich entstehen über 200.000 neue Vibe-Coding-Projekte auf der Plattform.
Lovable erlaubt es Nutzern, durch natürlichsprachliche Beschreibungen funktionsfähige Webanwendungen zu erstellen — das sogenannte „Vibe Coding“, ein von Andrej Karpathy geprägter Begriff. Die Effizienz ist beispiellos: Bei 146 Mitarbeitern bedeutet das fast 2,7 Millionen Dollar Umsatz pro Kopf. Die Serie-B-Finanzierung von 330 Millionen Dollar (Dezember 2025, geführt von Accel) ergab eine Bewertung von 6,6 Milliarden Dollar.
Die Akquisitionsstrategie markiert eine strategische Wende. Die erste Übernahme — der Cloud-Provider Molnett im November 2025 — zielte auf den Ausbau der eigenen Cloud-Infrastruktur. Osika betont eine Kultur autonomer Gründer und suggeriert, dass übernommene Teams ihre Projekte eigenständig weiterführen können.
Der Vibe-Coding-Markt ist hart umkämpft: Cursor, Replit und Bolt bieten ähnliche KI-gestützte Entwicklungstools, während die Coding-Fähigkeiten der großen Sprachmodelle selbst ständig besser werden. Die Frage bleibt, wie nachhaltig die Vibe-Coding-Welle ist und ob der Price-to-Revenue-Multiplikator von 16,5x sich langfristig rechtfertigen lässt.
Infrastruktur · Inferenz
Gimlet Labs sammelt 80 Millionen Dollar für die Multi-Silicon Inference Cloud
Das Stanford-Startup verteilt KI-Inferenz intelligent über verschiedene Chip-Typen — und verspricht 3- bis 10-fache Beschleunigung bei gleichen Kosten. Einer der Top-3-Frontier-Labs ist bereits Kunde.
Hintergrund & Analyse
Gimlet Labs adressiert eines der drängendsten Probleme der KI-Industrie: den Inferenz-Engpass. Während sich die öffentliche Aufmerksamkeit oft auf das Training großer Modelle richtet, wird die Inferenz — also die tatsächliche Ausführung von KI-Anfragen — zum operativen Flaschenhals. Die 80-Millionen-Dollar-Serie-A (geführt von Menlo Ventures, Gesamtfinanzierung 92 Millionen Dollar) unterstreicht die Dringlichkeit.
Der technische Ansatz ist bestechend: Anstatt KI-Workloads an einen bestimmten GPU-Typ zu binden, entkoppelt Gimlets „Multi-Silicon Inference Cloud“ die Arbeitslast von der spezifischen Hardware. Ein einzelner KI-Agent kann mehrere Schritte verketten, die jeweils unterschiedliche Hardware-Anforderungen haben: Inferenz ist rechenintensiv, das Dekodieren speicherintensiv und Tool-Aufrufe netzwerkintensiv. Gimlets Software verteilt diese Aufgaben auf den jeweils optimalen Chip-Typ.
Gründer Zain Asgar — Stanford-Adjunct-Professor und Gründer von Pixie Labs (Exit an New Relic 2020) — bringt relevante Erfahrung mit. Die Traktionsdaten sprechen für sich: Achtstelliger Umsatz vom Start weg, ein verdreifachter Kundenstamm seit dem öffentlichen Launch im Oktober 2025 und namhafte Kunden aus den Top-3 der Frontier-Labs und Hyperscaler.
Für die gesamte KI-Branche könnte Gimlets Ansatz bedeuten, dass die bestehende Hardware-Infrastruktur deutlich effizienter genutzt werden kann — was angesichts der GPU-Knappheit und der explodierenden Energiekosten für KI-Rechenzentren ein enormer Hebel wäre.
Startup · Produktivität
Littlebird: 11 Millionen Dollar für das KI-Recall, das Microsoft nicht hinbekam
· Quellen: TechCrunch, TechBuzz, Mezha.net
Wo Microsoft mit Recall an Datenschutz-Kritik scheiterte, setzt Littlebird auf Text statt Screenshots: Das Startup liest den Bildschirm in Echtzeit, speichert alles als durchsuchbaren Text — und ignoriert automatisch Passwörter.
Hintergrund & Analyse
Littlebird greift ein Problem auf, an dem Microsoft mit Recall spektakulär gescheitert ist: die automatische Erfassung und Durchsuchbarkeit der eigenen Computernutzung. Der entscheidende Unterschied: Während Microsoft Screenshots im Sekundentakt speicherte — was zu massiver Kritik von Sicherheitsforschern führte — „liest“ Littlebird den Bildschirminhalt und speichert ihn als strukturierten Text. Ein einzelner 1440p-Screenshot belegt mehrere Megabyte; Text-Repräsentationen sind um Größenordnungen kleiner und schneller durchsuchbar.
Der Privacy-Ansatz ist durchdacht: Das Tool ignoriert automatisch Passwort-Manager und sensible Formularfelder wie Kreditkartendaten. Zusätzlich bietet es einen integrierten Meeting-Notetaker, der System-Audio erfasst und Transkriptionen, Notizen und Aufgaben erstellt — ähnlich wie das populäre Tool Granola.
Die Gründer Alap und Naman Shah (Brüder) sowie Alexander Green gründeten zuvor Sentieo, eine Plattform für institutionelle Investoren, die an den Marktforschungsdienst AlphaSense verkauft wurde. Die 11 Millionen Dollar Finanzierung, geführt von Lotus Studio mit prominenten Angel-Investoren wie Scott Belsky und Lenny Rachitsky, deutet auf frühe Traktion hin.
Die Privacy-Bedenken bleiben allerdings erheblich. Auch wenn Text weniger visuell sensibel ist als Screenshots, erfasst ein System, das ständig den Bildschirminhalt liest, potenziell hochsensible Informationen — von vertraulichen E-Mails über Finanzdaten bis zu persönlichen Nachrichten.
Modelle · China
Xiaomis Mystery-Modell: MiMo-V2 kommt an Claude und GPT-5 heran — zu einem Siebtel der Kosten
Der Smartphone-Hersteller Xiaomi überrascht die KI-Welt: MiMo-V2-Pro erreicht mit über einer Billion Parametern Benchmark-Ergebnisse nahe den westlichen Spitzenmodellen — und die API kostet einen Bruchteil. Dass die KI-Leiterin vom DeepSeek-R1-Projekt kommt, erklärt vieles.
Hintergrund & Analyse
Am 19. März 2026 veröffentlichte Xiaomi drei KI-Modelle: MiMo-V2-Pro (Basis), MiMo-V2-Omni (multimodal) und MiMo-V2-TTS (Sprachsynthese). Das Basismodell hat über eine Billion Parameter insgesamt, davon 42 Milliarden aktive Parameter (MoE-Architektur mit Mixture-of-Experts), und unterstützt eine Kontextlänge von einer Million Tokens.
Besonders bemerkenswert ist die Vorgeschichte: Das Modell tauchte zunächst als „Mystery-Modell“ in Benchmarks auf und wurde weithin für DeepSeek V4 gehalten. Die Enthüllung, dass es von Xiaomi stammt, sorgte für Erstaunen. Auf dem ClawEval-Agenten-Benchmark erreicht MiMo-V2-Pro 61,5 Punkte — nur knapp hinter Claude Opus 4.6 (66,3) und deutlich vor GPT-5.2 (50,0). Im globalen Artificial Analysis Intelligence Index rangiert es auf Platz 8.
Die API-Preise sind aggressiv: Bei 1 Dollar pro Million Input-Tokens und 3 Dollar pro Million Output-Tokens liegt MiMo-V2-Pro bei etwa einem Sechstel bis Siebtel der Kosten vergleichbarer westlicher Modelle. Dass Xiaomis KI-Abteilung von Fuli Luo geleitet wird — einer Veteranin des bahnbrechenden DeepSeek-R1-Projekts — erklärt den Transfer von Know-how zwischen chinesischen KI-Labors.
Mit einer geplanten Investition von 8,7 Milliarden Dollar über drei Jahre meint es Xiaomi ernst mit dem Ziel, als globaler Top-Tier-Modellentwickler anerkannt zu werden. Für Entwickler und Unternehmen außerhalb Chinas stellt sich die Frage: Ist ein chinesisches Modell zu einem Bruchteil der Kosten eine realistische Alternative — oder überwiegen geopolitische und Datenschutzbedenken?
Hardware · On-Device
400 Milliarden Parameter auf dem iPhone: Wie ein Entwickler das Unmögliche zeigt
Ein Entwickler demonstriert, wie das iPhone 17 Pro trotz nur 12 GB RAM ein 400-Milliarden-Parameter-Modell ausführen kann. Der Trick: Die Modellgewichte werden direkt von der SSD in den GPU-Speicher gestreamt.
Hintergrund & Analyse
Entwickler Daniel Woods (@anemll) zeigte auf X, wie sein Open-Source-Projekt flash-moe das Modell Qwen3.5-397B-A17B (2-Bit-quantisiert) auf dem iPhone 17 Pro ausführt. Das Modell nutzt eine Mixture-of-Experts-Architektur mit 512 Experten pro Schicht, von denen für jeden Token nur 4 bis 10 aktiv sind. Effektiv werden also nur etwa 17 Milliarden Parameter gleichzeitig berechnet — die übrigen Gewichte werden on-demand von der schnellen NVMe-SSD direkt in den GPU-Speicher gestreamt.
Die technische Grundlage stammt aus Apples eigenem Forschungspapier „LLM in a Flash“ (2023), das beschreibt, wie Modellgewichte von Flash-Speicher gestreamt statt vollständig in den RAM geladen werden können. Die Kombination aus MoE-Sparsity, SSD-zu-GPU-Streaming und Flash-Attention-Optimierungen macht Modelle lauffähig, die ein Vielfaches des verfügbaren RAMs benötigen.
Die Einschränkungen sind allerdings erheblich: Mit 0,6 Tokens pro Sekunde und einer Wartezeit von fast 50 Sekunden bis zum ersten Token ist das System weit von der Praxistauglichkeit entfernt. Eine flüssige Konversation erfordert mindestens 15–20 Tokens pro Sekunde. Dennoch ist die Demo ein wichtiger Proof of Concept.
Für Apple hat die Demonstration strategische Bedeutung: Sollte On-Device-Inferenz mit großen Modellen praktikabel werden, könnte Apple seine gesamte Apple-Intelligence-Strategie überdenken und leistungsfähigere Modelle direkt auf dem Gerät laufen lassen, ohne Cloud-Abhängigkeit und mit voller Privacy-Garantie.
Plattform · App Store
Ohne eigenes Modell: Apple kassiert eine Milliarde Dollar an KI-Apps anderer
· Quellen: 9to5Mac, MacRumors, AppleInsider
Apple hat 2025 knapp 900 Millionen Dollar an App-Store-Gebühren von generativen KI-Apps eingenommen — 75 Prozent davon allein von ChatGPT. 2026 fällt die Milliarden-Grenze. Die Ironie: Apples eigene KI hinkt hinterher.
Hintergrund & Analyse
Apple hat eine bemerkenswerte Position in der KI-Wirtschaft eingenommen: Ohne selbst ein wettbewerbsfähiges KI-Modell zu besitzen, profitiert das Unternehmen über seinen App Store massiv vom KI-Boom. Die Einnahmen stiegen von rund 35 Millionen Dollar im Januar 2025 auf 101 Millionen Dollar im Peak-Monat August — eine Verdreifachung innerhalb eines Jahres. 2026 dürfte die Milliarden-Grenze überschritten werden.
Die Dominanz von OpenAIs ChatGPT ist erückend: Rund 75 Prozent der gesamten KI-App-Provisionen entfallen auf eine einzige App. Grok von xAI folgt weit abgeschlagen mit etwa 5 Prozent. Die Apps sind gratis, die Einnahmen kommen aus Premium-Abo-Upgrades, von denen Apple 30 Prozent im ersten Jahr bzw. 15 Prozent ab dem zweiten Jahr einbehält.
Die Konzentration auf ChatGPT macht Apples KI-Einnahmen verletzbar: Sollte OpenAI seine Abo-Strategie ändern — etwa durch einen Wechsel zu Direktabrechnung außerhalb des App Stores, wie es in der EU bereits möglich ist — könnten die Einnahmen einbrechen.
Die größte Ironie: Siri mit Apple Intelligence bleibt hinter den Erwartungen zurück, während Konkurrenzprodukte auf Apples eigener Plattform florieren. Apple verdient also doppelt: als Plattformbetreiber und als Hardware-Hersteller, dessen Geräte die bevorzugte Plattform für KI-Apps sind. Die WWDC 2026 am 8. Juni könnte zeigen, ob Apple diesen Zustand ändern will.
Energie · Fusion
50 Gigawatt Fusionsenergie: OpenAI verhandelt mit Helion — und Sam Altmans Interessenkonflikt
· Quellen: TechCrunch, Axios, GeekWire, TNW
OpenAI will sich 12,5 Prozent der Fusionsenergieproduktion von Helion sichern — 5 Gigawatt bis 2030, 50 Gigawatt bis 2035. Das Problem: CEO Sam Altman ist gleichzeitig einer der größten Helion-Investoren.
Hintergrund & Analyse
Die Verhandlungen zwischen OpenAI und Helion Energy werfen ein Schlaglicht auf den enormen Energiehunger der KI-Industrie — und auf die verschlungenen Interessenkonflikte an der Spitze der Tech-Branche. Sam Altman führte 2021 Helions 500-Millionen-Dollar-Serie-E-Runde an und hält eine nicht bezifferte, aber „beträchtliche“ Beteiligung. Um den Interessenkonflikt zu entschärfen, ist er als Vorstandsvorsitzender von Helion zurückgetreten und hat sich aus den Deal-Verhandlungen zurückgezogen.
Die Dimensionen des geplanten Deals sind atemberaubend: 5 Gigawatt bis 2030 und 50 Gigawatt bis 2035 — das entspricht der Leistung mehrerer großer Kernkraftwerke. Helion hat bestehende Verträge mit Microsoft und dem Stahlhersteller Nucor, hat aber bislang noch keine kommerziell nutzbare Fusion demonstriert.
Der größte Vorbehalt ist technologischer Natur: Kein privates Fusionsunternehmen hat bisher das wissenschaftliche Breakeven erreicht — den Punkt, an dem eine Fusionsreaktion mehr Energie erzeugt, als zur Zündung benötigt wird. Wie wir in unserer gestrigen Ausgabe berichteten, warnt die WTO vor den Risiken hoher Energiepreise für den KI-Boom.
Dennoch signalisiert der Deal den Beginn einer tiefgreifenden Verflechtung von KI- und Energieindustrie. Wenn KI-Unternehmen beginnen, ihre eigenen Energiequellen zu sichern — zumal mit experimentellen Technologien wie Kernfusion — markiert dies eine neue Phase, die weit über die rein digitale Sphäre hinausgeht.
Gesellschaft · Deepfakes
Fall Fernandes: 250 prominente Frauen fordern Zehn-Punkte-Plan gegen Nudify-Apps
· Quellen: ZDF heute, WEB.DE, ORF, Campact
Von Bärbel Bas über Carolin Kebekus bis Luisa Neubauer: Eine breite Allianz fordert die Kriminalisierung sexualisierter Deepfakes und ein Verbot von Nudify-Apps. Auslöser ist der Fall der Moderatorin Collien Fernandes.
Hintergrund & Analyse
Der Fall Collien Fernandes hat in Deutschland eine breite gesellschaftliche Debatte über sexualisierte Digitalgewalt ausgelöst. Die Moderatorin und Schauspielerin wirft ihrem Ex-Mann vor, gefälschte Profile auf sozialen Netzwerken erstellt und über diese Deepfake-Pornografie unter ihrem Namen verbreitet zu haben. Die Brisanz liegt nicht nur in der persönlichen Tragödie, sondern darin, dass sie die Zugänglichkeit von Deepfake-Technologie für jedermann sichtbar macht.
250 prominente Frauen aus Politik, Unterhaltung und Aktivismus haben der Bundesregierung einen Zehn-Punkte-Plan vorgelegt. Die Forderungen sind konkret: Kriminalisierung der Erstellung und Verbreitung sexualisierter Deepfakes, ein explizites Verbot von Nudify-Apps, Löschpflichten für Internetplattformen, klare Auskunfts- und Identifizierungsansprüche für Opfer gegenüber Tätern sowie ein digitales Gewaltschutzgesetz und die Verankerung des „Ja heißt Ja“-Prinzips im Sexualstrafrecht.
Die Initiative, getragen von Kristina Lunz (Centre for Feminist Foreign Policy), der Journalistin Düzen Tekkal und der Grünen-Politikerin Ricarda Lang, verband den konkreten Einzelfall mit strukturellen Forderungen. Eine Kundgebung am Brandenburger Tor unter dem Titel „Gegen sexualisierte digitale Gewalt“ unterstrich den öffentlichen Druck.
Die politische Durchsetzung bleibt die größte Herausforderung. Nudify-Apps sind frei verfügbar und technisch schwer zu unterdrücken; eine Kriminalisierung müsste international koordiniert werden, um wirksam zu sein. Dennoch könnte der öffentliche Druck und die prominente Unterstützung den Gesetzgeber zu konkreten Maßnahmen bewegen — ähnlich wie die EU in der laufenden AI-Act-Novelle bereits ein Verbot nicht-einvernehmlicher sexualisierter Deepfakes vorbereitet, wie wir in unserer Ausgabe vom 19. März berichteten.
Reportage
Agentic Coding: Wenn KI-Agenten den Code schreiben
92,6 Prozent der Entwickler nutzen KI-Tools, 41 Prozent allen Codes ist KI-generiert — aber kontrollierte Studien zeigen: Entwickler werden 19 Prozent langsamer
Von Autocomplete zum autonomen Agenten: Claude Code, Cursor, Devin und Copilot verändern den Entwickler-Alltag fundamental. Doch die Produktivitätsdaten sind widersprüchlich, die Sicherheitsrisiken real, und die Rolle des Entwicklers wandelt sich vom Coder zum Orchestrator. Unsere Reportage über das Versprechen und die Realität von Agentic Coding im Jahr 2026.
Open-Source MCP-Server, der beliebige KI-Agenten (Claude Code, Gemini CLI) direkt mit Google Colab verbindet — GPU-Zugriff und Code-Ausführung per Agent.
Am 17. März veröffentlicht. Apache 2.0, löst das Problem lokaler Hardware-Limits für Agenten. Google (Open Source).
Schritt-für-Schritt-Anleitung zum Bau eines ersten eigenen KI-Agenten mit Claude Code. Von der Projekteinrichtung über die Konfiguration bis zum fertigen, funktionsfähigen Agenten — ideal für den praktischen Einstieg.
Alex Ziskind demonstriert, wie ein 120-Milliarden-Parameter-Modell auf Consumer-Hardware lokal läuft. Hardware-Konfiguration, Quantisierungseinstellungen und tatsächliche Inferenz-Performance — ein technisch fundierter Einblick.
Code with Beto (32,3K Subs) · 23. März 2026 · 4.500+ Views am Erscheinungstag
Kleinerer Creator mit starkem frühen Engagement: Zeigt den vollständigen Workflow, wie man ohne Vorkenntnisse eine funktionale App mit Claude Code aufbaut. Von der Idee bis zur fertigen Anwendung, mit Tipps zu häufigen Anfängerfehlern.