Ein 15.000-Dollar-Rechner, der Sprachmodelle mit 120 Milliarden Parametern lokal verarbeitet. Kein Cloud-Konto, kein Tracking, keine Abhängigkeit. George Hotz, der als Teenager das iPhone hackte, will mit der Tinybox die KI demokratisieren — und trifft damit auf Hacker News einen Nerv: 390 Punkte und über 240 Kommentare an einem Tag.
Hintergrund & Analyse
George Hotz, der als Teenager durch den ersten iPhone-Jailbreak und den Hack der PlayStation 3 berühmt wurde, verfolgt mit tiny corp eine ambitionierte Mission: den Petaflop demokratisieren. Das Unternehmen, das 5,1 Millionen Dollar Risikokapital eingesammelt hat, will mit der Tinybox einen bezahlbaren KI-Computer für jedermann bauen — einen, der ohne Cloud-Anbindung, ohne Benutzerkonto und ohne Tracking auskommt.
Die aktuelle Produktlinie umfasst mehrere Varianten. Die Red v2 für 12.000 Dollar setzt auf vier AMD Radeon 9070XT-Grafikkarten und bietet 778 Teraflops bei halbgenauer Berechnung mit 64 Gigabyte GPU-Speicher. Die Green v2 Blackwell für 65.000 Dollar nutzt vier NVIDIA RTX PRO 6000 Blackwell-GPUs mit 384 Gigabyte GPU-Speicher und erreicht über 3.000 Teraflops. Beide Geräte kommen mit vorinstalliertem tinygrad-Framework und PyTorch.
Das tinygrad-Framework selbst ist das Herzstück des Ökosystems. Es reduziert neuronale Netze auf drei grundlegende Operationstypen und erzielt durch dynamische Kompilierung und Kernel-Fusion Leistung, die in MLPerf-Benchmarks mit zehnmal teureren Systemen mithalten kann. Bereits heute treibt tinygrad das Fahrassistenzsystem openpilot auf Snapdragon-Chips an.
In der Hacker-News-Diskussion wurde allerdings Skepsis laut: Einige Kommentatoren merkten an, dass man für den gleichen Preis einen vergleichbaren Rechner selbst zusammenbauen könnte. Zudem wurde bezweifelt, dass ein 120-Milliarden-Parameter-Modell auf der Red v2 mit nur 64 GB GPU-Speicher sinnvoll läuft — die nötige Quantisierung würde die Modellqualität erheblich mindern. Die Green v2 mit ihren 384 GB wäre für solche Modelle deutlich besser geeignet. Tiny corp bestätigte auf X, dass OpenAIs gpt-oss-120b „great“ auf der Green v2 laufe.
Das größere Bild: In einer Welt, in der KI zunehmend von wenigen Cloud-Anbietern kontrolliert wird, setzt Hotz bewusst auf Dezentralisierung und Datensouveränität. Die Tinybox soll das „Intelligenz-Zentrum“ jedes Haushalts werden — für lokale Inferenz, Training und künftig auch für Heimroboter. Ob diese Vision Realität wird, hängt davon ab, ob Hotz den Preispunkt noch weiter drücken kann. Die für 2027 angekündigte Exabox — ein Exaflop-System für rund 10 Millionen Dollar — zeigt die Richtung.
Kultur · Urheberrecht
Hachette stoppt Horror-Roman „Shy Girl“ — 78 Prozent KI-generiert?
· Quellen: TechCrunch, The Bookseller, Futurism
Erstmals hat einer der „Big Five“-Verlage einen Buchvertrag öffentlich wegen des Verdachts auf KI-generierte Inhalte gekündigt. Hachette Book Group stoppt den Horror-Roman „Shy Girl“ — nachdem eine Analyse ergab, dass 78 Prozent des Textes maschinell erzeugt wurden.
Hintergrund & Analyse
Mia Ballard hatte „Shy Girl“ zunächst als Selfpublishing-Titel veröffentlicht, wo der Horror-Roman über BookTok — die literarische Community auf TikTok — große Popularität erlangte. Hachette erwarb daraufhin die Rechte für eine breitere Distribution. Die UK-Ausgabe erschien im Herbst 2025 und verkaufte 1.800 Exemplare, die US-Ausgabe über das Science-Fiction- und Fantasy-Imprint Orbit war für das Frühjahr 2026 geplant.
Die Hinweise auf KI-Nutzung kamen aus mehreren Richtungen: Ein anonymer Lektor äußerte auf Reddit Zweifel an der Authentizität der Prosa, ein YouTube-Video-Essay analysierte über fast drei Stunden mögliche KI-Generierung und erreichte 1,2 Millionen Aufrufe. Den entscheidenden Beleg lieferte die New York Times, die Hachette Ergebnisse von Pangram vorlegte — einem KI-Erkennungstool, das 78 Prozent des Textes als maschinell erzeugt einstufte. Beide Imprints führten daraufhin wochenlange Untersuchungen durch.
Ballard weist die Vorwürfe von sich und beschuldigt eine Person, die sie als Lektorin engagiert habe. Sie erklärte, ihre psychische Gesundheit sei auf einem Tiefpunkt. Der Fall wirft grundsätzliche Fragen auf: Wie können Verlage KI-generierte Manuskripte erkennen? Wie zuverlässig sind Erkennungstools? Und wer trägt die Verantwortung, wenn ein Lektor oder Ghostwriter KI einsetzt?
Industrie · Smartphones
Projekt Transformer: Amazon wagt mit KI-Smartphone den zweiten Anlauf
· Quellen: Reuters, TechCrunch, GeekWire
Mehr als ein Jahrzehnt nach dem spektakulären Scheitern des Fire Phone arbeitet Amazon an einem neuen Smartphone. Diesmal setzt der Konzern nicht auf Hardware-Gimmicks, sondern auf KI: Alexa+ soll den klassischen App Store überflüssig machen.
Hintergrund & Analyse
Laut einem Reuters-Exklusivbericht arbeitet Amazon unter dem Codenamen „Transformer“ an einem KI-Smartphone. Das Projekt wird von der neu gegründeten Einheit ZeroOne vorangetrieben, geleitet von J Allard — einem ehemaligen Microsoft-Manager, der maßgeblich an der Entwicklung der Xbox beteiligt war. Im Zentrum des Geräts steht Alexa+ als KI-Assistent, der so tief integriert sein soll, dass er den traditionellen App Store potenziell überflüssig machen könnte.
Amazon erforscht zwei Varianten: ein vollwertiges Smartphone, das mit iPhone und Android-Geräten konkurrieren soll, sowie ein bewusst reduziertes Gerät, das gegen Bildschirmsucht positioniert werden könnte. Beide Konzepte würden tief in Amazons Ökosystem eingebettet — von Prime Video über Musikstreaming bis zu Essensbestellungen über Grubhub.
Allerdings sind viele Fragen offen: Amazon hat noch keine Gespräche mit Mobilfunkanbietern aufgenommen, weder Zeitplan noch Budget sind definiert, und Insider betonen, dass das Projekt noch eingestellt werden könnte. Die Erinnerung an das Fire Phone — Amazon musste 170 Millionen Dollar abschreiben — dürfte intern für Vorsicht sorgen. Die zentrale Frage bleibt: Kann ein KI-natives Betriebskonzept das etablierte App-Modell von Apple und Google tatsächlich herausfordern?
Technologie · Agenten
Gemini wird zum digitalen Butler: Googles KI bestellt Essen und bucht Fahrten
· Quellen: The Verge, 9to5Google, Android Authority
Google macht mit Gemini einen bedeutenden Schritt vom Chatbot zum KI-Agenten. Die neue „Screen Automation“-Funktion auf dem Pixel 10 und Galaxy S26 kann Apps bedienen, während der Nutzer sein Telefon für andere Dinge nutzt — aber finalisiert nie den Checkout.
Hintergrund & Analyse
Technisch läuft die Automatisierung in einer abgesicherten virtuellen Umgebung auf dem Gerät. Gemini öffnet die jeweilige App, navigiert durch Menüs, wählt Optionen und füllt den Warenkorb. Entscheidend: Die KI schließt die Bestellung nie selbstständig ab. Wenn der Checkout erreicht ist, sendet Gemini eine Benachrichtigung und übergibt die Kontrolle an den Nutzer. Ein „Take Control“-Button erlaubt jederzeit das manuelle Eingreifen.
Die Funktion ist vorerst auf die USA beschränkt und umfasst sechs Apps: Lyft, Uber, Uber Eats, GrubHub, DoorDash und Starbucks. Je nach Abo-Stufe können Nutzer zwischen 5 (kostenlos) und 120 (Ultra) Anfragen pro Tag stellen. Google räumt allerdings ein, dass Screenshots der App-Interaktionen an Reviewer gesendet werden können — ein Datenschutzaspekt, der in Europa kritisch betrachtet werden dürfte.
Im Vergleich zu Apples Intelligence-Funktionen, die sich stärker auf On-Device-Verarbeitung und Zusammenfassungen konzentrieren, geht Google mit der aktiven App-Steuerung einen aggressiveren Weg. Ob dieser Ansatz skaliert und ob Nutzer einer KI vertrauen, die in ihrem Namen Apps bedient und potenziell Zahlungsdaten sieht, bleibt abzuwarten. Für Europa ist die Funktion noch nicht angekündigt.
Netzpolitik · Archivierung
Verlage blockieren das Internet Archive — und löschen damit das Gedächtnis des Webs
· Quellen: EFF, Engadget, Techdirt
505 Punkte auf Hacker News, 140 Kommentare: Die Electronic Frontier Foundation warnt, dass das Blockieren des Internet Archive die KI-Industrie nicht stoppt — aber das historische Gedächtnis des Internets unwiederbringlich zerstört. New York Times und Guardian haben bereits technische Maßnahmen ergriffen.
Hintergrund & Analyse
Die Verlage befürchten, dass KI-Unternehmen das Internet Archive als Zugang zu strukturierten Nachrichtendatenbanken nutzen könnten. Robert Hahn, Leiter für Geschäftsangelegenheiten beim Guardian, formulierte es so: „Viele KI-Unternehmen suchen nach leicht zugänglichen, strukturierten Inhaltsdatenbanken. Die API des Internet Archive wäre ein offensichtlicher Ort gewesen.“ Mehrere Verlage verklagen bereits KI-Firmen wegen möglicher Urheberrechtsverletzungen beim Modelltraining.
Die EFF hält das für einen Fehlschluss. Das Internet Archive sei keine KI-Firma, sondern eine gemeinnützige Bibliothek, die seit fast 30 Jahren das Web konserviert. Die Wayback Machine enthalte über eine Billion archivierter Webseiten und diene Journalisten, Forschern, Gerichten und Wikipedia, das auf 2,6 Millionen konservierte Nachrichtenartikel in 249 Sprachen verlinkt. Suchindexierung und Archivierung seien zudem rechtlich gut abgesichert — das Google-Books-Urteil habe klar Fair Use festgestellt.
Die EFF argumentiert, dass die Verlage ihre Energie auf die tatsächlichen KI-Firmen richten sollten, statt einen Kollateralschaden an der historischen Dokumentation in Kauf zu nehmen. Wenn große Verlage die Archivierung blockieren, könnten ganze Jahrzehnte der Nachrichtenberichterstattung für künftige Generationen verloren gehen. Der Wayback-Machine-Direktor hat sich bereits im Februar gegen die Blocking-Welle ausgesprochen.
Politik · Arbeitsmarkt
„Die Zeit der Jobmaschine geht zu Ende“ — Digitalminister fordert Grundeinkommen als Antwort auf KI
· Quellen: ZDF, Tagesspiegel, Presseportal
Bundesdigitalminister Karsten Wildberger (CDU) warnt mit ungewöhnlich deutlichen Worten vor massiven Jobverlusten durch KI — und bringt als erster amtierender Bundesminister das bedingungslose Grundeinkommen als „Teil der Lösung“ ins Spiel.
Hintergrund & Analyse
In einem Interview mit der Neuen Osnabrücker Zeitung erklärte Wildberger, die Ära der Industrie als Jobmaschine gehe zu Ende. Besonders betroffen seien Berufe in der Informatik, Mathematik und anderen wissensbasierten Branchen. „Wenn KI Informatikern, Mathematikern und vielen anderen die Arbeit wegnimmt, brauchen diese Menschen eine andere sinnstiftende Tätigkeit,“ sagte er. Ausnahmen sieht er in Pflege, sozialen Berufen und Handwerk.
Wildberger verfolgt dabei keine technikfeindliche Linie. Im Gegenteil: Er betont, Deutschland müsse alles tun, um „als Gesellschaft von KI zu profitieren“. Wenn das Land KI-Technologie führend einsetze, sei die Wahrscheinlichkeit für deutlich überdurchschnittliches Wirtschaftswachstum hoch. Dieses Wachstum wiederum sei nötig, um über höhere Steuereinnahmen den Umbau des Arbeitsmarktes zu finanzieren.
Die Aussagen sind politisch brisant, da sie den parteiübergreifenden Konsens, dass KI vor allem Chancen bringe, mit einer deutlichen Warnung vor den Risiken ergänzen. Wildberger ruft Arbeitgeber, Gewerkschaften und Zivilgesellschaft zur Zusammenarbeit auf: „Wir müssen uns zusammenraufen.“
Medien · Ethik
Erfundene Zitate per ChatGPT: Mediahuis suspendiert ehemaligen Chefredakteur
· Quellen: The Guardian, Irish Times, NL Times
Peter Vandermeersch, ehemaliger CEO von Mediahuis Ireland und hochrangiger europäischer Journalist, nutzte ChatGPT und Perplexity, um Zitate in seinen Blog-Posts zu generieren — und gab sie als authentisch aus. Sieben zitierte Personen bestätigten: Sie haben diese Aussagen nie gemacht.
Hintergrund & Analyse
Die Aufdeckung kam aus den eigenen Reihen: Ein Journalist der niederländischen Zeitung NRC, die ebenfalls zum Mediahuis-Konzern gehört, konnte bestimmte Zitate in Vandermeersch’ Texten nicht verifizieren. Eine systematische Überprüfung ergab, dass in 15 der 53 veröffentlichten Blog-Posts Zitate auftauchten, die in den angegebenen Originalquellen nicht zu finden waren. Dutzende Zitate wurden als falsch bestätigt.
Vandermeersch räumte ein, KI-generierte Zusammenfassungen als verifizierte Zitate verwendet zu haben — er habe „Menschen Worte in den Mund gelegt“. In der journalistischen Praxis ist das Erfinden oder Verfälschen von Zitaten eines der schwersten Vergehen überhaupt, vergleichbar mit dem Fall des Spiegel-Reporters Claas Relotius 2018. Acht Artikel wurden von independent.ie entfernt.
Der Fall wirft grundsätzliche Fragen auf: Wenn selbst erfahrene Medienprofis der Versuchung erliegen, KI-generierte Inhalte als eigene Recherche auszugeben — wie steht es um die Integrität des Journalismus insgesamt? Mediahuis erklärte, dies hätte „nie passieren dürfen“ und betonte das Engagement für zuverlässigen Journalismus.
Recht · Betrug
Milliarden Fake-Streams: Mann gesteht 8-Millionen-Dollar-Betrug mit KI-Musik
· Quellen: The Record, Rolling Stone, Billboard
Michael Smith, 54, aus North Carolina hat in einem Präzedenzfall seine Schuld an einem millionenschweren Streaming-Betrug eingestanden. Über sieben Jahre lud er hunderttausende KI-generierte Songs auf alle großen Plattformen und blähte deren Streams durch 10.000 Bot-Konten auf.
Hintergrund & Analyse
Das Schema war raffiniert: Smith kaufte Fake-E-Mail-Adressen in großer Menge und lagerte die Kontoregistrierung an Fremdarbeiter aus. Bis zu 10.000 Bot-Konten liefen gleichzeitig, gesteuert durch automatisierte Software, die den Traffic über VPN-Netzwerke leitete, um Erkennungssysteme der Plattformen zu umgehen. Die künstlichen Streams verteilten sich über Tausende von Tracks, um natürliches Hörverhalten zu simulieren.
Smith arbeitete mit einem Mitverschwörer und dem CEO eines KI-Musikunternehmens zusammen, um die computergenerierten Tracks zu beschaffen. Zwischen 2017 und 2024 generierte das Netzwerk Milliarden von Streams und leitete über 8 Millionen Dollar an Tantiemen um — Geld, das eigentlich an legitime Künstler und Songwriter gegangen wäre. Betroffen waren Amazon Music, Apple Music, Spotify und YouTube Music.
Smith hat einem Verzicht auf die 8 Millionen Dollar zugestimmt und sieht einer Höchststrafe von fünf Jahren Gefängnis entgegen. Die Verurteilung ist für den 29. Juli 2026 angesetzt. Der Fall — der erste dieser Art in den USA — verdeutlicht, wie KI-generierte Inhalte die Monetarisierungssysteme der Musikindustrie unterwandern können — und dass die Plattformen jahrelang nicht in der Lage waren, den Betrug zu erkennen.
Daten · Robotik
30 Milliarden Bilder: Wie Pokémon-Go-Spieler unwissentlich Lieferroboter trainierten
· Quellen: MIT Technology Review, Fortune, PetaPixel
Seit 2020 scannen Pokémon-Go-Spieler reale Landmarken für In-Game-Belohnungen. Aus diesen 30 Milliarden Bildern hat Niantic Spatial ein Navigationssystem für Lieferroboter gebaut — und wirft damit Fragen zur Zweckentfremdung spielerisch erhobener Daten auf.
Hintergrund & Analyse
Niantic Spatial, die Enterprise-KI- und Mapping-Sparte des Pokémon-Go-Entwicklers, nutzt die Spieldaten für ein Visual Positioning System (VPS). Statt auf Satellitensignale zu vertrauen, die in dichten Stadtgebieten durch Hochhäuser gestört werden, vergleicht das System Live-Kamerabilder eines Roboters in Echtzeit mit seiner riesigen Bilddatenbank. CTO Brian McClendon, Miterfinder von Google Earth, beschreibt die Spielerdaten als „hochwertiges Bodentraining“ für die KI.
Erster Großkunde ist Coco Robotics, das etwa 1.000 Lieferroboter in Städten wie Los Angeles, Chicago, Miami und Helsinki betreibt. Die Sub-Meter-Präzision des VPS löst ein Problem, an dem GPS-basierte Systeme in Straßenschluchten scheitern. CEO Zach Rash betont: Wenn ein Lieferroboter am falschen Ort parkt, ist das Kundenerlebnis ruiniert.
Datenschutzrechtlich wirft der Fall Fragen auf: Zwar waren die Scans opt-in — Spieler mussten aktiv Videos einreichen —, doch die Zweitverwendung der Daten für kommerzielle Robotik-Navigation war für die meisten Spieler kaum absehbar. Niantic-Gründer John Hanke spricht von einem „großen geospatialen Modell als lebende Weltkarte, nativ für Roboter und KI“. Es zeigt sich ein Muster: Spielerisch erhobene Daten werden zur Grundlage kommerzieller KI-Systeme.
Reportage
Edge AI: Wenn KI-Modelle das Rechenzentrum verlassen
Ein 15.000-Dollar-Rechner verarbeitet 120 Milliarden Parameter — und 83 Prozent der Vorstandsetagen erklären Edge AI zur strategischen Priorität
Die Tinybox auf dem Schreibtisch, eine Smartwatch mit eigenem Neural Processing Unit, Lieferroboter mit Sub-Meter-Präzision: Künstliche Intelligenz wandert dorthin, wo die Daten entstehen. Warum Edge AI 2026 seinen Wendepunkt erreicht hat — und was das für Unternehmen bedeutet.
Fernsteuerung von Claude Cowork auf dem Desktop über die mobile Claude-App — Aufgaben vom Smartphone starten, überwachen und steuern.
Erster „Phone-to-Desktop“-Workflow für KI-Agenten. Bei destruktiven Aktionen pausiert der Agent und sendet Push-Benachrichtigung. Anthropic, Research Preview.
Developer-Toolkit zur Verifizierung, dass ein echter Mensch hinter KI-Shopping-Agenten steht — „Proof of Human“ für das Agenten-Web.
Verbindet World ID (Iris-Biometrie) mit Coinbases x402-Protokoll. Adressiert Betrugsschutz in der Ära autonomer Shopping-Agenten. World (Sam Altman), Beta.
KI-Agenten für Buchhalter — komplexe Buchhaltungs-, Steuer- und Prüfungsworkflows autonom end-to-end abarbeiten.
Erster Agent, der eine komplette 1065-Partnerschaftssteuererklärung autonom erstellt. Unicorn ($1,15 Mrd.), 30% der Top-25-WP-Gesellschaften nutzen Basis. Accel, GV.
Ehemaliger Meta-Staff-Engineer demonstriert die neuen Agent Teams in Claude Code mit Opus 4.6. Das Video zeigt, wie man mehrere KI-Agenten parallel arbeiten lässt, um komplexe Softwareprojekte zu bewältigen — mit praktischen Workflows aus dem echten Entwickleralltag.
WorldofAI präsentiert Google AI Studio 2.0 mit dem neuen autonomen Coding-Agenten. Kompakter Überblick, wie man kostenlos Full-Stack-Anwendungen erstellen kann — inklusive Antigravity-Integration und Firebase-Anbindung.
AI with Surya (14,2K Subs) · 21. März 2026 · 7.477 Views
Kleinerer Creator mit detailliertem Überblick über sieben neue Features in Google AI Studio: Agenten-Modus, Full-Stack-Laufzeitumgebung und Firebase-Integration. Geht systematisch jedes Update durch mit praktischen Anwendungsbeispielen — ein früher Trendindikator für das breite Interesse am Google AI Studio 2.0 Update.