Was passiert ist — die Fakten in drei Minuten
Am 31. März 2026 entdeckte Forscher Chaofan Shou, dass Version 2.1.88 des npm-Pakets @anthropic-ai/claude-code eine 59,8 MB große Source-Map-Datei enthielt, die dort nicht hätte sein sollen.
Source Maps sind Debug-Dateien, die kompilierten Code mit dem ursprünglichen Quellcode verbinden — intern äußerst nützlich, aber nicht für die öffentliche Distribution gedacht. In diesem Fall verwies die Datei direkt auf ein ZIP-Archiv auf Anthropics Cloudflare R2 Storage, das von jedem heruntergeladen werden konnte.
Der Fehler war technisch und banal: Mit dem Bun-Bundler (den Claude Code verwendet) werden Source Maps automatisch generiert, sofern sie nicht explizit deaktiviert werden. Jemand hatte vergessen, *.map zur .npmignore-Datei hinzuzufügen.
Innerhalb weniger Stunden war der Code auf GitHub archiviert, über 41.500 Mal geforkt und von Tausenden von Entwicklern weltweit analysiert worden.
Was NICHT passiert ist — und warum das wichtig ist
Bevor wir zu den technischen Enthüllungen kommen, ist es wichtig klarzustellen, was dieser Vorfall nicht war.
Keine Kundendaten wurden exponiert. Claude Code ist ein CLI-Tool für Entwickler — es verarbeitet keine Endbenutzerdaten von Unternehmen, die Claude über API oder Enterprise nutzen.
Keine Zugangsdaten oder API-Keys wurden kompromittiert. Der exponierte Quellcode betrifft die Anwendungslogik des Tools, nicht Zugriffsgeheimnisse oder Produktionskonfigurationen.
Dies war kein vorsätzlicher Einbruch. Anthropic bestätigte sofort: "This was a release packaging issue caused by human error, not a security breach." Kein externer Akteur hat Systeme kompromittiert — es war ein interner Fehler im Release-Prozess.
Für Unternehmen, die Claude über API, Claude.ai oder Claude Enterprise nutzen: Aus Datensicherheitsperspektive ändert sich nichts.
Die Architektur, die die Community fand
Wenn Tausende von Entwicklern 512.000 Zeilen Code eines der seriösesten KI-Labore der Welt analysieren, kommen selten durchgesickerte Details ans Licht.
Claude Code läuft auf Bun, nicht auf Node.js — eine moderne technische Entscheidung, die Performance und Ausführungsgeschwindigkeit priorisiert. Die Terminal-Oberfläche ist mit React und Ink gebaut, ein eleganter Ansatz für komplexe CLI-Anwendungen.
Die Architektur ist modular und gut strukturiert: rund 40 integrierte Tools, jedes mit expliziten Berechtigungen, und eine 46.000-zeilige Query Engine, die alle Modell-API-Aufrufe, Streaming, Caching und Response-Orchestrierung verwaltet.
Wer improvisierten oder chaotischen Code erwartete, wurde angenehm enttäuscht. Die Community-Analyse bestätigte eine professionelle Codebasis mit klarer Trennung der Verantwortlichkeiten und sorgfältigem Berechtigungsmanagement.
Updates zu Claude und KI für Unternehmen erhalten
Eine E-Mail, wenn es etwas Lesenswertes gibt. Kein Spam.
Sie evaluieren Claude für Ihr Unternehmen? Erfahren Sie was es kostet oder welcher Plan am besten passt
KAIROS und die unveröffentlichten Features: Die Zukunft von Claude Code
Die meistdiskutierte Entdeckung ist KAIROS — aus dem Altgriechischen für "der richtige Zeitpunkt" — ein Feature, das über 150 Mal im Code erwähnt wird und noch nicht öffentlich veröffentlicht wurde.
KAIROS stellt einen Paradigmenwechsel dar: Claude Code als dauerhaft aktiver Daemon, der den Entwicklungskontext im Hintergrund überwacht und autonom zum optimalen Zeitpunkt eingreift — nicht nur wenn der Nutzer es explizit aufruft.
Weitere entdeckte, aber noch nicht öffentliche Features: ULTRAPLAN — erweiterter Planungsmodus mit bis zu 30 Minuten autonomem Denken. Coordinator Mode — Orchestrierung mehrerer Agenten parallel bei komplexen Aufgaben. Buddy — ein persistenter KI-Begleiter, der in den Entwicklungs-Workflow integriert ist.
Der Code enthält rund 44 Feature Flags — vollständig gebaute Features, die in der öffentlichen Version deaktiviert sind. Anthropics Produkt-Roadmap ist deutlich weiter fortgeschritten als von außen sichtbar.
Die Ironie: Undercover Mode enthüllt
Vielleicht das ironischste Detail des gesamten Vorfalls: Im Code wurde ein Feature namens Undercover Mode entdeckt.
Dabei handelt es sich um ein System, das verhindern soll, dass Claude Code versehentlich interne Modellnamen, Projekt-Codenamen und Verweise auf interne Slack-Kanäle in öffentlichen Commits preisgibt. Der in diesem Modus injizierte System-Prompt weist das Modell explizit an, Namen wie "Capybara" (den internen Codenamen für eine Claude-Variante) oder "Fennec" (Opus 4.6) nicht zu erwähnen.
Ein System zur Geheimhaltung — enthüllt durch eine vergessene .map-Datei in einem npm-Paket. Die Community ließ die Ironie nicht unkommentiert.
Was das für Unternehmen bedeutet, die Claude evaluieren
Für Organisationen, die Claude in Betracht ziehen, bietet dieser Vorfall drei konkrete Erkenntnisse.
Erstens: Anthropic baut seriöse Software. Der von der Community analysierte Code zeigte keine technischen Abkürzungen — er bestätigte die Qualität eines Unternehmens, das massiv in die Robustheit seiner Produkte investiert.
Zweitens: Auch die besten Unternehmen machen operative Fehler. Entscheidend ist die Reaktion — Anthropic kommunizierte transparent, korrigierte schnell und kündigte Präventivmaßnahmen an. Das ist genau das Verhalten, das man von einem zuverlässigen Enterprise-Anbieter erwartet.
Drittens: Die Claude Code Roadmap ist ambitioniert. Die entdeckten Features — allen voran KAIROS — deuten darauf hin, dass KI-Entwicklertools in den kommenden Monaten einen erheblichen Sprung in Richtung Autonomie machen werden. Organisationen, die eine Claude-Einführung planen — und dabei die tatsächlichen Kosten und den richtigen Plan evaluieren — sollten mittelfristig denken.
Wenn Sie verstehen möchten, wie Sie Claude in Ihre Organisation integrieren können, begleitet Sie das Maverick AI Team mit einer unabhängigen Bewertung.