Meine Woche im Valley

Wenn KI-Konzerne ihre Kulissen kaufen

OpenAI übernimmt den Interviewer, Anthropic verteilt versehentlich den eigenen Bauplan, und ein kleines Start-up zeigt, wie billig große Modelle plötzlich werden.

70.000 Zuschauer. So viele Menschen sehen im Schnitt die tägliche Technologie-Gesprächsrunde TBPN, live übertragen auf Elon Musks Plattform X. OpenAI hat die Sendung in dieser Woche gekauft. Das Unternehmen wird derzeit mit 852 Milliarden Dollar bewertet. Die Übernahme kam wenige Tage nach einer Kapitalrunde über 122 Milliarden. Man erwarb ein Format mit der Reichweite einer mittleren Regionalmesse und nannte das Strategie.

Zur Beruhigung der Öffentlichkeit veröffentlichten Käufer und Gekaufte ein Dokument mit dem Titel „Editorial Independence Covenant”. Das klingt, als hätten Vertragsanwälte aus Palo Alto versucht, Pressefreiheit als Vertragsklausel nachzubauen. Die elf Mitarbeiter der Sendung berichten künftig an Chris Lehane, den obersten Kommunikationsstrategen von OpenAI. Nicht an eine Redaktion. An die Außendarstellung.

Der prominenteste wiederkehrende Gast der Sendung war bisher Sam Altman, Gründer und Vorstandsvorsitzender von OpenAI. Man kaufte also das Programm, das regelmäßig den eigenen Chef interviewte, und nennt das Ergebnis journalistische Unabhängigkeit. A. J. Liebling schrieb 1960, Pressefreiheit sei das Vorrecht jener, die eine Druckerpresse besäßen. Im Valley genügt inzwischen ein Übernahmevertrag mit einer Produktionsfirma.

Auch die Arithmetik ist aufschlussreich. TBPN erwirtschaftete 2025 rund 5 Millionen Dollar mit Werbung. Für 2026 waren 30 Millionen prognostiziert. Unter den Werbekunden befand sich ausgerechnet Google Gemini, Altmans wichtigster Rivale im Geschäft mit der künstlichen Intelligenz. OpenAI strich sämtliche Anzeigenverträge. Wer so viel Geld liegenlässt, will nicht Umsatz. Der will Regie.

Das Muster ist nicht neu. Die Wagniskapitalfirma Andreessen Horowitz baute schon vor zwanzig Jahren unter Margit Wennmachers eine hauseigene Medienmaschine auf: Abendessen mit handverlesenen Journalisten, Essays, ein digitales Magazin namens „Future”. Was als Branchenkommunikation begann, wurde zur Werkstatt der Selbstdarstellung. Nur verwaltete Andreessen Horowitz fremdes Geld. OpenAI steht unter behördlicher Aufsicht, bereitet einen Börsengang vor und entwickelt Technik, die Regierungen auf beiden Seiten des Atlantiks beunruhigt. Der Maßstab ist inzwischen ein anderer.

Wer allerdings glaubt, ein Vertrag zur redaktionellen Unabhängigkeit schütze eine Sendung vor ihrem Eigentümer, überschätzt die Haltbarkeit von Papier. Die Kryptobörse Coinbase entfernte 2024 einen kritischen Beitrag aus ihrer hauseigenen Publikation CoinDesk, nachdem die Geschäftsleitung Einwände erhoben hatte. Die Autonomie hielt exakt bis zum ersten unbequemen Artikel.

Die eigentliche Prüfung kommt erst noch. Dann nämlich, wenn OpenAI selbst eine schlechte Nachricht produziert und die Moderatoren zugleich ihren Vertrag und ihren Auftraggeber im Blick haben müssen. Die meisten konzerneigenen Medienformate sterben nicht durch einen einzigen Skandal. Sie sterben leise, ein eingefangener Beitrag nach dem anderen.

Anthropics Woche der offenen Tür

Während OpenAI sich eine Bühne baute, riss Anthropic die Kulissen ein. Versehentlich, versteht sich.

Am Dienstag verschickte das Unternehmen eine neue Fassung seines Programmierwerkzeugs Claude Code über den öffentlichen Paketdienst npm. Im Gepäck: eine 59,8 Megabyte große Datei mit 512.000 Zeilen Quelltext, der vollständige Bauplan des Produkts. Es war, als legte ein Autohersteller die Konstruktionszeichnungen in jedes Handschuhfach. Derselbe Fehler war 13 Monate zuvor schon einmal passiert.

Fünf Tage zuvor hatte ein falsch konfiguriertes Redaktionssystem rund 3.000 unveröffentlichte Dokumente ins offene Netz gestellt, darunter Einzelheiten zu einem noch nicht vorgestellten KI-Modell. Anthropic nannte beide Vorfälle „menschliches Versagen” und versprach Maßnahmen, die Ähnliches künftig verhindern sollten. Man darf einwenden, dass diese Maßnahmen beim ersten Mal offenkundig nicht gereicht hatten.

Die Soziologin Diane Vaughan hat für dieses Muster einen Begriff geprägt: Normalisierung der Abweichung. Wenn ein Fehler ohne unmittelbare Folgen bleibt, beginnt eine Organisation, ihn für tragbar zu halten. Was einmal Ausnahme war, wird Gewohnheit. Vaughan beschrieb so die Vorgeschichte der Challenger-Katastrophe von 1986. Der Vergleich ist groß. Das Muster leider auch.

Anthropics Rechtsabteilung reichte daraufhin eine Urheberrechtsbeschwerde bei GitHub ein, um den kopierten Quelltext sperren zu lassen. Die Beschwerde erfasste versehentlich 8.100 weitere Ablageorte, darunter Kopien von Anthropics eigenem öffentlichen Code. Das Unternehmen, das sich als verantwortungsvollster KI-Anbieter der Branche versteht, hatte soeben seine eigenen Nutzer ausgesperrt.

Binnen Stunden zog Anthropic die Beschwerde für alles außer einem einzigen Projekt zurück. Zu spät. Ein Entwickler in Südkorea hatte den Quelltext über Nacht in eine andere Programmiersprache übertragen und unter dem Namen „claw-code” veröffentlicht. 100.000 Bewertungen in 24 Stunden, der schnellste Aufstieg in der Geschichte der Plattform. Weitere Übertragungen folgten in Rust und Bash. Der Bauplan, an dem Anthropic jahrelang gearbeitet hatte, kursiert nun in mehreren Sprachen auf Servern, deren Betreiber öffentlich erklären, keine Löschanfragen zu bearbeiten.

Die Ironie ist juristisch bemerkenswert. Anthropic steht selbst vor Gericht, weil das Unternehmen seine Sprachmodelle mit urheberrechtlich geschütztem Material trainiert haben soll. Im September sprach ein Gericht 1,5 Milliarden Dollar Schadenersatz zu. Nun beruft sich dieselbe Firma auf eben dieses Urheberrecht, um den eigenen Code zu schützen. Wer zugleich einräumt, dass 90 Prozent dieses Codes von der eigenen KI geschrieben wurden, steht allerdings vor einem heiklen Problem: Ein amerikanisches Bundesgericht urteilte 2025, rein maschinell erzeugte Werke genössen keinen Urheberrechtsschutz.

Unter den 44 verborgenen Funktionen im veröffentlichten Quelltext fand sich ein Tarnmodus: eine Anweisung an die KI, bei Beiträgen zu fremden Programmierprojekten jeden Hinweis auf ihre eigene Beteiligung zu tilgen. Keine Modellnamen, keine Erwähnung des Werkzeugs, keine Koautorenschaft in der Versionsgeschichte. Die Firma, die verantwortungsvolle KI zum Gründungsprinzip erhoben hat, hatte also ein System gebaut, um die Arbeit ihrer Maschine unsichtbar zu machen. Dass ausgerechnet ein Verpackungsfehler das ans Licht brachte, besitzt eine gewisse stille Logik.

Dreißig Ingenieure, zwanzig Millionen Dollar

Wer glaubt, Sprachmodelle blieben das Geschäft weniger Konzerne mit dreistelligen Milliardenbewertungen, wurde in derselben Woche eines Besseren belehrt.

Arcee AI, 30 Mitarbeiter in San Francisco, veröffentlichte ein quelloffenes Sprachmodell mit 400 Milliarden Parametern. Der Preis: 90 Cent pro Million verarbeiteter Texteinheiten. Bei Anthropics bestem Modell kostet dieselbe Menge 25 Dollar. In einschlägigen Leistungstests lag Arcees Modell nur zwei Punkte hinter dem Marktführer. Für Unternehmen, die KI-Systeme im großen Maßstab betreiben, ist dieser Abstand verkraftbar. Der Preisunterschied nicht.

Das Team trainierte sein Modell 33 Tage lang auf 2.048 Grafikprozessoren und investierte 20 Millionen Dollar, fast die Hälfte seines gesamten Kapitals. Apache-Lizenz, offener Quelltext, keine Nutzungsbeschränkungen. Während OpenAI seinen Interviewer kauft und Anthropic seinen Bauplan einklagt, stellt eine Firma mit 30 Leuten ihren einfach ins Netz.

Das Vakuum, in das Arcee stößt, ist real. Chinesische Labore, die offene KI lange dominierten, ziehen sich zurück. Alibabas Forschungsgruppe verlor ihre besten Köpfe. Meta verstummte nach dem missglückten Start seiner Modellreihe Llama 4. Clément Delangue, Vorstandsvorsitzender der Plattform Hugging Face, bemerkte trocken, Amerikas Stärke seien schon immer seine kleinen Firmen gewesen. Vielleicht sollte man ihnen wieder öfter zusehen.

Fünfzig Jahre ohne KI

Apple feierte in dieser Woche seinen fünfzigsten Geburtstag. 4 Billionen Dollar Börsenwert, Rekordquartal, eine Produktpalette vom faltbaren Telefon bis zum hauseigenen Funkmodem. Was fehlt, ist eine eigene Hochleistungs-KI. Apple hat Siri. Apple hat Ankündigungen. Apple hat die Aussicht in Aussicht gestellt, seine Sprachassistentin für Konkurrenzmodelle zu öffnen. Was Apple nicht hat, ist ein Modell, das mit den Werkzeugen aus San Francisco und Seattle wirklich mithalten kann. Eine schöne Bilanz für ein halbes Jahrhundert. Als Ausgangslage für das nächste Jahrzehnt eher unerquicklich.

Unterdessen beschloss Maine als erster amerikanischer Bundesstaat, neue Rechenzentren vorerst nicht mehr zu genehmigen. Keine Anlagen über 20 Megawatt bis Oktober 2027, elf weitere Bundesstaaten mit ähnlichen Entwürfen. Drei Gemeinden in Maine hatten im Vorjahr bereits Rechenzentrumsprojekte abgelehnt, Lewiston einstimmig. Die Stromkosten waren um 10,6 Prozent gestiegen, der schärfste Anstieg im Land. Die bisher greifbarste Form des Widerstands gegen künstliche Intelligenz besteht offenbar darin, den Stecker gar nicht erst einzustecken.


OpenAI kaufte sich in dieser Woche 70.000 Zuschauer. Ein einzelner Beitrag auf X, der auf Anthropics versehentlich veröffentlichten Quelltext verwies, erreichte 21 Millionen Abrufe.

Bleiben Sie unberechenbar.

Ihr Marcus Schuler, San Francisco