28. Juli, 2025

Startups & VC

Anthropic sprengt die Code-Grenzen: Wie ein Start-up Silicon Valley in Panik versetzt

Seit dem Launch seines Modells Claude Sonnet 3.5 schreibt das KI-Start-up Anthropic Programmiergeschichte. Die Konkurrenz jagt hinterher – und versteht bis heute nicht, wie das möglich ist.

Anthropic sprengt die Code-Grenzen: Wie ein Start-up Silicon Valley in Panik versetzt
1Claude Sonnet 3.5 im Einsatz: Die Entwickler-KI von Anthropic dominiert inzwischen GitHub Copilot, Cursor, Devmate & Co. – und zwingt selbst Meta und Microsoft zur Kooperation.

Das Modell, das alles veränderte

Im Juni 2024 passierte etwas, das viele in der Tech-Szene rückblickend als Wendepunkt bezeichnen: Anthropic veröffentlichte Claude Sonnet 3.5 – ein KI-Modell, das nicht nur Texte schreiben konnte, sondern plötzlich auch besseren Code als alle anderen Systeme am Markt.

Selbst bei Sourcegraph, einem auf KI-unterstütztes Programmieren spezialisierten Unternehmen, wurden über Nacht sämtliche Modelle ausgetauscht.

„Wir wussten sofort: Das ist nicht nur gut, das ist wegweisend“, sagt Sourcegraph-CEO Quinn Slack.

Keine langen Diskussionen, kein Zögern. Claude Sonnet 3.5 wurde Standardmodell. Kostenlos für die Nutzer. Eine mutige Entscheidung – aber rückblickend wohl die richtige.

Konkurrenz auf dem Rücksitz

Während Elon Musks xAI hektisch an eigenen Modellen bastelt und Mark Zuckerberg mit Milliardenbeträgen versucht, Talente und Rechenpower einzukaufen, hat Anthropic still und leise die Spitze übernommen.

Meta nutzt Claude für interne Tools. Selbst Microsofts GitHub Copilot arbeitet inzwischen mit Funktionen, die ohne Anthropic undenkbar wären.

Besonders bemerkenswert: Der Vorsprung ist geblieben. In einem Markt, in dem jede Woche ein neues Modell gefeiert wird, hat Anthropic auch ein Jahr später noch die Nase vorn.

Claude Code: Mit dem eigenen Terminal-Tool greift Anthropic gezielt seine Partner an – und sichert sich gleichzeitig die wertvollsten Datenquellen direkt aus der Entwicklerpraxis.

Wie kann das sein?

Es ist die Frage, die sich alle stellen: Warum ist ausgerechnet Anthropic so gut beim Coden? Früher hätte es dazu vielleicht ein 60-seitiges Paper mit Fußnoten gegeben. Heute schweigen die Entwickler – oder sprechen nur in Andeutungen.

Was bekannt ist: Das Team um Mitgründer Ben Mann hat früh erkannt, dass sich Code ideal für maschinelles Lernen eignet. Denn anders als bei Sprache gibt es beim Programmieren ein einfaches Kriterium: Der Code läuft – oder eben nicht.

Testen, bewerten, verbessern

Anthropic ließ seine Modelle Code schreiben, ließ diesen Code laufen, und bewertete dann: Was funktioniert, was nicht? Anfangs mit menschlichem Feedback, später mit Feedback von anderen Modellen.

Diese Methode – genannt RLAIF, Reinforcement Learning from AI Feedback – ist inzwischen zentraler Bestandteil des Trainings.

Die Modelle lernen also nicht mehr nur durch Menschen, sondern durch sich selbst. Und sie lernen schnell.

Ein Regelwerk für Maschinen

Damit das funktioniert, hat Anthropic eine Art Verfassung für seine KI geschrieben – auf Englisch, verständlich, nachvollziehbar. Sie enthält Prinzipien wie „Beantworte nur das, was gefragt wurde“ oder „Kommentiere deinen Code sinnvoll“. Die Modelle prüfen sich selbst auf diese Regeln – und verbessern ihre Antworten, wenn sie dagegen verstoßen.

Das Ergebnis: Eine KI, die nicht nur korrekt programmiert, sondern auch wie ein erfahrener Entwickler denkt.

Vorsprung durch Methodik: Anders als OpenAI oder xAI setzt Anthropic auf konkrete Tests, Feedbackschleifen und eine empirisch fundierte Trainingsstrategie – nicht nur auf größere Modelle.

Vom Chatbot zum Software-Ingenieur

Ein weiterer Meilenstein: Claude kann Tools bedienen – nicht per Maus, sondern durch Code. Wenn das Modell Wetterdaten braucht, schreibt es sich einfach ein kleines Programm, das eine API abfragt. Das macht aus einem Chatbot einen digitalen Mitarbeiter – der nicht klickt, sondern schreibt.

Auch bei komplexeren Aufgaben überzeugt Claude: Wenn ein Projekt über Tage oder Wochen läuft, kann das Modell sich Notizen machen, wichtige Infos abspeichern und bei Bedarf darauf zurückgreifen. Es „weiß“, was es schon getan hat – und was noch fehlt.

Direkter Draht zum Entwickler

Im Mai ging Anthropic noch einen Schritt weiter: Mit „Claude Code“ brachte das Unternehmen ein eigenes Tool für die Kommandozeile heraus. Damit spricht es Entwickler direkt an – und sammelt gleichzeitig wertvolle Daten darüber, wie Menschen tatsächlich programmieren.

„Ohne diesen direkten Kontakt lernen wir viel langsamer“, sagt Mitgründer Ben Mann. Mit anderen Worten: Wer Claude nutzt, hilft dabei, es noch besser zu machen.

Der Unterschied liegt im Detail

Was viele übersehen: Der Fortschritt bei KI passiert nicht automatisch durch mehr Daten oder größere Modelle. Er entsteht durch konkrete Ideen, saubere Umsetzung – und eine Forschungsmentalität, die viele Unternehmen verloren haben.

„Es braucht Menschen, die die richtigen Fragen stellen – und Geduld haben, sie zu beantworten“, sagt MIT-Professor Armando Solar-Lezama.

Der Code ist nur die Oberfläche

Anthropic hat sich eine Struktur geschaffen, in der Forschung, Produkt und Rückmeldung aus der Praxis nahtlos ineinandergreifen. Claude ist dabei nur das sichtbare Ergebnis – das, was man von außen sieht. Die eigentliche Innovation liegt tiefer: im Trainingsprozess, in der Methodik, im Verständnis davon, was gute Software eigentlich ausmacht.

Das könnte Sie auch interessieren:

16 Milliarden Dollar für ein Design-Tool?
Figma drängt an die Börse – und könnte mit seiner KI-befeuerten Produktivitätsplattform zum nächsten Tech-Giganten werden. Doch der Fall Adobe zeigt, wie schmal der Grat zwischen Hype und regulatorischer Realität ist.