Claude Code ist fester Bestandteil unseres Entwicklungsalltags geworden. Aber stell dir vor, du sollst es für ein 30-köpfiges Dev-Team in einem regulierten Umfeld ausrollen. Die erste Frage ist dann nicht “welches Modell?” sondern “wo landen unsere Daten?” Und diese Frage verändert die gesamte Rechnung.
Zwei Wege, Claude Code zu betreiben
Claude Code läuft in zwei Modi: über Anthropics eigene Infrastruktur (per Max-Abo oder API-Key) oder über einen Cloud-Provider wie AWS Bedrock oder Google Vertex AI. Gleiche Modelle, gleiche Fähigkeiten, komplett andere Implikationen. Wir konzentrieren uns hier auf Bedrock, weil das unser AWS-Fokus nahelegt, aber die Überlegungen gelten analog für Vertex.
Das Max-Abo ($100 oder $200/Monat pro Entwickler) ist ein Festpreis mit Nutzungslimits. Kein AWS-Account nötig, funktioniert sofort. Claude Code ist zusammen mit claude.ai-Zugang gebündelt. Für $200/Monat bekommt man 20x das Nutzungslimit des Pro-Plans. Das ist viel, aber nicht unbegrenzt. Wer den ganzen Tag Opus-lastige Refactorings fährt, kann auch hier ans Limit kommen.
AWS Bedrock (Pay-per-Token) lässt Claude über den eigenen AWS-Account laufen. Jeder API-Call wird pro Token abgerechnet, erscheint auf der AWS-Rechnung und fließt durch das bestehende IAM- und CloudTrail-Setup.
Was es kostet
Aktuelle Modellpreise auf Bedrock (pro Million Tokens):
| Modell | Input | Output | Einsatzgebiet |
|---|---|---|---|
| Haiku 4.5 | $1 | $5 | Schnelle Completions, Linting, kleine Edits |
| Sonnet 4.6 | $3 | $15 | Tägliche Arbeit, das Arbeitstier |
| Opus 4.6 | $5 | $25 | Komplexe Architektur, Multi-File-Refactorings |
Ein Entwickler, der Claude Code moderat nutzt (Sonnet 4.6 für die meisten Aufgaben), kommt auf ungefähr $150-250/Monat über Bedrock. Wer viel mit Opus arbeitet und große Refactorings durchführt, landet schnell bei $500+.
Dem gegenüber steht das Max-20x-Abo für $200/Monat flat. Für einzelne Entwickler oder kleine Teams ohne Compliance-Anforderungen gewinnt das Abo preislich fast immer. Eine Analyse von ksred.com zeigte einen Monat, in dem die API-Nutzung $5.600 gekostet hätte, abgedeckt durch ein $100-Abo.
Wann sich Bedrock trotzdem lohnt
Wir nutzen intern beide Konfigurationen. Bedrock verdient seinen Aufpreis, wenn mindestens eines davon zutrifft:
Datenresidenz ist der offensichtliche Grund. Bedrocks EU-Inference-Profile (eu.anthropic.claude-sonnet-4-6, eu.anthropic.claude-opus-4-6-v1) garantieren, dass Code und Prompts die EU nie verlassen. Das Routing umfasst aktuell 8 europäische AWS-Regionen: Frankfurt, Zürich, Stockholm, Mailand, Spanien (Aragón), Dublin, London und Paris. Für Kunden in regulierten Branchen wie Banken, Gesundheitswesen oder öffentlichem Sektor gibt es da keine Diskussion.
Dazu kommt Audit und Zugriffskontrolle. Jeder Bedrock-API-Call wird in CloudTrail protokolliert. Man sieht, wer was wann ausgeführt hat, und kann per IAM-Policies steuern, welche Entwickler welche Modelle nutzen dürfen. Beim Abo gibt es diese Sichtbarkeit nicht.
Konsolidierte Abrechnung ist relevant, wenn man schon Workloads auf AWS betreibt. Die Bedrock-Kosten landen auf derselben Rechnung. Man kann die Nutzung pro Team taggen und Budget-Alarme über den Cost Explorer setzen. Bei einem 30-Personen-Team ist es nützlich zu wissen, dass das Backend-Team letzten Monat $3.200 für Claude ausgegeben hat und das Frontend $800.
Und dann ist da die Modell-Flexibilität. Bedrock gibt Zugriff auf die gesamte Modellpalette. Man kann verschiedenen Entwicklern verschiedene Modelle zuweisen oder pro Aufgabe wechseln. Haiku für schnelle Completions, Sonnet für die tägliche Arbeit, Opus wenn es ans Eingemachte geht.
Setup
Modellzugriff in der Bedrock-Konsole aktivieren (Freigabe erfolgt bei den meisten Modellen sofort), eine IAM-Policy mit bedrock:InvokeModel- und bedrock:InvokeModelWithResponseStream-Berechtigungen erstellen und Claude Code konfigurieren:
{
"env": {
"CLAUDE_CODE_USE_BEDROCK": "1",
"AWS_PROFILE": "dein-profil",
"AWS_REGION": "eu-central-1",
"ANTHROPIC_MODEL": "eu.anthropic.claude-sonnet-4-6"
}
}
Das kommt in ~/.claude/settings.json. Wer AWS SSO nutzt (was bei Teams Pflicht sein sollte), ergänzt:
{
"awsAuthRefresh": "aws sso login --profile dein-profil"
}
Das kümmert sich um die automatische Re-Authentifizierung, wenn die SSO-Session während der Arbeit abläuft. Ohne das stirbt Claude Code einfach mit einem kryptischen Auth-Fehler mitten im Refactor. Alternativ funktioniert auch die klassische Variante mit AWS_ACCESS_KEY_ID und AWS_SECRET_ACCESS_KEY als Umgebungsvariablen, aber für Teams ist SSO die deutlich bessere Wahl. Statische Keys rotieren nicht automatisch und landen erfahrungsgemäß früher oder später irgendwo, wo sie nicht hingehören.
Prüfen, ob es funktioniert:
claude "What model are you?"
Die Antwort sollte die Modell-ID bestätigen und zeigen, dass Bedrock als Backend läuft.
Vorsicht bei Rate Limits
Ein Punkt, den die Setup-Guides zu wenig betonen: Bedrock hat aggressive Rate Limits. Der Default für Opus 4.6 liegt bei 25 Requests pro Minute. Claude Code in einer aktiven Session kann das in Sekunden aufbrauchen, besonders bei Multi-File-Operationen, wo viele Requests in schneller Folge abgefeuert werden.
Vor dem Teamstart sollte eine Quota-Erhöhung auf mindestens 500 RPM beantragt werden. Für größere Teams lohnen sich dedizierte AWS-Accounts pro Team mit separaten Quotas. Die Entwickler-Teams arbeiten häufig zu den gleichen Arbeitszeiten, wodurch sich ein “burst-artiges” Requestprofil ergibt. Ein geteilter Account für 30 Entwickler wird ständig an Limits stoßen.
Was wir empfehlen
In der Praxis läuft die Entscheidung meistens auf Folgendes hinaus:
Max-Abo, wenn das Team klein ist (unter 10 Leute), keine regulatorischen Anforderungen an die Datenverarbeitung bestehen und man das einfachste Setup will. Die Kostenersparnis ist real und das Coding-Erlebnis ist identisch.
Bedrock, wenn Datenresidenz-Garantien, Audit Trails oder regulatorische Anforderungen bestehen. Auch wenn ein ausgereiftes AWS-Setup schon existiert und man einheitliches Cost Tracking will. Man akzeptiert höhere Kosten pro Entwickler und muss sich um Rate-Limit-Management kümmern.
Ein Hybrid-Ansatz funktioniert auch. Denkbar ist zum Beispiel, Max-Abos für persönliche und experimentelle Arbeit zu nutzen und Bedrock für Repositories mit sensiblem Code, bei denen die Datenverarbeitung relevant ist. Die Claude-Code-Konfiguration ist verzeichnisbasiert, man kann also verschiedene Setups für verschiedene Projekte auf demselben Rechner haben.
AWS European Sovereign Cloud
AWS hat die European Sovereign Cloud im Januar 2026 mit einer Region in Brandenburg gestartet. Das Versprechen: volle Datensouveränität mit EU-ansässigem Betrieb und Support. Bedrock ist dort technisch verfügbar, aber nur mit Amazons eigenen Nova-Modellen (Lite und Pro). Claude und andere Drittanbieter-Modelle gibt es dort noch nicht, und es gibt keinen angekündigten Zeitplan.
GPU-Kapazität fehlt in der Sovereign Cloud ebenfalls noch, was die Möglichkeiten mit SageMaker einschränkt.
Wer heute Claude mit EU-Datenresidenz braucht, fährt mit Standard-Bedrock und EU-Inference-Profilen am besten. Die Sovereign Cloud wird interessant, sobald Anthropic-Modelle dort verfügbar sind. Aber ich würde heute nicht darauf planen.
Und jetzt?
Das Abo ist günstiger. Bedrock gibt dir Kontrolle. Entscheide danach, was deine Organisation tatsächlich braucht, nicht danach, was sich enterprise-mäßiger anhört. Wenn niemand fragt, wo dein Code verarbeitet wird, ist der Max-Plan für $200/Monat schwer zu schlagen.