Claude Opus 4.7 veröffentlicht! Die Einführung von Effort xhigh und ein Einblick in die Großartigkeit von Mythos
Inhaltsverzeichnis
Hallo. Am 16. April 2026 wurde das neue Claude-Modell „Claude Opus 4.7" von Anthropic für die Allgemeinheit veröffentlicht.
Es ist erst etwas mehr als zwei Monate her, dass Opus 4.6 erschienen ist, und schon ist der Nachfolger da. Die Entwicklungsgeschwindigkeit von Anthropic ist nach wie vor erstaunlich.
Als ich in meiner Umgebung eine neue Sitzung in Claude Code startete, waren Opus 4.7 und Effort xhigh bereits als Standard eingestellt. Beachten Sie, dass das Standardmodell in Claude Code je nach Tarif variiert. Bei Max / Team Premium ist Opus 4.7 der Standard, bei Pro / Team Standard / Enterprise sowie bei direkter Nutzung der Anthropic API ist es Sonnet 4.6, und über Bedrock / Vertex / Foundry ist Sonnet 4.5 der Standard (weitere Details finden Sie unter Claude Code Model configuration).
In diesem Artikel werde ich basierend auf der offiziellen Ankündigung die Merkmale von Opus 4.7 und die Änderungen gegenüber Opus 4.6 zusammenfassen.
Die wichtigsten Weiterentwicklungen von Opus 4.7
1. Weitere Verbesserung der Coding-Fähigkeiten
Wie Anthropic selbst bestätigt, hat Opus 4.7 ein Maß an Zuverlässigkeit erreicht, bei dem man ihm „die schwierigsten Coding-Aufgaben ohne die bisher nötige engmaschige Überwachung anvertrauen kann".
Wenn man sich die konkreten Benchmark-Ergebnisse ansieht, wird diese Entwicklung deutlich.
- CursorBench - 70 % bei Opus 4.7 gegenüber 58 % bei Opus 4.6
- Rakuten-SWE-Bench - Löst im Vergleich zu Opus 4.6 mehr als dreimal so viele produktive Aufgaben
- CodeRabbit - Recall (weniger unentdeckte Fehler) um mehr als 10 % verbessert
- OfficeQA Pro von Databricks (Dokumenten-Inferenz und Quelleninformations-Aufgaben) - Fehler um 21 % reduziert
- Terminal-Bench 2.0 - Drei TBench-Aufgaben gelöst, an denen frühere Claude-Modelle gescheitert sind
Besonders die „dreifache Menge" beim Rakuten-SWE-Bench ist sehr beeindruckend. Ein so großer Unterschied in einem praxisnahen Benchmark bedeutet, dass sich auch die tägliche Entwicklungserfahrung entsprechend verändern dürfte.
2. Deutliche Steigerung der Vision-Leistung
Auch die Fortschritte im Bereich der Bildverarbeitung sind nicht zu übersehen.
Opus 4.7 kann nun Bilder mit einer langen Kante von bis zu 2.576 Pixeln (ca. 3,7 Megapixel) verarbeiten. Das ist mehr als die dreifache Auflösung früherer Modelle. Bei Anwendungsfällen, in denen Screenshots oder Diagramme zum Auslesen übergeben werden, dürfte sich dieser Unterschied in der Auflösung stark bemerkbar machen.
Und die Ergebnisse des XBOW-Benchmarks für visuelle Genauigkeit sind erstaunlich.
- Opus 4.6 - 54,5 %
- Opus 4.7 - 98,5 %
Die Genauigkeit hat sich fast verdoppelt. Man kann wohl sagen, dass bei Aufgaben wie dem Extrahieren von Elementen aus UI-Screenshots oder dem Auslesen von Informationen aus handgezeichneten Skizzen ein praxisreifes Niveau erreicht wurde.
3. Einführung des neuen Effort-Levels „xhigh"
Der mit Opus 4.6 eingeführten Effort-Steuerung wurde ein neues Level hinzugefügt.
- low
- medium
- high
- xhigh (neu hinzugefügt)
- max
xhigh (extra high) positioniert sich zwischen high und max. Damit ist nun eine feine Abstimmung möglich: „Ich möchte nicht die Latenz von max in Kauf nehmen, aber das Modell soll tiefer nachdenken als bei high."
In Claude Code ist xhigh der Standard-Effort, wenn Opus 4.7 ausgewählt ist. Als ich den Befehl /model bei mir aufrief, war dies bereits so eingestellt.
Wenn Sie es manuell ändern möchten, können Sie wie bisher bei ausgewähltem Opus über /model den Effort-Wert mit den Pfeiltasten (links/rechts) anpassen. So lässt sich die Einstellung natürlich variieren: Bei einfachen Aufgaben, bei denen Geschwindigkeit wichtig ist, senkt man auf medium oder high, und wenn das Modell gründlich nachdenken soll, erhöht man auf max.
4. Verbesserte Befehlsbefolgung (Instruction Following)
Ein besonders beeindruckender Abschnitt in der offiziellen Ankündigung war dieser:
Opus 4.7 is substantially better at following instructions. Interestingly, this means that prompts written for earlier models can sometimes now produce unexpected results: where previous models interpreted instructions loosely or skipped parts entirely, Opus 4.7 takes the instructions literally.
Frei übersetzt bedeutet das: „Opus 4.7 ist deutlich besser darin, Anweisungen zu befolgen. Interessanterweise führt dies dazu, dass Prompts, die für frühere Modelle geschrieben wurden, nun manchmal unerwartete Ergebnisse liefern können: Wo frühere Modelle Anweisungen locker interpretierten oder Teile ganz übersprangen, nimmt Opus 4.7 die Anweisungen wörtlich."
Das ist eine gute Nachricht, aber gleichzeitig auch ein Punkt, auf den man achten sollte. Wenn man bestehende Prompts unverändert verwendet, kann es passieren, dass das Modell nicht mehr „zwischen den Zeilen liest", sondern sich „genau an das Geschriebene" hält, weshalb unter Umständen eine Neuanpassung der Prompts erforderlich ist.
Wer Claude Code regelmäßig nutzt, sollte am besten einmal überprüfen, ob Prompts und benutzerdefinierte Befehle noch wie beabsichtigt funktionieren.
Übrigens gibt es in Claude Code einen offiziellen Skill namens claude-api. Dieser richtet sich an Entwickler, die eigene Apps mit anthropic oder @anthropic-ai/sdk erstellen und betreiben, und bündelt Wissen zur Nutzung der Claude API sowie zu Migrationsschritten zwischen Modellen. Dieser Skill wurde nun für Opus 4.7 aktualisiert. Laut einer Ankündigung reicht es aus, in Claude Code „migrate to Opus 4.7" einzugeben, und Modellname, Prompts sowie Effort-Einstellungen werden automatisch umgeschrieben (Ankündigung von @ClaudeDevs). Wer die Claude API in seine eigene App integriert hat, dürfte so sehr einfach migrieren können.
Die Existenz von Mythos Preview
Ein weiterer interessanter Punkt in dieser Ankündigung war die Erwähnung von Claude Mythos Preview.
In der offiziellen Ankündigung wird Opus 4.7 sinngemäß so beschrieben: „Obwohl es nicht über die umfassenden Fähigkeiten des stärksten Modells, Claude Mythos Preview, verfügt, zeigt es bessere Ergebnisse als Opus 4.6."
Das bedeutet, dass Anthropic ein noch leistungsstärkeres Modell namens Mythos Preview besitzt, das Opus 4.7 übertrifft, und Opus 4.7 im Vergleich dazu positioniert wird.
Auch ein Blick auf das veröffentlichte Benchmark-Diagramm zeigt, dass die Werte von Mythos ganz rechts herausragend hoch sind, was einen überrascht denken lässt: „Es geht also noch weiter nach oben...". Die Tatsache, dass Opus 4.7 bereits eine mehr als ausreichende Leistung bietet, aber noch ein fortschrittlicheres Modell in den Startlöchern steht, macht die zukünftige Entwicklung von Claude sehr spannend.
Lassen Sie uns auch die Positionierung in Bezug auf die Sicherheit klären. Zuvor möchte ich jedoch kurz den hier häufig verwendeten Begriff „Alignment" erläutern.
Alignment in der KI ist ein Konzept, das sich darauf bezieht, das Verhalten eines KI-Modells mit menschlichen Absichten, Werten und Zielen in Einklang zu bringen. Man kann es sich am besten als eine von der Leistungsfähigkeit (Capability) unabhängige Achse vorstellen, die bewertet, „ob diese Fähigkeiten sicher und aufrichtig eingesetzt werden können". Anthropic legt großen Wert auf diesen Aspekt und bezeichnet Modelle als „aligned" (ausgerichtet), wenn sie insbesondere folgende Verhaltensweisen selten zeigen:
- Den Benutzer nicht täuschen oder in die Irre führen
- Fakten nicht verdrehen, nur um Antworten zu geben, die dem Benutzer gefallen könnten
- Nicht leichtfertig auf Anfragen eingehen, die zu Missbrauch führen könnten
Betrachtet man unter dieser Prämisse die offizielle Bewertung, so stuft Anthropic Opus 4.7 als „largely well-aligned and trustworthy, though not fully ideal" (weitgehend gut ausgerichtet und vertrauenswürdig, wenn auch nicht völlig ideal) ein. Es wird als ein Modell beschrieben, das das gleiche Sicherheitsniveau wie Opus 4.6 beibehält, sich aber in einigen Bewertungen verbessert hat. Andererseits sollte man festhalten, dass das Modell, das in der Bewertung des Unternehmens als am besten ausgerichtet (best-aligned) gilt, Mythos Preview ist.
Preise
Die Preise bleiben im Vergleich zu Opus 4.6 unverändert.
- Input-Token - $5 pro 1M Token
- Output-Token - $25 pro 1M Token
Dass der Preis trotz dieser enormen Leistungssteigerung gleich bleibt, ist für uns Nutzer natürlich sehr erfreulich.
Da Opus 4.7 zudem mehr Thinking-Token als bisher verwendet, wurden zum Ausgleich die Rate-Limits für alle Abonnenten angehoben (Tweet von @bcherny). Es ist ein großer Pluspunkt, dass eine Umgebung geschaffen wurde, in der man das Modell intensiv nutzen kann, ohne sich über die Ausführungshäufigkeit Gedanken machen zu müssen.
Über die API ist es unter der Modell-ID claude-opus-4-7 verfügbar.
Vergleichstabelle: Opus 4.6 vs. Opus 4.7
Ich habe die wichtigsten Änderungen in einer Tabelle zusammengefasst.
| Merkmal | Opus 4.6 | Opus 4.7 |
|---|---|---|
| Effort-Level | low / medium / high / max (4 Stufen) | low / medium / high / xhigh / max (5 Stufen) |
| Claude Code Standard-Effort | high (bei Pro / Max: medium) | xhigh |
| Maximale Bildauflösung | - | Lange Kante 2.576px (ca. 3,7 Megapixel) |
| XBOW (Visuelle Genauigkeit) | 54,5 % | 98,5 % |
| CursorBench | 58 % | 70 % |
| Rakuten-SWE-Bench | - | Mehr als das Dreifache im Vergleich zu Opus 4.6 |
| Preise (Input/Output) | $5/$25 pro 1M Token | $5/$25 pro 1M Token (unverändert) |
| Interpretation von Befehlen | Eher lockere Interpretation | Wörtlichere Ausführung |
Ausprobieren in Claude Code
In Umgebungen, in denen Opus 4.7 verfügbar ist, kann dies in der neuesten Version von Claude Code (laut offiziellen Docs ab v2.1.111) über den Befehl /model überprüft werden. Wenn Opus 4.7 ausgewählt ist, ist der Standard-Effort in Claude Code xhigh. Beachten Sie, dass die Sichtbarkeit und das Standardverhalten auch vom Tarif, Provider und den Administratoreinstellungen abhängen.
Wenn es bei Ihnen noch nicht sichtbar ist, empfiehlt es sich, Claude Code zu aktualisieren und neu zu starten.
claude update
Wenn Sie nach dem Update eine neue Sitzung öffnen, können Sie Opus 4.7 in den unterstützten Umgebungen auswählen.
Übrigens wurde kurz nach dem Release berichtet, dass Opus 4.7 normale Code-Bearbeitungen mit der Warnung „this might be malware" ablehnte. Dies lag jedoch nicht daran, dass das Modell zu vorsichtig war, sondern an einem alten Safety-Prompt, der in älteren Builds verblieben war (Ankündigung von @ClaudeDevs). Dies lässt sich beheben, indem man claude update ausführt und die App neu startet. Falls Sie also auf dasselbe Problem stoßen, führen Sie bitte ein Update durch.
Falls Sie Claude Code noch über Homebrew oder npm nutzen, empfehle ich dringend, bei dieser Gelegenheit auf eine native Installation umzusteigen. Dadurch funktionieren automatische Updates, das Update-Verhalten wird stabiler und die Anpassung an neue Funktionen verläuft reibungsloser. Detaillierte Schritte und die Vorteile des Wechsels habe ich in dem Artikel Wie der Wechsel von Claude Code von Homebrew zur nativen Installation alles komfortabler machte zusammengefasst. Schauen Sie dort gerne einmal rein.
Meine Eindrücke nach dem Ausprobieren
Ich habe gerade erst angefangen, es zu nutzen, aber mein erster Eindruck ist, dass die Festlegung von xhigh als Standard eine ziemlich perfekte Balance darstellt.
Bei xhigh hat man das Gefühl, dass das Modell „genau so weit nachdenkt, wie es nötig ist", was sich sehr gut in die tägliche Arbeit einfügt. Die Entscheidung von Anthropic, dies als Standard festzulegen, empfinde ich als ein gutes, auf Praktikabilität ausgerichtetes Tuning. Ehrlich gesagt habe ich max noch nicht verwendet, daher werde ich in Zukunft durch Ausprobieren herausfinden, in welchen Situationen ein solches Maß an Tiefe wirklich erforderlich ist.
Darüber hinaus freut es mich persönlich am meisten, dass Befehle nun wörtlicher ausgeführt werden. Bisher kam es vor, dass „ungenaue Anweisungen eigenmächtig überinterpretiert wurden". Die Tatsache, dass sich das Ergebnis umso genauer im Output widerspiegelt, je präziser man den Prompt schreibt, ist eine Eigenschaft, die für Entwickler viel einfacher zu handhaben ist.
Zusammenfassung
Zusammenfassend lassen sich die Weiterentwicklungen von Claude Opus 4.7 wie folgt darstellen:
- Weitere Verbesserung der Coding-Fähigkeiten (CursorBench 70 %, Rakuten-SWE-Bench 3-fach)
- Deutliche Steigerung der Vision-Leistung (XBOW 98,5 %, max. 2.576px)
- Hinzufügen des neuen Effort-Levels
xhigh - Wörtlichere Ausführung von Befehlen
- Erwähnung der Existenz eines übergeordneten Modells namens Mythos Preview (derzeit als Research Preview limitiert verfügbar)
- Preise bleiben unverändert
Es ist erstaunlich, dass sich in den nur zwei Monaten seit Opus 4.6 so viele Verbesserungen angesammelt haben. Mythos Preview ist derzeit als limitiert verfügbare Research Preview positioniert, und Anthropic hat erklärt, dass man anstrebt, Modelle der Mythos-Klasse in Zukunft auf breiter Basis anzubieten. Man darf auf die weiteren Entwicklungen gespannt sein.
Wer es noch nicht ausprobiert hat, kann dies über Claude Code, claude.ai oder die API tun. In Claude Code sollten bei den Tarifen Max / Team Premium nach dem Update Opus 4.7 und xhigh standardmäßig ausgewählt sein. Auch bei anderen Tarifen können Sie Opus 4.7 über den Befehl /model auswählen, sofern es in Ihrer Umgebung verfügbar ist. Probieren Sie es aus und erleben Sie den Unterschied selbst.