Ein neues Tab-Modell
Heute kündigen wir Fusion, unser Cursor Tab-Modell der nächsten Generation, an.
Cursor Tab sagt sowohl Bearbeitungen in der Nähe deines Cursors als auch Vorschläge dazu voraus, wohin du als Nächstes springen solltest („Sprünge“). Das Fusion-Modell erzeugt nahezu sofortige, deutlich hochwertigere Cursor-Sprünge und verbessert zugleich die Bearbeitungsqualität. Unser unmittelbares Ziel mit Tab ist es, lästige Routinearbeit bei der Codebearbeitung zu eliminieren, und Fusion ist ein bedeutender Fortschritt in diese Richtung – ein weiterer Schritt auf unserem Weg zu unserem langfristigen Ziel der In-Flow-Next Action Prediction.
Der nützlichste Copilot
Seit März 2024 wird Tab von einem benutzerdefinierten, spars besetzten Sprachmodell (Sparse Language Model) angetrieben, das darauf trainiert ist, Änderungen auf Milliarden von Tokens vorherzusagen. Seitdem haben wir nahezu jeden Aspekt von Tab verbessert und es im Zuge dutzender Modell‑Updates und Infrastrukturverbesserungen schneller, intelligenter und nützlicher gemacht.
Wir haben festgestellt, dass Tab mit unserer fortlaufenden Weiterentwicklung immer hilfreicher geworden ist – und wir freuen uns, dass unsere Nutzer das genauso sehen. Tab ist deutlich gewachsen; es erzeugt inzwischen über eine Milliarde bearbeitete Zeichen pro Tag, und die Anfragerate ist seit dem Start unseres ursprünglichen Modells um etwa das 100‑Fache gestiegen. Mittlerweile generiert unser Tab‑Modell mehr Code als fast jedes andere LLM weltweit.
Uns ist schon lange klar, dass das Einfügen von Text nur ein winziger Teil beim Bearbeiten von Code ist. Während andere Copiloten nur Text an der Position deines Cursors einfügen, schlägt Cursor Tab sowohl vollständige Änderungen rund um deinen Cursor vor als auch Sprünge zur nächsten Stelle, an die du möchtest.
Durch schnelle, präzise Vorschläge für Änderungen und Sprünge ist Tab deutlich nützlicher als andere Copiloten. Natürlich beherrscht Tab die typischen Copilot‑Aufgaben ebenfalls gut – es kann kleine Funktionen schreiben und Inline‑Anweisungen mit geringer Latenz befolgen.
Verbesserungen seit März
Unser erstes Tab-Modell wurde im März 2024 trainiert und ausgeliefert. Im Vergleich zu dieser ersten Modellversion sagt Fusion über 25 % mehr schwierige Änderungen pro Zeile korrekt voraus und schlägt zugleich mehr als zehnmal längere Änderungsblöcke vor. Fusion verbessert unser ursprüngliches Modell zudem in mehreren weiteren Punkten:
| Modellversion | Server-Latenz (p50) | Cursor-Sprünge | Kontextlänge (Tokens) |
|---|---|---|---|
| Original | 475ms | Keine | 5500 |
| Fusion | 260ms | Sofort, präzise | 13000 |
Fusion übertrifft das Modell von März bei der Vorschlagsgenauigkeit deutlich und bietet zugleich nahezu sofortige und qualitativ hochwertigere Cursor-Sprünge, längeren Kontext und geringere Latenz.
Verbesserungen der Modellqualität kommen durch:
-
Sauberere, höherwertige und umfangreichere Daten
-
Längere Kontextfenster mit deutlich mehr Editorzustand und Dateiinhalten im Prompt
-
Sorgfältiges Training auf größere Änderungen, das im Bigger Edits-Modell mündet
-
Synthetische Daten für besseres Befolgen von Anweisungen
-
Verbesserungen am Trainingsrezept und den Basismodellen
Verbesserungen bei der Latenz stammen aus Optimierungen bei der Inferenz, Performance-Engineering und besseren Basismodellen.
Ausblick
Fusion wird mit unserem neuen Client-Release (0.45.0) für alle Nutzer ausgerollt.
Unsere nächste Reihe von Verbesserungen für Tab wird deutlich besseren Codebase-Kontext, bessere Tab-Tab-Tab-Sequenzen sowie eine noch engere Integration der Supermaven-Technologie in Tab bringen.
Wenn du daran interessiert bist, jegliche Routinearbeit beim Bearbeiten von Code zu eliminieren, an einem der nützlichsten Modelle für das Schreiben von Code zu arbeiten oder die Handlungsabläufe von Programmierern zu modellieren, melde dich gerne unter hiring@cursor.com.