Cmd-I zum Heilen

Halte cmd-I über einer Auswahl gedrückt, um den Code mit GPT-4 zu reparieren. Praktisch, um Pseudocode zu schreiben und ihn von der KI in korrekten Code umwandeln zu lassen. Sag uns gern Bescheid, wenn du es hilfreich findest!

@Web, gpt-4-0125-preview

Die Verwendung von @Web im Chat ermöglicht der KI, im Web zu recherchieren! Zu den Tools, die sie nutzen kann, gehören eine Suchmaschine und ein Crawler für Dokumentationsseiten.

Dieses Feature ist noch experimentell. Wir möchten die Fähigkeit der KI, externe Bibliotheken zu verstehen, deutlich verbessern – und euer Feedback hilft uns dabei :).

Sowohl Pro-User als auch Nutzer mit API-Schlüssel können gpt-4-0125-preview ausprobieren, indem sie das Modell unter Settings > OpenAI API > Configure Models konfigurieren. Wir testen das neue Modell derzeit mit Pro-Usern, um zu sehen, ob es besser abschneidet als alle älteren Versionen von gpt-4. Falls ja, werden wir es als standardmäßige Erfahrung ausrollen.

UPDATE (0.24.3-0.24.4): Ermöglicht die Konfiguration der OpenAI-Base-URL und behebt getcursor/cursor#1202.

Neues Modell, Apply-Button v2

  • "cursor-fast": Dies ist ein neues Modell, das in Command-K und im Chat verfügbar ist. Es ist etwas leistungsfähiger als gpt-3.5 und erzeugt deutlich weniger Formatierungsfehler.

  • Apply-Button: Wir haben das „Codeblock anwenden“-Erlebnis im Chat weiter verfeinert.

  • Chat-Lints: Wenn die KI im Chat eine Codeänderung vorschlägt, die ein ausgedachtes Codesymbol enthält, unterstreichen wir es. Verfügbar für Python, Typescript, Rust.

  • Mehr Symbollinks im Chat: Wenn im Chat auf ein Codesymbol verwiesen wird, können Sie häufig direkt darauf klicken.

UPDATE (0.23.3-0.23.9): Fehlerbehebungen für Command-K, automatisches Öffnen des Changelogs, Bearbeiten sehr langer Zeilen mit Copilot++, den „delete index“-Button, unterdrückte Verbindungsfehler und Authentifizierung über Proxy.

Cursor-Fast-Modell

Cursor-Fast ist ein neu trainiertes Modell mit Code-Fähigkeiten zwischen gpt-3.5 und gpt-4 und sehr schnellen Antwortzeiten (~3,5-fache Geschwindigkeit).

Wir werden in den kommenden Wochen weiter an der Verbesserung seiner Performance arbeiten. Wird genauso wie die Nutzung von 3.5 abgerechnet.

Probier es mal mit Cmd+K aus!

Bugfixes:

  • WSL-Codebase-Suche funktioniert jetzt

  • Unterstützung für neuere Versionen der Python-Erweiterung