Changelog

Besserer Kontext-Chat, schnelleres Copilot++

  1. Besserer Kontext-Chat: insbesondere Nachfragen sind jetzt intelligenter!

  2. Schnelleres Copilot++: ein paar hundert Millisekunden schneller durch verschiedene Netzwerkoptimierungen. Wir können hier immer noch mehrere hundert Millisekunden herausholen.

  3. Zuverlässigere Copilot++-Änderungen: weniger Flackern, bessere Hervorhebung der Neuerungen.

Bildunterstützung, Interpreter Mode Beta, @-Ordner

  • Bildunterstützung im Chat: Du kannst jetzt Bilder per Drag-and-drop in den Chat ziehen, um sie an die KI zu senden.

  • Interpreter Mode Beta: Du kannst den Interpreter Mode jetzt im Tab „More“ aktivieren. Dadurch erhält der Chat Zugriff auf ein Python-Notebook, semantische Suche und weitere Tools.

  • @-Ordner: Du kannst jetzt das @-Symbol verwenden, um auf bestimmte Ordner zu verweisen! Wir versuchen, die relevantesten Code-Snippets auszuwählen, um sie der KI zu zeigen.

  • Copilot++-Verbesserungen: Wir haben an der Latenz von Copilot++ gearbeitet, und du kannst das Copilot++-Tastenkürzel so ändern, dass es nicht mehr auf Option/Alt liegt. Hier kommt bald mehr, insbesondere beim Modell selbst!