9.5    Continue

Für die direkte Unterstützung bei der Softwareentwicklung ist die Integration von KI-Funktionen direkt in die Entwicklungsumgebung am komfortabelsten. Für VS Code und die JetBrains-IDEs gibt es zahlreiche Lösungen, von denen GitHub Copilot die bekannteste ist.

Daneben gibt es diverse Alternativen mit ähnlichen Features – beispielsweise Bito, Cody oder Codeium. Die meisten dieser Dienste bieten eine limitierte kostenlose Variante an. Wenn Sie jedoch täglich damit arbeiten und das Werkzeug in Ihren Entwicklungsprozess integrieren möchten, benötigen Sie in den meisten Fällen die kostenpflichtige Version. Außerdem bleibt das Problem bestehen, dass Sie Ihre Daten an einen Drittanbieter senden.

Es geht aber auch anders! Sowohl das Plug-in Continue, das wir in diesem Abschnitt vorstellen, als auch das Projekt Tabby (siehe Abschnitt 9.7, »Tabby«) realisieren einen Code-Assistenten auf der Basis einer lokal ausgeführten LLM. Damit behalten Sie die Kontrolle über Ihre Daten.

Installation

Das Plug-in Continue ist für VS Code und die JetBrains-IDEs erhältlich. Nach der Installation verbindet sich Continue mit einem Sprachmodell Ihrer Wahl, wobei auch lokale LLMs mit Ollama unterstützt werden. Einen Quick-Start-Guide sowie weitere Informationen zu Continue finden Sie auf der offiziellen Webseite des Projekts sowie im Ollama-Blog:

https://www.continue.dev
https://ollama.com/blog/continue-code-assistant

Im ersten Schritt müssen Sie die Erweiterung installieren. Continue ist aktuell für VS Code und oder eine der JetBrains-IDEs verfügbar. Beim ersten Öffnen der Extension haben Sie die Auswahl zwischen drei verschiedenen Varianten:

Zur Demonstration der Features von Continue nutzen wir die VS-Code-Extension in Kombination mit einer lokalen Installation von Ollama. In der Standardinstallation geht Continue von folgenden Modellen aus:

Alle Einstellungen werden in der config.json-Datei der Extension gespeichert und können jederzeit geändert werden. Hier können Sie beispielsweise die verschiedenen Modelle konfigurieren, indem Sie den Anzeigenamen festlegen und angeben, woher das Modell stammt, beispielsweise von Ollama, sowie die Bezeichnung des Modells.

Anwendung

Nach der Aktivierung von Continue schlägt Ihnen die Extension bei der Eingabe von Code Erweiterungen bzw. Code-Fragmente vor, die Sie akzeptieren oder ignorieren können.

Mit der Tastenkombination (Strg)+(I) bzw. (cmd)+(I) können Sie den Code in der aktuell geöffneten Datei modifizieren. Angenommen, Sie haben eine Codestelle, an der eine Zeichenkette zurückgegeben wird, die aktuell auf Deutsch ist, aber auf Englisch übersetzt werden soll: Sie setzen einfach den Cursor in die entsprechende Zeile, drücken die Tastenkombination und formulieren den Prompt Change this value to English. Continue schlägt Ihnen dann eine übersetzte Zeichenkette vor, die Sie nur noch akzeptieren müssen.

Der Chat der Continue-Extension ist ein vielseitiges Hilfsmittel. Im einfachsten Fall stellen Sie über einen Prompt eine beliebige Frage wie beispielsweise What are the parameters for Array.splice. Das Modell hinter Continue antwortet mit einer ausführlichen Erklärung, die Ihnen im Chatfenster direkt angezeigt wird. Der Chat hat zusätzlich zwei besondere Funktionen:

Die Qualität der Antworten von Continue hängt stark von den verwendeten Modellen und der verfügbaren Infrastruktur ab. Mit den großen kommerziellen Modellen ist Continue ein ideales Hilfsmittel für die tägliche Arbeit.

Continue liefert aber auch in Kombination mit Ollama sehr gute Ergebnisse, sofern genügend Speicher und Rechenleistung zur Verfügung stehen; andernfalls fallen die Antworten sehr langsam aus, was das Werkzeug für den Entwicklungsprozess uninteressant macht. Der entscheidende Vorteil der lokalen Ausführung ist, dass Ihre Daten Ihr System nicht verlassen und Sie durch die Context-Provider die Continue-Extension sehr tief in Ihr Projekt integrieren können.