Interagieren Sie als Power-User mit GPT-KI-Modellen.
Unterstützt mehrere KI-Anbieter
Umfassender, schneller technischer Support
Flexible Benutzeroberfläche
Suchen Sie im Editor nach Stack Overflow
Rufen Sie vorgefertigte benutzerdefinierte CLI-Befehle in Ihrem Editor auf
Laden Sie es vom VSCode Marketplace herunter und befolgen Sie die Anweisungen.
ODER
Schritte:
Ctrl
- Shift
- P
(Windows, Linux) oder Cmd
- Shift
- P
(MacOS) > Extensions: Install Extension
aus.FlexiGPT
von ppipada
.Ctrl
,
Cmd
+ ) und suchen Sie nach flexigpt
.Optionen:
// flexigpt basic configuration
"flexigpt.promptFiles" : " /home/me/my_prompt_files/myprompts.js " ,
"flexigpt.inBuiltPrompts" : " gobasic.js;gosql.js " ,
"flexigpt.defaultProvider" : " openai " ,
// openai provider configuration
"flexigpt.openai.apiKey" : " sk-mkey " ,
"flexigpt.openai.timeout" : " 120 " ,
"flexigpt.openai.defaultCompletionModel" : " gpt-3.5-turbo " ,
"flexigpt.openai.defaultChatCompletionModel" : " gpt-3.5-turbo " ,
"flexigpt.openai.defaultOrigin" : " https://api.openai.com " ,
// anthropic provider configuration
"flexigpt.anthropic.apiKey" : " sk-mkey " ,
"flexigpt.anthropic.timeout" : " 120 " ,
"flexigpt.anthropic.defaultCompletionModel" : " claude-3-haiku-20240307 " ,
"flexigpt.anthropic.defaultChatCompletionModel" : " claude-3-haiku-20240307 " ,
"flexigpt.anthropic.defaultOrigin" : " https://api.anthropic.com " ,
// huggingface provider configuration
"flexigpt.huggingface.apiKey" : " hf-mkey " ,
"flexigpt.huggingface.timeout" : " 120 " ,
"flexigpt.huggingface.defaultCompletionModel" : " bigcode/starcoder2-15b " ,
"flexigpt.huggingface.defaultChatCompletionModel" : " deepseek-ai/deepseek-coder-1.3b-instruct " ,
"flexigpt.huggingface.defaultOrigin" : " https://api-inference.huggingface.co " ,
// googlegl provider configuration
"flexigpt.googlegl.apiKey" : " gl-mkey " ,
"flexigpt.googlegl.timeout" : " 120 " ,
"flexigpt.googlegl.defaultCompletionModel" : " gemini-1.0-pro " ,
"flexigpt.googlegl.defaultChatCompletionModel" : " gemini-1.0-pro " ,
"flexigpt.googlegl.defaultOrigin" : " https://generativelanguage.googleapis.com " ,
// llamacpp provider configuration
"flexigpt.llamacpp.apiKey" : " " ,
"flexigpt.llamacpp.timeout" : " 120 " ,
"flexigpt.llamacpp.defaultOrigin" : " 127.0.0.1:8080 " ,
Der OpenAI-Anbieter benötigt einen API-Schlüssel, um zu funktionieren. Sie können eines über die Einstellungen Ihres openAI-Kontos hier erhalten.
Unterstützte APIs
Unterstützte Modelle – Alle Modelle, die von den beiden oben genannten APIs unterstützt werden
gpt-4
gpt-4-*
gpt-3.5-turbo
gpt-3.5-turbo-*
FlexiGPT verwendet defaultChatCompletionModel: gpt-3.5-turbo
, es sei denn, die Eingabeaufforderung überschreibt es.
Ein Beispiel für die Verwendung Function calling
von OpenAI finden Sie in dieser Eingabeaufforderungsdatei hier.
Konfigurationsoptionen:
gpt-3.5-turbo
. Beachten Sie, dass die Nutzung gpt-3.5-turbo
in der OpenAIs-Abrechnung berücksichtigt wird. Das einzige kostenlose Modell, das sich ab Februar 2023 in der Betaphase befindet, ist Codex ( code-davinci-002
).https://api.openai.com
. Der Anthropic-Anbieter benötigt einen API-Schlüssel, um zu funktionieren. Sie können eines hier auf der Anthropic-Website erwerben.
Unterstützte API
claude-3-*
, claude-2*
FlexiGPT verwendet defaultChatCompletionModel: claude-3-haiku-20240307
, es sei denn, die Eingabeaufforderung überschreibt es.
Konfigurationsoptionen:
claude-3-haiku-20240307
.https://api.anthropic.com
. Der Huggingface-Anbieter benötigt einen API-Schlüssel, um zu funktionieren. Sie können eines hier auf der Huggingface-Website erhalten.
Unterstützte API
Unterstützte Modelle – Alle von der oben genannten API unterstützten Modelle
FlexiGPT verwendet defaultChatCompletionModel: deepseek-ai/deepseek-coder-1.3b-instruct
, es sei denn, die Eingabeaufforderung überschreibt es.
Konfigurationsoptionen:
deepseek-ai/deepseek-coder-1.3b-instruct
.bigcode/starcoder2-15b
.https://api-inference.huggingface.co
. Der Googlegl-Anbieter benötigt einen API-Schlüssel, um zu funktionieren. Eines können Sie hier auf der Website beziehen.
Unterstützte API: https://ai.google.dev/api/rest/v1/models/generateContent
gemini-1.0-pro
chat-bison-001
(Legacy)text-bison-001
(Legacy) FlexiGPT verwendet defaultChatCompletionModel: gemini-1.0-pro
, es sei denn, die Eingabeaufforderung überschreibt es.
Konfigurationsoptionen:
gemini-1.0-pro
.gemini-1.0-pro
.https://generativelanguage.googleapis.com
. Richten Sie einen llama.cpp-Server wie hier beschrieben ein
Unterstützte APIs
your host:port of the llama server
/CompletionUnterstützte Modelle – Alle Modelle, die von den oben genannten APIs unterstützt werden. Beachten Sie, dass das Modell in llama.cpp beim Ausführen des Servers selbst angegeben werden muss und nicht auf jeder Anforderungsebene angegeben werden kann.
Konfigurationsoptionen:
http://127.0.0.1:8080
.Holen Sie sich Code mithilfe eines Kommentars im Editor.
Ctrl
+ Alt
+ G
FlexiGPT: Get Code
zum Anklicken/EingebenSchritte, um alle folgenden Funktionen zu erhalten (ähnlich für alle konfigurierten Eingabeaufforderungen; integriert oder benutzerdefiniert):
Ctrl
+ Alt
+ A
Korrigieren und überarbeiten Sie den ausgewählten Code.
Erstellen Sie einen Komponententest für den ausgewählten Code.
Vervollständigen Sie die Auswahl.
Erklären Sie die Auswahl.
Erstellen Sie eine Dokumentation für den ausgewählten Code.
Finden Sie Probleme bei der Auswahl, beheben Sie sie und erklären Sie, was falsch war.
Optimieren Sie den ausgewählten Code
{selection}
oder {readfile}
verwenden, um Ihren Chat mit KI zu verbessern. (Gleiche Funktion wie für Eingabeaufforderungsdateien verfügbar)Die Chat-Aktivitätsleiste kann auf folgende Weise geöffnet werden:
FlexiGPT: Ask
zum Klicken/Eingeben erhaltenCtrl
/ Cmd
+ Shift
+ P
): Sie sollten die Option FlexiGPT: Ask
zum Klicken/Eingeben erhaltenCtrl
+ Alt
+ A
Suchen Sie in Ihrem Editor nach Fragen zum Stapelüberlauf.
Ctrl
+ Alt
+ S
FlexiGPT: Stackoverflow Search
Suchoption zum Klicken/EingebenCtrl
/ Cmd
+ Shift
+ P
) verfügbar: Sie sollten eine FlexiGPT: Stackoverflow Search
Suchoption zum Klicken/Eingeben erhaltencliCommands
in Ihren Eingabeaufforderungsdateien.Ctrl
+ Alt
+ C
FlexiGPT: Run CLI Command
Ctrl
/ Cmd
+ Shift
+ P
): Sie sollten die Option FlexiGPT: Run CLI Command
zum Klicken/Eingeben erhaltenErstellen und optimieren Sie Eingabeaufforderungen, speichern Sie sie und verwenden Sie sie direkt in VSCode.
Unterstützt Anforderungsparameteränderungen für GPT-APIs
Vordefinierte Systemvariablen können zur Erweiterung Ihrer Frage verwendet werden.
{system.selection}
oder einfach {selection}
um den ausgewählten Text im Editor (Code oder auf andere Weise) weiterzugeben.{system.readfile}
oder einfach {readfile}
um die geöffnete Datei weiterzugeben{system.readfile <your file path>}
um die Datei unter einem bestimmten Pfad weiterzugebensystem.
Das Präfix für eine Systemvariable ist optional. Daher können Sie sogar nur {selection}
verwenden, um den ausgewählten Text zu verwenden, oder {language}
anstelle von {system.language}
für die Sprache Ihrer Datei.Unterstützt die Nachbearbeitung von Antworten über ResponseHandlers in Eingabeaufforderungen. Mehrere integrierte vordefinierte Antworthandler verfügbar. Unterstützt auch benutzerdefinierte ResponseHandler. Ein Beispiel finden Sie hier.
Die Funktionsaufruffunktion von GPT3.5/4-Modellen wird ebenfalls unterstützt. Ein Beispiel finden Sie in dieser Eingabeaufforderungsdatei.
Beim Klicken auf das Eingabetextfeld sollten grundlegende Eingabeaufforderungen geladen werden, die von FlexiGPT selbst bereitgestellt werden, alle in flexigpt.promptFiles
definierten Eingabeaufforderungen und alle integrierten Eingabeaufforderungen, die mit flexigpt.inBuiltPrompts
aktiviert werden, wie in der Konfiguration definiert. (Wenn beim ersten Klicken auf das Textfeld einige vorkonfigurierte Eingabeaufforderungen nicht geladen werden, versuchen Sie, die Optionen zu umgehen und erneut zu klicken. Das Laden dynamischer Listen aus Dateien durch VSCode kann einige Zeit dauern.)
Wenn Sie die vorkonfigurierten Eingabeaufforderungen auswählen, wird die im Eingabeaufforderungsbefehl definierte Fragenvorlage verwendet, nachdem definierte System-/Benutzervariablen ersetzt wurden. Auch andere Befehlsoptionen werden aus der Definition selbst übernommen.
Wenn Sie eine frei schwebende Frage in das Textfeld eingeben, wird der Text selbst direkt als Eingabeaufforderung verwendet. Sie können auch vordefinierte Systemvariablen verwenden, um Ihre frei schwebende Frage zu verbessern.
{selection}
um den ausgewählten Text im Editor weiterzugeben{readfile}
um die geöffnete Datei weiterzugeben Grundlegende FlexiGPT-Eingabeaufforderungen (Standard: aktiviert)
Grundlegende Go-Eingabeaufforderungen (Standard: deaktiviert, in der Konfiguration aktivieren)
Go sqlx + Squirrel-Eingabeaufforderungen (Standard: deaktiviert, in der Konfiguration aktivieren)
module . exports = {
namespace : "myprompts" ,
commands : [
{
name : "Refactor" ,
template : `Refactor following function.
function:
{system.selection}` ,
} ,
] ,
} ;
module . exports = {
namespace : "MyComplexPrompts" ,
commands : [
{
name : "Create unit test." ,
template : `Create unit test in {user.unitTestFramework} framework for following function.
code:
{system.selection}` ,
responseHandler : {
func : "writeFile" ,
args : {
filePath : "user.testFileName" ,
} ,
} ,
requestparams : {
model : "gpt-3.5-turbo" ,
stop : [ "##" , "func Test" , "package main" , "func main" ] ,
} ,
} ,
{
name : "Write godoc" ,
template : `Write godoc for following functions.
code:
{system.selection}` ,
responseHandler : {
func : "append" ,
args : {
position : "start" ,
} ,
} ,
requestparams : {
model : "code-davinci-002" ,
stop : [ "##" , "func Test" , "package main" , "func main" ] ,
} ,
} ,
] ,
functions : [
// you could also write your own responseHandler.
// Note that it takes a single object as input.
function myHandler ( { system , user } ) {
console . table ( { system } ) ;
console . table ( { user } ) ;
} ,
] ,
variables : [
{
name : "unitTestFramework" ,
value : "testing" ,
} ,
{
name : "testFileName" ,
value : ( { baseFolder , fileName , fileExtension } ) =>
` ${ baseFolder } \ ${ fileName } _test ${ fileExtension } ` ,
} ,
] ,
cliCommands : [
{
name : "Go generate all" ,
command : `go generate ./...` ,
description : "Run go generate in the workspace" ,
} ,
] ,
} ;
Name: Erforderlich
Beschreibung: Optional
Vorlage: Erforderlich
{system.*variableName*}
hinzu. Variablenname kann eine der vordefinierten Systemvariablen sein. Sie können auch Parameter an Funktionen wie readFile übergeben. Beispiel: {readfile user.testFile}
ist eine gültige Vorlagenvariable, wobei die Eingabe für readfile die Datei ist, auf die die benutzerdefinierte Variable testfile verweist.{user.*variableName*}
hinzu. VariableName muss sich im Variablenfeld in der Eingabeaufforderungsdatei befinden.Anforderungsparameter: optional
{ [key: string]: any }
.ResponseHandler: Optional
ResponseHandler wird zum Verarbeiten einer Antwort verwendet. Standardmäßig wird die Ersetzungsfunktion verwendet. Die Handle-Funktion kann eine vordefinierte Systemfunktion oder eine benutzerdefinierte Funktion sein.
Sie können den ResponseHandler auf folgende Weise festlegen:
responseHandler: "replace" ;
responseHandler: {
func : 'replace' ,
args : {
textToReplace : 'user.answerModified'
}
}
Alle variables
können in einer Befehlsvorlage verwendet werden. Benutzerdefinierte Werte müssen das Präfix „user“ haben. Wenn beispielsweise „testFileName“ in Variablen definiert ist, kann er als „user.TestFileName“ in der Vorlagendatei verwendet oder an eine Funktion übergeben werden.
Variablenwerte können statisch oder dynamisch sein. Für dynamische Werte sollten Sie eine Getter-Methode erstellen. Beim Aufruf des Variablen-Getters wird ein einzelnes Objekt mit Systemvariablen (siehe Vordefinierte Systemvariablen) als erstes Argument übergeben, alle anderen Variablen können als nächste Argumente verwendet werden.
module . exports = {
variables : [
{
//static
name : "testingFramework" ,
value : "xUnit"
} ,
{
//dynamic
name : "typeNameInResponse" ,
value : ( { answer /*system variable*/ } , myTestFile /*user defined var*/ ) => { }
} ,
]
functions : [
function extractTypeName ( { code , system } ) { /**/ } ,
function myOtherFunc ( ) { } ,
] ,
commands : [
{
name : "Create DTO" ,
template : `Create unit test with {user.testingFramework} for following class.
class:
{system.selection}` ,
responseHandler : {
func : 'writeFile' ,
args : {
filePath : 'user.typeNameInResponse' /*usage for function arg*/
}
}
}
]
}
Bei allen Variablen wird die Groß-/Kleinschreibung nicht beachtet.
Variablenname | Beschreibung |
---|---|
Systemauswahl | Ausgewählter Text im Editor |
Systemfrage | OpenAI-Frage |
system.answer | OpenAI-Antwort |
Systemsprache | Programmiersprache der aktiven Datei |
system.baseFolder | Projektbasispfad |
system.fileFolder | Pfad des übergeordneten Ordners der aktiven Datei |
system.fileName | Name der aktiven Datei |
system.filePath | Vollständiger Pfad der aktiven Datei |
system.fileExtension | Erweiterung der aktiven Datei |
system.commitAndTagList | Letzte 25 Commits und zugehörige Tags |
system.readFile | Lesen Sie die vollständige Open-Editor-Datei. Übergeben Sie optional einen Dateipfad als zweites Argument |
Beachten Sie, dass das system.
Das Präfix für eine Systemvariable ist optional. Daher können Sie sogar nur {selection}
verwenden, um den ausgewählten Text zu verwenden, oder {language}
anstelle von {system.language}
für die Sprache Ihrer Datei.
functions
hinzu.Funktionsname | Beschreibung | Parameter (Standard) |
---|---|---|
anhängen | Text anhängen | textToAppend(system.answer),postion('end') |
ersetzen | Ersetzen Sie den ausgewählten Text | textToReplace(system.answer) |
writeFile | Schreiben Sie Text in eine Datei. Anhängen, wenn die Datei vorhanden ist. | filePath(),content(system.answer) |
Ersetzen
Ersetzen Sie Text durch Auswahl. Nehmen Sie den optionalen Parameter textToReplace
Der Standardwert entspricht der API-Antwort.
Standardverwendung
...
commands : [
{
name : "Refactor" ,
template : `Refactor following function.
function:
{system.selection}`
responseHandler : 'replace'
} ,
] ,
Verwendung mit Parametern
...
commands : [
{
name : "Refactor" ,
template : `Refactor following function.
function:
{system.selection}`
responseHandler : {
func : 'replace' ,
args : {
textToReplace : 'user.answerModified'
}
}
} ,
] ,
variables : [
{
name : "answerModified" ,
value : ( { answer } ) => `/*n ${ anwer } n*/`
} ,
] ,
Anhängen
Text mit Auswahl anhängen. Nehmen Sie die optionalen Parameter textToAppend
und postion
. postion
kann start
oder end
sein
Standardmäßig entspricht textToAppend
der OpenAI- postion
ist das Ende der Auswahl
Beispielverwendung
...
commands : [
{
name : "Append" ,
template : `Write jsdoc for following function.
function:
{system.selection}`
responseHandler : {
func : 'append' ,
args : {
position : 'start'
}
}
} ,
] ,
Name: Erforderlich
Beschreibung: Optional
Befehl: Erforderlich
Funktionsbereiche | Funktionen und Implementierungen | Status |
Flexibilität, mit jeder KI zu sprechen | Integration mit mehreren KI-Anbietern über APIs. | Erledigt |
Unterstützen Sie die Parameterauswahl und verarbeiten Sie unterschiedliche Antwortstrukturen. | Erledigt | |
Flexibilität, benutzerdefinierte Eingabeaufforderungen zu verwenden | Unterstützung für Prompt Engineering, das das Erstellen und Ändern von Prompts über eine Standardstruktur ermöglicht. | Erledigt |
Änderung der Anforderungsparameter zulassen | Erledigt | |
Ermöglichen Sie das Hinzufügen benutzerdefinierter Antworthandler, um die Antwort von der KI zu massieren. | Erledigt | |
Stellen Sie allgemeine vordefinierte Variablen bereit, die zur Verbesserung der Eingabeaufforderungen verwendet werden können | Erledigt | |
Bieten Sie zusätzliche Eingabeaufforderungsverbesserungen mithilfe benutzerdefinierter Variablen, bei denen es sich um statische Variablen oder Funktionsgetter handeln kann. Dies soll Funktionsdefinitionen in der Eingabeaufforderungsstruktur ermöglichen und die Ergebnisse in Eingabeaufforderungen integrieren. Erlauben Sie auch die Übergabe von Systemvariablen oder Benutzervariablen oder statischen Zeichenfolgen als Eingaben | Erledigt | |
Bieten Sie die Möglichkeit, verschiedene Eingabeaufforderungen zu bewerten, ELO-Bewertungen zuzuweisen und die stärksten auszuwählen und zu speichern | Langfristig | |
Nahtlose UI-Integration | Entwerfen Sie eine flexible Benutzeroberfläche, eine Chat-Schnittstelle, die in die VSCode-Aktivitätsleiste integriert ist. | Erledigt |
Die Benutzeroberfläche muss das Speichern, Laden und Exportieren von Konversationen unterstützen. | Erledigt | |
Implementieren Sie Streaming-Eingabe in der Benutzeroberfläche und erzeugen Sie so das Gefühl, dass der KI-Bot selbst tippt. | Langfristig | |
Ad-hoc-Abfragen/Aufgaben | Helfen Sie dem Entwickler, Ad-hoc-Anfragen an AI zu stellen, bei denen er über die Chat-Schnittstelle die Fragen oder Probleme beschreiben kann. Dies kann verwendet werden, um Probleme zu beheben, Verhalten zu verstehen, Hinweise zu Dingen zu erhalten, auf die man achten sollte usw. Der Entwickler sollte in der Lage sein, Code oder Dateien an seine Fragen anzuhängen. | Erledigt |
Bieten Sie eine Möglichkeit, vorgefertigte CLI-Befehle zu definieren und diese nach Bedarf auszulösen. Die Schnittstelle zum Definieren von CLI-Befehlen sollte den Eingabeaufforderungen ähneln. | Erledigt | |
Bieten Sie eine Möglichkeit, Abfragen auf StackOverflow zu durchsuchen. | Erledigt | |
Bieten Sie eine Möglichkeit, Ergebnisse für Abfragen aus StackOverflow-Antworten und entsprechenden KI-Antworten zu erhalten. | Langfristig | |
Code-Vervollständigung und Intelligenz | Bieten Sie eine Möglichkeit, Code aus einem Codekommentar zu generieren | Erledigt |
Bieten Sie eine Möglichkeit, Code über die Chat-Oberfläche zu vervollständigen, umzugestalten, zu bearbeiten oder zu optimieren. Sollte es ermöglichen, bei Bedarf relevanten Code aus dem Editor auszuwählen. | Erledigt | |
Implementieren Sie ein in das Language Server Protocol (LSP) integriertes Kontextmanagementsystem, das zur Bereicherung von KI-Interaktionen verwendet werden kann. | Mittelfristig | |
Unterstützen Sie die Generierung von Codeeinbettungen, um den Codekontext zu verstehen und ihn in Eingabeaufforderungen zu integrieren. | Mittelfristig | |
Entwickeln Sie eine intelligente Code-Vervollständigungsfunktion, die die nächsten Codezeilen vorhersagt. Es sollte Kontext (LSP oder Einbettungen) in Autovervollständigungsaufforderungen integrieren und Autovervollständigungsantworten in der Benutzeroberfläche verarbeiten. | Mittelfristig | |
Codeüberprüfung und Intelligenz | Bieten Sie eine Möglichkeit zur Überprüfung über die Chat-Oberfläche. Sollte es ermöglichen, bei Bedarf relevanten Code aus dem Editor auszuwählen | Erledigt |
Möglichkeit, eine Merge-/Pull-Anfrage von Github, Gitlab oder anderen Versionsanbietern abzurufen, sie zu analysieren und Bewertungskommentare bereitzustellen. Sollte Flexibilität bieten, um je nach Anwendungsfall Überprüfungsbereiche und die damit verbundene Priorität festzulegen. | Mittelfristig | |
Bieten Sie automatisierte Codeüberprüfungen und Empfehlungen. Es sollte subtile Indikatoren für Codeverbesserungen bereitstellen und API-Antworten zur Codeüberprüfung in der Benutzeroberfläche verarbeiten. | Langfristig | |
Stellen Sie automatisierte Refactoring-Vorschläge bereit. Dies sollte das Refactoring von API-Antworten und die Anzeige von Vorschlägen in der Benutzeroberfläche verarbeiten. | Langfristig | |
Stellen Sie automatisierte Sicherheitsvorschläge bereit. Dies sollte in der Lage sein, potenziell hinzugefügte Schwachstellen oder Abweichungen von den im Code verwendeten bewährten Sicherheitspraktiken zu identifizieren. | Langfristig | |
Unterstützung bei der Codedokumentation | Erstellen Sie über die Chat-Oberfläche eine Dokumentation für den ausgewählten Code. Sollte es ermöglichen, bei Bedarf relevanten Code aus dem Editor auszuwählen. | Erledigt |
Entwickeln Sie eine effektive Inline-Dokumentationsunterstützung. Es sollte automatisch eine Dokumentation basierend auf dem Code generieren und aktualisieren und diese in der Benutzeroberfläche anzeigen. | Langfristig | |
Code-Verständnis und Lernunterstützung | Bieten Sie eine Möglichkeit, Code über die Chat-Oberfläche zu erklären. Sollte es ermöglichen, bei Bedarf relevanten Code aus dem Editor auszuwählen. | Erledigt |
Entwickeln/Integrieren Sie mit einem integrierten Wissensgraphen, um detaillierte Erklärungen zu Diensten, APIs, Methoden, Algorithmen und Konzepten bereitzustellen, die der Entwickler verwendet oder möglicherweise verwenden möchte | Langfristig | |
Integrieren Sie die Diagrammsuche in Eingabeaufforderungen | Langfristig | |
Testen | Bieten Sie eine Möglichkeit, Unit-Tests über die Chat-Schnittstelle zu generieren. Sollte es ermöglichen, bei Bedarf relevanten Code aus dem Editor auszuwählen. Sollte die Möglichkeit haben, Tests nach Bedarf in neue Dateien oder die aktuelle Datei einzufügen. | Erledigt |
Bieten Sie eine Möglichkeit, API- und zugehörige Workflow-Tests über die Chat-Schnittstelle zu generieren. Sollte die Auswahl relevanter Code-/API-Definitionen aus dem Editor nach Bedarf ermöglichen. Sollte die Möglichkeit haben, Tests nach Bedarf in neue Dateien oder die aktuelle Datei einzufügen. | Kurzfristig |
FlexiGPT ist eine vollständig Open-Source-Software, die unter der MIT-Lizenz lizenziert ist.
Beiträge sind willkommen! Senden Sie gerne einen Pull-Request auf GitHub.
Wenn Sie Fragen oder Probleme haben, öffnen Sie bitte ein Problem auf GitHub auf der Seite „Probleme“.