Il s'agit du référentiel officiel de l'application FreedomGPT. Il est construit à l'aide d'Electron et React et permet aux utilisateurs d'exécuter des modèles LLM sur leur machine locale.
Rejoignez notre serveur Discord pour obtenir les dernières mises à jour et interagir avec la communauté.
git clone --recursive https://github.com/ohmplatform/FreedomGPT.git freedom-gpt
cd freedom-gpt
npx yarn install
cd llama.cpp
make
cd llama.cpp
cmake .
cmake -- build . -- config Release
Vous devriez maintenant avoir un dossier Release
contenant un fichier main.exe
. Vous pouvez exécuter ce fichier pour tester le client de chat.
Pour exécuter l'application, exécutez la commande suivante dans votre terminal à partir du répertoire racine du projet :
npx yarn start
Si nécessaire, les ports peuvent être modifiés dans : src/ports.ts
Pour commencer, vous devez installer plusieurs packages requis. Exécutez les commandes suivantes :
sudo apt install nodejs
sudo apt install yarn
sudo apt install git
sudo apt install make
sudo apt install g++
sudo apt install npm
Accédez au répertoire du projet et créez-le :
cd freedom-gpt/llama.cpp
make
cd ..
npm install
npm run
npm start
Vous pouvez télécharger manuellement les modèles Liberty Edge et définir les chemins d'accès à ces fichiers à partir de l'écran Modèles AI.
Pour activer les revenus miniers, suivez ces étapes :
xmrig
dans le répertoire freedom-gpt/miner/mac/fgptminer
: # Assuming you have extracted xmrig in the current directory
cp xmrig freedom-gpt/miner/mac/fgptminer
Ce projet utilise plusieurs packages et bibliothèques open source, sans lesquels ce projet n'aurait pas été possible :
"llama.cpp" - Bibliothèque C++. https://github.com/ggerganov/llama.cpp
"LLAMA" par Facebook Research - un algorithme de recherche du voisin le plus proche à faible latence et à grande échelle. https://github.com/facebookresearch/llama
"Interface utilisateur de Chatbot" - https://github.com/mckaywrigley/chatbot-ui
Nous tenons à exprimer notre gratitude aux développeurs de ces packages et à leurs contributeurs pour avoir mis leur travail à la disposition du public sous licences open source. Leurs contributions nous ont permis de construire un projet plus robuste et plus efficace.
Voir le fichier LICENCE.