Discutez avec LLMS sur votre Mac sans installer d'autres logiciels. Chaque conversation est enregistrée localement, toutes les conversations se produisent hors ligne.
Rejoignez la version bêta de Testflight: https://6032904148827.gumroad.com/l/freechat-beta
Ou télécharger sur le Mac App Store: https://apps.apple.com/us/app/freechat/id6458534902
Ou construire à partir de la source via "Archive" dans Xcode après avoir terminé la configuration de développement ci-dessous.
L'objectif principal de Freechat est de rendre accessible les modèles locaux et privés locaux à plus de personnes.
Freechat est un appareil LLM natif pour MacOS qui s'exécute complètement localement. Téléchargez-le et posez une question à votre LLM sans faire de configuration. Une version locale / lama du chat d'Openai sans connexion ni suivi. Vous devriez pouvoir installer à partir du Mac App Store et l'utiliser immédiatement.
Une fois que vous êtes opérationnel, c'est amusant d'essayer différents modèles dans Freechat. La communauté de formation de l'IA publie de nouveaux modèles essentiellement tous les jours. Freechat est compatible avec tout modèle formaté GGUF avec lequel Llama.cpp travaille.
Les modèles sont généralement nommés avec leur nombre de paramètres (par exemple 7b) et sont formatés avec différents niveaux de compression avec perte appliquée (quantification). La règle générale est que les modèles avec plus de paramètres ont tendance à être plus lents et plus sages et plus de quantification le rend stupide.
Pour trouver des modèles, essayez d'étreindre le visage. La plupart des modèles ont une «carte modèle» liée par l'auteur qui discute de sa formation et de ses capacités.
Les contributions sont les bienvenues. Rendons Freechat simple et puissant.
Ce projet ne serait pas possible sans le travail acharné de:
Un grand merci également à Billy Rennekamp, Elliot Hursh, Tomás Savigliano, Judd Schoenholtz, Alex Farrill pour les sessions inestimables de spitball.