Bienvenue sur lollms webui (Lord of Large Language Multimodal Systems : Un outil pour les gouverner tous), la plateforme pour les LLM (Large Language Models) et les systèmes d'intelligence multimodaux. Ce projet vise à fournir une interface conviviale pour accéder et utiliser divers LLM et autres modèles d'IA pour un large éventail de tâches. Que vous ayez besoin d'aide pour écrire, coder, organiser des données, analyser des images, générer des images, générer de la musique ou chercher des réponses à vos questions, lollms webui est là pour vous.
En tant qu'outil complet avec accès à plus de 500 conditionnements experts en IA dans divers domaines et à plus de 2 500 modèles affinés sur plusieurs domaines, vous disposez désormais d'une ressource immédiate pour tout problème. Que votre voiture ait besoin d'être réparée ou que vous ayez besoin d'aide au codage en Python, C++ ou JavaScript ; se sentir déprimé à cause de décisions de vie qui ont été mal prises, mais incapable de voir comment ? Demandez à Lolms. Besoin de conseils sur ce qui vous attend sur le plan de la santé en fonction des symptômes actuels présentés, notre IA d'assistance médicale peut vous aider à obtenir un diagnostic potentiel et vous guider pour rechercher les soins médicaux appropriés. Si vous êtes confronté à des questions juridiques telles que l'interprétation de contrats, n'hésitez pas à contacter un avocat pour obtenir un aperçu à portée de main, le tout sans quitter votre confort. Non seulement cela aide les étudiants qui ont du mal à suivre ces longs lecteurs, mais leur fournit également un soutien supplémentaire lors des évaluations, afin qu'ils soient capables de saisir correctement les concepts plutôt que de simplement lire selon des lignes qui pourraient laisser beaucoup de gens confus par la suite. Envie de divertissement ? Alors engagez Laughter Bot et laissez-vous aller à des rires hystériques jusqu'à ce que les larmes coulent des yeux en jouant à Dungeons&Dragons ou inventez des histoires folles ensemble grâce à Creative Story Generator. Besoin d'un travail d'illustration ? Pas de soucis, Artbot nous a couvert ! Et enfin, LordOfMusic est là pour la génération de musique selon des spécifications individuelles. Dites donc essentiellement au revoir aux nuits ennuyeuses seul, car tout ce qui est possible peut être réalisé au sein d'une seule plateforme appelée Lollms...
Merci à tous les utilisateurs qui ont testé cet outil et contribué à le rendre plus convivial.
Si vous utilisez Windows, visitez simplement la page de version, téléchargez le programme d'installation de Windows et installez-le.
Téléchargez le script d'installation à partir du dossier scripts et exécutez-le. Les scripts d'installation sont :
win_install.bat
pour Windows.linux_install.sh
pour Linux.mac_install.sh
pour Mac.Depuis la version 9.4, il n'est pas conseillé d'effectuer une installation manuelle car de nombreux services nécessitent la création d'un environnement séparé et lollms doit avoir un contrôle complet sur les environnements. Donc, si vous l'installez en utilisant votre propre configuration conda, vous ne pourrez installer aucun service et réduire l'utilisation de lollms à l'interface de chat (pas de xtts, pas de confortable, pas de génération rapide via vllm ou petals ou autre)
La fonction Smart Routing de Lollms va au-delà de la simple sélection du bon modèle pour plus de précision. Il vous permet d'optimiser votre processus de génération de texte pour deux facteurs clés : l'argent et la rapidité .
Optimiser pour l'argent :
Imaginez que vous utilisez plusieurs services de génération de texte avec des prix différents. Certains modèles peuvent être exceptionnellement puissants mais ont un prix élevé, tandis que d'autres offrent une option plus économique avec des capacités légèrement inférieures. Smart Routing vous permet de tirer parti de cette différence de prix à votre avantage :
Optimisation pour la vitesse :
La vitesse est un autre facteur critique dans la génération de texte, en particulier lorsqu'il s'agit de gros volumes de contenu ou de tâches urgentes. Smart Routing vous permet de prioriser la vitesse en :
Exemples de cas d'utilisation :
Conclusion:
Smart Routing est un outil polyvalent qui vous permet d'optimiser votre processus de génération de texte en termes de coût et de rapidité. En tirant parti d'une hiérarchie de modèles et en ajustant dynamiquement votre sélection en fonction de la complexité rapide, vous pouvez atteindre l'équilibre parfait entre efficacité, précision et rentabilité.
En utilisant cet outil, les utilisateurs s'engagent à suivre ces directives :
Veuillez noter que lollms webui n'a pas d'authentification utilisateur intégrée et est principalement conçu pour une utilisation locale. Exposer l'interface Web à un accès externe sans mesures de sécurité appropriées pourrait entraîner des vulnérabilités potentielles.
Si vous avez besoin d'un accès à distance aux LoLLM, il est fortement recommandé de suivre ces consignes de sécurité :
Activer le mode sans tête : l'activation du mode sans tête exposera uniquement l'API de génération tout en désactivant les autres points de terminaison potentiellement vulnérables. Cela permet de minimiser la surface d’attaque.
Configurer un tunnel sécurisé : établissez un tunnel sécurisé entre l'hôte local exécutant LoLLM et le PC distant qui a besoin d'accéder. Cela garantit que la communication entre les deux appareils est cryptée et protégée.
Modifier les paramètres de configuration : Après avoir configuré le tunnel sécurisé, modifiez le fichier /configs/local_config.yaml
et ajustez les paramètres suivants :
host : 0.0.0.0 # Allow remote connections
port : 9600 # Change the port number if desired (default is 9600)
force_accept_remote_access : true # Force accepting remote connections
headless_server_mode : true # Set to true for API-only access, or false if the WebUI is needed
En suivant ces pratiques de sécurité, vous pouvez contribuer à protéger votre instance LoLLMs et ses utilisateurs contre les risques de sécurité potentiels lors de l'activation de l'accès à distance.
N'oubliez pas qu'il est crucial de donner la priorité à la sécurité et de prendre les précautions nécessaires pour protéger votre système et vos informations sensibles. Si vous avez d'autres questions ou préoccupations concernant la sécurité des LoLLM, veuillez consulter la documentation ou contacter la communauté pour obtenir de l'aide.
Restez en sécurité et profitez des LoLLM de manière responsable !
Les grands modèles linguistiques sont des outils étonnants qui peuvent être utilisés à diverses fins. Lollms a été conçu pour exploiter cette puissance afin d'aider l'utilisateur à améliorer sa productivité. Mais vous devez garder à l’esprit que ces modèles ont leurs limites et ne doivent pas remplacer l’intelligence ou la créativité humaine, mais plutôt les augmenter en fournissant des suggestions basées sur des modèles trouvés dans de grandes quantités de données. C'est à chacun de décider comment il choisit de les utiliser de manière responsable !
Les performances du système varient en fonction du modèle utilisé, de sa taille et de l'ensemble de données sur lequel il a été formé. Plus l'ensemble de formation d'un modèle de langage est grand (plus il y a d'exemples), d'une manière générale, de meilleurs résultats suivront lors de l'utilisation de tels systèmes par rapport à ceux avec des systèmes plus petits. Mais il n'y a toujours aucune garantie que le résultat généré à partir d'une invite donnée sera toujours parfait et il peut contenir des erreurs pour diverses raisons. Assurez-vous donc de ne pas l'utiliser pour des questions sérieuses comme le choix de médicaments ou la prise de décisions financières sans consulter un expert de première main !
Ce référentiel utilise du code sous ApacheLicense version 2.0, voir le fichier de licence pour plus de détails sur les droits accordés en ce qui concerne l'utilisation et la distribution.
ParisNéo 2023