Le Smart & Universal Web Scrapper est un outil d'extraction de données intelligent optimisé par Generative AI. Il simplifie le processus de récupération des données de n'importe quel site Web en permettant aux utilisateurs de fournir le lien du site Web et les champs de données requis. Grâce à ses capacités polyvalentes, cet outil peut extraire des données de manière transparente et les présenter sous forme de tableau, qui peut être téléchargé dans différents formats tels qu'Excel, JSON ou Markdown. Son interface intelligente et conviviale garantit une extraction de données efficace et précise pour tous vos besoins de web scraping.
Python:
Python est un langage de programmation populaire et polyvalent connu pour sa simplicité et sa lisibilité. Il est largement utilisé pour diverses applications, notamment le développement Web, l'analyse de données, l'apprentissage automatique et les tâches d'automatisation. Le vaste écosystème de bibliothèques et de frameworks de Python en fait un outil puissant pour les développeurs.
LLaMA 3.1 (70b):
LLaMA (Lean Large-Language Model) est une famille de grands modèles de langage développés par Meta AI. La version 3.1 (70b) fait référence à une variante de modèle spécifique avec 70 milliards de paramètres. Les grands modèles de langage comme LLaMA sont formés sur de grandes quantités de données textuelles, ce qui leur permet de comprendre et de générer du texte de type humain pour diverses tâches de traitement du langage naturel.
Groq API:
l'API Groq donne accès à la puissante plateforme d'inférence d'IA de Groq. Il permet aux développeurs d’exploiter leur matériel et leurs logiciels avancés pour une exécution rapide et efficace de modèles d’IA.
Streamlit:
Streamlit est une bibliothèque Python open source qui simplifie le processus de création d'applications Web interactives de visualisation de données et d'apprentissage automatique. Il permet aux développeurs de créer des interfaces utilisateur en écrivant des scripts Python, facilitant ainsi le partage d'applications basées sur les données avec d'autres.
Forkez ou clonez ce référentiel sur votre machine locale à l'aide de Git.
Installez les bibliothèques nécessaires.
pip install -r requirements.txt
Créez un fichier .env
dans le répertoire de votre projet et ajoutez toutes les clés API requises (par exemple, la clé API Google, la clé API Groq).
streamlit run app.py
Licence publique générale GNU v3.0