Intelligence open source complète et à la demande pour tout site Web
Web-Check.xyz
Aimablement soutenu par:
La maison $ de toutes choses dans le terminal.
Trouvez votre prochain outil CLI / TUI et plus à Terminal Trove,
Obtenez des mises à jour sur les nouveaux outils sur notre newsletter.
Obtenez un aperçu des travailleurs internes d'un site Web donné: découvrez les vecteurs d'attaque potentiels, analysez l'architecture du serveur, affichez les configurations de sécurité et découvrez quelles technologies qu'un site utilise.
Actuellement, le tableau de bord affichera: IP Info, chaîne SSL, enregistrements DNS, cookies, en-têtes, informations sur le domaine, règles de recherche de recherche, carte de page, emplacement du serveur, registre de redirection, ports ouverts, traceroute, extensions de sécurité DNS, performances du site, trackers, associés Noms d'hôte, empreinte carbone. Restez à l'écoute, car j'en ajouterai plus bientôt!
L'objectif est de vous aider à comprendre, optimiser et sécuriser facilement votre site Web.
Gestion des repo et divers:
Remarque Cette liste doit être mise à jour, de nombreux autres travaux ont été ajoutés depuis ...
La section suivante décrit les caractéristiques de base et explique brièvement pourquoi ces données pourraient être utiles pour que vous sachiez, ainsi que des liens vers d'autres ressources pour en savoir plus.
Une adresse IP (adresse de protocole Internet) est une étiquette numérique attribuée à chaque appareil connecté à un réseau / Internet. L'IP associée à un domaine donné peut être trouvée en interrogeant le système de noms de domaine (DNS) pour l'enregistrement (adresse) du domaine.
La recherche de l'IP d'un serveur donné est la première étape pour mener des enquêtes supplémentaires, car elle nous permet de sonder le serveur pour plus d'informations. Y compris la création d'une carte détaillée de l'infrastructure réseau d'une cible, l'entraînement de l'emplacement physique d'un serveur, l'identification du service d'hébergement et même la découverte d'autres domaines hébergés sur la même adresse IP.
Les certificats SSL sont des certificats numériques qui authentifient l'identité d'un site Web ou d'un serveur, permettent une communication cryptée sécurisée (HTTPS) et établir la confiance entre les clients et les serveurs. Un certificat SSL valide est requis pour qu'un site Web puisse utiliser le protocole HTTPS et crypter les données User + Site en transit. Les certificats SSL sont délivrés par les autorités de certificat (CAS), qui sont des tiers de confiance qui vérifient l'identité et la légitimité du titulaire du certificat.
Les certificats SSL fournissent non seulement l'assurance que la transmission des données vers et depuis le site Web est sécurisée, mais elles fournissent également des données OSINT précieuses. Les informations d'un certificat SSL peuvent inclure l'autorité émettrice, le nom de domaine, sa période de validité et parfois même les détails de l'organisation. Cela peut être utile pour vérifier l'authenticité d'un site Web, comprendre sa configuration de sécurité, ou même pour découvrir des sous-domaines associés ou d'autres services.
Cette tâche consiste à rechercher les enregistrements DNS associés à un domaine spécifique. DNS est un système qui traduit les noms de domaine lisibles par l'homme en adresses IP que les ordinateurs utilisent pour communiquer. Il existe différents types d'enregistrements DNS, y compris A (adresse), MX (Mail Exchange), NS (Name Server), CNAME (nom canonique) et TXT (texte), entre autres.
L'extraction des dossiers DNS peut fournir une mine d'informations dans une enquête OSINT. Par exemple, les enregistrements A et AAAA peuvent divulguer les adresses IP associées à un domaine, potentiellement révélant l'emplacement des serveurs. Les enregistrements MX peuvent donner des indices sur le fournisseur de courriels d'un domaine. Les enregistrements TXT sont souvent utilisés à diverses fins administratifs et peuvent parfois fuir par inadvertance des informations internes. Comprendre la configuration DNS d'un domaine peut également être utile pour comprendre comment son infrastructure en ligne est construite et gérée.
La tâche des cookies consiste à examiner les cookies HTTP définis par le site Web Target. Les cookies sont de petites données stockées sur l'ordinateur de l'utilisateur par le navigateur Web tout en parcourant un site Web. Ils détiennent une quantité modeste de données spécifiques à un client et un site Web particulier, tels que les préférences du site, l'état de la session de l'utilisateur ou le suivi des informations.
Les cookies peuvent divulguer des informations sur la façon dont le site Web suit et interagit avec ses utilisateurs. Par exemple, les cookies de session peuvent révéler comment les sessions utilisateur sont gérées et les cookies de suivi peuvent faire allusion au type de trame de suivi ou d'analyse utilisé. De plus, l'examen des politiques et pratiques des cookies peut offrir un aperçu des paramètres de sécurité du site et une conformité aux réglementations de confidentialité.
Robots.txt est un fichier trouvé (généralement) à la racine d'un domaine, et est utilisé pour implémenter le protocole d'exclusion des robots (REP) pour indiquer quelles pages doivent être ignorées par quels robots et bots. Il est bon à éviter que les robots de recherche de moteurs de recherche de surcharger votre site, mais ne doivent pas être utilisés pour garder les pages hors des résultats de recherche (utilisez la balise ou en-tête NOINDEX Meta à la place).
Il est souvent utile de vérifier le fichier robots.txt lors d'une enquête, car il peut parfois divulguer les répertoires et les pages que le propriétaire du site ne veut pas être indexés, potentiellement parce qu'ils contiennent des informations sensibles, ou révèlent l'existence autrement cachée ou répertoires non liés. En outre, la compréhension des règles de manche peut offrir des informations sur les stratégies de référencement d'un site Web.
La tâche des en-têtes consiste à extraire et à interpréter les en-têtes HTTP envoyés par le site Web Target pendant le cycle de demande de réponse. Les en-têtes HTTP sont des paires de valeurs clés envoyées au début d'une réponse HTTP ou avant les données réelles. Les en-têtes contiennent des directives importantes pour gérer les données en cours de transfert, y compris les stratégies de cache, les types de contenu, le codage, les informations du serveur, les politiques de sécurité, etc.
L'analyse des en-têtes HTTP peut fournir des informations importantes dans une enquête OSINT. Les en-têtes peuvent révéler des configurations de serveur spécifiques, des technologies choisies, des directives de mise en cache et divers paramètres de sécurité. Ces informations peuvent aider à déterminer la pile de technologies sous-jacente d'un site Web, les mesures de sécurité côté serveur, les vulnérabilités potentielles et les pratiques opérationnelles générales.
À l'aide de Lighthouse, la tâche de métriques de qualité mesure les performances, l'accessibilité, les meilleures pratiques et le référencement du site Web cible. Cela renvoie une liste de contrôle simple de 100 mesures de base, ainsi qu'un score pour chaque catégorie, pour évaluer la qualité globale d'un site donné.
Utile pour évaluer la santé technique d'un site, les problèmes de référencement, identifier les vulnérabilités et assurer le respect des normes.
La tâche d'emplacement du serveur détermine l'emplacement physique du serveur hébergeant un site Web donné en fonction de son adresse IP. Cela se fait en recherchant l'IP dans une base de données de localisation, qui mappe l'IP à un long des centres de données et des FAI connus LAT +. De la latitude et de la longitude, il est alors possible d'afficher des informations contextuelles supplémentaires, comme une épingle sur la carte, ainsi que l'adresse, le drapeau, le fuseau horaire, la monnaie, etc.
Connaître l'emplacement du serveur est une bonne première étape pour mieux comprendre un site Web. Pour les propriétaires de sites, cela aide à optimiser la livraison de contenu, à garantir la conformité aux exigences de résidence des données et à identifier les problèmes potentiels de latence qui peuvent avoir un impact sur l'expérience des utilisateurs dans des régions géographiques spécifiques. Et pour le chercheur en sécurité, évaluez le risque posé par des régions ou des juridictions spécifiques concernant les cyber-menaces et les réglementations.
Cette tâche consiste à identifier et à répertorier tous les domaines et sous-domaines (noms d'hôte) associés au domaine principal du site Web. Ce processus implique souvent un énumération DNS pour découvrir tous les domaines et noms d'hôte liés, ainsi que pour regarder les enregistrements DNS connus.
Au cours d'une enquête, il est essentiel de comprendre la portée complète de la présence Web d'une cible. Les domaines associés pourraient conduire à découvrir des projets connexes, des sites de sauvegarde, des sites de développement / test ou des services liés au site principal. Ceux-ci peuvent parfois fournir des informations supplémentaires ou des vulnérabilités de sécurité potentielles. Une liste complète des domaines et des noms d'hôtes associés peut également donner un aperçu de la structure de l'organisation et de l'empreinte en ligne.
Cette tâche retrace la séquence des redirectes HTTP qui se produisent de l'URL d'origine vers l'URL de destination finale. Une redirection HTTP est une réponse avec un code d'état qui conseille au client d'aller à une autre URL. Les redirectes peuvent survenir pour plusieurs raisons, telles que la normalisation de l'URL (diriger vers la version www du site), l'application des HTTP, les raccourcisseurs d'URL ou le transfert des utilisateurs vers un nouvel emplacement du site.
Comprendre la chaîne de redirection peut être utile pour plusieurs raisons. Du point de vue de la sécurité, les chaînes de redirection longues ou compliquées peuvent être un signe de risques de sécurité potentiels, tels que des redirections non cryptées dans la chaîne. De plus, les redirectes peuvent avoir un impact sur les performances du site Web et le référencement, car chaque redirection introduit un temps aller-retour supplémentaire (RTT). Pour OSINT, la compréhension de la chaîne de redirection peut aider à identifier les relations entre les différents domaines ou à révéler l'utilisation de certaines technologies ou des fournisseurs d'hébergement.
Les enregistrements TXT sont un type d'enregistrement DNS qui fournit des informations texte aux sources en dehors de votre domaine. Ils peuvent être utilisés à diverses fins, tels que la vérification de la propriété du domaine, garantissant la sécurité des e-mails et même la prévention des modifications non autorisées de votre site Web.
Les enregistrements TXT révèlent souvent quels services et technologies externes sont utilisés avec un domaine donné. Ils peuvent révéler des détails sur la configuration des e-mails du domaine, l'utilisation de services spécifiques comme Google Workspace ou Microsoft 365, ou des mesures de sécurité en place telles que SPF et DKIM. La compréhension de ces détails peut donner un aperçu des technologies utilisées par l'organisation, de leurs pratiques de sécurité par e-mail et des vulnérabilités potentielles.
Vérifie si un serveur est en ligne et répond aux demandes.
Les ports ouverts d'un serveur sont des points de fin de communication qui sont disponibles pour établir des connexions avec les clients. Chaque port correspond à un service ou un protocole spécifique, tel que HTTP (port 80), HTTPS (port 443), FTP (port 21), etc. Les ports ouverts d'un serveur peuvent être déterminés à l'aide de techniques telles que la numérisation du port.
Savoir quels ports sont ouverts sur un serveur peuvent fournir des informations sur les services exécutés sur ce serveur, utile pour comprendre les vulnérabilités potentielles du système ou pour comprendre la nature des services fournis par le serveur.
Traceroute est un outil de diagnostic réseau utilisé pour suivre en temps réel la voie prise par un paquet d'informations d'un système à un autre. Il enregistre chaque saut le long de l'itinéraire, fournissant des détails sur les IPS des routeurs et le retard à chaque point.
Dans OSInt Investigations, Traceroute peut fournir des informations sur les chemins de routage et la géographie de l'infrastructure réseau soutenant un site Web ou un service. Cela peut aider à identifier les goulots d'étranglement du réseau, une censure potentielle ou une manipulation du trafic du réseau et donner une idée globale de la structure et de l'efficacité du réseau. De plus, les adresses IP recueillies au cours du traceroute peuvent fournir des points d'enquête supplémentaires pour une enquête OSINT supplémentaire.
Cette tâche calcule l'empreinte carbone estimée d'un site Web. Il est basé sur la quantité de données transférées et traitées, et la consommation d'énergie des serveurs qui hébergent et livrent le site Web. Plus le site Web est grand et plus ses fonctionnalités sont complexes, plus son empreinte carbone est susceptible d'être élevée.
Du point de vue de l'Osint, la compréhension de l'empreinte carbone d'un site Web ne donne pas directement un aperçu de son fonctionnement interne ou de l'organisation derrière elle. Cependant, il peut encore s'agir de données précieuses dans des analyses plus larges, en particulier dans des contextes où l'impact environnemental est une considération. Par exemple, il peut être utile pour les militants, les chercheurs ou les pirates éthiques qui s'intéressent à la durabilité des infrastructures numériques et qui souhaitent tenir les organisations responsables de leur impact environnemental.
Cette tâche récupère diverses informations sur le serveur hébergeant le site Web cible. Cela peut inclure le type de serveur (par exemple, Apache, Nginx), le fournisseur d'hébergement, le numéro de système autonome (ASN), et plus encore. Les informations sont généralement obtenues grâce à une combinaison de recherches d'adresses IP et d'analyse des en-têtes de réponse HTTP.
Dans un contexte OSINT, les informations du serveur peuvent fournir des indices précieux sur l'organisation derrière un site Web. Par exemple, le choix du fournisseur d'hébergement pourrait suggérer la région géographique dans laquelle l'organisation fonctionne, tandis que le type de serveur pourrait faire allusion aux technologies utilisées par l'organisation. L'ASN pourrait également être utilisé pour trouver d'autres domaines hébergés par la même organisation.
Cette tâche récupère les enregistrements WHOIS pour le domaine cible. Les enregistrements WHOIS sont une riche source d'informations, notamment le nom et les coordonnées du inscrit du domaine, les dates de création et d'expiration du domaine, les serveurs de noms du domaine, etc. Les informations sont généralement obtenues via une requête à un serveur de base de données WHOIS.
Dans un contexte OSINT, WHOIS Records peut fournir des indices précieux sur l'entité derrière un site Web. Ils peuvent montrer quand le domaine a été enregistré pour la première fois et quand il est prêt à expirer, ce qui pourrait donner un aperçu de la chronologie opérationnelle de l'entité. Les coordonnées, bien que souvent expurgées ou anonymisées, peuvent parfois conduire à des voies d'enquête supplémentaires. Les serveurs de noms pourraient également être utilisés pour relier plusieurs domaines appartenant à la même entité.
Cette tâche récupère les enregistrements WHOIS pour le domaine cible. Les enregistrements WHOIS sont une riche source d'informations, notamment le nom et les coordonnées du inscrit du domaine, les dates de création et d'expiration du domaine, les serveurs de noms du domaine, etc. Les informations sont généralement obtenues via une requête à un serveur de base de données WHOIS.
Dans un contexte OSINT, WHOIS Records peut fournir des indices précieux sur l'entité derrière un site Web. Ils peuvent montrer quand le domaine a été enregistré pour la première fois et quand il est prêt à expirer, ce qui pourrait donner un aperçu de la chronologie opérationnelle de l'entité. Les coordonnées, bien que souvent expurgées ou anonymisées, peuvent parfois conduire à des voies d'enquête supplémentaires. Les serveurs de noms pourraient également être utilisés pour relier plusieurs domaines appartenant à la même entité.
Sans DNSSEC, il est possible pour les attaquants de MITM de l'entraîner des enregistrements et de conduire les utilisateurs vers des sites de phishing. En effet, le système DNS ne comprend aucune méthode intégrée pour vérifier que la réponse à la demande n'a pas été forgée, ou que toute autre partie du processus n'a pas été interrompue par un attaquant. Les extensions de sécurité DNS (DNSSEC) sécurisent les recherches DNS en signant vos enregistrements DNS à l'aide de clés publiques, de sorte que les navigateurs peuvent détecter si la réponse a été falsifiée. Une autre solution à ce problème est DOH (DNS sur HTTPS) et DOT (DNS sur TLD).
Les informations DNSSEC donnent un aperçu du niveau de maturité de la cybersécurité d'une organisation et des vulnérabilités potentielles, en particulier autour de l'usurpation du DNS et de l'intoxication au cache. Si aucune tirure DNS (DNSEC, DOH, DOT, etc.) n'est mise en œuvre, cela peut fournir un point d'entrée pour un attaquant.
Vérifie quelles fonctionnalités de base sont présentes sur un site. Si une fonctionnalité aussi marquée comme morte, cela signifie qu'il n'est pas activement utilisé au moment du chargement
Ceci est utile pour comprendre ce dont un site est capable et quelles technologies rechercher
HTTP Strict Transport Security (HSTS) est un mécanisme de politique de sécurité Web qui aide à protéger les sites Web contre les attaques de rétrogradation du protocole et le détournement des cookies. Un site Web peut être inclus dans la liste des précharges HSTS en se conformant à un ensemble d'exigences, puis en se soumettant à la liste.
Il y a plusieurs raisons pour lesquelles il est important qu'un site soit activé par HSTS: 1. Bookmarks utilisateur ou tape manuellement http://example.com et est soumis à un homme d'attaquant de milieu Le domaine cible 2. L'application Web qui est destinée à être purement HTTPS contient par inadvertance des liens HTTP ou sert du contenu via HTTP HSTS redirige automatiquement les demandes HTTP à HTTP Un utilisateur de victime utilisant un certificat non valide et espère que l'utilisateur acceptera le mauvais certificat que HSTS ne permet pas à un utilisateur de remplacer le message de certificat non valide
Cette vérification détermine le ou les serveurs DNS que l'URL / IP demandés se résout. Tire également une vérification rudimentaire pour voir si le serveur DNS prend en charge le DOH, et il est vulnérable à l'empoisonnement du cache DNS.
Vérifie avec quelle technologie un site est construit. Cela se fait en récupérant et en analysant le site, puis en le comparant à une liste de regex maintenue par Wappalyzer pour identifier les empreintes digitales uniques que les différentes technologies laissent.
L'identification de la pile technologique d'un site Web aide à évaluer sa sécurité en exposant des vulnérabilités potentielles, informe les analyses compétitives et les décisions de développement et peut guider les stratégies de marketing personnalisées. L'application éthique de ces connaissances est cruciale pour éviter les activités nocives comme le vol de données ou l'intrusion non autorisée.
Ce travail trouve et analyse le plan du site répertorié d'un site. Ce fichier répertorie les sous-pages publics du site, que l'auteur souhaite être rampé par les moteurs de recherche. Les sitemaps aident avec le référencement, mais sont également utiles pour voir tous les sites du contenu public en un coup d'œil.
Comprenez la structure du contenu en public d'un site et pour les propriétaires du site, vérifiez que le site de site de votre site est accessible, analysé et contient tout ce que vous souhaitez.
Le fichier Security.txt indique aux chercheurs comment ils peuvent divulguer de manière responsable les problèmes de sécurité trouvés sur votre site. La norme a été proposée dans RFC 9116 et spécifie que ce fichier doit inclure un point de contact (adresse e-mail), ainsi que dans le cadre d'autres informations, comme un lien vers la politique de divulgation de sécurité, la clé PGP, le langage offert, l'expiration de la politique et plus . Le fichier doit être situé à la racine de votre domaine, sur /security.txt ou /.well-known/security.txt.
Ceci est important, car sans un point de contact défini, un chercheur en sécurité peut ne pas être en mesure de signaler un problème de sécurité critique, ou peut utiliser des canaux peu sûrs ou éventuellement publics pour le faire. Du point de vue de l'Osint, vous pouvez également glaner des informations sur un site comprenant leur posture sur la sécurité, leur fournisseur de CSAF et les méta-données de la clé publique PGP.
Affiche tous les liens internes et externes trouvés sur un site, identifiés par les attributs HREF attachés aux éléments d'ancrage.
Pour les propriétaires de sites, cela est utile pour diagnostiquer les problèmes de référencement, améliorer la structure du site, comprendre comment le contenu est interconnecté. Les liens externes peuvent montrer des partenariats, des dépendances et des risques de réputation potentiels. Du point de vue de la sécurité, les liens sortants peuvent aider à identifier tous les sites potentiels malveillants ou compromis auxquels le site Web lie sans le savoir. L'analyse des liens internes peut aider à comprendre la structure du site et à découvrir potentiellement des pages cachées ou vulnérables qui ne sont pas destinées à être publiques. Et pour un enquêteur OSINT, il peut aider à établir une compréhension complète de la cible, à découvrir des entités liées, des ressources ou même des parties cachées potentielles du site.
Les sites Web peuvent inclure certaines balises Meta, qui indiquent que les moteurs de recherche et les plateformes de médias sociaux sont les informations à afficher. Cela comprend généralement un titre, une description, une miniature, des mots clés, un auteur, des comptes sociaux, etc.
L'ajout de ces données à votre site augmentera le référencement, et en tant que chercheur OSINT, il peut être utile de comprendre comment une application Web donnée se décrit
DMARC (Authentification des messages basés sur le domaine, reportage et conformité): DMARC est un protocole d'authentification par e-mail qui fonctionne avec SPF et DKIM pour éviter l'usurpation et le phishing des e-mails. Il permet aux propriétaires de domaine de spécifier comment gérer le courrier non authentifié via une politique publiée dans DNS, et fournit un moyen de recevoir des serveurs de courrier d'envoyer des commentaires sur la conformité des e-mails à l'expéditeur. BIMI (Indicateurs de marque pour l'identification des messages): Bimi est une norme de messagerie émergente qui permet aux organisations d'afficher automatiquement un logo dans les clients de messagerie de leurs clients. Bimi attache le logo au dossier DMARC du domaine, offrant un autre niveau d'assurance visuelle aux destinataires que l'e-mail est légitime. DKIM (DomainKeys identifié Mail): DKIM est une norme de sécurité par e-mail conçue pour s'assurer que les messages n'ont pas été modifiés en transit entre les serveurs d'envoi et de destinataire. Il utilise des signatures numériques liées au domaine de l'expéditeur pour vérifier l'expéditeur et assurer l'intégrité des messages. SPF (Sender Policy Framework): SPF est une méthode d'authentification par e-mail conçue pour empêcher l'usurpation par e-mail. Il spécifie quels serveurs de courrier sont autorisés à envoyer des e-mails au nom d'un domaine en créant un enregistrement DNS. Cela aide à protéger contre le spam en fournissant un moyen de recevoir des serveurs de messagerie pour vérifier que le courrier entrant d'un domaine provient d'un hôte autorisé par les administrateurs de ce domaine.
Ces informations sont utiles pour les chercheurs car elles aident à évaluer la posture de sécurité par e-mail d'un domaine, à découvrir des vulnérabilités potentielles et à vérifier la légitimité des e-mails pour la détection de phishing. Ces détails peuvent également donner un aperçu de l'environnement d'hébergement, des fournisseurs de services potentiels et des modèles de configuration d'une organisation cible, aidant aux efforts d'investigation.
Un pare-feu WAF ou d'application Web aide à protéger les applications Web en filtrant et en surveillant le trafic HTTP entre une application Web et Internet. Il protège généralement les applications Web contre les attaques telles que la contrefaçon croisée, le scénario croisé (XSS), l'inclusion de fichiers et l'injection SQL, entre autres.
Il est utile de comprendre si un site utilise un WAF et quel logiciel / service de pare-feu qu'il utilise, car cela fournit un aperçu de la protection des sites contre plusieurs vecteurs d'attaque, mais peut également révéler des vulnérabilités dans le pare-feu lui-même.
Les en-têtes HTTP de sécurité correctement configurés ajoutent une couche de protection contre les attaques courantes à votre site. Les principaux en-têtes à connaître sont: HTTP stricte Transport Security (HSTS): applique l'utilisation de HTTPS, atténuant les attaques de l'homme au milieu et les tentatives de rétrogradation du protocole. Politique de sécurité du contenu (CSP): limite les ressources de la page Web pour éviter les attaques de scripts et d'injection de données croisées. Options de type X-Content: Empêche les navigateurs de renifler la mime d'une réponse loin du type de contenu déclaré, freinant les attaques de confusion de type mime. X-Frame-Options: protège les utilisateurs contre les attaques de jacking en contrôlant si un navigateur doit rendre la page dans un <frame>
, <iframe>
, <embed>
ou <object>
.
Il est important de revoir les en-têtes de sécurité, car il offre un aperçu de la posture défensive d'un site et des vulnérabilités potentielles, permettant une atténuation proactive et assurer le respect des meilleures pratiques de sécurité.
Récupère une histoire complète des archives de la machine Wayback
Ceci est utile pour comprendre l'histoire d'un site et comment il a changé au fil du temps. Il peut également être utile pour trouver de vieilles versions d'un site ou pour trouver du contenu qui a été supprimé.
Ce chèque montre le rang global du site demandé. Ceci n'est exact que pour les sites Web qui figurent dans la liste des 100 millions. Nous utilisons des données du projet Tranco (voir ci-dessous), qui rassemble les meilleurs sites du Web de Umbrella, Majestic, Quantcast, le Chrome User Experience Report et CloudFlare Radar.
Connaître un rang global global de sites Web peut être utile pour comprendre l'échelle du site et pour la comparer à d'autres sites. Il peut également être utile pour comprendre la popularité relative d'un site et pour identifier les tendances potentielles.
Vérifie l'accès à l'URL en utilisant 10+ des serveurs DNS de confidentialité, de logiciels malveillants et de contrôle parental les plus populaires.
Vérifie si un site apparaît dans plusieurs listes de logiciels malveillants et de phishing courantes, pour déterminer son niveau de menace.
Savoir si un site est répertorié comme une menace par l'un de ces services peut être utile pour comprendre la réputation d'un site et pour identifier les tendances potentielles.
Ce sont des combinaisons d'algorithmes cryptographiques utilisés par le serveur pour établir une connexion sécurisée. Il comprend l'algorithme d'échange de clés, l'algorithme de cryptage en vrac, l'algorithme MAC et le PRF (fonction pseudorandom).
Il s'agit d'informations importantes à tester d'un point de vue de la sécurité. Parce qu'une suite de chiffres est aussi sécurisée que les algorithmes qu'il contient. Si la version de l'algorithme de cryptage ou d'authentification dans une suite de chiffres a des vulnérabilités connues, la suite de chiffre
Cela utilise des directives de l'observatoire TLS de Mozilla pour vérifier la sécurité de la configuration TLS. Il vérifie les mauvaises configurations, ce qui peut laisser le site vulnérable aux attaques, ainsi que des conseils sur la façon de réparer. Il donnera également des suggestions autour des configurations TLS obsolètes et modernes
La compréhension des problèmes avec la configuration TLS d'un site vous aidera à aborder les vulnérabilités potentielles et à vous assurer que le site utilise la configuration TLS la plus récente et la plus sécurisée.
Cela simule comment différents clients (navigateurs, systèmes d'exploitation) effectueraient une poignée de main TLS avec le serveur. Il aide à identifier les problèmes de compatibilité et les configurations d'insécurité.
Cette vérification prend une capture d'écran de la page Web que l'URL / IP demandée se résout et l'affiche.
Cela peut être utile pour voir à quoi ressemble un site Web donné, sans contraintes de votre navigateur, IP ou votre emplacement.
Lire la suite ici: web-check.xyz/about
Cliquez sur le bouton ci-dessous, pour déployer sur Netlify?
Cliquez sur le bouton ci-dessous, pour déployer sur Vercel?
Exécutez docker run -p 3000:3000 lissy93/web-check
, puis ouvrez localhost:3000
Vous pouvez obtenir l'image docker de:
lissy93/web-check
ghcr.io/lissy93/web-check
docker build -t web-check .
Installez les conditions préalables répertoriées dans la section en développement, puis exécutez:
git clone https://github.com/Lissy93/web-check.git # Download the code from GitHub
cd web-check # Navigate into the project dir
yarn install # Install the NPM dependencies
yarn build # Build the app for production
yarn serve # Start the app (API and GUI)
Par défaut, aucune configuration n'est nécessaire.
Mais il existe des variables environnementales facultatives que vous pouvez définir pour vous donner accès à certaines vérifications supplémentaires, ou pour augmenter les limites de taux pour certaines vérifications qui utilisent des API externes.
Clés API et références :
Clé | Valeur |
---|---|
GOOGLE_CLOUD_API_KEY | Une clé API Google (allez ici). Cela peut être utilisé pour retourner des mesures de qualité pour un site |
REACT_APP_SHODAN_API_KEY | Une clé API Shodan (allez ici). Cela affichera les noms d'hôtes associés pour un domaine donné |
REACT_APP_WHO_API_KEY | Une clé whoapi (allez ici). Cela montrera des enregistrements WHOIS plus complets que le travail par défaut |
GOOGLE_CLOUD_API_KEY
- Une touche API Google (allez ici). Cela peut être utilisé pour retourner des mesures de qualité pour un siteREACT_APP_SHODAN_API_KEY
- une clé API Shodan (allez ici). Cela affichera les noms d'hôtes associés pour un domaine donnéREACT_APP_WHO_API_KEY
- une touche whoapi (allez ici). Cela montrera des enregistrements WHOIS plus complets que le travail par défautSECURITY_TRAILS_API_KEY
- Une touche API de sécurité des sentiers de sécurité (allez ici). Cela affichera des informations sur l'organisation associées à l'IPCLOUDMERSIVE_API_KEY
- Clé API pour CloudMersive (allez ici). Cela montrera des menaces connues associées à l'IPTRANCO_USERNAME
- Un e-mail Trancco (allez ici). Cela montrera le rang d'un site, en fonction du traficTRANCO_API_KEY
- Une touche API Tranco (allez ici). Cela montrera le rang d'un site, en fonction du traficURL_SCAN_API_KEY
- Une touche API URLScan (allez ici). This will fetch miscalanious info about a siteBUILT_WITH_API_KEY
- A BuiltWith API key (get here). This will show the main features of a siteTORRENT_IP_API_KEY
- A torrent API key (get here). This will show torrents downloaded by an IPConfiguration Settings :
Clé | Valeur |
---|---|
PORT | Port to serve the API, when running server.js (eg 3000 ) |
API_ENABLE_RATE_LIMIT | Enable rate-limiting for the /api endpoints (eg true ) |
API_TIMEOUT_LIMIT | The timeout limit for API requests, in milliseconds (eg 10000 ) |
API_CORS_ORIGIN | Enable CORS, by setting your allowed hostname(s) here (eg example.com ) |
CHROME_PATH | The path the Chromium executable (eg /usr/bin/chromium ) |
DISABLE_GUI | Disable the GUI, and only serve the API (eg false ) |
REACT_APP_API_ENDPOINT | The endpoint for the API, either local or remote (eg /api ) |
All values are optional.
You can add these as environmental variables. Either put them directly into an .env
file in the projects root, or via the Netlify / Vercel UI, or by passing to the Docker container with the --env flag, or using your own environmental variable management system
Note that keys that are prefixed with REACT_APP_
are used client-side, and as such they must be scoped correctly with minimum privileges, since may be made visible when intercepting browser <-> server network requests
git clone [email protected]:Lissy93/web-check.git
cd web-check
yarn
yarn dev
You'll need Node.js (V 18.16.1 or later) installed, plus yarn as well as git. Some checks also require chromium
, traceroute
and dns
to be installed within your environment. These jobs will just be skipped if those packages aren't present.
Contributions of any kind are very welcome, and would be much appreciated. For Code of Conduct, see Contributor Convent.
To get started, fork the repo, make your changes, add, commit and push the code, then come back here to open a pull request. If you're new to GitHub or open source, this guide or the git docs may help you get started, but feel free to reach out if you need any support.
If you've found something that doesn't work as it should, or would like to suggest a new feature, then go ahead and raise a ticket on GitHub. For bugs, please outline the steps needed to reproduce, and include relevant info like system info and resulting logs.
The app will remain 100% free and open source. But due to the amount of traffic that the hosted instance gets, the lambda function usage is costing about $25/month. Any help with covering the costs via GitHub Sponsorship would be much appreciated. It's thanks to the support of the community that this project is able to be freely available for everyone :)
Credit to the following users for contributing to Web-Check
Alicia Sykes | Alicia Bot | Denis Simonov | Mounir Samite | Chris Carini | Michael Bolens |
Marcus Sand | Jinna Baalu | GreyXor | Brian Teeman | Vitaly Karasik | n4n5 |
Lth | Abhishek Muge | Ulises Gascón | PhiRequiem | Myzel394 | Murray Christopherson |
Marco Ochse | John Hupperts | Ikko Eltociear Ashimine | Gertje823 | Ed Preston | Dimitri Kandassamy |
0xflotus |
Huge thanks to these wonderful people, who sponsor me on GitHub, their support helps cover the costs required to keep Web-Check and my other projects free for everyone. Consider joining them, by sponsoring me on GitHub if you're able.
Vincent Koc | Torgny Bjers | Anand Chowdhary | Shrippen | Zach Biles | Ulises Gascón |
Digital Archeology | InDieTasten | Araguaci | Brian McGonagill | Vlad | HeliXZz |
Patrick Van Der Veken | Göksel Yeşiller | Shiverme Timbers | Forward Email - Open-source & Privacy-focused Email Service (2023) | GT | Bastii717 |
Umbrel | Frankdez93 | Terminal Trove | Nrvo | hudsonrock-partnerships |
Lissy93/Web-Check is licensed under MIT © Alicia Sykes 2023.
For information, see TLDR Legal > MIT
The MIT License (MIT)
Copyright (c) Alicia Sykes <[email protected]>
Permission is hereby granted, free of charge, to any person obtaining a copy
of this software and associated documentation files (the "Software"), to deal
in the Software without restriction, including without limitation the rights
to use, copy, modify, merge, publish, distribute, sub-license, and/or sell
copies of the Software, and to permit persons to whom the Software is furnished
to do so, subject to the following conditions:
The above copyright notice and this permission notice shall be included install
copies or substantial portions of the Software.
THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR IMPLIED,
INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANT ABILITY, FITNESS FOR A
PARTICULAR PURPOSE AND NON INFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT
HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION
OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE
SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE.
© Alicia Sykes 2023
Licensed under MIT
Thanks for visiting :)