Inteligencia integral de código abierto a pedido para cualquier sitio web
web-check.xyz
Amablemente compatible con:
La casa $ de todas las cosas en la terminal.
Encuentre su próxima herramienta CLI / TUI y más en Terminal Trove,
Obtenga actualizaciones sobre nuevas herramientas en nuestro boletín.
Obtenga una idea de los trabajos internos de un sitio web determinado: descubrir vectores de ataque potenciales, analizar la arquitectura del servidor, ver las configuraciones de seguridad y aprender qué tecnologías está utilizando un sitio.
Actualmente, el tablero se mostrará: información de IP, cadena SLL, registros DNS, cookies, encabezados, información de dominio, reglas de rastreo de búsqueda, mapa de página, ubicación del servidor, libro mayor de redirección, puertos abiertos, Traceroute, extensiones de seguridad DNS, rendimiento del sitio, rastreadores, asociados Names de host, huella de carbono. ¡Estén atentos, ya que agregaré más pronto!
El objetivo es ayudarlo a comprender, optimizar y asegurar fácilmente su sitio web.
Gestión de repositorios y misceláneos:
Tenga en cuenta que esta lista necesita actualización, se han agregado muchos más trabajos desde ...
La siguiente sección describe las características centrales y explica brevemente por qué estos datos podrían ser útiles para que lo sepa, así como vincular más recursos para aprender más.
Una dirección IP (dirección de protocolo de Internet) es una etiqueta numérica asignada a cada dispositivo conectado a una red / Internet. La IP asociada con un dominio dado se puede encontrar consultando el sistema de nombres de dominio (DNS) para el registro A (dirección) del dominio.
Encontrar la IP de un servidor determinado es el primer paso para realizar más investigaciones, ya que nos permite sondear al servidor para obtener información adicional. Incluyendo la creación de un mapa detallado de la infraestructura de red de un objetivo, identificar la ubicación física de un servidor, identificar el servicio de alojamiento e incluso descubrir otros dominios que están alojados en la misma dirección IP.
Los certificados SSL son certificados digitales que autentican la identidad de un sitio web o servidor, habilitan la comunicación cifrada segura (HTTPS) y establecen confianza entre clientes y servidores. Se requiere un certificado SSL válido para que un sitio web pueda usar el protocolo HTTPS y cifrar datos de usuario + sitio en tránsito. Los certificados SSL son emitidos por las autoridades de certificados (CAS), que son terceros confiables que verifican la identidad y la legitimidad del titular del certificado.
Los certificados SSL no solo proporcionan la garantía de que la transmisión de datos hacia y desde el sitio web es segura, sino que también proporcionan datos valiosos de OSINT. La información de un certificado SSL puede incluir la autoridad emisora, el nombre de dominio, su período de validez y, a veces, incluso detalles de la organización. Esto puede ser útil para verificar la autenticidad de un sitio web, comprender su configuración de seguridad o incluso para descubrir subdominios asociados u otros servicios.
Esta tarea implica buscar los registros DNS asociados con un dominio específico. DNS es un sistema que traduce los nombres de dominio legibles por humanos en direcciones IP que las computadoras usan para comunicarse. Existen varios tipos de registros DNS, incluidos A (Dirección), MX (Exchange de Mail), NS (servidor de nombres), CNAME (Nombre Canonical) y TXT (texto), entre otros.
Extraer registros DNS puede proporcionar una gran cantidad de información en una investigación de OSINT. Por ejemplo, los registros A y AAAA pueden revelar direcciones IP asociadas con un dominio, lo que puede revelar la ubicación de los servidores. Los registros de MX pueden dar pistas sobre el proveedor de correo electrónico de un dominio. Los registros TXT a menudo se usan para diversos fines administrativos y, a veces, pueden filtrar inadvertidamente información interna. Comprender la configuración de DNS de un dominio también puede ser útil para comprender cómo se construye y gestiona su infraestructura en línea.
La tarea de cookies implica examinar las cookies HTTP establecidas por el sitio web de Target. Las cookies son pequeños datos almacenados en la computadora del usuario por el navegador web mientras navega por un sitio web. Tiene una cantidad modesta de datos específicos para un cliente y sitio web en particular, como las preferencias del sitio, el estado de la sesión del usuario o la información de seguimiento.
Las cookies pueden revelar información sobre cómo el sitio web rastrea e interactúa con sus usuarios. Por ejemplo, las cookies de sesión pueden revelar cómo se administran las sesiones de usuario, y el seguimiento de las cookies puede insinuar qué tipo de marcos de seguimiento o análisis se están utilizando. Además, examinar las políticas y prácticas de las cookies puede ofrecer información sobre la configuración de seguridad del sitio y el cumplimiento de las regulaciones de privacidad.
Robots.txt es un archivo encontrado (generalmente) en la raíz de un dominio, y se utiliza para implementar el Protocolo de exclusión de Robots (REP) para indicar qué páginas deben ignorarse por qué rastreadores y bots. Es una buena práctica evitar que los rastreadores de motores de búsqueda sobrecarguen su sitio, pero no debe usarse para mantener las páginas fuera de los resultados de búsqueda (use la metaetic de noindex o encabezado).
A menudo es útil verificar el archivo robots.txt durante una investigación, ya que a veces puede revelar los directorios y páginas que el propietario del sitio no quiere ser indexado, potencialmente porque contienen información confidencial o revelan la existencia de que de otra manera se oculta o ocultos o ocultos Directorios no vinculados. Además, la comprensión de las reglas de rastreo puede ofrecer información sobre las estrategias SEO de un sitio web.
La tarea de encabezados implica extraer e interpretar los encabezados HTTP enviados por el sitio web objetivo durante el ciclo de respuesta de solicitud. Los encabezados HTTP son pares de valor clave enviados al comienzo de una respuesta HTTP, o antes de los datos reales. Los encabezados contienen directivas importantes sobre cómo manejar los datos que se transfieren, incluidas las políticas de caché, los tipos de contenido, la codificación, la información del servidor, las políticas de seguridad y más.
Analizar los encabezados HTTP puede proporcionar información significativa en una investigación de OSINT. Los encabezados pueden revelar configuraciones específicas del servidor, tecnologías elegidas, directivas de almacenamiento en caché y diversas configuraciones de seguridad. Esta información puede ayudar a determinar la pila de tecnología subyacente de un sitio web, las medidas de seguridad del lado del servidor, las posibles vulnerabilidades y las prácticas operativas generales.
Utilizando Lighthouse, la tarea de métricas de calidad mide el rendimiento, la accesibilidad, las mejores prácticas y el SEO del sitio web de Target. Esto devuelve una lista de verificación simple de 100 métricas centrales, junto con una puntuación para cada categoría, para medir la calidad general de un sitio determinado.
Útil para evaluar la salud técnica de un sitio, los problemas de SEO, identificar vulnerabilidades y garantizar el cumplimiento de los estándares.
La tarea de ubicación del servidor determina la ubicación física del servidor que aloja un sitio web determinado en función de su dirección IP. Esto se hace buscando la IP en una base de datos de ubicación, que mapea la IP a un LAT + largo de los centros de datos conocidos e ISP. Desde la latitud y la longitud, es posible mostrar información contextual adicional, como un pin en el mapa, junto con la dirección, la bandera, la zona horaria, la moneda, etc.
Conocer la ubicación del servidor es un buen primer paso para comprender mejor un sitio web. Para los propietarios de sitios, esto ayuda a optimizar la entrega de contenido, garantizar el cumplimiento de los requisitos de residencia de datos e identificar posibles problemas de latencia que pueden afectar la experiencia del usuario en regiones geográficas específicas. Y para el investigador de seguridad, evalúe el riesgo planteado por regiones específicas o jurisdicciones con respecto a las amenazas y regulaciones cibernéticas.
Esta tarea implica identificar y enumerar todos los dominios y subdominios (nombres de host) que están asociados con el dominio principal del sitio web. Este proceso a menudo implica la enumeración del DNS para descubrir cualquier dominio vinculado y nombre de host, así como para mirar registros DNS conocidos.
Durante una investigación, comprender el alcance completo de la presencia web de un objetivo es fundamental. Los dominios asociados podrían conducir a descubrir proyectos relacionados, sitios de respaldo, sitios de desarrollo/prueba o servicios vinculados al sitio principal. Estos a veces pueden proporcionar información adicional o posibles vulnerabilidades de seguridad. Una lista completa de dominios y nombres de host asociados también puede dar una visión general de la estructura de la organización y la huella en línea.
Esta tarea traza la secuencia de redireccionamientos HTTP que ocurren desde la URL original hasta la URL de destino final. Una redirección HTTP es una respuesta con un código de estado que aconseja al cliente que vaya a otra URL. Los redireccionamientos pueden ocurrir por varias razones, como la normalización de la URL (dirigir a la versión www del sitio), hacer cumplir HTTPS, acortadores de URL o reemplazar a los usuarios a una nueva ubicación del sitio.
Comprender la cadena de redirección puede ser útil por varias razones. Desde una perspectiva de seguridad, las cadenas de redireccionamiento largas o complicadas pueden ser un signo de riesgos potenciales de seguridad, como redireccionamientos sin cifrar en la cadena. Además, las redirecciones pueden afectar el rendimiento del sitio web y el SEO, ya que cada redirección introduce tiempo de ida y vuelta adicional (RTT). Para OSINT, comprender la cadena de redirección puede ayudar a identificar relaciones entre diferentes dominios o revelar el uso de ciertas tecnologías o proveedores de alojamiento.
Los registros TXT son un tipo de registro DNS que proporciona información de texto a fuentes fuera de su dominio. Se pueden utilizar para una variedad de fines, como verificar la propiedad del dominio, garantizar la seguridad del correo electrónico e incluso evitar cambios no autorizados en su sitio web.
Los registros de TXT a menudo revelan qué servicios y tecnologías externas se están utilizando con un dominio dado. Pueden revelar detalles sobre la configuración de correo electrónico del dominio, el uso de servicios específicos como Google Workspace o Microsoft 365, o medidas de seguridad en su lugar, como SPF y DKIM. Comprender estos detalles puede dar una idea de las tecnologías utilizadas por la organización, sus prácticas de seguridad de correo electrónico y las posibles vulnerabilidades.
Comprueba si un servidor está en línea y responde a las solicitudes.
Los puertos abiertos en un servidor son puntos finales de comunicación que están disponibles para establecer conexiones con los clientes. Cada puerto corresponde a un servicio o protocolo específico, como HTTP (puerto 80), HTTPS (puerto 443), FTP (puerto 21), etc. Los puertos abiertos en un servidor se pueden determinar utilizando técnicas como escaneo de puertos.
Saber qué puertos están abiertos en un servidor pueden proporcionar información sobre los servicios que se ejecutan en ese servidor, útil para comprender las posibles vulnerabilidades del sistema o para comprender la naturaleza de los servicios que el servidor está brindando.
Tracerute es una herramienta de diagnóstico de red utilizada para rastrear en tiempo real la vía tomada por un paquete de información de un sistema a otro. Registra cada salto a lo largo de la ruta, proporcionando detalles sobre los IP de los enrutadores y el retraso en cada punto.
En las investigaciones de OSINT, Tracerute puede proporcionar información sobre las rutas de enrutamiento y la geografía de la infraestructura de red que admite un sitio web o servicio. Esto puede ayudar a identificar cuellos de botella de la red, censura potencial o manipulación del tráfico de red, y dar un sentido general de la estructura y eficiencia de la red. Además, las direcciones IP recopiladas durante el Traceroute pueden proporcionar puntos de investigación adicionales para una mayor investigación de OSINT.
Esta tarea calcula la huella de carbono estimada de un sitio web. Se basa en la cantidad de datos que se transfieren y procesan, y el uso de energía de los servidores que alojan y entregan el sitio web. Cuanto más grande sea el sitio web y más complejas son sus características, más alta es su huella de carbono.
Desde una perspectiva de OSINT, comprender la huella de carbono de un sitio web no proporciona directamente información sobre sus trabajos internos o la organización detrás de ella. Sin embargo, aún pueden ser datos valiosos en análisis más amplios, especialmente en contextos donde el impacto ambiental es una consideración. Por ejemplo, puede ser útil para activistas, investigadores o piratas informáticos éticos interesados en la sostenibilidad de la infraestructura digital y que desean responsabilizar a las organizaciones por su impacto ambiental.
Esta tarea recupera varias piezas de información sobre el servidor que aloja el sitio web de destino. Esto puede incluir el tipo de servidor (por ejemplo, Apache, NGINX), el proveedor de alojamiento, el número de sistema autónomo (ASN) y más. La información generalmente se obtiene a través de una combinación de búsqueda de direcciones IP y análisis de encabezados de respuesta HTTP.
En un contexto de OSINT, la información del servidor puede proporcionar valiosas pistas sobre la organización detrás de un sitio web. Por ejemplo, la elección de alojamiento del proveedor podría sugerir la región geográfica en la que opera la organización, mientras que el tipo de servidor podría insinuar las tecnologías utilizadas por la organización. El ASN también podría usarse para encontrar otros dominios alojados por la misma organización.
Esta tarea recupera los registros de Whois para el dominio objetivo. Los registros de Whois son una rica fuente de información, que incluye el nombre y la información de contacto del registrante de dominio, las fechas de creación y vencimiento del dominio, los servidores de nombres del dominio y más. La información generalmente se obtiene a través de una consulta a un servidor de base de datos WHOIS.
En un contexto de OSINT, Whois Records puede proporcionar pistas valiosas sobre la entidad detrás de un sitio web. Pueden mostrar cuándo se registró el dominio por primera vez y cuándo expira, lo que podría proporcionar información sobre la línea de tiempo operativa de la entidad. La información de contacto, aunque a menudo redactada o anonimizada, a veces puede conducir a vías adicionales de investigación. Los servidores de nombres también podrían usarse para unir múltiples dominios propiedad de la misma entidad.
Esta tarea recupera los registros de Whois para el dominio objetivo. Los registros de Whois son una rica fuente de información, que incluye el nombre y la información de contacto del registrante de dominio, las fechas de creación y vencimiento del dominio, los servidores de nombres del dominio y más. La información generalmente se obtiene a través de una consulta a un servidor de base de datos WHOIS.
En un contexto de OSINT, Whois Records puede proporcionar pistas valiosas sobre la entidad detrás de un sitio web. Pueden mostrar cuándo se registró el dominio por primera vez y cuándo expira, lo que podría proporcionar información sobre la línea de tiempo operativa de la entidad. La información de contacto, aunque a menudo redactada o anonimizada, a veces puede conducir a vías adicionales de investigación. Los servidores de nombres también podrían usarse para unir múltiples dominios propiedad de la misma entidad.
Sin DNSSEC, es posible que los atacantes de MITM falsifiquen los registros y lleven a los usuarios a los sitios de phishing. Esto se debe a que el sistema DNS no incluye métodos incorporados para verificar que la respuesta a la solicitud no se forjó, o que una otra parte del proceso no fue interrumpida por un atacante. La DNS Security Extensions (DNSSEC) asegura las búsquedas DNS firmando sus registros DNS usando claves públicas, por lo que los navegadores pueden detectar si la respuesta ha sido manipulada. Otra solución a este problema es DOH (DNS sobre HTTPS) y DOT (DNS sobre TLD).
La información de DNSSEC proporciona información sobre el nivel de madurez cibernética de una organización y las vulnerabilidades potenciales, particularmente en torno a la suplantación de DNS y la intoxicación por caché. Si no se implementa la seguridad DNS (DNSSEC, DOH, DOT, etc.), esto puede proporcionar un punto de entrada para un atacante.
Comprobaciones qué características principales están presentes en un sitio. Si una característica tan marcada como muerta, eso significa que no se usa activamente en el tiempo de carga
Esto es útil para comprender de qué es capaz un sitio y qué tecnologías buscar
HTTP Strict Transport Security (HSTS) es un mecanismo de política de seguridad web que ayuda a proteger los sitios web contra los ataques de rebaja de protocolo y el secuestro de cookies. Se puede incluir un sitio web en la lista de precarga de HSTS al ajustarse a un conjunto de requisitos y luego enviar a la lista.
Hay varias razones por las cuales es importante que un sitio esté habilitado para HSTS: 1. Marcadores de usuarios o tipos manuales http://example.com y está sujeto a un atacante de hombre en el medio HSTS redirige automáticamente las solicitudes HTTP a HTTPS para HTTPS El dominio de destino 2. Aplicación web que está destinada a ser puramente HTTP que contiene inadvertidamente enlaces HTTP o sirve contenido a través de HTTP HSTS redirige automáticamente las solicitudes HTTP a HTTPS para el dominio de destino 3. Un atacante de hombre en el Middle intenta interceptar el tráfico de Un usuario de la víctima que usa un certificado no válido y espera que el usuario acepte el Certificado BAD HSTS no permite que un usuario anule el mensaje de certificado no válido
Esta verificación determina los servidores DNS que se resuelve la URL / IP solicitada. También dispara una verificación rudimentaria para ver si el servidor DNS admite DOH, y el clima es vulnerable a la intoxicación por caché del DNS.
Comprueba qué tecnologías está construida un sitio. Esto se hace obteniendo y analizando el sitio, luego comparándolo con una lista de Regex mantenida por Wappalyzer para identificar las huellas digitales únicas que dejan diferentes tecnologías.
La identificación de la pila tecnológica de un sitio web ayuda a evaluar su seguridad al exponer posibles vulnerabilidades, informa análisis competitivos y decisiones de desarrollo, y puede guiar estrategias de marketing a medida. La aplicación ética de este conocimiento es crucial para evitar actividades dañinas como el robo de datos o la intrusión no autorizada.
Este trabajo encuentra y analiza el mapa del sitio de un sitio. Este archivo enumera las subpáginas públicas en el sitio, que el autor desea ser arrastrado por los motores de búsqueda. Los sitios sitios ayudan con SEO, pero también son útiles para ver todos los sitios de contenido público de un vistazo.
Comprenda la estructura del contenido público de un sitio, y para los propietarios de sitios, verifique que el mapa del sitio de su sitio sea accesible, se puede ver y contiene todo lo que desea.
El archivo Security.txt les dice a los investigadores cómo pueden revelar responsablemente cualquier problema de seguridad encontrado en su sitio. El estándar se propuso en RFC 9116, y especifica que este archivo debe incluir un punto de contacto (dirección de correo electrónico), así como opcionalmente otra información, como un enlace a la política de divulgación de seguridad, la clave PGP, el lenguaje ofrecido, el vencimiento de la política y más . El archivo debe ubicarse en la raíz de su dominio, ya sea at /security.txt o /.well- conocido/security.txt.
Esto es importante, ya que sin un punto de contacto definido, un investigador de seguridad puede no poder informar un problema de seguridad crítico, o puede usar canales inseguros o posiblemente públicos para hacerlo. Desde una perspectiva de OSINT, también puede obtener información sobre un sitio que incluye su postura sobre seguridad, su proveedor de CSAF y meta datos de la clave pública PGP.
Muestra todos los enlaces internos y externos que se encuentran en un sitio, identificados por los atributos HREF unidos a los elementos de anclaje.
Para los propietarios de sitios, esto es útil para diagnosticar problemas de SEO, mejorar la estructura del sitio, comprender cómo se conecta el contenido. Los enlaces externos pueden mostrar asociaciones, dependencias y riesgos potenciales de reputación. Desde el punto de vista de la seguridad, los enlaces de salida pueden ayudar a identificar cualquier sitio malicioso o comprometido potenciales que el sitio web se vincule sin saberlo. El análisis de los enlaces internos puede ayudar a comprender la estructura del sitio y potencialmente descubrir páginas ocultas o vulnerables que no pretenden ser públicas. Y para un investigador de OSINT, puede ayudar a construir una comprensión integral del objetivo, descubrir entidades relacionadas, recursos o incluso posibles partes ocultas del sitio.
Los sitios web pueden incluir ciertas metaetiquetas, que dicen motores de búsqueda y plataformas de redes sociales qué información mostrar. Esto generalmente incluye un título, descripción, miniatura, palabras clave, autor, cuentas sociales, etc.
Agregar estos datos a su sitio aumentará el SEO, y como investigador de OSINT puede ser útil comprender cómo se describe una aplicación web determinada a sí misma
DMARC (autenticación de mensajes basado en el dominio, informes y conformidad): DMARC es un protocolo de autenticación de correo electrónico que funciona con SPF y DKIM para evitar la suplantación de correo electrónico y el phishing. Permite a los propietarios de dominios especificar cómo manejar el correo no autenticado a través de una política publicada en DNS, y proporciona una forma de recibir servidores de correo para enviar comentarios sobre el cumplimiento de los correos electrónicos al remitente. BIMI (Indicadores de marca para la identificación de mensajes): BIMI es un estándar de correo electrónico emergente que permite a las organizaciones mostrar un logotipo en los clientes de correo electrónico de sus clientes automáticamente. Bimi vincula el logotipo al registro DMARC del dominio, proporcionando otro nivel de garantía visual a los destinatarios de que el correo electrónico es legítimo. DKIM (Correo identificado de Domain Keeys): DKIM es un estándar de seguridad de correo electrónico diseñado para asegurarse de que los mensajes no se modifiquen en el tránsito entre los servidores de envío y destinatario. Utiliza firmas digitales vinculadas al dominio del remitente para verificar el remitente y garantizar la integridad del mensaje. SPF (marco de política del remitente): SPF es un método de autenticación de correo electrónico diseñado para evitar la suplantación de correo electrónico. Especifica qué servidores de correo están autorizados para enviar correo electrónico en nombre de un dominio creando un registro DNS. Esto ayuda a proteger contra el spam al proporcionar una forma de recibir servidores de correo para verificar que el correo entrante de un dominio proviene de un anfitrión autorizado por los administradores de ese dominio.
Esta información es útil para los investigadores, ya que ayuda a evaluar la postura de seguridad de correo electrónico de un dominio, descubrir vulnerabilidades potenciales y verificar la legitimidad de los correos electrónicos para la detección de phishing. Estos detalles también pueden proporcionar información sobre el entorno de alojamiento, los proveedores de servicios potenciales y los patrones de configuración de una organización objetivo, ayudando en los esfuerzos de investigación.
Un firewall WAF o de aplicaciones web ayuda a proteger las aplicaciones web filtrando y monitoreando el tráfico HTTP entre una aplicación web e Internet. Por lo general, protege las aplicaciones web de ataques como falsificación de sitios cruzados, escritura de sitios cruzados (XSS), inclusión de archivos e inyección de SQL, entre otros.
Es útil comprender si un sitio está utilizando un WAF, y qué software / servicio de firewall está utilizando, ya que esto proporciona una idea de la protección de los sitios contra varios vectores de ataque, pero también puede revelar vulnerabilidades en el firewall.
Los encabezados HTTP de seguridad configurados correctamente agregan una capa de protección contra ataques comunes a su sitio. Los principales encabezados a tener en cuenta son: HTTP Strict Transport Security (HSTS): Haga cumplir el uso de HTTP, mitigando los ataques de hombre en el medio y los intentos de rebajado de protocolo. Política de seguridad de contenido (CSP): restringe los recursos de la página web para evitar ataques de scripts y inyección de datos entre sitios. Opciones de tipo X-contenente: evita que los navegadores sean mime una respuesta lejos del tipo de contenido declarado, frenando los ataques de confusión de tipo MIME. X-frame-Opciones: protege a los usuarios de los ataques de clickjacking controlando si un navegador debe renderizar la página en un <frame>
, <iframe>
, <embed>
o <object>
.
Revisar los encabezados de seguridad es importante, ya que ofrece información sobre la postura defensiva de un sitio y las posibles vulnerabilidades, permitiendo la mitigación proactiva y garantizando el cumplimiento de las mejores prácticas de seguridad.
Obtiene la historia completa de los archivos de la máquina Wayback
Esto es útil para comprender la historia de un sitio y cómo ha cambiado con el tiempo. También puede ser útil para encontrar versiones antiguas de un sitio, o para encontrar contenido que se haya eliminado.
Esta verificación muestra el rango global del sitio solicitado. Esto solo es exacto para sitios web que se encuentran en la lista de los 100 millones principales. Estamos utilizando datos del Proyecto Tranco (ver más abajo), que recopila los principales sitios en la web de Umbella, Majestic, Quantcast, el informe de la experiencia del usuario de Chrome y el radar de CloudFlare.
Conocer un rango global general de sitios web puede ser útil para comprender la escala del sitio y para compararlo con otros sitios. También puede ser útil para comprender la popularidad relativa de un sitio e identificar tendencias potenciales.
Verifica el acceso a la URL utilizando más de 10 de los servidores DNS de bloqueo de privacidad, malware y control parental más populares.
Comprueba si un sitio aparece en varias listas de malware y phishing comunes, para determinar su nivel de amenaza.
Saber si un sitio figura como una amenaza por alguno de estos servicios puede ser útil para comprender la reputación de un sitio e identificar tendencias potenciales.
Estas son combinaciones de algoritmos criptográficos utilizados por el servidor para establecer una conexión segura. Incluye el algoritmo de intercambio de claves, el algoritmo de cifrado a granel, el algoritmo MAC y PRF (función pseudorandom).
Esta es una información importante para probar desde una perspectiva de seguridad. Porque una suite de cifrado es tan segura como los algoritmos que contiene. Si la versión del algoritmo de cifrado o autenticación en una suite de cifrado tiene vulnerabilidades conocidas, la suite de cifrado y la conexión TLS pueden entonces vulnerables a una rebaja u otro ataque
Esto utiliza pautas del Observatorio TLS de Mozilla para verificar la seguridad de la configuración TLS. Comprueba las malas configuraciones, lo que puede dejar el sitio vulnerable al ataque, así como dar consejos sobre cómo solucionar. También dará sugerencias sobre configuraciones TLS anticuadas y modernas
Comprender los problemas con la configuración de TLS de un sitio le ayudará a abordar las posibles vulnerabilidades y garantizará que el sitio esté utilizando la configuración TLS más reciente y más segura.
Esto simula cómo diferentes clientes (navegadores, sistemas operativos) realizarían un apretón de manos TLS con el servidor. Ayuda a identificar problemas de compatibilidad y configuraciones inseguras.
Esta verificación toma una captura de pantalla de la página web que la URL / IP solicitada resuelve y la muestra.
Esto puede ser útil para ver cómo se ve un sitio web determinado, libre de las limitaciones de su navegador, IP o ubicación.
Lea más aquí: web-check.xyz/about
Haga clic en el botón a continuación, para implementar en NetLify?
¿Haga clic en el botón de abajo, para implementar en Vercel?
Ejecutar docker run -p 3000:3000 lissy93/web-check
, luego abra localhost:3000
Puedes obtener la imagen Docker de:
lissy93/web-check
ghcr.io/lissy93/web-check
docker build -t web-check .
Instale los requisitos previos enumerados en la sección de desarrollo, luego ejecute:
git clone https://github.com/Lissy93/web-check.git # Download the code from GitHub
cd web-check # Navigate into the project dir
yarn install # Install the NPM dependencies
yarn build # Build the app for production
yarn serve # Start the app (API and GUI)
Por defecto, no se necesita configuración.
Pero hay algunas variables ambientales opcionales que puede establecer para darle acceso a algunas verificaciones adicionales, o para aumentar los límites de la velocidad para algunas comprobaciones que usan API externas.
API Keys & Credentials :
Llave | Valor |
---|---|
GOOGLE_CLOUD_API_KEY | Una clave de Google API (llegar aquí). Esto se puede usar para devolver métricas de calidad para un sitio. |
REACT_APP_SHODAN_API_KEY | Una llave de la API de Shodan (llega aquí). Esto mostrará los nombres de anfitriones asociados para un dominio dado |
REACT_APP_WHO_API_KEY | Una llave whoapi (llega aquí). Esto mostrará registros de Whois más completos que el trabajo predeterminado. |
GOOGLE_CLOUD_API_KEY
: una clave de API de Google (llegar aquí). Esto se puede usar para devolver métricas de calidad para un sitio.REACT_APP_SHODAN_API_KEY
- una tecla API de Shodan (obtenga aquí). Esto mostrará los nombres de anfitriones asociados para un dominio dadoREACT_APP_WHO_API_KEY
- una tecla WhoApi (VOLES AQUÍ). Esto mostrará registros de Whois más completos que el trabajo predeterminado.SECURITY_TRAILS_API_KEY
: una tecla API de Security Trails (llegar aquí). Esto mostrará información de organización asociada con la IPCLOUDMERSIVE_API_KEY
- Clave API para CloudMersive (GOLE AQUÍ). Esto mostrará amenazas conocidas asociadas con la IP.TRANCO_USERNAME
- un correo electrónico de tranco (llegar aquí). Esto mostrará el rango de un sitio, basado en el tráfico.TRANCO_API_KEY
- una tecla API Tranco (llegar aquí). Esto mostrará el rango de un sitio, basado en el tráfico.URL_SCAN_API_KEY
- Una tecla API de URLSCAN (llegar aquí). This will fetch miscalanious info about a siteBUILT_WITH_API_KEY
- A BuiltWith API key (get here). This will show the main features of a siteTORRENT_IP_API_KEY
- A torrent API key (get here). This will show torrents downloaded by an IPConfiguration Settings :
Llave | Valor |
---|---|
PORT | Port to serve the API, when running server.js (eg 3000 ) |
API_ENABLE_RATE_LIMIT | Enable rate-limiting for the /api endpoints (eg true ) |
API_TIMEOUT_LIMIT | The timeout limit for API requests, in milliseconds (eg 10000 ) |
API_CORS_ORIGIN | Enable CORS, by setting your allowed hostname(s) here (eg example.com ) |
CHROME_PATH | The path the Chromium executable (eg /usr/bin/chromium ) |
DISABLE_GUI | Disable the GUI, and only serve the API (eg false ) |
REACT_APP_API_ENDPOINT | The endpoint for the API, either local or remote (eg /api ) |
All values are optional.
You can add these as environmental variables. Either put them directly into an .env
file in the projects root, or via the Netlify / Vercel UI, or by passing to the Docker container with the --env flag, or using your own environmental variable management system
Note that keys that are prefixed with REACT_APP_
are used client-side, and as such they must be scoped correctly with minimum privileges, since may be made visible when intercepting browser <-> server network requests
git clone [email protected]:Lissy93/web-check.git
cd web-check
yarn
yarn dev
You'll need Node.js (V 18.16.1 or later) installed, plus yarn as well as git. Some checks also require chromium
, traceroute
and dns
to be installed within your environment. These jobs will just be skipped if those packages aren't present.
Contributions of any kind are very welcome, and would be much appreciated. For Code of Conduct, see Contributor Convent.
To get started, fork the repo, make your changes, add, commit and push the code, then come back here to open a pull request. If you're new to GitHub or open source, this guide or the git docs may help you get started, but feel free to reach out if you need any support.
If you've found something that doesn't work as it should, or would like to suggest a new feature, then go ahead and raise a ticket on GitHub. For bugs, please outline the steps needed to reproduce, and include relevant info like system info and resulting logs.
The app will remain 100% free and open source. But due to the amount of traffic that the hosted instance gets, the lambda function usage is costing about $25/month. Any help with covering the costs via GitHub Sponsorship would be much appreciated. It's thanks to the support of the community that this project is able to be freely available for everyone :)
Credit to the following users for contributing to Web-Check
Alicia Sykes | Alicia Bot | Denis Simonov | Mounir Samite | Chris Carini | Michael Bolens |
Marcus Sand | Jinna Baalu | GreyXor | Brian Teeman | Vitaly Karasik | n4n5 |
Lth | Abhishek Muge | Ulises Gascón | PhiRequiem | Myzel394 | Murray Christopherson |
Marco Ochse | John Hupperts | Ikko Eltociear Ashimine | Gertje823 | Ed Preston | Dimitri Kandassamy |
0xflotus |
Huge thanks to these wonderful people, who sponsor me on GitHub, their support helps cover the costs required to keep Web-Check and my other projects free for everyone. Consider joining them, by sponsoring me on GitHub if you're able.
Vincent Koc | Torgny Bjers | Anand Chowdhary | Shrippen | Zach Biles | Ulises Gascón |
Digital Archeology | InDieTasten | Araguaci | Brian McGonagill | Vlad | HeliXZz |
Patrick Van Der Veken | Göksel Yeşiller | Shiverme Timbers | Forward Email - Open-source & Privacy-focused Email Service (2023) | GT | Bastii717 |
Umbrel | Frankdez93 | Terminal Trove | Nrvo | hudsonrock-partnerships |
Lissy93/Web-Check is licensed under MIT © Alicia Sykes 2023.
For information, see TLDR Legal > MIT
The MIT License (MIT)
Copyright (c) Alicia Sykes <[email protected]>
Permission is hereby granted, free of charge, to any person obtaining a copy
of this software and associated documentation files (the "Software"), to deal
in the Software without restriction, including without limitation the rights
to use, copy, modify, merge, publish, distribute, sub-license, and/or sell
copies of the Software, and to permit persons to whom the Software is furnished
to do so, subject to the following conditions:
The above copyright notice and this permission notice shall be included install
copies or substantial portions of the Software.
THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR IMPLIED,
INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANT ABILITY, FITNESS FOR A
PARTICULAR PURPOSE AND NON INFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT
HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION
OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE
SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE.
© Alicia Sykes 2023
Licensed under MIT
Thanks for visiting :)