encapsular, un proveedor de seguridad para sitios web basado en la nube, lanzó hoy un estudio que muestra que el 51% del tráfico del sitio web es software automatizado, y la mayor parte es potencialmente dañino: exploits automáticos por parte de piratas informáticos, espías, raspadores y spammers.
La compañía dice que generalmente solo el 49% de los visitantes del sitio web son personas reales y que el tráfico no humano es en gran parte invisible porque el software de análisis no lo muestra.
Esto significa que los sitios web soportan una gran carga de costos ocultos en términos de ancho de banda, un mayor riesgo de interrupción del negocio y aún peor.
A continuación, se muestra un desglose del tráfico promedio del sitio web:
– El 5% son herramientas de piratería que buscan una vulnerabilidad nueva o sin parchear en un sitio web.
– 5% están raspando.
– El 2% son spammers de comentarios automáticos.
– El 19% proviene de «espías» que recopilan información competitiva.
– El 20% proviene de motores de búsqueda, que es un tráfico no humano pero benigno.
– El 49% proviene de personas que navegan por Internet.
Los datos fueron recolectados de una muestra de 1,000 sitios web que están listados en el servicio Incapsula.
Hablé con Marc Gaffan, cofundador de Incapsula. «Pocas personas se dan cuenta de que gran parte de su tráfico no es humano y que gran parte es potencialmente dañina».
Encapsula ofrece un servicio orientado a la seguridad de las pequeñas y medianas empresas. Tiene una red global de nueve centros de datos que analizan todo el tráfico al sitio de un cliente y bloquean las vulnerabilidades dañinas en tiempo real, mientras aceleran los tiempos de carga de la página al almacenar en caché el contenido más cerca de los usuarios.
«Debido a que tenemos miles de sitios web como clientes, detectamos exploits mucho antes que otros y luego podemos bloquearlos para todos nuestros clientes. Este es el beneficio de la escala. También mantenemos un servicio de corrección virtual que evita exploits dañinos durante días y, a veces, semanas. antes de que un parche esté listo «.
El cliente no requiere instalación de software o hardware, un pequeño cambio en los registros DNS de un sitio web dirige el tráfico a través de los centros de datos de Incapsula. Y todas las clasificaciones y clasificaciones de los motores de búsqueda no se ven afectados por el cambio.
Los sitios web son significativamente más rápidos porque la empresa almacena en caché el contenido y lo mantiene cerca de donde están los usuarios.
Un aspecto importante del servicio es que está en línea con el estándar de seguridad de datos de la industria de seguridad de pago (PCI), que es esencial para los comerciantes en línea. Corren el riesgo de perder su capacidad para procesar pagos con tarjeta de crédito si no cumplen estrictamente. Ci requisitos.
La compañía ofrece un servicio gratuito para sitios con menos de 25 GB de ancho de banda mensual y los planes premium comienzan en $ 49 por mes.
Tomando Foremski: Tengo curiosidad por probar este servicio porque, al mirar los registros de mi servidor, me golpean unos 28 «robots» al día, y aunque algunos provienen de fuentes legítimas, como Google, Yahoo, Microsoft, la mayoría no están identificados. Y juntos utilizan alrededor de un tercio de mi ancho de banda.
Esto significa que la experiencia del usuario humano está sufriendo porque mi servidor está tratando de lidiar con todo el tráfico «no humano» generado por el software que llega al sitio.
La capacidad de Incapsula para bloquear exploits antes de que un parche esté disponible es otra característica atractiva. No tengo tiempo para mantenerme al día con los muchos parches de seguridad enviados, y luego instalar y actualizar varios programas es una tarea que prefiero manejar.
Más información: Encapsular en las noticias