web analytics

Las máquinas dominan el tráfico en Internet

La mayor parte del tráfico en Internet ya es generado por máquinas, algunas buenas y otras no tanto

Por Joaquín Alviz @rayjaken ,

reparto_trafico_internet

Que vivimos en un mundo cada vez más conectado es algo que todos sabemos, pero lo que no es tan conocido es el origen de los datos que circulan por la Red. Y es que, hace unos días, la empresa consultora especializada en seguridad informática Incapsula ha hecho público un informe… (elaborado con información recogida de 1.000 websites de clientes suyos, con una media de entre 50.000 y 100.000 visitas al mes) en el que nos ayuda a comprender un poco mejor cómo se reparte la tarta del tráfico de Internet en función de quién lo genera. ¿El resultado? Curioso cuanto menos: sólo el 49% del tráfico de Internet corresponde a seres humanos como tú (suponemos). El resto de flujo de información (o sea, el otro 51%) tiene diferentes fuentes con mejores o peores intenciones. Veamos cuáles son.

Por una parte, encontramos un 19% de tráfico correspondiente a robot espías que buscan copiar información sensible de las empresas, como sus ventajas competitivas o inteligencia de negocio. Escanean las webs buscando cambios y analizando su contenido para informar a la competencia.

Otro 2% correspondería a spammers de comentarios, que inundan las páginas webs de intervenciones inútiles automatizadas, muchas de ellas creadas a base de copiar y pegar texto de otras partes de la web. A menudo incluyen enlaces a otras páginas, publicidad,  y otra información no deseada. Ralentizan el servicio y pueden llegar a causar que se incluya esa web en una lista negra (malo malo…).

Además, encontramos un 5% de tráfico debido a scrapers, que copian contenidos de unas webs en otras, analizan el texto en busca de direcciones de email a las que poder enviar spam, o extraen información delicada del negocio de forma automática.

Como último componente del tráfico no-humano indeseado, existe otro 5% de tráfico derivado de herramientas de hacking. Su finalidad es infectar sistemas con malware, apropiarse de información personal (como la de tarjetas de crédito), bloquear páginas web, etc.

Sí, has leído bien, hemos especificado “tráfico no-humano indeseado”, para diferenciarlo de otro que en principio sí que nos ayuda a navegar: el de los robots de búsqueda y otros sistemas que ayudan a una navegación web más cómoda, y que supondría un 20% del tráfico de las máquinas. Aquí entraría el tráfico de los bots de Google que permiten que encontremos las páginas que buscamos tan rápida y eficientemente.

Cabe decir que el propio Google es consciente de este tráfico no-humano, y lo tiene en cuenta, de forma que no lo considera a la hora de saber el tráfico que tiene una determinada web.

Se dice que en los próximos años experimentaremos el llamado “Internet de las cosas“, y que, gracias a las nuevas redes de telecomunicaciones y a los nuevos chips, una gran parte de los objetos que tenemos a nuestro alrededor (coches, frigoríficos, electrodomésticos varios, nuestra casa en general…) estarán conectados a Internet. Si hoy por hoy ya vemos un 51% de tráfico debido a máquinas, no cabe duda de que en los próximos años ese porcentaje será mucho mayor. De lo que se trata es de que el actual 31% de tráfico malintencionado se reduzca lo máximo posible, para que nuestra experiencia de usuario mientras navegamos, por ejemplo por clipset, sea lo más agradable posible, y podamos disfrutar al máximo de nuestro estilo de vida digital.

+ info

Compartir en: