Il 51% del traffico di Internet non è ‘umano’ e viene generato da programmi automatizzati, molti dei quali dannosi. Lo rende noto uno studio dell’azienda statunitense Incapsula, specializzata in sicurezza sul web nel cloud computing.
Secondo i dati, basati su un campione significativo di mille siti, il 5% del traffico è generato da software ‘maligni’ che cercano vulnerabilità nei siti da sfruttare, un altro 5% viene dagli scrapers, programmi che estraggono informazioni dai siti, mentre il 2% è causato da programmi che commentano automaticamente blog e siti, di solito rimandando a qualche pagina web commerciale.
Il grosso del traffico invece si divide tra programmi ‘spia’, a caccia di informazioni su rivali industriali, con una quota del 19%, i programmi indicizzatori dei motori di ricerca, che generano senza intervento umano una fetta del 20% – l’unica da considerarsi ‘benigna’ – mentre il restante 49% è dovuto al traffico ‘umano’: "Poche persone realizzano quanto del traffico sul proprio sito è non umano, e quanto è potenzialmente pericoloso – dice al sito Zdnet il cofondatore di Incapsula Marc Gaffan – oltretutto queste applicazioni sottraggono una parte consistente della banda".