Объем «нечеловеческого» трафика в Сети вырос с прошлогодних 51% до нынешних 61,5%. Впрочем, по мнению экспертов, сильно беспокоиться все ж таки не стоит. Как сообщается в отчете, подготовленном агентством Incaplsula, рост обеспечен в основном за счет работы «хороших роботов», к примеру, агентов поисковиков, посещающих web-страницы в целях индексации.
Доля таких роботов увеличилась на 55% и составила 31% глобального трафика. 5% обеспечили скрейперы — боты, автоматически копирующие контент. 4,5% «робототрафику» прибавили хакерские «пауки», и еще 20,5% прочие роботы, которые делали попытки «закосить» под настоящих пользователей (DDoS-агенты, браузеры, зараженные тоянцами, и прочие шпионы). При этом число ботов-спамеров (в немалой степени из-за алгоритма Penguin, делающего спам бесполезным для целей поисковой оптимизации) просела на 75%, и если в 2012 году она составляла 2%, то в этом только 0,5%.
В 2013 году 38,5% web-ресурсов посещались «всамделишными» пользователями, а 61,5 роботами. В 2012 году данное соотношение равнялось 49% и, соответственно, 51%.
Следует учесть, что Incapsula, специализирующаяся на решениях в сфере цифровой безопасности, отслеживала статистику 20000 web-ресурсов своих клиентов. Поэтому данные агентства трудно экстраполировать на всю Сеть, поскольку далеко не всякий интернет-ресурс периодически страдает от DDoS-нападений, правда все же собранные статданные неплохо продемонстрировали, что количество искусственных посещений продолжает расти.
Отправить ответ