На популярной англоязычной площадке Reddit один из пользователей поднял интересный вопрос касательно использования специализированных кликботов. Его заинтересовал не сам механизм работы или особенности ботов, но причины, по которым такой очевидно эффективный инструмент ранжирования не применяется среди специалистов. Ведь, по всем изученным данным, подобную накрутку можно использовать практически без помех.
Сам принцип работы кликбота достаточно прост и часто использовался ранее в том случае, если веб-мастер хотел ранжировать свой сайт по определённому ключевому слову. Для этого создаётся отдельный бот с меняющимся IP, чтобы не попадать в поле зрения фильтра от Google, прописывается поиск по данному запросу и переход на сайт в случайных интервалах. Разумеется, затем бот проводит на сайте некоторое время, чтобы быстрый уход не спровоцировал повышение отказа, и всё это в итоге имитирует поведение реальных пользователей.
Разумеется, подобная тактика накрутки считается фродом и официально не разрешается ни в одном крупном поисковике, а за её использование владельцы сайтов получают серьёзные санкции для ресурсов. Однако человек, задававший изначальный вопрос в теме на Reddit, не понимает, почему её всё же не используют, несмотря на очевидную эффективность. Ведь правила нарушали ранее и нарушают прямо сейчас, так что он решил, что проблема заключается в недостаточных технических знаниях для реализации задумки или заказа услуги.
Провокационная тема не могла не привлечь внимание Джона Мюллера. Он развеял все мифы насчёт эффективности кликботов и сервисов вроде Необукс, просто рассказав, что CTR не является фактором ранжирования. Поэтому будь на сайте 100 или даже 1000 кликов, лучше ему от этого не станет.