Подтверждаю. Сегодня 40% в роботы записал на сайте, где роботов отродясь не было.
Причем умиляет тупость разработчиков, запретивших выбрать в вэбвизоре именно роботов. Была бы такая возможность, можно было бы ткнуть их носом в их косяки.
На новом сайте сегодня роботность 100%, но там был всего 1 заход и это был я. PS я заходил на главную, потом случайно клацнул на политику конфиденциальности :) В общем - я поступил как бот :)
Проблема накруток и их массовости очевидна, поэтому подкрутка актуальна и своевременна. Ну и в соседней теме интересные наблюдения написаны.
sochi-russia #:
Я поставил ограничения на сайт через хостинг, боты не заходят, кроме яндекса гугла и других ПС
сцу :)
Вы закрывали? Есть эффект?
Технически это сделать вопрос 5 секунд.
Только что проверил скорость однотипных страниц на трех сайтах (одна CMS, примерно одинаковое наполнение):- sweb: 76 мс - timeweb: 225 мс- beget: 277 мс
Проверял этой приблудой.
3. Быть может, лучшим решением будет вообще не указывать каноникал на страницах, запрещённых к индексированию, но разрешённых к сканированию?
IMHO принципиальный вопрос открывать страницу для индексации или нет. Остальное мелочи.