- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
С недавних пор в вебвизоре начал замечать "посетителей" со временем 0 сек.
Браузеры любые. Источники любые.
На данный момент отфутболил через htaccess основных "поставщиков" такого трафика. Пришлось запретить переходы с некоторых ресурсов.
Попутно поставил на мониторинг IP адреса посетителей. Но блокировать IP - бестолку, они почти все динамические. Подсетями - жалко потенциальных клиентов потерять.
Еще спорный вопрос, что хуже, закрывать от таких посетителей сайт или нет. Понятно же, что информация о переходе идет не только с моего счетчика, но и с сайта "донора".
Ну и главный вопрос - что делать?
Платонам писать бесполезно:
Реально сайт просел. Что послужило причиной - сказать не могу. Изменений никаких не делалось в этот период. Конкурентов не так много, чтобы сайт ушел с первой на пятую страницу.
но и боты не опустят на пятую.
Ищите причины пессимизации в чем-то еще
Думаю, сработала сумма факторов.
Не нужно было давать директ на тот же домен, который продвигался в органике.
Нужно было защищать текст через публикации отрывков на разных ресурсах.
Не нужно было посылать в игнор внешние факторы.
Ну и да, нужно было хоть время от времени смотреть что там с посещениями, а не на усредненные значения.
А то один человек просмотрит 40 страниц, 10 человеко-ботов по одной, в итоге ПФ падает.
Кстати, никто не поделится как через htaccess изначально отфутболить всех ботов, которых можно явно идентифицировать?
По IP муторно как то. Да и динамический IP у них, приходится по маскам брать.
---------- Добавлено 30.03.2016 в 15:45 ----------
* по IP диапазонам - опечатка