- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Ваше предложение тупо забить на попытки отсева и/или/не (на минималках отключить ipv6 и скрипт отложки метрики)?
Моё мнение, что есть смысл пытаться блокировать, если сайт совсем маленький, тогда есть шанс, что от вас частично отстанут. Либо в случаях с сильно высокой нагрузкой можно фильтровать битерику, ahrefs и прочий мусор, который даже не пытается скрываться. На сайтах с посещаемостью от 1000 хостов в день любые действия приводят к переключению ботов на другие методы, а постоянно ужесточать правила невозможно, чтобы в итоге это не превратилось в анал-карнавал с 3 капчами. На экспериментальном сайте я дошёл до того, что боты ходят всего двумя способами: 1. прямые заходы на главную, как-то сильно блокировать это глупо, если есть постоянная аудитория; 2. заходы с яндекса, которые без внимательного анализа невозможно отличить от нормальных посетителей, фильтровать такое невозможно, да и глупо сразу вываливать всем подряд гуглокапчу, например.
Вот так выглядит "победа" над ботами, но их % не изменился в сравнении с тем, что было до клауда и остался на уровне 5-10% по метрике и около 30% по факту.
2. заходы с яндекса, которые без внимательного анализа невозможно отличить от нормальных посетителей, фильтровать такое невозможно, да и глупо сразу вываливать всем подряд гуглокапчу, например.
Боты с Яндекс поиска по релевантным фразам?
Мистика
Боты с Яндекс поиска по релевантным фразам?
Мистика
Абсолютли. В какой-то из тем я уже рассказывал, но расскажу ещё раз. У меня есть сайт по обучению и с инструкциями по старой технике. Эта техника не используется уже более 10 лет по различным причинам. Она не просто устарела, а её использовать в принципе невозможно. Представьте, что это принтер с драйверами только под windows 95, заправку и расходники на него найти невозможно. А теперь добавьте к этому ещё и то, что это специализированная техника и в Россию она официально не завозилась. В теории может такое быть, что 1 посетитель в пару месяцев зайдёт с поиска на такую страницу. Но то, что таких посетителей 1-3 каждый день, да ещё и на десятки моделей просто исключено. Так вот у меня есть сайт с такими посетителями и всё там выглядит нормально и осознанно, если не учитывать, что искать это люди не могут. Запросы составные, а не просто по заголовкам и т.п. А если сайт актуальный, то распознать такие заходы просто невозможно.
Неделя тестов показала, что сделанная за шапку сухарей всплывашка по эффективности лучше клауда. Просто показываем всем (или не всем) приветствие в небольшом окне, рекламу и метрику загружаем только после его закрытия. Да, колхоз, но не хуже всех этих "проверяем безопасность подключения".
Да, я до клауда тоже такую ставил и она действительно работает.
Вот только показываете вы этот попап всем подряд и для всех источников трафика.
Я например если буду искать какой то сайт и мне сразу такую хрень покажут, то я его сразу закрою и другой открою.
Сейчас всякая рекламная шняга со всех щелей прет, поэтому так же инстинктивно могут сделать еще много реальных посетителей.
Поэтому не знаю даже, что больше она пользы или вреда дает...
1. прямые заходы на главную, как-то сильно блокировать это глупо, если есть постоянная аудитория;
Блокируйте спамные сетки на прямые заходы, там будет не более 10 сеток. После этого спам с прямых заходов можно будет считать по пальцам.
Блокируйте спамные сетки на прямые заходы, там будет не более 10 сеток. После этого спам с прямых заходов можно будет считать по пальцам.
Крупнейший поставщик таких заходов - Ростелеком Москва, как вы себе представляете его блокировку?
Крупнейший поставщик таких заходов - Ростелеком Москва, как вы себе представляете его блокировку?
Абсолютли. В какой-то из тем я уже рассказывал, но расскажу ещё раз. У меня есть сайт по обучению и с инструкциями по старой технике. Эта техника не используется уже более 10 лет по различным причинам. Она не просто устарела, а её использовать в принципе невозможно. Представьте, что это принтер с драйверами только под windows 95, заправку и расходники на него найти невозможно. А теперь добавьте к этому ещё и то, что это специализированная техника и в Россию она официально не завозилась. В теории может такое быть, что 1 посетитель в пару месяцев зайдёт с поиска на такую страницу. Но то, что таких посетителей 1-3 каждый день, да ещё и на десятки моделей просто исключено. Так вот у меня есть сайт с такими посетителями и всё там выглядит нормально и осознанно, если не учитывать, что искать это люди не могут. Запросы составные, а не просто по заголовкам и т.п. А если сайт актуальный, то распознать такие заходы просто невозможно.
Ну я вот тоже спецом сегодня проанализировал по заходам с поиска, которых Яндекс роботами посчитал. 2-4 минуты прокручивают всю страницу с остановками на абзацах. И главное, как вы говорите, ключи не прямые. Такие фразы могут придумать только те, кто в теме материала. И вот я думаю, создатель бот фермы заморочился созданием таких уникальных ключей? А у вас, ещё более специфичная тема. И все это ради вашего сайта? Или моего, у которого всего 5к в день посещалка, который ничего не продает. Как-то всё слишком мудрёно.
Может просто Яндекс метрика не вывозит? А увеличение заходов с поиска - это естественный рост после блокировки реальных ботов с прямыми заходами. Последние 3 недели он вообще 90% ВПНщиков в боты записывает. А это, скорее всего, люди. Просто в наших реалиях, когда многие популярные соцсети в блоке, люди с включенным ВПН сидят.
И вот я думаю, создатель бот фермы заморочился созданием таких уникальных ключей? А у вас, ещё более специфичная тема. И все это ради вашего сайта? Или моего, у которого всего 5к в день посещалка, который ничего не продает. Как-то всё слишком мудрёно.
Ничего мудрёного, это делается не для какого-то определённого сайта отдельно, а для множества одновременно. Запросы создаются по словарям. Вся выдача заранее спарсена по множеству запросов. Если к сайту нет доступа по прямым и т.п. заходам, бот смотрит по базе, где сайт есть в выдаче. Теория, но вроде логичная.
Возможно, не просто так яндекс xml закрывает.
Абсолютли. В какой-то из тем я уже рассказывал, но расскажу ещё раз. У меня есть сайт по обучению и с инструкциями по старой технике. Эта техника не используется уже более 10 лет по различным причинам. Она не просто устарела, а её использовать в принципе невозможно. Представьте, что это принтер с драйверами только под windows 95, заправку и расходники на него найти невозможно. А теперь добавьте к этому ещё и то, что это специализированная техника и в Россию она официально не завозилась. В теории может такое быть, что 1 посетитель в пару месяцев зайдёт с поиска на такую страницу. Но то, что таких посетителей 1-3 каждый день, да ещё и на десятки моделей просто исключено. Так вот у меня есть сайт с такими посетителями и всё там выглядит нормально и осознанно, если не учитывать, что искать это люди не могут. Запросы составные, а не просто по заголовкам и т.п. А если сайт актуальный, то распознать такие заходы просто невозможно.