- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Имеется ввиду, "как поисковой системе подозревать на клоакинг?". Не на все же страницы несколько миллиардном индексе запускать проверочных ботов... В этом как раз и проблема :) Хотя допускаю, что она может быть решена в будущем. Проблемы же выявить клоакинг на подозрительных ресурсах нет никакой.
Не на все же страницы несколько миллиардном индексе запускать проверочных ботов... В этом как раз и проблема :) Хотя допускаю, что она может быть решена в будущем.
Похоже она решена, просто процесс подтверждения не быстрый. Никто не рискнет удалять сразу и все сайты. Видимо есть процедуры.
Три ха-ха!
Зачем на все страницы? Боты проверяют первые 5-10 страниц в выдаче. Нашли подозрительные приметы - к людям на проверку. Потом бан.
А накой Гуглу сайты, которые на 389 месте в СЕРПе?! :D
Я это сказал образно, акцентрируя внимание на проблеме. Думал это понятно.
По поводу того, что боты проверяют страницы в выдаче я очень сильно сомневаюсь, думаю используются скорее методы, не требующие дополнительного трафика. Критерием же подозрительности вполне может судить такие факторы, как резкая смена контента, высококонкурентное содержание, различная бонусность и др.
... да одного стука, я думаю, вполне хватает. Появилось 10-20(или 100-200?) стуков на один домен с отмеченным боксом "cloaking" - сайт появляется в отделе "разборок".
А отправить робота-полицейского, под видом какой-нибудь "мазилы" с неизвестного вебмастерам IP - и вовсе плёвое дело для Гугла.
Зачем на все страницы? Боты проверяют первые 5-10 страниц в выдаче. Нашли подозрительные приметы - к людям на проверку. Потом бан.
Четыре ха-ха !
первые 5-10 страниц проверяют по скольки миллионам кейвудов ? :)
первые 5-10 страниц проверяют по скольки миллионам кейвудов ?
Пять ха-ха!
Коммерческих кейвордов миллионы?
Если пару тысяч наберется, то хорошо будет ...
А по "малосольные огурцы из Самары";) можно и не проверять на клоакинг.
если учесть, что в каждом языке свои коомерческие запросы и помножить на количество этих языков, то поболее выйдет... :)
Коммерческих кейвордов миллионы?
Если пару тысяч наберется, то хорошо будет ...
шесть ха-ха ! :)
комбинации забыл словосочетаний ..
Я не думаю, что кто-то будет клоачить по "free dating service Russia girls", скорее всего "dating" или "dating Russia" или "dating service". Максимум 2-3 слова, а по большему количеству можно и без клоаки вылезти.
Как минимум, проблема технически решаемая.