- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
"А как же со скрытыми дивами, то яндекс бориться, в которых может быть как менюшка, так и список кл. фраз, где нить под футером замостыренные.
Не ужели только по стуку?"
А какое это отношение имеет к клоакингу?
Яндекс поступает просто - если туда нафигачены ключевики, то будет заслуженный бан. Если это с дизайнерскими целями - то все ок.
Как работает робот? Точно это знаю лишь его создатели. Общий принцип - робот запрашивает содержимое странички сначала с официальным UserAgent и IP, а потом с "неофициальным" (сразу же) и сравнивает.
И сверяет он не содержимым сохраненной копии, а с текущим содержимым странички, но полученным с другого IP. Потому что если бы он сверял с сохраненной копией, то тогда бы всё динамическое содержимое страницы (например, новости, которые могут обновляться каждую минуту) попадали бы под бан.
Думаю это предположение неверно.
А что если страница содержит ряд блоков которые выдают инфу рандомом,
Например опросник: есть в базе сайта 10 активных опросов, и он выдает один из них рандомом.
Тогда робот одновременно зайдя в один и тот же момент с разных ип или с разным useragent (как хотите) - получит разный html-код.
Но это не есть клоакинг и не есть спам, просто страница выдала им разные опросники. За это ведь банить нельзя => ваше предположение ошибочно!
Тема остается открытой...
Так как происходит проверка клоакинга?
И как происходит бан за скрытые дивы?
А какое это отношение имеет к клоакингу?
Никакого, просто хотел узнать как с этим именно может бороться робот на автомате.
Ведь по стуку это очень трудоемко, да и неэффективно (нет гарантий, что кто-нибудь когда-нибудь настучит).
А по поводу "ключевиков в скрытом диве" так они могут содержаться и всплавающем подменю - и это есть дизайнерское решение.
Radli, вручную проверяется, скорее всего.
</>
а Вы кого-то обманывать задумали? Мне кажется, делать белые сайты спокойнее и в некоторых случаях выгоднее.
да скока можно... хочется ж чего-то повеселее... :)
</>