11.11 - День скидок на Таобао
Уже включили. Ну и на остальных проектах алибабы - 1688, тмалл, алиэкспрес,
Разве можно быть уверенным в таких алгоритмах ПС ?
Большинство сообщений на уровне мнений или предположений.
Но, когда реально отдаются разные страницы, тем более с СЕО-текстом, риск увеличен до предела.
А рисковать или нет, дело хозяйское.---------- Добавлено 10.11.2018 в 20:19 ----------
Это, точно. Зависит не только от текста страницы, но и от самого сайта. Вернее, от какого-то траста, который яндекс устанавливает каждому сайту. Частотность запроса еще вроде влияет.
Интересная особенность, что разделы товаров наиболее подвержены этому фильтру. К карточкам товара он как-бы меньше придирается.
Как-то же слезают с этого фильтра манипулируя текстом.
Тут главное не знать как он работает, а знать как от него избавиться ))
Недавно тестировал через DOM. И не только я.
В текстовой версии текста нет и по сайту не ищется.
Для сайта я выбрал вариант SEO текст обрамлять символами комментариев, а JS их удалять
Так для меня проще, закрывать блоки, чем кодировать текст
Если простой document.write("... то думаю что его прочитает---------- Добавлено 10.11.2018 в 18:30 ----------Кстати, JS во внешнем файле, закрытый от индексации, но яндекс его все равно скачал. Я по логам проверял.
А вот сам код он уже выполнить не смог
Другие вот так делают /ru/forum/comment/15775360
Реферер тут при чем?
Проверяют клоакинг роботы ПС, они не имеют реферера
Они проверят клоакинг двумя запросами проверяемой страницы
Первый запрос - с User-Agent-ом робота
Второй запрос - с обычным User-Agent-ом браузера
Затем эти скачанные страницы сравниваются на предмет их одинаковости (что эти страницы одинаковые для робота и посетителя)
Когда робот ПС приходит для проверки клоакинга как обычный посетитель, с обычным User-Agent-ом браузера, то не известно кто пришел с проверкой - Гугл или Яндекс. Поэтому не известно какую страницу ему отдавать - для гугла или яндекса.
Клоакинг, по определению, это когда посетителю и роботу выдаются разные страницы.
А в случае с JS, страницы выдаются одинаковые.
И то, что яндекс не умеет или не хочет читать текст выводимый через JS, это проблема яндекса, а не вина вебмастера.---------- Добавлено 10.11.2018 в 14:44 ----------
Какая разница, как это называется, сайт должен продавать сейчас, а не гадать что будет потом и будет ли вообще.
Бывают хостинги на которых не допускается переустановить max-age для кэша картинок
Другими словами в htaccess игнорируется директива header set cache-control "max-age=99999"
Гугл снимает баллы за маленькое время кэша картинок
Это как раз не тот случай.
Так как прятать придется СЕО текст (ключи).
Не думаю что Яндекс или Гугл такие тупые, что-бы не понять какой текст убран.---------- Добавлено 10.11.2018 в 13:10 ----------А предлагается ничего не прятать.
И выдавать одинаковые страницы для ПС и посетителя.
Просто выдавать SEO-текст в формате, который не понимает Яндекс, но понимает Гугл
Такой сниппет иногда встречается в гугл, встречал на информационных сайтах, где имеются соответствующие ссылки в "содержании" статьи. Уже несколько лет назад внедрено.
Вопрос топика из серии - если выкопать яму, то поплохеет или похорошеет ?