Если JS инлайновый, например, в явном виде window.location = 'URL' написан, то для ПС нет никаких сложностей его разобрать.
Пишите более сложные конструкции, например в страницу загружая массив в блок <head>, а ссылку дописывая на onload, да еще лучше не ссылку, а обработчик события, который бы сам формировал нужный линк. И ни у одной ПС ресурсов не хватит такой формат разобрать.
Просто сам по себе JS не панацея, его надо еще и применять сообразно :)
За месяц аффилят с двух сайтов снялся сам собой, после того как:
1. Разнес сайты по разным аккаунтам вебмастера
2. Поменял данные в Whois
3. В Яндекс.Адреса внес разные ЮЛ
4. Соответственно, на одном из сайтов сменились видимые роботу контактные данные
5. Из текстов "отклеиваемого" сайта вымарал упоминание второго ЮЛ
6. Акк ЯД и ЯМетрики один на них как был так и остался
При этом движек и верстка схожие (но не идентичные. и структура у магазинов немного отличается). Дизайн в плане визуала робот и так не видит, но он и разный. Контент и на момент наложения аффилирующей склейки был у сайтов разный. Хостинги изначально также разные.
Отмечу, что никуда никому не писал, само сделало приятный подарок. Считаю, что повезло, т.к. Гуру форума ставили диагноз "меняй домены и начинай все сначала".
visa-vis, благодарю =)
По моим наблюдениям сайты начинают восприниматься как один, и далее поисковик выбирает более релевантную страницу из всего массива страниц сайтов (c учетом коррекции по трасту и т.п. уточнений). Страница может быть выбрана для отображения по запросу даже с менее трастовой части "макросайта", если она более релевантна запросу (есть точное вхождение, например, а на релевантной странице трастовой части - нет).
берете 9 своих страниц, которые продвигать не нужно, более менее релевантных запросу на десятой, и ставите с них ссылку на 10ю. Это при реализации якобы инструмента "Лучший аналог" или как-то так. Не суть важно, как вы это обзовете.
Итого, из 1000 страниц продвигаете 100, имея на них дополнительных входящих 9 ссылок с непродвигаемых страниц. Ну то есть все равно же есть рубрикатор, с которого на остальные 900 попасть можно...
А если еще напрячься, и про сто страниц товаров продвигаемых написать статей или новостей - еще дополнительных внутренних ссылок получите.
Я имел в виду на тот момент не кеш моих страниц, а кеш яндексовской выдачи. У меня то просто две копии страницы главной постоянно менялись в разных версиях кеша выдачи запросами и местами соответственно.
Блин, задолбал уже кеш туда-сюда с утра прыгать... При том по разным фронтам одна и та же картина. 2 копии главной страницы (одна от Переиндексатора влетела).
В 12 утра по НЧ есть сайт в ТОПе по Москве с новой копией страницы, в 13 уже далеко и со старой, счас вот опять в топе и с новой копией. При этом фронты весь зоопарк, одна и та же картина... Когда ж уже оно устаканится то, чтоб можно было выводы то сделать :)
Смотрел как с IE с логоном в Яндекс, так и с чистого Сафари, разницы никакой (то есть на "поведенческое" не грешить :) ).
Некоторые граждане пробивают зАпРОс. Иногда тоже дает результат
Если интересны только Яндекс и Гугль, то можно написать
Disallow: /index.php$
Они расширенный синтаксис понимают. А в правиле написано - "только index.php без последующих символов", то есть последующие get-переменные не затрагивает, если они есть
Описал один из своих опытов эксплуатации здесь /ru/forum/comment/7816751