Павел

Рейтинг
160
Регистрация
23.01.2006

Если JS инлайновый, например, в явном виде window.location = 'URL' написан, то для ПС нет никаких сложностей его разобрать.

Пишите более сложные конструкции, например в страницу загружая массив в блок <head>, а ссылку дописывая на onload, да еще лучше не ссылку, а обработчик события, который бы сам формировал нужный линк. И ни у одной ПС ресурсов не хватит такой формат разобрать.

Просто сам по себе JS не панацея, его надо еще и применять сообразно :)

За месяц аффилят с двух сайтов снялся сам собой, после того как:

1. Разнес сайты по разным аккаунтам вебмастера

2. Поменял данные в Whois

3. В Яндекс.Адреса внес разные ЮЛ

4. Соответственно, на одном из сайтов сменились видимые роботу контактные данные

5. Из текстов "отклеиваемого" сайта вымарал упоминание второго ЮЛ

6. Акк ЯД и ЯМетрики один на них как был так и остался

При этом движек и верстка схожие (но не идентичные. и структура у магазинов немного отличается). Дизайн в плане визуала робот и так не видит, но он и разный. Контент и на момент наложения аффилирующей склейки был у сайтов разный. Хостинги изначально также разные.

Отмечу, что никуда никому не писал, само сделало приятный подарок. Считаю, что повезло, т.к. Гуру форума ставили диагноз "меняй домены и начинай все сначала".

visa-vis, благодарю =)

По моим наблюдениям сайты начинают восприниматься как один, и далее поисковик выбирает более релевантную страницу из всего массива страниц сайтов (c учетом коррекции по трасту и т.п. уточнений). Страница может быть выбрана для отображения по запросу даже с менее трастовой части "макросайта", если она более релевантна запросу (есть точное вхождение, например, а на релевантной странице трастовой части - нет).

берете 9 своих страниц, которые продвигать не нужно, более менее релевантных запросу на десятой, и ставите с них ссылку на 10ю. Это при реализации якобы инструмента "Лучший аналог" или как-то так. Не суть важно, как вы это обзовете.

Итого, из 1000 страниц продвигаете 100, имея на них дополнительных входящих 9 ссылок с непродвигаемых страниц. Ну то есть все равно же есть рубрикатор, с которого на остальные 900 попасть можно...

А если еще напрячься, и про сто страниц товаров продвигаемых написать статей или новостей - еще дополнительных внутренних ссылок получите.

Nuty:
От какого числа новый кэш? Я сейчас кэш главной увидел, которой менее суток.
Правда потом опять старый кэш ресторится.

Я имел в виду на тот момент не кеш моих страниц, а кеш яндексовской выдачи. У меня то просто две копии страницы главной постоянно менялись в разных версиях кеша выдачи запросами и местами соответственно.

Блин, задолбал уже кеш туда-сюда с утра прыгать... При том по разным фронтам одна и та же картина. 2 копии главной страницы (одна от Переиндексатора влетела).

В 12 утра по НЧ есть сайт в ТОПе по Москве с новой копией страницы, в 13 уже далеко и со старой, счас вот опять в топе и с новой копией. При этом фронты весь зоопарк, одна и та же картина... Когда ж уже оно устаканится то, чтоб можно было выводы то сделать :)

Смотрел как с IE с логоном в Яндекс, так и с чистого Сафари, разницы никакой (то есть на "поведенческое" не грешить :) ).

sherry:
Пробитый кэш - это запрос с каким либо символом, например ~мебель?

Некоторые граждане пробивают зАпРОс. Иногда тоже дает результат

Если интересны только Яндекс и Гугль, то можно написать

Disallow: /index.php$

Они расширенный синтаксис понимают. А в правиле написано - "только index.php без последующих символов", то есть последующие get-переменные не затрагивает, если они есть

Описал один из своих опытов эксплуатации здесь /ru/forum/comment/7816751

Всего: 257