В буквосочетании AJAX пока надо приглядываться только к буковке J
и смотреть, закрыты ли скрипты в роботс.тхт
Вот в индексе?
Добавьте в запрос текст из подвала, видимый при включенных в браузере скриптах.
Антивирус на ваш пример ругается.
Морда в индексе, в подвале видно слово Листы, пробуем его искать, находит, но Не на морде. Роботса нету. С клиентским xslt Гугл не спешит... но на text/xml не спешат переходить массы.
Бурундук давно проспамил форум своими подопытными, вот в индексе, смотрим страницу с выключенными скриптами и с включенными, пытаемся искать текст, видимый в подвале (ну лень же было его убрать, это же надо было писать отдельный шаблон). В robots.txt скрипты закрыты. Хоть и на анмедии пробуйте...
Уже даже ищет страницу по коментам, подгружаемым скриптом (ПС подарили дорвейщикам уник). Или закрывайте в роботсе свой скрипт, который рисует в документе ссылку на чужой
document.write ("<scr"+"ipt type='text/javascript' src='"+m3_u);
document.write ("?zoneid=11&target=_blank&blockcampaign=1");
Кому ближе text/xml ... слово из подвала морды ищется НЕ на морде (хоть и в файле.xsl но не там, где он применяется), роботса нету. Просто Гугл пока ещё не спешит выполнять xslt на клиенте.
Но с проверкой индексации ссылок всё сложнее: как проверять — что именно в ссылке учитывается? По скриптовому анкору?
Скрытие ссылок — суета с опозданием на много лет (говорящем об инертности оптимизаторской бессознанки). Уже лет 5 назад были сообщения о попадании в индекс после просмотра с тулбаром. При большой доле браузеров/баров от ПС, актуальнее оказывается:
Фейсбук это чудо прикроет по политическим соображениям.
А вам отвечали про склейку: Указанные Вами изменения на страницах не должны повлиять на данный процесс
А в роботсе закрыть скрипты не пробовали?
Или вам нужны примеры, когда что-то нарисованное JS не ищется обожествлённым Гуглом?
Да, можно закрыть свой скрипт, который рисует в HTML-коде cсылку на чужой
document.write ('&cb=' + m3_r);
А этот скрипт на этом домене в роботсе не закрыт? Не смотрели?
Вот ещё: ... скрипт именно исполняется причем в контексте всей страницы вместе с CSS да еще используя media-query
Ну чтобы влазило в пределы http://www.google.com/search?q=site:lookattheworld.ru например, не обрывалось, понятно для ползателя описывало конкретную страницу...
С параметром _escaped_fragment_=bobo/123 по идее запрашивают только ПС,
но если поискать inurl:escaped_fragment в Яндексе, то иногда бывает с заголовка ссылка на
-ttp://www.sravni.ru/vklady/top/moskva/#!
с урла на
-ttp://www.sravni.ru/vklady/top/moskva/?_escaped_fragment_=
т.е. не долечили они это.
Вот этот чувак тоже долго вчитывался в #!хелпы, тему тут заводил... а потом сделал сделал иначе, как видите.
Вариантов больше, чем в идиотских хелпах от ПС, придумавших ещё один вариант создания дублей.
1. копипаст- и униКал-выдачу он уже давно имеет, привык.
2. А “другие методы” — они в т.ч. и такие же, как и у ГСтроя из п.1
А у Яндекса от этого нет проблем.
Их может быть слегка волнует то, что место в ИХ выдаче кто-то считает своим.