богоносец

богоносец
Рейтинг
775
Регистрация
30.01.2007

Вообще-то AJAX подразумевает в т.ч. и XML, а значит и XSLT скорее всего будет. Но вот только-XSLT Гугл пока не исполняет (хотя индексит .xsl), можно предположить, что по причине непопулярности. AJAX популярнее.

awd777:
И в чем проблема сформировать HTML-версию?

А это будет не

результаты работы ява-скриптов
исполняемых браузером (и Гуглём иногда).

Вот с | пробелов не надо.

Там с этими пробелами не так уж и редко попадались глюки.

artsiti:
примеры применительно к CMS

Если вам нужно решение для конкретной CMS, то их создатели об этом не думают (нет массового спроса, толпы голов не проспамлены).

А посредством Ява скриптов или ajax — это сами будете в СМС впихивать.

Примеры пока ещё показать можно, тем таких полно /ru/forum/788250 ... но скрипт закрывайте в роботс.тхт (а когда это перестанет работать, никто предсказать не возьмётся).

YaanGle:
Недавно заметил, что с использованием "~" по анкор-листам урлы не ищутся

Ищутся, но как-то ~~странно.

И причины непоказа НПС давно могут быть мягче ... но к ранжированию это отношения не имеет.

Ну так и читайте:

Каждая индексируемая AJAX-страница должна иметь HTML-версию.
и попробуйте скриптом сформировать не совсем то, что будет в HTML-версии.

В буквосочетании AJAX пока надо приглядываться только к буковке J

и смотреть, закрыты ли скрипты в роботс.тхт

Вот в индексе?

Добавьте в запрос текст из подвала, видимый при включенных в браузере скриптах.

Антивирус на ваш пример ругается.

Морда в индексе, в подвале видно слово Листы, пробуем его искать, находит, но Не на морде. Роботса нету. С клиентским xslt Гугл не спешит... но на text/xml не спешат переходить массы.

Бурундук давно проспамил форум своими подопытными, вот в индексе, смотрим страницу с выключенными скриптами и с включенными, пытаемся искать текст, видимый в подвале (ну лень же было его убрать, это же надо было писать отдельный шаблон). В robots.txt скрипты закрыты. Хоть и на анмедии пробуйте...

Уже даже ищет страницу по коментам, подгружаемым скриптом (ПС подарили дорвейщикам уник). Или закрывайте в роботсе свой скрипт, который рисует в документе ссылку на чужой

document.write ("<scr"+"ipt type='text/javascript' src='"+m3_u);

document.write ("?zoneid=11&amp;target=_blank&amp;blockcampaign=1");

Кому ближе text/xml ... слово из подвала морды ищется НЕ на морде (хоть и в файле.xsl но не там, где он применяется), роботса нету. Просто Гугл пока ещё не спешит выполнять xslt на клиенте.

Но с проверкой индексации ссылок всё сложнее: как проверять — что именно в ссылке учитывается? По скриптовому анкору?

Скрытие ссылок — суета с опозданием на много лет (говорящем об инертности оптимизаторской бессознанки). Уже лет 5 назад были сообщения о попадании в индекс после просмотра с тулбаром. При большой доле браузеров/баров от ПС, актуальнее оказывается:

//:
против этого то же есть средства, когда например, в карте кликов - клики есть, а в карте ссылок их нет
А уж сочтёт ли дором вашего белого и пушистого... может зависеть не от ссылок, а от переходов по не-ссылкам (и остаётся без детального ответа актуальнейший для спамерюгов вопрос: что именно учитывается в js-ссылке?).

Фейсбук это чудо прикроет по политическим соображениям.

Всего: 13653