богоносец

богоносец
Рейтинг
777
Регистрация
30.01.2007

В буквосочетании AJAX пока надо приглядываться только к буковке J

и смотреть, закрыты ли скрипты в роботс.тхт

Вот в индексе?

Добавьте в запрос текст из подвала, видимый при включенных в браузере скриптах.

Антивирус на ваш пример ругается.

Морда в индексе, в подвале видно слово Листы, пробуем его искать, находит, но Не на морде. Роботса нету. С клиентским xslt Гугл не спешит... но на text/xml не спешат переходить массы.

Бурундук давно проспамил форум своими подопытными, вот в индексе, смотрим страницу с выключенными скриптами и с включенными, пытаемся искать текст, видимый в подвале (ну лень же было его убрать, это же надо было писать отдельный шаблон). В robots.txt скрипты закрыты. Хоть и на анмедии пробуйте...

Уже даже ищет страницу по коментам, подгружаемым скриптом (ПС подарили дорвейщикам уник). Или закрывайте в роботсе свой скрипт, который рисует в документе ссылку на чужой

document.write ("<scr"+"ipt type='text/javascript' src='"+m3_u);

document.write ("?zoneid=11&amp;target=_blank&amp;blockcampaign=1");

Кому ближе text/xml ... слово из подвала морды ищется НЕ на морде (хоть и в файле.xsl но не там, где он применяется), роботса нету. Просто Гугл пока ещё не спешит выполнять xslt на клиенте.

Но с проверкой индексации ссылок всё сложнее: как проверять — что именно в ссылке учитывается? По скриптовому анкору?

Скрытие ссылок — суета с опозданием на много лет (говорящем об инертности оптимизаторской бессознанки). Уже лет 5 назад были сообщения о попадании в индекс после просмотра с тулбаром. При большой доле браузеров/баров от ПС, актуальнее оказывается:

//:
против этого то же есть средства, когда например, в карте кликов - клики есть, а в карте ссылок их нет
А уж сочтёт ли дором вашего белого и пушистого... может зависеть не от ссылок, а от переходов по не-ссылкам (и остаётся без детального ответа актуальнейший для спамерюгов вопрос: что именно учитывается в js-ссылке?).

Фейсбук это чудо прикроет по политическим соображениям.

А вам отвечали про склейку: Указанные Вами изменения на страницах не должны повлиять на данный процесс

А в роботсе закрыть скрипты не пробовали?

Или вам нужны примеры, когда что-то нарисованное JS не ищется обожествлённым Гуглом?

Да, можно закрыть свой скрипт, который рисует в HTML-коде cсылку на чужой

document.write ("<scr"+"ipt type='text/javascript' src='"+m3_u);

document.write ("?zoneid=11&amp;target=_blank&amp;blockcampaign=1");

document.write ('&amp;cb=' + m3_r);

Snake800:
тексты комментариев, затянутые скриптом с другого домена

А этот скрипт на этом домене в роботсе не закрыт? Не смотрели?

Вот ещё: ... скрипт именно исполняется причем в контексте всей страницы вместе с CSS да еще используя media-query

Ну чтобы влазило в пределы http://www.google.com/search?q=site:lookattheworld.ru например, не обрывалось, понятно для ползателя описывало конкретную страницу...

С параметром _escaped_fragment_=bobo/123 по идее запрашивают только ПС,

но если поискать inurl:escaped_fragment в Яндексе, то иногда бывает с заголовка ссылка на

-ttp://www.sravni.ru/vklady/top/moskva/#!

с урла на

-ttp://www.sravni.ru/vklady/top/moskva/?_escaped_fragment_=

т.е. не долечили они это.

Вот этот чувак тоже долго вчитывался в #!хелпы, тему тут заводил... а потом сделал сделал иначе, как видите.

Вариантов больше, чем в идиотских хелпах от ПС, придумавших ещё один вариант создания дублей.

Meito:
Не знаю насколько Яндексу выгодно иметь "копипаст выдачу"
...
При словах "почему нельзя гарантированно заранее застолбить текст?" сотрудники сразу стали отмахиваться, как от огня. Главный аргумент - Зеркало рунета. Пользуйтесь другими методами.

1. копипаст- и униКал-выдачу он уже давно имеет, привык.

2. А “другие методы” — они в т.ч. и такие же, как и у ГСтроя из п.1

Meito:
с целенаправленной манипуляцией , путём "опускание конкурента под фильтр по одному запросу" я столкнулся впервые за последние года два

А у Яндекса от этого нет проблем.

Их может быть слегка волнует то, что место в ИХ выдаче кто-то считает своим.

Всего: 13677