Потом поверите... не забудьте отписаться об успехах.
А потом следующий попсовый вопрос, на который не может быть правильного ответа.
Грей против оптимизаторщины, поэтому таких вопросов лучше не задавать.
Дублируется только первый пост...
зы Глупость сказал
надо пробовать индексить такие файлы.xml где нибудь ещё.
Вот и закралось подозрение, что XML пока воспринимается ПС как-то иначе. Надо выдумывать эксперименты.
Уже пару бэков в Я.вебмастере заметил со страниц типа http://platon.ya.ru/rss/posts.xml (но не с этого конкретно), урл был в теге <description>
там даже не html а его мнемоники:
<description><ul><li>В "<a href="http://help.yandex.ru/webmaster/?id=1108938">Рекомендациях Яндекса по созданию сайтов</a>" появился новый раздел - "<a href="http://help.yandex.ru/webmaster/?id=1116615">Смена структуры сайта</a>". Вы нас спрашивали - мы постарались максимально подробно ответить.</li><li>Наш робот теперь поддерживает атрибут rel=”canonical”. <a href="http://webmaster.ya.ru/replies.xml?item_no=10371">Подробности</a>*в блоге Яндекс.Поиска.</li></ul><p>*</p><p>Одним словом, работаем изо всех сил, несмотря на солнце и лето за окном. Даже в блог писать некогда!</p><p>*</p><noindex></noindex></description>
В G не смотрел.
Вот попробуйте с я.ру с уникальным «анкором», если это можно так назвать.
ps Яндекс индексит не всякий XML-документ, но RSS индексит, и картинку сделали.
В G.индекс удавалось запихивать больше всяких XML-документов, но чаще с <html> в корне или близко к корню, и G воспринимал это как HTML
Основной проблемой является ... бездумное копирование у гугля. Не пугайтесь непонятного:
У пожилых+начинающих вообще проблемы с тем, чтобы кликнуть... звонят по телефону, видимому в выдаче. Ах! ПС клика не посчитают!
У вас есть пример, показывающий учёт этого анкора? Вопрос не случайный... просто там как-то всё не так, как в HTML.
Когда она была открыта, то по запросам типа серч заходов было несколько десятков. Основная масса заходов по редким запросам, года 3 назад их накапливалось более 100.000 в месяц.
Уже показал... в лучших традициях совка.
Просто боты не умеют решать тех задач, которые человек решает очень легко (но медленно), это вам любой Садовский подтвердит. И Сегалович в разных местах об этом признавался. Цитаты нужны?
А мне известно происхождение этих впечатлений.
Программеры пытаются решать несколько другую задачу: бот умеет с некоторой погрешностью отфильтровывать «откровенно некачественные сайты» (то, что надо было победить в прошлом веке), но это не значит, что в выдаче останутся только качественные. Там было, есть и будет всё то, что яндексоиды пока не признают спамом по причине неумения и нежелания с этим бороться.
Качество сайта ПС прямо измерить не может. Поведение ползателей может что-то говорить, но не во всех случаях это окажется достоверно, скорее только в самых популярных.
Да вот не выходит пока. Легче сделать имитацию качественного...
http://www.liveinternet.ru/stat/forum.searchengines.ru/ref_servers.html
http://www.liveinternet.ru/stat/forum.searchengines.ru/sources.html
И от того, что уже показано (в тайтле), и от тех слов во фразе — которых нет в запросе.
Нет.
Слово «релеватность» лучше применять только к ранжированию документа (по запросу), а не к части документа.
Нет. Хотя фраза и липнет к мозгу, и можно показать ещё более липкую.
Подбираются наиболее информативные... с т.з. арифмометра XXI века.
При длинных запросах можно не ожидать всех слов запроса в сниппете естественного текста. Можно показывать примеры «нерелевантных» сниппетов... оказавшихся более информативными (для ранжирования — релевантность мета описания == 0, ибо <h1> релевантнее). По этому всему нельзя делать выводов о релевантности документа. Лучше на страницу заглянуть — были ли там в тексте остальные слова запроса, а уж в ссылках были, наверное.