siv1987

siv1987
Рейтинг
427
Регистрация
02.04.2009

Откуда этот бред, что xml карта это для гугла а html только для яндекса? Все пс понимают формат xml карты и яша здесь не исключения. У них стандарт такой, заглядывать в роботс и искать в директиве Sitemap путь к хмл формату.

JIucky:
Каким образом старые будут дубли создавать? Их попросту нет, яндекс их выкинет из индекса и с новыми урл'ами проиндексит.

А кто сказал что их нет? Они как раз-то есть, и могут создавать дубли по старому адресу - /index.php?newsid=*

Ну, это обычное явление при смене урл'ов.

Смотрите теперь чтоб старые урл'ы дубли не создавали.

Не понял смысла, зачем генерировать отдельно для пс больше страниц чем есть на самом деле? Может, подмена?

solt:
Тоже хотел по экспериментировать с /pages/*/ с помощью роботс.тхт. Т.к. у этих страниц полезность информации стремиться к нулю (в случае если ресурс обновляемый!).
А вот как сделать чтобы робот по ним ходит а в индекс не принимал?

<meta name="robots" content="noindex,follow">

выходит что нет. :(

1. Не стоит. Етим вы запретите боту ходить по номерам страницы сайта /pages/2/, /pages/3/.

Все равно там инфа будет обновляться, да и основной контент у вас должен лежать в самих темах.

2. Можно под один user-agent.

siv1987 если я положу карту в корень,то выглядеть должно так,у меня Джумла:

Только путь пиши полный, а не относительный:

Sitemap: http://домен.ру/sitemap.xml

И ещё что хотел спросить-карта сайта одинакова для Гугла и Янедкса? Или для каждого свою нужно создавать? Сделал вот такую,правда не понял для кого она.....http://s61.radikal.ru/i174/1005/cc/2f23e6deca58.jpg

Sitemap един для всех ботов. Пропиши в роботс эту директиву с местонахождением xml карты: Sitemap: {полный путь к карте сайта}

А что мешает сделать статическую страницу на сайте например hoiui45h3i45u3.html и в неё загружать обратные ссылки, и естественно не давать на эту страницу ссылок ни с главной ни с каких других страниц сайта?

А что мешает каталогам скормить эту страничку пс?

Всего: 6568