Спасибо, настроил.
Похоже нашёл причину... К сожалению невнимательность.
В Друпале модуль nodewords создаёт для каждой страницы Canonical URL типа site/node/123 это включено по умолчанию, но можно выключить. В свою очередь модуль Global Redirect по умолчанию не создаёт Canonical URL, но можно это включить и они выглядят, как site/nazvanie_stranici
Сейчас все Canonical URL перестроены.
Будем подождать......
Да, установлен. Кстати, в Яндексе изначально всё проиндексировано правильно.
Хорошо, напишу подробнее.
Сайт имеет около 450 страниц, построен на Drupal. До недавнего времени все страницы имели по два адреса: site/node/123 и site/nazvanie_stranici К сожалению мной не были закрыты в robots.txt адреса первого варианта и гугл именно большинство из них проиндексировал, несмотря на то, что в sitemap указанны правильные адреса. Сейчас я запретил в robots.txt
User-agent: Googlebot
Disallow: /node/
Уже прошло около месяца, страницы типа site/node/123 из индекса выпали, но правильные адреса индексируются крайне медленно см. первый пост.
Подтверждаю и рекомендую!
Ну а что с добрым утром?.. На сколько я знаю, Allow понимал только Яндекс, для Гугла нужно было делать всё через запрет индексации disaollow. Поправьте, если я не прав...
В очередной раз обратился к ТС - все сделано грамотно и быстро. Рекомендую.
Как долго будете работать именно в таком режим?
Хорошо поднялись внутренние страницы. А вот с феноменом столкнулся, у одной внутренней страницы 2 уровня вложения стал PR5, при PR4 главной. Кто то подобное встречал? Материал на этой странице очень востребован посетителями.
поправили...