- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Привет, All!
Подскажите пожалуйста, как заставить гугл проиндексировать страницы, отображенные в sitemap.xml?
Два дня ждете? =)
Рановато создали топик.
P.S. Так он обработан еще был только сегодня...
Два дня ждете? =)
Рановато создали топик.
P.S. Так он обработан еще был только сегодня...
Хорошо, напишу подробнее.
Сайт имеет около 450 страниц, построен на Drupal. До недавнего времени все страницы имели по два адреса: site/node/123 и site/nazvanie_stranici К сожалению мной не были закрыты в robots.txt адреса первого варианта и гугл именно большинство из них проиндексировал, несмотря на то, что в sitemap указанны правильные адреса. Сейчас я запретил в robots.txt
User-agent: Googlebot
Disallow: /node/
Уже прошло около месяца, страницы типа site/node/123 из индекса выпали, но правильные адреса индексируются крайне медленно см. первый пост.
Дайте повод гуглу вас поскорей проиндексировать. Допустим в твиттере.
Покажите robots
И вот что еще сегодня было /ru/forum/704696
Хорошо, напишу подробнее.
Сайт имеет около 450 страниц, построен на Drupal. До недавнего времени все страницы имели по два адреса: site/node/123 и site/nazvanie_stranici К сожалению мной не были закрыты в robots.txt адреса первого варианта и гугл именно большинство из них проиндексировал, несмотря на то, что в sitemap указанны правильные адреса. Сейчас я запретил в robots.txt
User-agent: Googlebot
Disallow: /node/
Уже прошло около месяца, страницы типа site/node/123 из индекса выпали, но правильные адреса индексируются крайне медленно см. первый пост.
надеюсь, global redirect поставили?
надеюсь, global redirect поставили?
Да, установлен. Кстати, в Яндексе изначально всё проиндексировано правильно.
Да, установлен. Кстати, в Яндексе изначально всё проиндексировано правильно.
проверьте, что с 301-ыми все ок
и на дубли проверьте
Похоже нашёл причину... К сожалению невнимательность.
В Друпале модуль nodewords создаёт для каждой страницы Canonical URL типа site/node/123 это включено по умолчанию, но можно выключить. В свою очередь модуль Global Redirect по умолчанию не создаёт Canonical URL, но можно это включить и они выглядят, как site/nazvanie_stranici
Сейчас все Canonical URL перестроены.
Будем подождать......
Похоже нашёл причину... К сожалению невнимательность.
В Друпале модуль nodewords создаёт для каждой страницы Canonical URL типа site/node/123 это включено по умолчанию, но можно выключить. В свою очередь модуль Global Redirect по умолчанию не создаёт Canonical URL, но можно это включить и они выглядят, как site/nazvanie_stranici
Сейчас все Canonical URL перестроены.
Будем подождать......
все будет ок. у меня была точно такая же проблема месяца с два назад на одном из проектов. за месяц все вернулось =) правда, я немного твиттером это простимулировал
В настройках типа материала выберите приоритет для ссылок в sitemap'е, это не ускорит индексацию но покажет роботам с какой периодичностью страницы у вас обновляются
В настройках типа материала выберите приоритет для ссылок в sitemap'е, это не ускорит индексацию но покажет роботам с какой периодичностью страницы у вас обновляются
Спасибо, настроил.