Дубли продвигаемой страницы обязательно нужно закрывать от поисковиков.
Как вариант - прописать Disallow для неугодных страниц в файл robots.txt
Вам нужно продвигать эту страницу http://advokat-monina.ru/uslugi-grazhdanam/avtourist/
А остальные, которые дублируют ее контент, закрыть:
Disallow: /uslugi-grazhdanam/
Disallow: /uslugi-grazhdanam/avtourist/25-avtoyurist.html
Исправлено!
Спасибо всем за критику. 🍻 Теперь есть план работ по сайту. Главное, чтобы времени хватало заниматься...
Спасибо Всем за критику! 🍻
Следующая неделя будет посвящена работе над ошибками :)
1. www.grand-olivia.ru
2. Раздел DMOZ
3. Примерно в середине июня этого года
Да, с каждым днем все глубже и глубже идет...
У меня такая же беда - уже месяц не происходит обновление сохраненки и sitemap. Писал Платонам, получил ответ:
К сожалению, сейчас возникли задержки с обработкой Вашего файла sitemap, а также с обновлением уже проиндексированных страниц в поиске, вызванные техническими проблемами с нашей стороны. Мы уже работаем над их устранением, но на это потребуется определенное время. Как только эти проблемы будут полностью устранены, обработка Вашего файла sitemap возобновится, также обновятся страницы в поиске. Приносим Вам наши извинения в связи с этой ситуацией и надеемся на Ваше терпение и понимание.
Лютая ненависть...😡
Уже месяц не происходит обновление сохраненки и sitemap. Писал Платонам, получил ответ:
Ненависть...😒