Rutoz

Рейтинг
0
Регистрация
08.09.2015
"На страницах пагинации нужно убрать вывод тегов description и keywords, в тег title в конце добавить Страница 2, Страница 3 и т.д., так же убрать вывод сео-текста и в хедер сайта повесить код <meta name="robots" content="noindex, follow" />
Таким образом данные страницы будут закрыты но вес будет передаваться на основную категорию (в данном случае это /category/wiki/) , тег title на каждой странице будет уникальным."

Для чего тогда эти действия делать?

Часто гугл игнорирует на запрет индексации страниц в файле robots.txt и закидывает их в дополнительную выдачу, так называемые "сопли", а с noindex, follow - 100% результат. Проверил на многих проектах, работает безотказно, еще замечал, что часто вебмастера для уверенности вешают и каноникал

5. Иногда выводится одна новость на оба города.

Такое лучше не делать вообще, по факту полный дубляж контента на разных сайтах, что уже не есть хорошо

Яндекс очень полюбил Хабаровск и ставит сайт в топ3.

Полюбить Хабаровск он мог за отсутствия хорошей конкурентности, тем более если сайту 5 лет

Я рекомендую пересмотреть все разделы сайтов на наявность дублей текста, мета тегов, описаний товаров и т.п и максимально уникализировать каждый магазин

Так же просадкой может являться совсем другой фактор, необходимо сперва проверить оптимизацию сайта, корректность robots.txt, актуальность sitemap.xml, наличие дублей внутренних страниц, провести анализ поведенческих, показатели отказов, качество ссылочной массы, если данные показатели в норме - принимать меры по уникализации данных ресурсов

Ну и наконец, мне сегодня в гугл вебмастер пришло уведомление, что у меня совпадают тайтлы у двух постов.
Первый с ЧПУ, а второй этот же пост, но у него URL равный ID поста. т.е. например
1)site.ru/википедия/как искать в вики - и у этого поста ID=111, "википедия" - это категория
2)site.ru/википедия/111

По факту проблемой является полное дублирование контента, мета-тегов на разных урл адресах сайта, если сайт не большой можно в .htaccess вручную настроить 301 редиректы с дублирующих страниц на основные, например Redirect 301 /111 http://site.ru/википедия/как-искать-в-вики, если сайт достаточно объемный, такой вариант не будет приемлем, в этом случае нужно вопрос с редиректами решать глобально

Ещё в гугл вебмастер ругаются что у меня теги совпадают в следующих местах:
/category/wiki/
/category/wiki/page/11/
/category/wiki/page/2/
/category/wiki/page/50/
/category/wiki/page/62/
/category/wiki/page/66/
/category/wiki/page/76/
/category/wiki/page/83/

На страницах пагинации нужно убрать вывод тегов description и keywords, в тег title в конце добавить Страница 2, Страница 3 и т.д., так же убрать вывод сео-текста и в хедер сайта повесить код <meta name="robots" content="noindex, follow" />

Таким образом данные страницы будут закрыты но вес будет передаваться на основную категорию (в данном случае это /category/wiki/) , тег title на каждой странице будет уникальным.