Просели позиции в гугле и происходит дублирование контекта

P
На сайте с 08.09.2015
Offline
0
744

Доброе утро! У меня блог на WP. C августа началась просадка по гуглу. Ничего абсолютно не менял в работе, но перешёл со старой версии WP на новую и обновил после этого плагины. Так же поставил пару новых галочек в плагине All in one seo.

Помогите понять в чём просадка.

Файл роботс:

User-agent: *

Disallow: /wp-admin

Disallow: /navigator

Disallow: /navigator/

Disallow: /wp-includes

Disallow: /wp-content/plugins

Disallow: /wp-content/cache

Disallow: /xmlrpc.php

Disallow: /wp-content/uploads

Disallow: /wp-content/themes

Disallow: /trackback/

Disallow: /tag/

Disallow: /feed/

Disallow: */*/feed/*/

Disallow: */feed

Disallow: */*/feed

Disallow: /*?*

Disallow: /?feed=

Disallow: /?s=

Sitemap: ссылка на .xml

Sitemap: ссылка xml.gz

Вот настройки All in one seo: (в красном кругу галочки которые я поставил после обновления)

На втором скрине это я так первоначально вбил года 3 назад и больше не менял

Ну и наконец, мне сегодня в гугл вебмастер пришло уведомление, что у меня совпадают тайтлы у двух постов.

Первый с ЧПУ, а второй этот же пост, но у него URL равный ID поста. т.е. например

1)site.ru/википедия/как искать в вики - и у этого поста ID=111, "википедия" - это категория

2)site.ru/википедия/111

Ещё в гугл вебмастер ругаются что у меня теги совпадают в следующих местах:

/category/wiki/

/category/wiki/page/11/

/category/wiki/page/2/

/category/wiki/page/50/

/category/wiki/page/62/

/category/wiki/page/66/

/category/wiki/page/76/

/category/wiki/page/83/

Вообщем где-то происходит дублирование((( и я не могу понять где. Помогите пожалуйста

Всем заранее спасибо!

R
На сайте с 08.09.2015
Offline
0
#1
Ну и наконец, мне сегодня в гугл вебмастер пришло уведомление, что у меня совпадают тайтлы у двух постов.
Первый с ЧПУ, а второй этот же пост, но у него URL равный ID поста. т.е. например
1)site.ru/википедия/как искать в вики - и у этого поста ID=111, "википедия" - это категория
2)site.ru/википедия/111

По факту проблемой является полное дублирование контента, мета-тегов на разных урл адресах сайта, если сайт не большой можно в .htaccess вручную настроить 301 редиректы с дублирующих страниц на основные, например Redirect 301 /111 http://site.ru/википедия/как-искать-в-вики, если сайт достаточно объемный, такой вариант не будет приемлем, в этом случае нужно вопрос с редиректами решать глобально

Ещё в гугл вебмастер ругаются что у меня теги совпадают в следующих местах:
/category/wiki/
/category/wiki/page/11/
/category/wiki/page/2/
/category/wiki/page/50/
/category/wiki/page/62/
/category/wiki/page/66/
/category/wiki/page/76/
/category/wiki/page/83/

На страницах пагинации нужно убрать вывод тегов description и keywords, в тег title в конце добавить Страница 2, Страница 3 и т.д., так же убрать вывод сео-текста и в хедер сайта повесить код <meta name="robots" content="noindex, follow" />

Таким образом данные страницы будут закрыты но вес будет передаваться на основную категорию (в данном случае это /category/wiki/) , тег title на каждой странице будет уникальным.

P
На сайте с 08.09.2015
Offline
0
#2

А если я в файле роботс просто пропишу??

Disallow: */page/*

P
На сайте с 23.12.2013
Offline
52
#3
Poozy:
А если я в файле роботс просто пропишу??
Disallow: */page/*

Так и делают обычно.

P
На сайте с 08.09.2015
Offline
0
#4

"На страницах пагинации нужно убрать вывод тегов description и keywords, в тег title в конце добавить Страница 2, Страница 3 и т.д., так же убрать вывод сео-текста и в хедер сайта повесить код <meta name="robots" content="noindex, follow" />

Таким образом данные страницы будут закрыты но вес будет передаваться на основную категорию (в данном случае это /category/wiki/) , тег title на каждой странице будет уникальным."

---------- Добавлено 10.09.2015 в 08:00 ----------

Для чего тогда эти действия делать?

R
На сайте с 08.09.2015
Offline
0
#5
"На страницах пагинации нужно убрать вывод тегов description и keywords, в тег title в конце добавить Страница 2, Страница 3 и т.д., так же убрать вывод сео-текста и в хедер сайта повесить код <meta name="robots" content="noindex, follow" />
Таким образом данные страницы будут закрыты но вес будет передаваться на основную категорию (в данном случае это /category/wiki/) , тег title на каждой странице будет уникальным."

Для чего тогда эти действия делать?

Часто гугл игнорирует на запрет индексации страниц в файле robots.txt и закидывает их в дополнительную выдачу, так называемые "сопли", а с noindex, follow - 100% результат. Проверил на многих проектах, работает безотказно, еще замечал, что часто вебмастера для уверенности вешают и каноникал

P
На сайте с 08.09.2015
Offline
0
#6

Спасибо, попробую всё это организовать.

И ещё если я в поиске гугла прописываю через site:мой сайт "текст"

Вбиваю текст с одной из новостей сайта и у меня выводится кучу страниц где встречается этот текст, это значит дубляж или это нормально?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий