- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброе утро! У меня блог на WP. C августа началась просадка по гуглу. Ничего абсолютно не менял в работе, но перешёл со старой версии WP на новую и обновил после этого плагины. Так же поставил пару новых галочек в плагине All in one seo.
Помогите понять в чём просадка.
Файл роботс:
User-agent: *
Disallow: /wp-admin
Disallow: /navigator
Disallow: /navigator/
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /xmlrpc.php
Disallow: /wp-content/uploads
Disallow: /wp-content/themes
Disallow: /trackback/
Disallow: /tag/
Disallow: /feed/
Disallow: */*/feed/*/
Disallow: */feed
Disallow: */*/feed
Disallow: /*?*
Disallow: /?feed=
Disallow: /?s=
Sitemap: ссылка на .xml
Sitemap: ссылка xml.gz
Вот настройки All in one seo: (в красном кругу галочки которые я поставил после обновления)
На втором скрине это я так первоначально вбил года 3 назад и больше не менял
Ну и наконец, мне сегодня в гугл вебмастер пришло уведомление, что у меня совпадают тайтлы у двух постов.
Первый с ЧПУ, а второй этот же пост, но у него URL равный ID поста. т.е. например
1)site.ru/википедия/как искать в вики - и у этого поста ID=111, "википедия" - это категория
2)site.ru/википедия/111
Ещё в гугл вебмастер ругаются что у меня теги совпадают в следующих местах:
/category/wiki/
/category/wiki/page/11/
/category/wiki/page/2/
/category/wiki/page/50/
/category/wiki/page/62/
/category/wiki/page/66/
/category/wiki/page/76/
/category/wiki/page/83/
Вообщем где-то происходит дублирование((( и я не могу понять где. Помогите пожалуйста
Всем заранее спасибо!
Первый с ЧПУ, а второй этот же пост, но у него URL равный ID поста. т.е. например
1)site.ru/википедия/как искать в вики - и у этого поста ID=111, "википедия" - это категория
2)site.ru/википедия/111
По факту проблемой является полное дублирование контента, мета-тегов на разных урл адресах сайта, если сайт не большой можно в .htaccess вручную настроить 301 редиректы с дублирующих страниц на основные, например Redirect 301 /111 http://site.ru/википедия/как-искать-в-вики, если сайт достаточно объемный, такой вариант не будет приемлем, в этом случае нужно вопрос с редиректами решать глобально
/category/wiki/
/category/wiki/page/11/
/category/wiki/page/2/
/category/wiki/page/50/
/category/wiki/page/62/
/category/wiki/page/66/
/category/wiki/page/76/
/category/wiki/page/83/
На страницах пагинации нужно убрать вывод тегов description и keywords, в тег title в конце добавить Страница 2, Страница 3 и т.д., так же убрать вывод сео-текста и в хедер сайта повесить код <meta name="robots" content="noindex, follow" />
Таким образом данные страницы будут закрыты но вес будет передаваться на основную категорию (в данном случае это /category/wiki/) , тег title на каждой странице будет уникальным.
А если я в файле роботс просто пропишу??
Disallow: */page/*
А если я в файле роботс просто пропишу??
Disallow: */page/*
Так и делают обычно.
"На страницах пагинации нужно убрать вывод тегов description и keywords, в тег title в конце добавить Страница 2, Страница 3 и т.д., так же убрать вывод сео-текста и в хедер сайта повесить код <meta name="robots" content="noindex, follow" />
Таким образом данные страницы будут закрыты но вес будет передаваться на основную категорию (в данном случае это /category/wiki/) , тег title на каждой странице будет уникальным."
---------- Добавлено 10.09.2015 в 08:00 ----------
Для чего тогда эти действия делать?
Таким образом данные страницы будут закрыты но вес будет передаваться на основную категорию (в данном случае это /category/wiki/) , тег title на каждой странице будет уникальным."
Для чего тогда эти действия делать?
Часто гугл игнорирует на запрет индексации страниц в файле robots.txt и закидывает их в дополнительную выдачу, так называемые "сопли", а с noindex, follow - 100% результат. Проверил на многих проектах, работает безотказно, еще замечал, что часто вебмастера для уверенности вешают и каноникал
Спасибо, попробую всё это организовать.
И ещё если я в поиске гугла прописываю через site:мой сайт "текст"
Вбиваю текст с одной из новостей сайта и у меня выводится кучу страниц где встречается этот текст, это значит дубляж или это нормально?