- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Стоит ли в вордрпесс запрещать индексацию рубрик в файле robots.txt?
Вопрос не однозначный и мнения по нему в интернете расходятся.
Google очень охотно их съедает. На одном моем проекте он даже категориям "pr" раздал.
Поэтому меня это тоже интересует.
Может, кто из гуру даст толковый ответ.
А то я пока однозначного ответа не нашел.
Дело в том что там получается дублирование частичное контента...И мне на некоторые запросы выдает рубрики в которых статьи с данным запросом. Вопрос актуален) Подскажите гуру!
Я не гуру, но отвечу :)
Стоит запрещать от индексации рубрики, теги, страницы профилей и т.д. Можно оставить индексацию только первой страницы рубрики. например site.ru/news (еще лучше написать на этой странице уникальный текст - описание рубрики) можно индексировать, а вот site.ru/news/page/6 не советую.
Это все создает дубли контента. Кто-то скажет мол у меня сайт полгода живет с дублями и все ок. Да, это может быть так, но не все вечно - скоро на вашем сайте будет огромное количество страниц, соответственно и дублей будет больше - не есть гуд. Да и зачем вам лишний фактор для АГС?
Был бы Вам очень признателен за файл robots.txt с Вашими настройками для wordpress :) Спасибо!
Рубрики - частичное копирование, но как без этого. ПС это понимают.
Зачем закрывать?:)
Согласен с Eis, ПС понимают, что это вынужденный дубль. Если следовать теории, что все последующие дубли стоит закрывать, так что в итоге получиться??? Из сотен тысяч страниц, львиная доля будет закрыта от ПС, а разве это есть Гут???
файл robots.txt с Вашими настройками для wordpress
А можно просто воспользоваться плагином All in One SEO, в настройках поставьте галочку возле Use noindex for Categories:
если не лень то закройте
разницы особой не заметите
Согласен с Eis, ПС понимают, что это вынужденный дубль. Если следовать теории, что все последующие дубли стоит закрывать, так что в итоге получиться??? Из сотен тысяч страниц, львиная доля будет закрыта от ПС, а разве это есть Гут???
Какой это вынужденный??? Вы - вебмастер и постарайтесь сделать так, чтоб сайт соответствовал стандартам. Вынуждено - это когда от вас не зависит.
Я вот просто заметил - что рубрика проиндексировалась, а сама статья нет - вот не из за того ли это что я рубрику не закрыл от индексации?