- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте. подскажите пожалуйста кто знает, как можно скрыть от индексации архивы на wordpress?
ЧПУ обычных постов такие: http://www.сайт.com/2014/08/12/название статьи/
Ссылка на архив имеет такой вид: http://www.сайт.com/2014/08/12
И еще, стоит ли закрывать пагинацию (page) в файле robots.txt для гугла? Борюсь с дублями страниц, в гугле около 5000 страниц, хотя статей всего около 1600.
Здравствуйте. подскажите пожалуйста кто знает, как можно скрыть от индексации архивы на wordpress?
ЧПУ обычных постов такие: http://www.сайт.com/2014/08/12/название статьи/
Ссылка на архив имеет такой вид: http://www.сайт.com/2014/08/12
И еще, стоит ли закрывать пагинацию (page) в файле robots.txt для гугла? Борюсь с дублями страниц, в гугле около 5000 страниц, хотя статей всего около 1600.
В общем на Вордпрессе есть специальный плагин all in seo pack, с его помощью можно закрыть "все ненужное".
Еще есть вариант, описан тут http://dmitriydenisov.com/wordpress/wp-theme/indexing-wordpress.html
is_tax () отвечает за определение архивных страниц пользовательских таксономий. Дабы запретить индексацию, можно либо закомментировать, функцию, или просто удалить.
В общем на Вордпрессе есть специальный плагин all in seo pack, с его помощью можно закрыть "все ненужное".
Еще есть вариант, описан тут http://dmitriydenisov.com/wordpress/wp-theme/indexing-wordpress.html
is_tax () отвечает за определение архивных страниц пользовательских таксономий. Дабы запретить индексацию, можно либо закомментировать, функцию, или просто удалить.
То есть можно из той статьи которую вы мне дали скопировать код управления мета-тегом robots для сайтов на WordPress и просто удалить is_tax () и индексация архивов будет закрыта?
По поводу плагина, если в его настройках запретить индексацию архивов будет ли это работать с моими урлами и не выйдет ли каких косяков? Спасибо
можно использовать регулярки в robots.txt
(запрет на индексацию всех документов внутри папки)
(разрешение на индексацию самой папки)
и можно закрывать от индексации всякие постранички, архивы и тд.