- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день.
Какие страницы движка Wordpress рекомендуется удалять из индекса и, самое важное, способы, как это сделать с максимально высокой гарантией. Читал, что google не всегда четко следует тому, что прописано в robots.txt (воспринимает его как рекомендацию).
Спасибо.
Вот с помощью этого плагина можно закрыть от индексации все что нужно Robots Meta, он ставит метатеги ноиндекс которые гугл не игнорит вогтличии от файла роботс. я закрываю вообще все кроме постов. На некоторых сайтах где продвигаю категории, то их тоже оставляю.
посмотрите тут правильный роботс для вордпресс
"Правильный" роботс - весьма размытое понятие. Смотря что за сайт у вас. Я в вордпрессах закрываю обычно /page /tags /feed, это помимо админской части. То что закрыто, у меня лично гугл кидает в сопли.
То что закрыто, у меня лично гугл кидает в сопли.
Если кидает в сопли, значит все-таки индексирует содержимое несмотря на то, что оно закрыто в robots.txt. Поэтому и задал вопрос "...способы, как это сделать с максимально высокой гарантией." Т.е. как закрыть страницы так, чтобы Гугл вообще не брал их в индекс.
---------- Добавлено 08.02.2012 в 14:09 ----------
Что-то полезное нашел здесь http://www.seomoz.org/blog/duplicate-content-in-a-post-panda-world, но хотелось бы еще от Вас, форумчане, услышать Ваше лично мнение...
Кстати статья ок, хорошая подборка способов) но вообще я думаю, что каноникала и ручного удаления в вебмастер тулз должно быть достаточно.
User-agent: *
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /webstat/
Disallow: /feed/
Disallow: /trackback
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Disallow: /*?*
Disallow: /*?
Disallow: /category/*/*
Disallow: /wp-content/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /comments
User-agent: Yandex
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /webstat/
Disallow: /feed/
Disallow: /trackback
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Disallow: /*?*
Disallow: /*?
Disallow: /category/*/*
Disallow: /wp-content/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /comments
Host: site.ru
Sitemap: http:/site.ru/sitemap.xml
Обычно такой использую, это базовый вариант, если есть еще нежелательные страницы, добавляем в список или через Яндекс Веб-мастер.
По количеству страниц получается кол-во постов + категории + теги.
Еще в WP любят добавлять:
Disallow: /tag/
Disallow: /page/
чтобы дубли закрывать, но это можно делать и с помощью мета-тега каноникал.