- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет! У меня есть сайт на wordpress. В robots.txt я закрыл дубли страниц от индексации. В итоге вышло, что индексируется у меня 532 страницы, а закрыто от индексации 3888. Это нормально, что на столько большая часть страниц закрыты от индексации? Так и должно быть? Заранее спасибо.
Дело не в количестве. Смотри сам какие закрыты, а какие нет. Что тут думать... Наверное, тегов много и категорий всяких на сайте.
kimberlit, ну вот что у меня закрыто в роботсе:
User-agent: *
Disallow: /cgi-bin/
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /xmlrpc.php
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-content/plugins/
Disallow: /wp-content/themes/
Disallow: /wp-content/cache/
Disallow: */trackback
Disallow: /trackback
Disallow: /feed
Disallow: */feed
Disallow: /*feed
Disallow: /comments
Disallow: */comments
Disallow: /*?
Disallow: /*?*
Disallow: /?*
Disallow: /category/
Disallow: /tag/
Disallow: /?s=
Это нормально, что на столько большая часть страниц закрыты от индексации? Так и должно быть?
Wordpress формирует уйму урлов с ублирующимся контентом (одни страницы категорий и тегов чего стоят), всё это вредно для поискового продвижения. Фору вордпресу даст, пожалуй, только joomla без ЧПУ. В идеале, одному урлу на сайте должен соответствовать свой уникальный контент, который нигде не повторяется. Иное может привести к проблемам, особенно в случае наличия внешних сылок и/или не трастового сайта.
Ну и нельзя не отметить, что с введения Matrix.net количество страниц в индексе вообще перестало оказывать существенное влияние на ранжирование. Сейчас на работе продвигаю сайт, у которого в индексе только две страницы. По достаточно конкурентным коммерческим запросам он показывает результаты не хуже, чем когда в индексе было более 100 страниц.
Fruit, ну в общем так и должно быть? я правильно вас понял? то есть ненужных дублей, которые нужно закрывать от индексации, их на самом деле гораздо больше, чем страниц, которые должны индексироваться?
Jaroslav добавил 30.10.2010 в 14:31
кто еще что думает по этому поводу? выскажитесь пожалуйста.
Fruit, ну в общем так и должно быть? я правильно вас понял? то есть ненужных дублей, которые нужно закрывать от индексации, их на самом деле гораздо больше, чем страниц, которые должны индексироваться?
Jaroslav добавил 30.10.2010 в 14:31
кто еще что думает по этому поводу? выскажитесь пожалуйста.
Все у вас нормально, если вы закрыли все дубли.
Все у вас нормально, если вы закрыли все дубли.
спасибо...просто я чтобы лишний раз перестраховаться:)...так как этот сайт мне особо дорог.
Вы же знаете сколько у вас статей, вот и количество страниц + главная.
Дитя неразумное, ну в принципе да..примерно так и получается...