- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый вечер!
Яндекс Вебмастер показывает огромное количество страниц в поиске - 19003, тогда как статей на блоге всего около 1000 (Блог на wordpress). Причем много индексируется страниц, которые пользователь нашел через строку поиска на сайте, например, site.ru/page/3?s=регистрация+нового+авто или site.ru/page/6?s=СТО+vag-grup.
Эти странице в индексе совершенно не нужны.
Как мне избавиться от такого количества страниц в поиске?
Банально - запретите индексацию robots.txt
-----
Так же как вариант - использовать rel="canonical".
Вроде есть спец. плагины, возможно даже all-in-seo-pack может.
Банально - запретите индексацию robots.txt
-----
Хотя там у вас УРЛы неудобные... ну, попробуйте тогда rel="canonical".
Вроде есть спец. плагины, возможно даже all-in-seo-pack может.
Как это в роботс запретить - не знаю.
all-in-seo-pack вроде настроен, галочки на канонических стоят, но яндекс-вебмастеру видимо пофиг.
Как это в роботс запретить - не знаю.
all-in-seo-pack вроде настроен, галочки на канонических стоят, но яндекс-вебмастеру видимо пофиг.
У меня такой запрет. Это непосредственно на страницу поиска.
Disallow: /?s=
В поиске ссылки ведут на обычные урлы, без мусора.
Если у вас страница генерируется с мусором по принципу: site.ru/page/6?s=СТО+vag-grup.
Подойдёт такой:
Disallow: *?s=
После установки - обязательно проверьте в яндекс вебмастере на корректность.
В robots.txt.
У меня такой запрет. Это непосредственно на страницу поиска.
Disallow: /?s=
В поиске ссылки ведут на обычные урлы, без мусора.
Если у вас страница генерируется с мусором по принципу: site.ru/page/6?s=СТО+vag-grup.
Подойдёт такой:
Disallow: *?s=
После установки - обязательно проверьте в яндекс вебмастере на корректность.
Спасибо. У меня еще так генерится, тут как быть с запретом в роботсе?
Спасибо. У меня еще так генерится, тут как быть с запретом в роботсе?
Целиком урл надо видеть(а точней - конец, который не вместился в поле).
Судя по всему подойдёт:
Disallow: *?ads_
Проверяйте =)
Целиком урл надо видеть(а точней - конец, который не вместился в поле).
вот урл целиком
Всё ж элементарно =)
Disallow: *&s=
А заодно посмотрите, что это за локация вам в урл лезет (вдруг у вас и такие странички левые есть, тогда - мой пост выше в этом поможет).
Вообще странно что столько страниц левых. Я не спец. по ВП, но сколько работал с ним - у меня такого не вылезало =) И хорошо.
Ах да, изучите директивы robots. На яндексе есть соответствующий мануал. Там просто, вы с лёгкостью разберётесь и сможете в дальнейшем сами делать запреты на что вашей душе угодно =)
Всё ж элементарно =)
Disallow: *&s=
А заодно посмотрите, что это за локация вам в урл лезет (вдруг у вас и такие странички левые есть, тогда - мой пост выше в этом поможет).
Вообще странно что столько страниц левых. Я не спец. по ВП, но сколько работал с ним - у меня такого не вылезало =) И хорошо.
Ах да, изучите директивы robots. На яндексе есть соответствующий мануал. Там просто, вы с лёгкостью разберётесь и сможете в дальнейшем сами делать запреты на что вашей душе угодно =)
Локация, это спец. плагин кастомизированный выдает. Отметка на карте гугла места.
Закрыл в роботс как посоветовали. Затем урл вида site.ru/robots.txt скормил Яндексу через аддурилку.
Прошло 3 дня, но все осталось как прежде. Способ не сработал или надо еще подождать?