doctor mabuzo

doctor mabuzo
Рейтинг
203
Регистрация
03.04.2009

Попробуйте Миралинкс

Onecontent:
По приведенной ссылке будет примерно так:

http://mysite.com/page/*?*

Можно поголовно все URL с параметрами прикрыть таким образом:

Disallow /*?*

Спасибо. Сделал для Яндекса. Я так понимаю, для User-agent: Googlebot это тоже лучше сделать?

Onecontent:
https://yandex.ru/support/webmaster/controlling-robot/robots-txt.xml - тут все изложено. Главное спарсить все страницы и найти все что необходимо убрать.

---------- Добавлено 18.08.2016 в 11:19 ----------



Вы только запретили роботу индексировать эти страницы. Проверьте через вэбмастер доступны ли сейчас URL которые вы пытались выбросить. (Анализ robots.txt, внизу есть проверка). Если все нормально - остается ждать когда они выпадут из индекса.

По-прежнему доступны :(

А как запретить то, что после номера страницы? Сейчас в примере там цифра 4, но естественно может быть и 1 и 100. Т.е. запретить всё то, что начинается с вопросительного знака?

jpg 3344.jpg

Закрыл в роботс как посоветовали. Затем урл вида site.ru/robots.txt скормил Яндексу через аддурилку.

Прошло 3 дня, но все осталось как прежде. Способ не сработал или надо еще подождать?

serezka:
Всё ж элементарно =)

Disallow: *&s=

А заодно посмотрите, что это за локация вам в урл лезет (вдруг у вас и такие странички левые есть, тогда - мой пост выше в этом поможет).

Вообще странно что столько страниц левых. Я не спец. по ВП, но сколько работал с ним - у меня такого не вылезало =) И хорошо.

Ах да, изучите директивы robots. На яндексе есть соответствующий мануал. Там просто, вы с лёгкостью разберётесь и сможете в дальнейшем сами делать запреты на что вашей душе угодно =)

Локация, это спец. плагин кастомизированный выдает. Отметка на карте гугла места.

serezka:
Целиком урл надо видеть(а точней - конец, который не вместился в поле).

вот урл целиком

jpg 33333.jpg
serezka:
У меня такой запрет. Это непосредственно на страницу поиска.
Disallow: /?s=
В поиске ссылки ведут на обычные урлы, без мусора.


Если у вас страница генерируется с мусором по принципу: site.ru/page/6?s=СТО+vag-grup.
Подойдёт такой:
Disallow: *?s=


После установки - обязательно проверьте в яндекс вебмастере на корректность.

Спасибо. У меня еще так генерится, тут как быть с запретом в роботсе?

jpg 3333.jpg
serezka:
Банально - запретите индексацию robots.txt

-----

Хотя там у вас УРЛы неудобные... ну, попробуйте тогда rel="canonical".
Вроде есть спец. плагины, возможно даже all-in-seo-pack может.

Как это в роботс запретить - не знаю.

all-in-seo-pack вроде настроен, галочки на канонических стоят, но яндекс-вебмастеру видимо пофиг.

Alex Agent:
Вообще-то это хорошая коммерческая реклама, если ее заблокировать - то тогда вообще ничего не останется.

Может она и коммерческая и хорошая, но есть подозрения, что клик очень мало стоит :)
Лучше, конечно, чем самореклама гугла :)
Но что-то останется, вижу много хороших объявлений в личном кабинете.
IBakalov:
kuprum, что за товарные блоки?

Тоже интересует

---------- Добавлено 20.07.2016 в 16:52 ----------

Dtachkov:
Quick adsence вам в помощь

Спасибо, поставил, то, что надо!

Всего: 821