Суть роботс - исключить нежелательное и дубли. У меня так:
Disallow: /tag/
Disallow: /category/
Disallow: */feed
Disallow: /*?*
Ни разу не видел, чтобы поисковик выдавал в индексе файлы плагинов или тем.
Номер страницы и фильтрация меняет содержимое страницы, так что я бы оставил это под вопросом 0_о
С
disallow: http://site.ru/catalog/*?
соглашусь, так точно правильнее =)
disallow: /catalog/*?&page=*
http://site.ru/catalog/Товар?&page=2 - попадает под правило, не индексируется
http://site.ru/catalog/Товар - не попадает - индексируется
disallow: /*/*?&page=*
Так наверно правильнее
Правильнее делать через rel=canonical
https://support.google.com/webmasters/answer/139394?hl=ru
http://help.yandex.ru/webmaster/?id=1127756#canonical
Если умения хватит, можете попробовать:
http://api.yandex.ru/share/
http://api.yandex.ru/share/doc/dg/concepts/share-button-ov.xml#params.link
onclick="document.getElementById('text').style.display='';this.style.display='none';yaCounterXXXXXX.reachGoal('ORDER'); return true;"
Спасибо. Это помогло 🤪
Был похожий случай. У клиента неделя простоя. Домен редиректило на регистратора.
В вебмастере появилось предупреждение о том, что роботс указывает дизаловить все - все кроме главной выпало из индексации. После оплаты домена за две недели все вернулось в индекс на прежние позиции.
За день простоя скорее всего ничего и не произойдет.
Простите, а что мешает создать новую страницу, а в начале старой кинуть ссылку на страницу с новой версией?
http://wordpress.org/plugins/easy-vkontakte-connect/