Zion-i2, у меня тоже реализовано на jquery, но ведь блок все равно скрывается именно display:none, разве нет?
Причем здесь 301 редирект, если страницы останутся для пользователей, а уберутся лишь для ПС. Это же не дули контента самого сайта, а нормативно-справочная информация (законы, постановления и т.п.), которая дублирует контент уже публиковавшийся в сети на более авторитетных сайтах.
Вопрос именно о закрытии страниц от поисковиков с их сохранением для пользователей, и про оставшиеся внешние ссылки.---------- Добавлено в 12:26 ---------- Предыдущее сообщение было в 12:22 ----------
Убирать буду.
Цель - это улучшения индексации сайта ПС, т.е. убирание мусора, который не надо индексировать, но робот же опять будет пытаться ходить по тем закрытым станицам, если на них есть и скорее всего еще появятся ссылки. Как с этим?
Еще бы добавить фразу, что заявка отправлена, при заполнении формы.
Записался, оплатил.
можно еще rel="canonical" попробовать
Почему не будет? только что проверил на своем сайте в яндекс вебмастере, показывает гуд
Ну примерно это я и написал своим корявым языком. Вот и получается что страницы типа /index.php?start=7 нужно тоже прописывать.
marsh, а если попробовать в компоненте карты сайта xmap ее убрать в вывод урл с index.php и опять же запретить все index, или настроить 301 редирект карты на др. адрес, или я что уже не то пишу?
как я понял $ означает конец строки, но, наверное, это мне не совсем подходит, т.к. первая страница у меня в виде блога, поэтому есть адреса index.php?start=7 (при постраничной разбивке) и т.п. Но можно же, наверное, и с этими адресами по аналогичной схеме.
Сторонние компоненты применять не хотелось, бы без особой нужды. Во-первых, как они дружат с нагрузкой на сервер (ведь каждый из нас надеяться, что когда-нибудь его сайт будет суперпосещаемый), во-вторых, это затруднит перевод сайта например, на версию 1.6 ну и т.п.
Про "добавить суффикс к URL". Сейчас я бы так и сделал. Но сайт я верстал почти год назад и тогда изучал только верстку, а сейчас занялся продвижением и оптимизацией. Т.ч. прилепить суффиксы ко всем адресам - это возможный геморрой с ПС (изменение адресов проиндексированных страниц), который я уже получил однажды, поставив непродуманный редирект с www на без www. Как итог уже 3 мес не могу восстановить посещаемость.
А с .htaccess, как я писал в первом сообщении, результата не добиться, я правильно понял?
Спасибо за советы, буду думать.
Насколько я знаю, "0" не означает, что сайт не продвигается покупными ссылками, просто сеопульт не видит ссылок этого сайта на сайтах-биржах ссылок с которыми он сам работает и поэтому не выдает приблизительную стоимость их продвижения.
Dram, а что делает этот файлик и чем он отличается по функционалу от архива marsh. Последний как я понял проверяет статью не по идентификатору, а по имени, а что нового в этом.
Спрошу заодно, т.к. недавно избавлялся от дублированного каталога, вот такой способ редиректа 302 для ПС нормальный (.htaccess) или надо каждый файл прописывать:
Redirect permanent /arhiv-novostei http:// site.ru/novosti
marsh, еще раз спасибо за архив, все работает, жаль, не могу + поставить.
Как вариант, дубли выскакивают в гугл инструментах (предложения по html коду, например) одинаковые title и др. , опять же если на этих страничках побывали ПС и занесли их в индекс.