Awlex

Рейтинг
23
Регистрация
20.02.2011

Zion-i2, у меня тоже реализовано на jquery, но ведь блок все равно скрывается именно display:none, разве нет?

imanager:
я убрал дубли с помощью 301 редиректа в htaccess
просто закрывать от индексации старые страницы как по мне не очень хорошо, тем более если на них есть ссылки

Причем здесь 301 редирект, если страницы останутся для пользователей, а уберутся лишь для ПС. Это же не дули контента самого сайта, а нормативно-справочная информация (законы, постановления и т.п.), которая дублирует контент уже публиковавшийся в сети на более авторитетных сайтах.

Вопрос именно о закрытии страниц от поисковиков с их сохранением для пользователей, и про оставшиеся внешние ссылки.

---------- Добавлено в 12:26 ---------- Предыдущее сообщение было в 12:22 ----------

Alexey D.K.:
Дубли лучше убрать.
А вот зачем вы старые страницы закрыли?.. :)

Убирать буду.

Цель - это улучшения индексации сайта ПС, т.е. убирание мусора, который не надо индексировать, но робот же опять будет пытаться ходить по тем закрытым станицам, если на них есть и скорее всего еще появятся ссылки. Как с этим?

Miha Kuzmin (KMY):
Блин, надо ввести на новом сайте в форме новое поле - ник на серче.

Еще бы добавить фразу, что заявка отправлена, при заполнении формы.

можно еще rel="canonical" попробовать

87793:

Тогда главная страница у Вас индексироваться не будет.

Почему не будет? только что проверил на своем сайте в яндекс вебмастере, показывает гуд

marsh:
Awlex, знак $ обозначает запрет к индексированию только страницы /index.php , а страницы /index.php?start=7 будут в индексе.

Ну примерно это я и написал своим корявым языком. Вот и получается что страницы типа /index.php?start=7 нужно тоже прописывать.

marsh, а если попробовать в компоненте карты сайта xmap ее убрать в вывод урл с index.php и опять же запретить все index, или настроить 301 редирект карты на др. адрес, или я что уже не то пишу?

marsh:
в роботсе "Disallow: /index.php$"

как я понял $ означает конец строки, но, наверное, это мне не совсем подходит, т.к. первая страница у меня в виде блога, поэтому есть адреса index.php?start=7 (при постраничной разбивке) и т.п. Но можно же, наверное, и с этими адресами по аналогичной схеме.

Сторонние компоненты применять не хотелось, бы без особой нужды. Во-первых, как они дружат с нагрузкой на сервер (ведь каждый из нас надеяться, что когда-нибудь его сайт будет суперпосещаемый), во-вторых, это затруднит перевод сайта например, на версию 1.6 ну и т.п.

Про "добавить суффикс к URL". Сейчас я бы так и сделал. Но сайт я верстал почти год назад и тогда изучал только верстку, а сейчас занялся продвижением и оптимизацией. Т.ч. прилепить суффиксы ко всем адресам - это возможный геморрой с ПС (изменение адресов проиндексированных страниц), который я уже получил однажды, поставив непродуманный редирект с www на без www. Как итог уже 3 мес не могу восстановить посещаемость.

А с .htaccess, как я писал в первом сообщении, результата не добиться, я правильно понял?

Спасибо за советы, буду думать.

Насколько я знаю, "0" не означает, что сайт не продвигается покупными ссылками, просто сеопульт не видит ссылок этого сайта на сайтах-биржах ссылок с которыми он сам работает и поэтому не выдает приблизительную стоимость их продвижения.

Dram:
Большинство правок делали для меня сторонние фрилансеры. Вот последняя версия

Dram, а что делает этот файлик и чем он отличается по функционалу от архива marsh. Последний как я понял проверяет статью не по идентификатору, а по имени, а что нового в этом.

Спрошу заодно, т.к. недавно избавлялся от дублированного каталога, вот такой способ редиректа 302 для ПС нормальный (.htaccess) или надо каждый файл прописывать:

Redirect permanent /arhiv-novostei http:// site.ru/novosti

marsh, еще раз спасибо за архив, все работает, жаль, не могу + поставить.

Как вариант, дубли выскакивают в гугл инструментах (предложения по html коду, например) одинаковые title и др. , опять же если на этих страничках побывали ПС и занесли их в индекс.

12
Всего: 14