Борьба с дублями на сайте.

L
На сайте с 15.09.2012
Offline
17
#71
Утренний стояк:
вставлю свои 5 коп.
с дублями надо бороться 301 редиректом.
сделайте фильтр аяксом, что бы url не менялся

Стоит 301 уже 1.5 месяца не может гугляша увидеть, что есть перенаправление.

Аякс это как?

п.с Люди которые говорят, что всё в бестолку не правы. Идут улучшия идут!!! И это факт. сегодня 2 заказа было вот так вот:D Радости полные штаны =)))

---------- Добавлено 07.12.2012 в 20:37 ----------

и всё таки:

?page=1

?page=2

?page=3

стоит закрывать?

E
На сайте с 21.09.2009
Offline
283
#72
Lambre:
?page=1
?page=2
?page=3
стоит закрывать?

стоит почитать Разбиение на страницы

L
На сайте с 15.09.2012
Offline
17
#73

Траффик с гугла пропал в ноль. с Яндекса идёт на повышение. Как узнать сайт попал в фильтр или нет?!

E
На сайте с 05.01.2010
Offline
46
#74

Мой вариант борьбы с дублями,

1. находим шаблон вывода страницы,

2. Находим где выводятся заголовки страницы (секция HEAD).

3. вставляем код ниже:

<?php 
if (preg_match('/?search|tag|filter/is', $_SERVER***091;"REQUEST_URI"***093;)){
print '<meta name="robots" content="noindex,nofollow" >';

?>

код означает, если в ссылке есть вхождение 'search' или "tag" или "filter" то добавлять в фильтр meta-тег для se-роботов. Страницы с таким тегом очень быстро выйдут из индекса гугл. Проверено неоднократно.

ЗЫ. Более гибкий вариант чем мудрить с .htaccess

***091 - левая квадратная скобка

***093 - правая (движек экранирует спецсимволы)

богоносец
На сайте с 30.01.2007
Offline
775
#75
exphpman:
Страницы с таким тегом очень быстро выйдут из индекса гугл. Проверено неоднократно.

А если их уже десятки тыщ?

Lambre:
?page=1
?page=2
?page=3
стоит закрывать?

http://support.google.com/webmasters/bin/answer.py?hl=ru&answer=76329

http://support.google.com/webmasters/bin/answer.py?hl=ru&answer=76401

А стоило ли лезть в роботс, написанный создателем?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий