Дубли страниц

123 4
Doroshev
На сайте с 21.01.2010
Offline
186
#11

Вот, что мне посоветовали на форуме webimho:

Закрыл URL-ы вот такого типа:

Disallow: /catalog/1/12/36.html

Disallow: /catalog/1/12/101.html

Disallow: /catalog/1/12/736.html

вот так:

RewriteCond %{QUERY_STRING} 1\/(.*)\/

RewriteRule ^.*$ - [G]

Если что - можно в поисковике вбить "htaccess rewritecond" и поискать, как зафильтровать твой тип страниц, чтобы они выдали 410.

Я вот все никак не доберусь до этого.

---------- Добавлено 29.08.2012 в 14:36 ----------

Сам толком еще не разобрался, но думаю изучить этот вопрос :)

S
На сайте с 06.09.2010
Offline
18
#12
easywind:
Почему всем помогает а Вам нет? Может дело в руках?

)))) Если б мне помогло, я б не задавал бы этот вопрос )) Причем тут руки, если все сделано по правилам, но каким-то странным образом ничего не помогает )

Мой сайт (http://www.remstroy.od.ua)
T
На сайте с 23.11.2005
Offline
298
#13

Прописывай canonical.

У меня на одном сайте в индексе оказалась тысяча страниц, которые взяты аж с технического адреса... Причём с этих страниц редиректит на правильные, но всё равно они в индексе, т.е. даже .htaccess не лечит. Прописал везде canonical. Жду.

S
На сайте с 06.09.2010
Offline
18
#14
Doroshev:
Вот, что мне посоветовали на форуме webimho:
вот так:
RewriteCond %{QUERY_STRING} 1\/(.*)\/
RewriteRule ^.*$ - [G]

А пользователь что тогда тоже будет видеть 410.

donty
На сайте с 17.01.2011
Offline
76
#15
Thanx:
Прописывай canonical.
У меня на одном сайте в индексе оказалась тысяча страниц, которые взяты аж с технического адреса... Причём с этих страниц редиректит на правильные, но всё равно они в индексе, т.е. даже .htaccess не лечит. Прописал везде canonical. Жду.

У меня везде прописано canonical - но... Гуглу все равно все равно :), кажется он вообще все игнорирует.

Тайны НЛО и бермудский треугольник ( http://tajny-nlo.ru/ )
E
На сайте с 21.09.2009
Offline
283
#16

starokonka, объяснить поечему не помогает? Думаю у Вас так бот проиндексировал страницу. Вы ему потом вставили в робот не сканировать и на страницу ноиндекс правильно? Вы недаете ему прочитать ноиндекс так как поставили не сканировать вот и вся проблема.

Straifer1
На сайте с 23.05.2007
Offline
164
#17

Проводил эксперимент по дублям, тоже гугл игнорировал и роботс и указания в WMT. Сделал копию сайта, только для гугла, хватило лишь роботс что бы проиндексировалось только то, что нужно. в яндексе почему то всё было впорядке когда я в роботс прописал рекомендации, достаточно оперативно весь мусор уплыл... Вывод - гугл в этом плане кривой, а не руки у вебмастеров.

E
На сайте с 21.09.2009
Offline
283
#18
Straifer1:
тоже гугл игнорировал и роботс и указания в WMT.

Этого не достаточно. Читайте посты выше про ноиндекс.

S
На сайте с 06.09.2010
Offline
18
#19
easywind:
starokonka, объяснить поечему не помогает? Думаю у Вас так бот проиндексировал страницу. Вы ему потом вставили в робот не сканировать и на страницу ноиндекс правильно? Вы недаете ему прочитать ноиндекс так как поставили не сканировать вот и вся проблема.

Вы думаете что я так не делал? Убирал с роботс правило и оставлял только ноиндекс, понаблюдав за этим 2 месяца я вернул обратно в роботс данное правило так как в WMT каждый день появлялось до 100 ошибок....

Раньше также индексировались вот такие страницы: /products/*/*/*;*/index.html но прописав в роботс правило Disallow: /products/*/*/*;*/index.html он их перестал сканировать )))) но вот страницы такого вида Disallow: /products/*/index.html?filter=[] так и продолжает индексировать.....

Straifer1
На сайте с 23.05.2007
Offline
164
#20
easywind:
Этого не достаточно. Читайте посты выше про ноиндекс.

Читайте пост внимательно про копию сайта! К тому же он и хлебные крошки на всех страницах копии учел в отличие от оригинала, так что не надо умничать и пустоcловить, что на форуме гугла, что здесь вы только этим и занимаетесь:)

123 4

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий