starokonka

Рейтинг
18
Регистрация
06.09.2010
Vinat:
как содран? дизайн заказывали на фрилансе. есть ссылка?

Чет не могу Вам отправить личное сообщение ( Сюда ссылку давать не буду.

Vinat:
делала веб студия - подпись есть в низу

))) понтяно )))) А Вы вкурсе что этот дизайн тупо содран?

Vinat, а кто Вам делал этот сайт?

topjournal:
Молодой человек. Обратитесь к программисту. Мне модуль написали за пару часов который в магазине расставил rel="canonical" на необходимых страницах. У меня просто в ЦМС выходило по 3 дубля на товар. Тег rel="canonical" творит чудеса вместе с robots.txt. Страницы вылетели буквально сразу - где-то в течении пары недель дубли ушли. Гуглу то пофигу, а вот Яша положительно на это отреагировал и по НЧ заметный рост был. Давно это было правда.

Молодой человек, я и сам программист и дизайнер и т.д. У меня все тоже автоматом там где надо проставляет canonical без каких либо модулей ))))) Я спросил как указать google что-бы он не обрезал в конце ссылки "index.html". Я знаю что это делается вроде как .htaccess но как правильно это сделать увы не знаю ((((

Итог )

Поставил на страницы типа :

http://www.mysite.com.ua/products/5000/1/index.html?page=1

http://www.mysite.com.ua/products/5000/1/index.html?filter=[text=123]

<link rel="canonical" href="http://www.mysite.com.ua/products/5000/1/index.html"/>

в итоге дубли больше не появляются, но, есть одно но ))

В WMT появилось куча ошибок "404 не найденно" вот так: http://www.mysite.com.ua/products/5000/1/?page=1

т.е. обрезает каким-то образом у страниц "index.html" (((

Может кто знает как это дело поправить в .htaccess?

easywind:
starokonka, объяснить поечему не помогает? Думаю у Вас так бот проиндексировал страницу. Вы ему потом вставили в робот не сканировать и на страницу ноиндекс правильно? Вы недаете ему прочитать ноиндекс так как поставили не сканировать вот и вся проблема.

Вы думаете что я так не делал? Убирал с роботс правило и оставлял только ноиндекс, понаблюдав за этим 2 месяца я вернул обратно в роботс данное правило так как в WMT каждый день появлялось до 100 ошибок....

Раньше также индексировались вот такие страницы: /products/*/*/*;*/index.html но прописав в роботс правило Disallow: /products/*/*/*;*/index.html он их перестал сканировать )))) но вот страницы такого вида Disallow: /products/*/index.html?filter=[] так и продолжает индексировать.....

Doroshev:
Вот, что мне посоветовали на форуме webimho:
вот так:
RewriteCond %{QUERY_STRING} 1\/(.*)\/
RewriteRule ^.*$ - [G]

А пользователь что тогда тоже будет видеть 410.

easywind:
Почему всем помогает а Вам нет? Может дело в руках?

)))) Если б мне помогло, я б не задавал бы этот вопрос )) Причем тут руки, если все сделано по правилам, но каким-то странным образом ничего не помогает )

svcitius:
Зайди в инструменты для веб-мастеров google и просмотреть как Googlebot

Это я смотрел, говорит что запрещено!

из роботс удалите все что с страницами связанно. а теги ноиндекс оставте. и пару апов подождите.

Это тоже делал, не помогает, а наоборот в панели пишет кучу ошибок, что не найденно типа того )))

Я уже все перепробовал на протяжении года, нифига не помогает )))

Остается теперь только rel="canonical", у меня есть такие страницы на сайте и он их вообще не трогает.

saintnameless:
А какая cms?

saintnameless, самопис

12 3
Всего: 23