Дубли страниц

12
N1
На сайте с 20.12.2008
Offline
22
1002

Сайт самописный на пхп

страницы выглядят так

blabla.ru/index.php?param1=2&param2=2

С некоторых пор, не отследил когда, гугл проиндексировал вдобавок

blabla.ru/?param1=2&param2=2, соответственно контента стало в два раза больше, но они все в дубле.

Хотя на внутренняке ссылок на второй вариант не было.

Наверное это не очень хорошо, хотелось бы исправить, но как нибудь корректно, чтобы гугл не наложил еще каких нибудь санкций что страниц стало в два раза меньше.

Может кто нить с этим сталкивался.. Как бы это сделать правильно и безболезненно

sear4er
На сайте с 04.03.2010
Offline
756
#1

Закройте от индекса не нужные ... например с "?" и удалите через вебмастера левые ссылки.

Профессиональный SEO аудит с гарантией результата (форум). ( /ru/forum/824674 ) EVOLUTION SEO - Оптимизация, продвижение сайтов, вывод из под фильтров (личный сайт). ( https://evoseo.ru ) Бесплатные SEO консультации. ( https://evoseo.ru/seo-consultaciya/ )
N1
На сайте с 20.12.2008
Offline
22
#2
sear4er:
Закройте от индекса не нужные ... например с "?" и удалите через вебмастера левые ссылки.

В смысле закрыть?

В сайтмапе в ноиндекс каждую или как то можно полностью все указать?

Мне надо убрать все страницы типа

blabla.ru/?param1=2&param2=2

XuMepKa
На сайте с 10.12.2008
Offline
30
#3
Neptun13:
В смысле закрыть?
В сайтмапе в ноиндекс каждую или как то можно полностью все указать?
Мне надо убрать все страницы типа
blabla.ru/?param1=2&param2=2

в robots.txt пропишите Disallow: /?param1=2&param2=2

и проверьте в вебмастере (пункт "Доступ для сканера") нужные и ненужные страницы

Тарам пам пам.
N1
На сайте с 20.12.2008
Offline
22
#4
XuMepKa:
в robots.txt пропишите Disallow: /?param1=2&param2=2
и проверьте в вебмастере (пункт "Доступ для сканера") нужные и ненужные страницы

Но параметров там может быть много разных, а можно просто так: Disallow: /?

Не закроет это к индексации и blabla.ru/index.php?param1=2&param2=2 случано?

XuMepKa
На сайте с 10.12.2008
Offline
30
#5
Neptun13:
Но параметров там может быть много разных, а можно просто так: Disallow: /?
Не закроет это к индексации и blabla.ru/index.php?param1=2&param2=2 случано?

попробуйте так...

точно сказать не могу ...

поставьте а потом потестируйте в вебмастере...

XuMepKa добавил 22.04.2010 в 18:13

Neptun13:
Не закроет это к индексации и blabla.ru/index.php?param1=2&param2=2 случано?

это не закроется

N1
На сайте с 20.12.2008
Offline
22
#6
XuMepKa:
попробуйте так...
точно сказать не могу ...
поставьте а потом потестируйте в вебмастере...

XuMepKa добавил 22.04.2010 в 18:13

это не закроется

Да надо бы точно, сайт то живой, жалко на нем экспериментировать...

Да и вобще нужно ли это делать?

Neptun13 добавил 22.04.2010 в 18:36

И еще вопрос

Disallow: /?param1=2

Заблокирует blabla.ru/?param1=2

А заблокирует он также и blabla.ru/?param1=2&param2=2

Или для этого надо писать

Disallow:

/?param1=2

/?param1=2&param2=2

XuMepKa
На сайте с 10.12.2008
Offline
30
#7
Neptun13:

Да и вобще нужно ли это делать?

делать желательно...

была такая же проблема... один из компонентов дублировал основные страницы сайта....

в итоге много страниц вместо нужных проиндексировались из компонента (а там они слегка по другому отображались и половина оптимизации катилась в *опу)... соответственно из-за отображения неправильных страниц и позиции были неахти...

закрыл в роботсе /index?option=param1, в течение недели половина левого переиндексировалась

Neptun13:
Да надо бы точно, сайт то живой, жалко на нем экспериментировать...

а насчет эксперементирования, в вебмастере можно эксперементировать не меняя основной файл роботс.тхт

XuMepKa добавил 22.04.2010 в 18:51

Neptun13:
И еще вопрос
Disallow: /?param1=2
Заблокирует blabla.ru/?param1=2
А заблокирует он также и blabla.ru/?param1=2&param2=2
Или для этого надо писать
Disallow:
/?param1=2
/?param1=2&param2=2

Disallow: /?param1=2 заблокирует и /?param1=2 и /?param1=2&param2=2

artzor
На сайте с 30.10.2008
Offline
111
#8
Neptun13:
Да надо бы точно, сайт то живой, жалко на нем экспериментировать...
Да и вобще нужно ли это делать?

Я так делаю и еще не умер ... Добавил правило в robots.txt проверил, если срабатывает так как надо оставил, нет - исправил, и ничего в этом страшного нет ...

B
На сайте с 07.02.2005
Offline
161
#9

Neptun13, вот руководство G по синтаксису robots (здесь уже сто раз обсуждалось, вполне могли бы найти, не говоря уж про сам Гугл).

http://www.google.com/support/webmasters/bin/answer.py?hl=en&answer=156449

Запретить урлы с вопросом для Гуглбота можно так:

Disallow: /*?

N1
На сайте с 20.12.2008
Offline
22
#10
bober:
Neptun13, вот руководство G по синтаксису robots (здесь уже сто раз обсуждалось, вполне могли бы найти, не говоря уж про сам Гугл).
http://www.google.com/support/webmasters/bin/answer.py?hl=en&answer=156449
Запретить урлы с вопросом для Гуглбота можно так:
Disallow: /*?

Вы не совсем правильно поняли, а может это я не понял :-)

Мне надо убрать на сайте все страницы вида blabla.ru/?param1=2&param2=2, но так чтобы остались все страницы вида blabla.ru/index.php?param1=2&param2=2? а в вашем варианте на мой взгляд будут удалены оба варианта

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий