Как убить "копии" в выдаче?

LinkTravel
На сайте с 16.01.2006
Offline
69
577

Такая проблема...

Есть большой информационный сайт с кучей статей.

Все статьи можно смотреть:

- в обычном виде (базовом)

- в виде "для печати"

- в виде для PDA (карманная версия).

Сайт с довольно высокой посещаемостью по низкочастотным запросам,

Но... через поиковые машины, преимущественно выдаются версии "для печати" или PDA.

В принципе, посетитель попадая на такую страницу имеет возможность перейти на "основную" (базовую), но меня это, что-то напрягает :)

Что делать?

Закрыть от индексации "вторичные страницы"? Но есть ли гарантия, что "основные" займут ИХ места в выдаче?

Или есть более красивый вариант? :)

K
На сайте с 31.01.2001
Offline
737
#1

Закрыть. А ссылки на них убрать в <noindex>.

Более "красиво" - это клоакинг, например выдавать роботам 301 для этих страниц, что вообще говоря чревато. Надо быть проще.

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
john2007
На сайте с 26.03.2007
Offline
173
#2

Поддерживаю Kost, или зарыть или пусть остается как есть со ссылкой на обычный вариант.

LinkTravel:

Закрыть от индексации "вторичные страницы"? Но есть ли гарантия, что "основные" займут ИХ места в выдаче?

Как Вы сами понимаете "Полное спокойствие может дать человеку только страховой полис... Так вам скажет любой агент по страхованию..."

Поэтому, Вы попробуйте. Закройте несколько десятков страниц и посмотрите на то, какой результат будет именно в Вашем случае.

Совершая ошибки, мы не только учимся их не повторять, но и учимся прощать такие же ошибки другим... (с)
[Удален]
#3

1) Закрыть по возможности "левые пути" к побочным версиям страниц в robots.txt. Скорее всего это реально сделать, хотя надо смотреть формат URLов.

2) Сделать карту сайта для основных страниц (не более 1000 ссылок на каждой странице карты - для Яндекса, и не более 100 для Google)

3) Залить карту сайта и оставить на нее ссылку на сайте на главной странице или на всех.

LinkTravel
На сайте с 16.01.2006
Offline
69
#4
Поэтому, Вы попробуйте. Закройте несколько десятков страниц и посмотрите на то, какой результат будет именно в Вашем случае.

Спасибо!

"Несколько страниц" зарыть не могу. Сайт построен на базе и шаблонах.

Или ВСЕ... или ничего...

Как я понимаю, упрощенные версии статей (печать и PDA) хорошо сидят в выдаче, т.к. не имеют "лишних прибамбасов" типа: навигации по сайту, дизайна, "лишнего кода", и.тд.

То есть возможен вариант, когда я тегом <noindex> могу привести базовую страницу до состояния супер-простой для поисковика?

Или я ошибаюсь?

И еще..

Как я понимаю, поисковик склеил все версии статьи в одну (самую простую) и ее выдает в выдаче?

john2007
На сайте с 26.03.2007
Offline
173
#5
LinkTravel:

То есть возможен вариант, когда я тегом <noindex> могу привести базовую страницу до состояния супер-простой для поисковика?
Или я ошибаюсь?

Это возможно, но не забывайте про навигационные ссылки. Это дает внутреннее ссылочное и возможность роботу перемещаться для индексации. Поэтому нужна будет полная карта сайта.

LinkTravel:

И еще..
Как я понимаю, поисковик склеил все версии статьи в одну (самую простую) и ее выдает в выдаче?

Да, только вот вопрос по какому принципу он это делает. Самую релевантную? Какому запросу? Я не могу ответить на этот вопрос.

LinkTravel
На сайте с 16.01.2006
Offline
69
#6
Это возможно, но не забывайте про навигационные ссылки. Это дает внутреннее ссылочное и возможность роботу перемещаться для индексации.

Вот тут самое интересное.

Все "паразитные" страницы имеют только ссылки на "базовую" статью и на главный раздел, где находится "базовая" статья. Все... больше с них нет никаких ссылок. То есть навигация "стандартное дерево" для паразитных страниц.

В базовой же статье, до фига разных ссылок + навигация.

Получается, что робот перемещается через базовые страницы и упирается в "тупик" (в паразитную страницу), потом возвращается на базовую. И этот "тупик" считает самый релевантным...

Запросы то низкочастотные... очень редкие.. конкуренции почти нет.

diGreez
На сайте с 26.06.2007
Offline
70
#7

Почему бы не сделать версию для печати не отдельной страницей, а с помощью CSS (media="print")?

Это одновременно полностью уберет ненужную ссылку и сэкономит немало ресурсов.

Версию для PDA однозначно надо закрывать от индексации роботами, наблюдал такую ситуацию как у Вас не один раз. Или тоже делать ее с помощью CSS (media="handheld").

AVV
На сайте с 31.07.2006
Offline
84
AVV
#8
diGreez:
Почему бы не сделать версию для печати не отдельной страницей, а с помощью CSS (media="print")?
Это одновременно полностью уберет ненужную ссылку и сэкономит немало ресурсов.

@media print {} - самое лучшее решение.

Правда, может потребовать трудозатрат по частичной переверстке кода.

LinkTravel
На сайте с 16.01.2006
Offline
69
#9
1) Закрыть по возможности "левые пути" к побочным версиям страниц в robots.txt. Скорее всего это реально сделать, хотя надо смотреть формат URLов.

Решил, для начала, закрыть один из типов "паразитных" страниц в robots.txt

Ну а потом посмотрим.... что выдет.

Всем большое спасибо за консультации.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий