- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Такая проблема...
Есть большой информационный сайт с кучей статей.
Все статьи можно смотреть:
- в обычном виде (базовом)
- в виде "для печати"
- в виде для PDA (карманная версия).
Сайт с довольно высокой посещаемостью по низкочастотным запросам,
Но... через поиковые машины, преимущественно выдаются версии "для печати" или PDA.
В принципе, посетитель попадая на такую страницу имеет возможность перейти на "основную" (базовую), но меня это, что-то напрягает :)
Что делать?
Закрыть от индексации "вторичные страницы"? Но есть ли гарантия, что "основные" займут ИХ места в выдаче?
Или есть более красивый вариант? :)
Закрыть. А ссылки на них убрать в <noindex>.
Более "красиво" - это клоакинг, например выдавать роботам 301 для этих страниц, что вообще говоря чревато. Надо быть проще.
Поддерживаю Kost, или зарыть или пусть остается как есть со ссылкой на обычный вариант.
Закрыть от индексации "вторичные страницы"? Но есть ли гарантия, что "основные" займут ИХ места в выдаче?
Как Вы сами понимаете "Полное спокойствие может дать человеку только страховой полис... Так вам скажет любой агент по страхованию..."
Поэтому, Вы попробуйте. Закройте несколько десятков страниц и посмотрите на то, какой результат будет именно в Вашем случае.
1) Закрыть по возможности "левые пути" к побочным версиям страниц в robots.txt. Скорее всего это реально сделать, хотя надо смотреть формат URLов.
2) Сделать карту сайта для основных страниц (не более 1000 ссылок на каждой странице карты - для Яндекса, и не более 100 для Google)
3) Залить карту сайта и оставить на нее ссылку на сайте на главной странице или на всех.
Спасибо!
"Несколько страниц" зарыть не могу. Сайт построен на базе и шаблонах.
Или ВСЕ... или ничего...
Как я понимаю, упрощенные версии статей (печать и PDA) хорошо сидят в выдаче, т.к. не имеют "лишних прибамбасов" типа: навигации по сайту, дизайна, "лишнего кода", и.тд.
То есть возможен вариант, когда я тегом <noindex> могу привести базовую страницу до состояния супер-простой для поисковика?
Или я ошибаюсь?
И еще..
Как я понимаю, поисковик склеил все версии статьи в одну (самую простую) и ее выдает в выдаче?
То есть возможен вариант, когда я тегом <noindex> могу привести базовую страницу до состояния супер-простой для поисковика?
Или я ошибаюсь?
Это возможно, но не забывайте про навигационные ссылки. Это дает внутреннее ссылочное и возможность роботу перемещаться для индексации. Поэтому нужна будет полная карта сайта.
И еще..
Как я понимаю, поисковик склеил все версии статьи в одну (самую простую) и ее выдает в выдаче?
Да, только вот вопрос по какому принципу он это делает. Самую релевантную? Какому запросу? Я не могу ответить на этот вопрос.
Вот тут самое интересное.
Все "паразитные" страницы имеют только ссылки на "базовую" статью и на главный раздел, где находится "базовая" статья. Все... больше с них нет никаких ссылок. То есть навигация "стандартное дерево" для паразитных страниц.
В базовой же статье, до фига разных ссылок + навигация.
Получается, что робот перемещается через базовые страницы и упирается в "тупик" (в паразитную страницу), потом возвращается на базовую. И этот "тупик" считает самый релевантным...
Запросы то низкочастотные... очень редкие.. конкуренции почти нет.
Почему бы не сделать версию для печати не отдельной страницей, а с помощью CSS (media="print")?
Это одновременно полностью уберет ненужную ссылку и сэкономит немало ресурсов.
Версию для PDA однозначно надо закрывать от индексации роботами, наблюдал такую ситуацию как у Вас не один раз. Или тоже делать ее с помощью CSS (media="handheld").
Почему бы не сделать версию для печати не отдельной страницей, а с помощью CSS (media="print")?
Это одновременно полностью уберет ненужную ссылку и сэкономит немало ресурсов.
@media print {} - самое лучшее решение.
Правда, может потребовать трудозатрат по частичной переверстке кода.
Решил, для начала, закрыть один из типов "паразитных" страниц в robots.txt
Ну а потом посмотрим.... что выдет.
Всем большое спасибо за консультации.