- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вопрос как бы обмусоленный, как мне думается, но когда дело доходит до дела... Обычная совершенно структура сайта, например:
/auto
/auto/car
/auto/car/suv
При публикации материала в третьем разделе, он появляется во всех трех (да, я пользую ***й WP), при использовании, например, еще трех тегов получаем 10 копий одного и того же текста. С другой стороны, если испугаться этих дублей и спрятать все по кат -- 90 процентов посетителей не будут кликать в каждый "читать дальше", а просто уйдут с сайта.
Я полностью отдаю себе отчет в том, что для Большого брата это не есть проблема, не уверен что это так для Яндекса. Что посоветуете - думать о дублях в индексе или об удобстве пользователей (которых, блин, из этого самого индекса потерять не хочется)?
думать о дублях в индексе или об удобстве пользователей
Если сайт для яндекса, думай о нем. Если для пользователей - то... ;)
Для пользователей, натурально. Вопрос в том, чтобы их не растерять.
И все таки, в реальной жизни как чаще поступаете?
не уверен что это так для Яндекса
Не любит Яша дублирование, эксперимент ставил.
И все таки, в реальной жизни как чаще поступаете?
Роботс и ноиндекс в помощь.
Махнуть движок можно, как вариант. Проблема отпадет сама.
Был случай, но не аналогичный. Были дубли страниц, правда, не в такой жесткой связке по внутренним ссылкам и перелинковки как у вас. Сайт был в индексе всегда. Через какое-то время дубли выкинулись сами
Не любит Яша дублирование, эксперимент ставил.
Как это проявляется?
Как это проявляется?
Сайт был в ТОП 20 по ВК запросу. Ввел текстовые банеры на сайте с дублированием на 25% страниц каждго банера (всего их шт 8 было), после переиндексации сайт улетел в ТОП 50. Поставил их в ноиндекс, сайт вернулся в ТОП 20. И так пару раз. Ссылок не докупалось, контент не менялся (кроме индексации и неиндексации банеров). Текст банера составлял 25-30% от текста страницы. На сайте около 60 страниц.
я у себя запретила для робота архивы и категории, внутри страниц делаю перелинковку, чтобы важные статьи не потерялись, под катом все - записи длинные листать их долго, а статей когда будет много за этими простынями можно не увидеть остального содержания. вы же не уходите с новостных сайтов, где все материалы зачастую просто ссылкой обозначены, даже без аннотации. все равно пользователь по заголовкам скачет... не вижу в этом проблемы.
praide, сейчас теги закрыты от индексирования в роботсе, хотя и жалко было "сливать" эту дополнительную навигацию.
все равно пользователь по заголовкам скачет...
Доказано?