- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вопрос как бы обмусоленный, как мне думается, но когда дело доходит до дела... Обычная совершенно структура сайта, например:
/auto
/auto/car
/auto/car/suv
При публикации материала в третьем разделе, он появляется во всех трех (да, я пользую ***й WP), при использовании, например, еще трех тегов получаем 10 копий одного и того же текста. С другой стороны, если испугаться этих дублей и спрятать все по кат -- 90 процентов посетителей не будут кликать в каждый "читать дальше", а просто уйдут с сайта.
Я полностью отдаю себе отчет в том, что для Большого брата это не есть проблема, не уверен что это так для Яндекса. Что посоветуете - думать о дублях в индексе или об удобстве пользователей (которых, блин, из этого самого индекса потерять не хочется)?
думать о дублях в индексе или об удобстве пользователей
Если сайт для яндекса, думай о нем. Если для пользователей - то... ;)
Для пользователей, натурально. Вопрос в том, чтобы их не растерять.
И все таки, в реальной жизни как чаще поступаете?
не уверен что это так для Яндекса
Не любит Яша дублирование, эксперимент ставил.
И все таки, в реальной жизни как чаще поступаете?
Роботс и ноиндекс в помощь.
Махнуть движок можно, как вариант. Проблема отпадет сама.
Был случай, но не аналогичный. Были дубли страниц, правда, не в такой жесткой связке по внутренним ссылкам и перелинковки как у вас. Сайт был в индексе всегда. Через какое-то время дубли выкинулись сами
Не любит Яша дублирование, эксперимент ставил.
Как это проявляется?
Как это проявляется?
Сайт был в ТОП 20 по ВК запросу. Ввел текстовые банеры на сайте с дублированием на 25% страниц каждго банера (всего их шт 8 было), после переиндексации сайт улетел в ТОП 50. Поставил их в ноиндекс, сайт вернулся в ТОП 20. И так пару раз. Ссылок не докупалось, контент не менялся (кроме индексации и неиндексации банеров). Текст банера составлял 25-30% от текста страницы. На сайте около 60 страниц.
я у себя запретила для робота архивы и категории, внутри страниц делаю перелинковку, чтобы важные статьи не потерялись, под катом все - записи длинные листать их долго, а статей когда будет много за этими простынями можно не увидеть остального содержания. вы же не уходите с новостных сайтов, где все материалы зачастую просто ссылкой обозначены, даже без аннотации. все равно пользователь по заголовкам скачет... не вижу в этом проблемы.
praide, сейчас теги закрыты от индексирования в роботсе, хотя и жалко было "сливать" эту дополнительную навигацию.
все равно пользователь по заголовкам скачет...
Доказано?