- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте.
Допустим, есть простая доска объявлений, на которой пользователи размещают свои объявления. Правилами доски допускается размещение объявлений (в том числе одних и тех же) с определенной периодичностью, то есть на доске регулярно появляются объявления с одним и тем же содержанием. При этом ранее размещенные объявления могут быть помечены как "устаревшие". В настоящее время "устаревшие" объявления хранятся и показываются (с соответствующей пометкой об их "возрасте") по прямым ссылкам из соображений, что пользователи могут добавить то или иное объявление в закладки и должны иметь возможность возвращаться к ним. Таким образом, с течением времени в индексах поисковых систем могут появляться фактически дубликаты одних и тех же объявлений с разными датами публикации, причем в достаточно больших количествах.
Примем как аксиому, что заставить пользователей не размещать объявления снова, а "актуализировать" ранее размещенные объявления невозможно. Отсюда следует вопрос: что лучше делать с заведомо "устаревшими" объявлениями? Вероятно, существует как минимум несколько вариантов:
1) Просто удалять их, отдавая по соответствующим ссылкам 404-ю ошибку (как поисковики отнесутся к регулярному исчезновению с сайта десятков страниц?).
2) Удалять их, но при этом при запросе показывать не 404-ю ошибку, а делать 301-ю переадресацию на единую страницу с информацией о том, почему запрошенная страница удалена.
3) Сохранять их, но запретить индексирование соответствующих страниц, например, установкой meta noindex.
4) Ничего не делать, пусть роботы сами разбираются с дубликатами.
Как правильнее?
Подчеркну еще раз: основная проблема, которая меня волнует - это не наличие в индексе устаревшей информации, а именно возможное наличие большого числа дубликатов, которые вроде бы можно из индекса изъять за счет этих самых "устаревших" объявлений, но вот как это грамотнее сделать и вообще нужно ли? Спасибо.
Зачем чем вам мешают дубликаты?
Что делать с устаревшими дубликатами на доске объявлений?
1. Какое то время Вам будет хотеться сохранять все объявления (кол-во страниц, НЧ запросы, и т.д.). Это правильно и нормально. Пусть всё лежит - хуже не будет.
2. Потом (в зависимости от скриптов - с 100.000-500.000 объявл.) Вам начнёт мешать огромная масса - будет вешать базу, глючить, тормозить при поисках. Удаляйте на автомате старые, которым квартал-полгода-год (решите на месте, по обстоятельствам).
3. Если доска служит для показа рекламы по НЧ (Адсенс и т.д.) - встройте скрипт, блокирующий удаление обьявления с высокой посещаемость. У меня когда то в Гугле вылезло на 5ю позицию объявление по запросу "car insurance quote" и висело месяца четыре между 5 и 17 поз. Представляете, если б его скрипт удалил? 🙅
Зачем чем вам мешают дубликаты?
Слышал, что для поисковых систем нездорово, когда на сайте присутствует много страниц с одной и той же информацией. Например, у меня есть проект-каталог, в нем есть разные опции сортировки записей (например, по алфавиту, по дате добавления, по популярности) - все страницы с сортировками, отличными от сортировки по умполчанию, я закрыл для индексации. Но там это было сделано изначально, а здесь ситуация несколько иная - удалять информацию из индексов не сразу, а через некоторое время. Хочется понять, как это лучше сделать (свои пришедшие в голову варианты - в первом сообщение), ну и стоит ли, конечно. Ваше мнение - не стоит?
Mr. Third добавил 10.04.2009 в 22:21
1. Какое то время Вам будет хотеться сохранять все объявления (кол-во страниц, НЧ запросы, и т.д.). Это правильно и нормально. Пусть всё лежит - хуже не будет.
2. Потом (в зависимости от скриптов - с 100.000-500.000 объявл.) Вам начнёт мешать огромная масса - будет вешать базу, глючить, тормозить при поисках. Удаляйте на автомате старые, которым квартал-полгода-год (решите на месте, по обстоятельствам).
Вы говорите о чисто технических проблемах, которые могут возникнуть в связи с большим количеством объявлений. Давайте представим, что технических проблем нет, и поговорим о проблемах "поисковых". Разве это нормально, когда в индексе поисковика будут сотни дубликатов (отличющихся незначительно или вообще только датой размещения, так как многие пользователи публикуют объявления методом copy-paste) сотен объявлений?
Или еще можно вопрос развернуть по-другому, совсем забыть про дубликаты и спросить так:
Допустим принято решение устаревшие данные (число которых ежедневно исчисляется сотнями страниц) из индексов изымать. Как это грамотнее делать - сносить и выдавать 404-ю ошибку или ставить noindex? Это ничего, что на сайте с точки зрения поисковика будет постоянное добавление-удаление многих страниц?
Или еще можно вопрос развернуть по-другому, совсем забыть про дубликаты и спросить так:
Допустим принято решение устаревшие данные (число которых ежедневно исчисляется сотнями страниц) из индексов изымать. Как это грамотнее делать - сносить и выдавать 404-ю ошибку или ставить noindex? Это ничего, что на сайте с точки зрения поисковика будет постоянное добавление-удаление многих страниц?
Отдавайте страницу, на которой есть сообщение, что данное объявление больше не существует, и есть навигация на разделы доски.
Делайте так, как удобнее пользователю - а поисковик сам с остальным разберётся.
Относительно новых/старых страниц не беспокойтесь - в мире доски объявлений исчисляются тысячами, на многих из них происходит такое же, в алгоритмах поисковых систем это наверняка предусмотрено. Гугль вообще любит, когда идёт постоянное обновление...
Разве это нормально, когда в индексе поисковика будут сотни дубликатов (отличющихся незначительно или вообще только датой размещения, так как многие пользователи публикуют объявления методом copy-paste) сотен объявлений?
Не страшно, хотя доску загаживают изрядно. Помогает проверка количества объявлений в сутки от одного юзера - отсеевает 80% спама.
Спасибо за Ваше мнение.
Не страшно, хотя доску загаживают изрядно. Помогает проверка количества объявлений в сутки от одного юзера - отсеевает 80% спама.
Я имел в виду, что многие пользователи имеют текст объявления сохраненным локально, например в файле Word, и с разрешенной периодичностью (скажем, раз в несколько дней) просто заходят на доску и создают объявление методом copy-paste из своего вордовского файла в форму отправки. И таких практичных пользователей много. Отсюда, собственно, и рождаются точные дубликаты. Убедить пользователей не создавать новые объявления, а актуализировать ("поднимать") старые, как показывает практика, нереально.
Это у Вас пользователи хорошие. Мои индусы каждый по 30 объявлений в день пихают, автомат их банить не успевает...
Да нечего плохого нет в том что у вас есть одинаковые страницы.
У меня так сотни сплогов на ВП живут.