- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте.
Допустим, есть простая доска объявлений, на которой пользователи размещают свои объявления. Правилами доски допускается размещение объявлений (в том числе одних и тех же) с определенной периодичностью, то есть на доске регулярно появляются объявления с одним и тем же содержанием. При этом ранее размещенные объявления могут быть помечены как "устаревшие". В настоящее время "устаревшие" объявления хранятся и показываются (с соответствующей пометкой об их "возрасте") по прямым ссылкам из соображений, что пользователи могут добавить то или иное объявление в закладки и должны иметь возможность возвращаться к ним. Таким образом, с течением времени в индексах поисковых систем могут появляться фактически дубликаты одних и тех же объявлений с разными датами публикации, причем в достаточно больших количествах.
Примем как аксиому, что заставить пользователей не размещать объявления снова, а "актуализировать" ранее размещенные объявления невозможно. Отсюда следует вопрос: что лучше делать с заведомо "устаревшими" объявлениями? Вероятно, существует как минимум несколько вариантов:
1) Просто удалять их, отдавая по соответствующим ссылкам 404-ю ошибку (как поисковики отнесутся к регулярному исчезновению с сайта десятков страниц?).
2) Удалять их, но при этом при запросе показывать не 404-ю ошибку, а делать 301-ю переадресацию на единую страницу с информацией о том, почему запрошенная страница удалена.
3) Сохранять их, но запретить индексирование соответствующих страниц, например, установкой meta noindex.
4) Ничего не делать, пусть роботы сами разбираются с дубликатами.
Как правильнее?
Подчеркну еще раз: основная проблема, которая меня волнует - это не наличие в индексе устаревшей информации, а именно возможное наличие большого числа дубликатов, которые вроде бы можно из индекса изъять за счет этих самых "устаревших" объявлений, но вот как это грамотнее сделать и вообще нужно ли? Спасибо.
Зачем чем вам мешают дубликаты?
Что делать с устаревшими дубликатами на доске объявлений?
1. Какое то время Вам будет хотеться сохранять все объявления (кол-во страниц, НЧ запросы, и т.д.). Это правильно и нормально. Пусть всё лежит - хуже не будет.
2. Потом (в зависимости от скриптов - с 100.000-500.000 объявл.) Вам начнёт мешать огромная масса - будет вешать базу, глючить, тормозить при поисках. Удаляйте на автомате старые, которым квартал-полгода-год (решите на месте, по обстоятельствам).
3. Если доска служит для показа рекламы по НЧ (Адсенс и т.д.) - встройте скрипт, блокирующий удаление обьявления с высокой посещаемость. У меня когда то в Гугле вылезло на 5ю позицию объявление по запросу "car insurance quote" и висело месяца четыре между 5 и 17 поз. Представляете, если б его скрипт удалил? 🙅
Зачем чем вам мешают дубликаты?
Слышал, что для поисковых систем нездорово, когда на сайте присутствует много страниц с одной и той же информацией. Например, у меня есть проект-каталог, в нем есть разные опции сортировки записей (например, по алфавиту, по дате добавления, по популярности) - все страницы с сортировками, отличными от сортировки по умполчанию, я закрыл для индексации. Но там это было сделано изначально, а здесь ситуация несколько иная - удалять информацию из индексов не сразу, а через некоторое время. Хочется понять, как это лучше сделать (свои пришедшие в голову варианты - в первом сообщение), ну и стоит ли, конечно. Ваше мнение - не стоит?
Mr. Third добавил 10.04.2009 в 22:21
1. Какое то время Вам будет хотеться сохранять все объявления (кол-во страниц, НЧ запросы, и т.д.). Это правильно и нормально. Пусть всё лежит - хуже не будет.
2. Потом (в зависимости от скриптов - с 100.000-500.000 объявл.) Вам начнёт мешать огромная масса - будет вешать базу, глючить, тормозить при поисках. Удаляйте на автомате старые, которым квартал-полгода-год (решите на месте, по обстоятельствам).
Вы говорите о чисто технических проблемах, которые могут возникнуть в связи с большим количеством объявлений. Давайте представим, что технических проблем нет, и поговорим о проблемах "поисковых". Разве это нормально, когда в индексе поисковика будут сотни дубликатов (отличющихся незначительно или вообще только датой размещения, так как многие пользователи публикуют объявления методом copy-paste) сотен объявлений?
Или еще можно вопрос развернуть по-другому, совсем забыть про дубликаты и спросить так:
Допустим принято решение устаревшие данные (число которых ежедневно исчисляется сотнями страниц) из индексов изымать. Как это грамотнее делать - сносить и выдавать 404-ю ошибку или ставить noindex? Это ничего, что на сайте с точки зрения поисковика будет постоянное добавление-удаление многих страниц?
Или еще можно вопрос развернуть по-другому, совсем забыть про дубликаты и спросить так:
Допустим принято решение устаревшие данные (число которых ежедневно исчисляется сотнями страниц) из индексов изымать. Как это грамотнее делать - сносить и выдавать 404-ю ошибку или ставить noindex? Это ничего, что на сайте с точки зрения поисковика будет постоянное добавление-удаление многих страниц?
Отдавайте страницу, на которой есть сообщение, что данное объявление больше не существует, и есть навигация на разделы доски.
Делайте так, как удобнее пользователю - а поисковик сам с остальным разберётся.
Относительно новых/старых страниц не беспокойтесь - в мире доски объявлений исчисляются тысячами, на многих из них происходит такое же, в алгоритмах поисковых систем это наверняка предусмотрено. Гугль вообще любит, когда идёт постоянное обновление...
Разве это нормально, когда в индексе поисковика будут сотни дубликатов (отличющихся незначительно или вообще только датой размещения, так как многие пользователи публикуют объявления методом copy-paste) сотен объявлений?
Не страшно, хотя доску загаживают изрядно. Помогает проверка количества объявлений в сутки от одного юзера - отсеевает 80% спама.
Спасибо за Ваше мнение.
Не страшно, хотя доску загаживают изрядно. Помогает проверка количества объявлений в сутки от одного юзера - отсеевает 80% спама.
Я имел в виду, что многие пользователи имеют текст объявления сохраненным локально, например в файле Word, и с разрешенной периодичностью (скажем, раз в несколько дней) просто заходят на доску и создают объявление методом copy-paste из своего вордовского файла в форму отправки. И таких практичных пользователей много. Отсюда, собственно, и рождаются точные дубликаты. Убедить пользователей не создавать новые объявления, а актуализировать ("поднимать") старые, как показывает практика, нереально.
Это у Вас пользователи хорошие. Мои индусы каждый по 30 объявлений в день пихают, автомат их банить не успевает...
Да нечего плохого нет в том что у вас есть одинаковые страницы.
У меня так сотни сплогов на ВП живут.