Кстати очень хороший пример со страницами с продананным товаром.
Но так как я не могу просто оставить такие ссылки, т.к. контент для них генерится программно, то я буду использовать кэширование.
При обновлении данных на сайте html-содержимое всех страниц будет сохраняться в базу вместе с ссылками.
Если ссылка перестала быть доступной в связи с перегруппировкой данных на сайте -- будет выдаваться содержимое кэша. Может еще выведу надпись типа "эта страница может быть устаревшей".
Нормальное решение?
Спасибо. Буду еще думать. Мне все больше нравится вариант с кэшированием неактуальных ссылок.
Выдаваться они будут, но постепенно должны выкидываться из индекса ПС, т.к. на них не будет внутренних ссылок и из sitemap.xml я их выкину конечно.
Это еще не совсем сайт, пока только движок тестируем (дизайна совсем нет).
Справочник услуг, тематика автомобильная (но может быть любая).
Страниц сейчас около 250, в порядке тестирования. Будет порядка 1500 и больше по мере наполнения.
Ну почему же? Это вполне нормальная ситуация, когда данные группируются сразу по нескольким признакам или категориям. Набор категорий поменялся -- данные перегруппировались. При этом в индексе ПС остались ссылки на неактуальные наборы данных, которых уже нет в новой классификации.
Ситуация эта нормальная и возникать она будет, т.к. это естесственно. А так как сайт для людей, то ничего принципиального в угоду ПС я менять не буду.
Проблема в том, как лучше подружиться с ПС.
У меня есть такие варианты:
1. Закрыть в robots.txt все ссылки, содержащие категории. Оставить для индексации только конечные данные. Минус в том, что тогда пропадет много ценного поискового текста.
2. Перенаправлять умершие ссылки на похожие или их аналоги. Вопрос: будут ли тогда исключаться умершие ссылки из индекса ПС и заменяться на те, куда я их перенаправляю? Если да, то это хорошо. Минус в том, что пользователь может быть слегка удивлен, увидив не совсем то, что искал.
3. Отдавать 404 на умершую ссылку, при этом сообщая, что классификация изменилась и предлагая набор похожих ссылок в новой классификации. Минус в том, что ПС может наказать за большое количество 404.
4. То же что в предыдущем пункте, но без 404. Тогда индекс ПС будет забиваться неактуальными данными, чего бы тоже не хотелось.
Ничего подходящего не нашли, пришлось писать свой движок.
Update:
Пришел в голову еще один варинт:
5. Я могу закэшировать выдачу по неактуальным ссылкам, и выдавать пользователю кэшированный html. Правда фильтры на странице перестанут работать. Думаю со временем такие ссылки будут пропадать из индекса ПС, ведь на них нет внутренних ссылок. Надо еще думать.
За ссылку спасибо, очень полезно!
Получается по госту правильно вообще так: Ы -> Y'
Теперь понятно откуда I взялась после Y в пхп-шной функции, это замена апострофа из госта.
Кстати Lynx транслитирует Ы в Y без всяких добавлений, они наверно этот гост не читали )
Тык что делать, перегенерить ЧПУ? Гугл не обидится на такое? Ведь тогда процентов 20 ссылок сразу перестанет существовать, зато появится куча новых с тем же содержимым ) Не хотелось бы сейчас влезать в работу ботов, сайт только недавно открыл. Или это не страшно?
А как же внутренняя перелинковка сайта? Ведь PR утекает, причем безвозвратно, и без соответствующей компенсации... Или я чего-то не так понял?
Может быть для сайтов которым по 10 лет это и не принципиально, но ИМХО для молодых сайтов это важно.
Для своего будущего каталога я решил закрыть все исходящие ссылки (noindex'ом и nowfollow), с расчетом что открыть-то ссылку раз плюнуть (в обмен на входящую ссылку, например), а внктренний PR терять не хочется. Или это все не очень важно?
Да, страницы в целом отличаются, но могут встречаться одиноковые блоки информации (записи).
В навигации дублей не будет. Каждому разделу соответсвует только одна страница с определенным набором записей.
Тут нечего оптимизировать, т.к. структура меню отражает именно то, как информация должна быть подана пользователю. И эта подача подразумевает некоторое дублирование. Грубо говоря, "так надо" :)
Теперь понятно, спасибо. Я то думал, что Яндекс не любит дублирование потому что считает это вроде как спамом. Про такой способ продвижения ничего не знал :)
Рисковать мне не хочется. Но т.к. пользователь отличий не увидит, все таки пожалуй закрою дубли noindex'ом (хотя считаю это тупостью).
Всем спасибо!
Ну почему же бессмысленно?
Вот например две категории:
SEO -> Продвижение и раскрутка
SEO -> Получение сертификата
Тогда пользователь OPTIMER попадает сразу в обе категории (судя по его подписи), а значит, будет выведен сразу в двух разных страницах: seo_prodvijenie.html и seo_poluchenie_sertifikata.html
Не вижу тут никакой бессмысленности. OPTIMER , ничего личного, просто чтоб было понятней о чем я :)
Неужели такое дублирование надо убирать в noindex?
Решил не связываться. Всем сбасибо за помощь!
Есть же глагол "гуглить", означающий поиск чего-то в интернете. Вот я и хочу его использовать, как второе значимое слово в доменном имени.
Есть еще один вариант, без google, но длинее намного. Не знаю на чем остановиться. Может оба купить?
Угу. Так и буду делать. Остановил свой выбор на Джумле. Спасибо! :)