- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Переделываем динамический сайт с переходом на новый движок. В нем реализуется псевдостатика, т.е. новые адреса страниц. По старым URL-ам на сайт попасть можно.
Правильно ли сделать следующим образом:
- для роботов на старые УРЛ-ы отвечаем 404-нет_таких, таким образом очищаем индекс от старой версии сайта.
- посетителям для этих же страниц отдаем 301 или 200 (кстати, что лучше)?
Правда при этом, похоже, теряется ИЦ идущий по ссылкам с других сайтов на эти страницы... :( В связи с этим не будет ли лучше отвечать роботу 301 и отдавать новый УРЛ страницы?.. :confused: Засчитается ли ссылка?
Sir[MAI], 404 плохо роботам возвращать - до них далеко не сразу доходит, что таких нет. Лучше просто запретить к индексации.
- посетителям для этих же страниц отдаем 301 или 200 (кстати, что лучше)?
ИМХО - 301, чтобы ускорить обновление индекса.
плюс 404 - в противном случае найдутся непослушные роботы ;)
А при чем индекс, когда я про посетителей говорил..? Может быть Вы имели в виду 301 роботам? Я склоняюсь все-таки к проверенным 404+запрет в роботс.
Кстати, вопрос про ИЦ остается открытым...
плюс 404 - в противном случае найдутся непослушные роботы ;)
А при чем индекс, когда я про посетителей говорил..? Может быть Вы имели в виду 301 роботам?
Да, невнимательно прочитал :)
Я имел в виду как раз роботов.
Я склоняюсь все-таки к проверенным 404+запрет в роботс.
А я бы все-таки отдавал роботам тот же 301, потому что выкинутые по 404 страницы не сразу вернутся в базу, только когда заново проиндексируется сайт. Зачем посетителей то терять?
Кстати, вопрос про ИЦ остается открытым...
Сложный вопрос, я бы тоже хотел на него ответ услышать.
А тут нужно смотреть что хуже: длительное пребывание старых УРЛов в индексе поисковика (301 - увы не факт, что робот забудет про старый УРЛ) или определенное время индексации страниц с новыми УРЛами... :) Со вторым я знаю как бороться, а вот с первым....
При 301 они тоже мгновенно не вернутся. По крайней мере, в Яндексе. Он может выкосить за один присест тысячи страниц, отдавших 301, а заносить будет только по 500 новых, отдавших 200. Для больших сайтов - выгода сомнительная.
wolf, получается что 301, что 404 - для поисковика одна разница?
А тут нужно смотреть что хуже: длительное пребывание старых УРЛов в индексе поисковика (301 - увы не факт, что робот забудет про старый УРЛ) или определенное время индексации страниц с новыми УРЛами... :) Со вторым я знаю как бороться, а вот с первым....
А зачем бороться то? ;)
Пущай будут.
Меня только одно раздражает в этом - не те сниппеты отображаются при выдаче, старые.
Горькая правда.
А зачем бороться то? ;)
Пущай будут.
Увы не для большого сайта... :( Слишком редко будут обновляться станицы в индексе.
Увы не для большого сайта... :( Слишком редко будут обновляться станицы в индексе.
Знаю, сами тем же болеем.. :(
У меня сейчас вообще 2 версии сайта параллельно существуют.
Яндекс даже не закончил индексировать первую (динамика с ? в URL), ходит по ней, и параллельно индексирует вторую (mod_rewrite).
А вот Гугл - умница, старые страницы выкидывает нормально(отдаю 301).