- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброго времени суток.
Почитал тут на днях тему на форуме по поводу SID'ов.
Индекс в яндексе одного из сайтов порядочно ими замусорен. Причину уже устранил, теперь хотелось бы почистить индекс.
Думаю вот обработчик в .htaccess прописать, чтоб все .php перехватывал, проверял наличие в URI SID'ов, проверял юзерагента и вслучае прихода поискового робота выдавал 404 ошибку.
Никто ни счем подобным никогда не заморачивался?
Насколько это реально?
Как правильно выдать 404 ошибку?
если страница, отдаваемая роботу, будет отличаться от страницы, выдаваемой обычному браузеру, то это может быть расценено, как обман поисковой машины и повлечь наказание...
Да, но только при условии, что эта страница будет доступна для индексации и содержаться в базе поисковой машины. Если же роботу выдавать 404, а обычному браузеру 200, то страницы в базе поисковика не будет, и поисковику должно быть по барабану всё, что касается этой страницы. Он ее просто не будет знать. Так что, никакого обмана поисковой машины в этом случае не будет.
Более того, это практически единственный нормальный способ почистить БД поисковика от ненужных адресов.
Хотя от себя рекомендую не 404-й код, а редирект (код 301) на адрес с идентичным содержимым.
LiM, из собственного опыта не подскажете, как поисковики обрабатывают 301?
У меня, например, документы, которые выдавали 301 стабильно опрашивались поисковиками в течении полугода, после чего я стал выдавать 404, некоторые (Inktomi, Google, etc) до сих пор в эти URLы ломятся.
По поводу правильности принятого решения ситуация более-менее понятна, но все же как правильно выдавать 404 ошибку?
header("HTTP/1.1 404 Not Found");
Спасибо за помощь.
Вроде все получилось, хотя, в прочем, время покажет.
Cherny, из моего опыта перевода нескольких крупных разделов сайта на отдельные домены получается, что при встрече такого адреса робот про него забывает и заносит в очередь на индексацию новый адрес, который был ему сказан. Страница по старому адресу из индекса пропадает максимально быстро.
Возврат же на старые адреса возможен, если робот где-либо встретить ссылку на этот адрес - адрес теперь будет для робота новым и он пойдет посмотреть, чего там есть...
LiM, спасибо за информацию. Буду продолжать наблюдать за поведением роботов.