- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Предположим есть каталог статей.
Нет возможности отдавать заголовок "Status: 404", т.к. наличие статьи определяется уже когда заголовки посланы (тех. нюанс, сейчас нет возможности исправлять)
Что можно сделать чтоб ПС не индексировали страницы с удаленными статьями (страница отдается как 200, но в тексте пишу нет такой статьи)?
Варианты:
1. Может есть какой-то <meta http-equiv..> аналог 404?
2. Можно закрывать такие страницы от индексации тем же <meta..>, но этот вариант как-то не очень мне нравится..
3. ну и конечно, ваш вариант
спасибо
Можно было бы в начале предусмотреть специальную директорию в которую бы скидывалиь такие удаленные страницы и уже эту директорию закрывать с помощью robots.txt
По принципу страниц версии для печати.
Cдается мне, что в вашем случае, кроме <meta..noindex> ничего не получится.
Можно, конечно что-то типа
header("Location: http://www.site.ru");
но этот заголовок тоже нужно отдавать вместо Content-Type:, а не после него.