- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
maximusr
Только что пробовал. У меня правда IIS стоит...
Или это не принципиально?
Только что пробовал. У меня правда IIS стоит...
Или это не принципиально?
Про IIS сказать ничего не могу, не сталкивался.
Вообще запрет можно осуществить и без header, существует достаточно способов запретить документ к индексации
Если выдавать 404 а потом страницу то IE при настройках по умолчанию выдает свою страницу с объяснением а не то что выдал сервер, это можно обойти со стороны сервера для некоторых версий IE но будет ли такой обход работать во всех версиях неизвестно.
Правильным решением будет преобразовать урлы с помощью mod_rewrite так, чтобы ненужные страницы можно было легко запретить через robots.txt.
Например адрес hostinfo.ws/index.php?e=20&type=email-article можно сделать доступным по адресу hostinfo.ws/email-article/20.html, а в robots.txt вписать Disallow: /email-article/.
Правильным решением будет преобразовать урлы с помощью mod_rewrite
Только если страниц будет очень много, которые необходимо запретить к индексации, то получится слишком длинная "колбаса" из Disallow
Тогда лучше привести все это хозяйство к тому, чтобы запрещаемые страницы лежали в одной или нескольких папках, тогда код robots.txt существенно сократиться и получиться что-нибудь вроде:
Disallow: /folder1/
Disallow: /folder2/
Через mod_rewrite буду делать. Спасиб всем за советы
Через mod_rewrite буду делать.
Мы выбираем трудный путь,
Опасный как военная тропа,
...
digs, у меня так сделано и ничего все выдается.. проверял на неск. браузерах на разных компах, а яндекс ее не индексирует, не видит он ее.
Snake
Ну не знаю... если IIS выдает ошибку, то мне кажется уже не нормально?
И вообще, это норма выдавать ошибку, чтобы страница не индексировалась?
И вообще, это норма выдавать ошибку, чтобы страница не индексировалась?
Норма это выдавать статус выполнения запроса а что с ним сделает робот или броузер это уже их дело хотя и на это в стандартах есть рекомендации.