- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Я правильно понимаю, что следующие страницы нужно исключать в robots.txt
Я правильно понимаю, что следующие страницы нужно исключать в robots.txt
404 страница - ее не существует для поискового робота, т.е. ее не надо скрывать от индексации.
А если в выдаче есть такие страницы, то это совсем другой разговор.
Последние 2 думаю да.
страница 404
Такой страницы не должно быть. Кроме того, поисковые системы не индексируют страницы с ответом отличным от 200. Исключением является ответ 3XX, поисковая система следует правилам, например, переадресации.
страницы веб-форм заказов
страница "спасибо, ваша заявка получена (и перечень ссылок на другие услуги)"
Такой тип страниц должен генерироваться исходя из POST-запроса. Поисковый робот запрашивает страницы только методом GET, поэтому, страниц сгенерированные основываясь на POST-запрос, доступны поисковому роботу не будут.
Такой страницы не должно быть. Кроме того, поисковые системы не индексируют страницы с ответом отличным от 200. Исключением является ответ 3XX, поисковая система следует правилам, например, переадресации.
Такой тип страниц должен генерироваться исходя из POST-запроса. Поисковый робот запрашивает страницы только методом GET, поэтому, страниц сгенерированные основываясь на POST-запрос, доступны поисковому роботу не будут.
Страница 404 отдает код 404 НО редиректит на красиво оформленную /page_not_found
А вот веб форма, когда ее отправляешь отдает 302.
Страница 404 отдает код 404 НО редиректит на красиво оформленную /page_not_found
Не нужно перенаправлять с несуществующих адресов на другой несуществующий адрес. Например, если пользователь попал на /page-1 перейдя по ссылке с вашего или внешнего сайта, а вы его перенаправите на /page_not_found, он не сможет скопировать URL /page-1, чтобы найти сохраненную копию страницы в поисковой системе либо чтобы сообщить о несуществующей странице администратору сайта. И это только один из примеров.
А вот веб форма, когда ее отправляешь отдает 302.
Поисковый робот не будет отправлять POST-запрос, то-есть, не будет заполнять форму и соответственно, не попадет на эту страницу. Хорошим тоном является отдавать 404 при запросе таких страниц методом GET. В этом случае, не заполнив форму, нельзя даже узнать о наличии таких страниц. Соответственно, если вы не будете сами информировать поисковых роботов о наличии таких обработчиков средствами robots.txt, поисковые роботы и не узнают о наличии таких страниц.
Также, перечисление адресов POST-обработчиков в robots.txt, упрощает работу людям, которые ищут пути для взлома вашего сайта.
Не нужно перенаправлять с несуществующих адресов на другой несуществующий адрес. Например, если пользователь попал на /page-1 перейдя по ссылке с вашего или внешнего сайта, а вы его перенаправите на /page_not_found, он не сможет скопировать URL /page-1, чтобы найти сохраненную копию страницы в поисковой системе либо чтобы сообщить о несуществующей странице администратору сайта. И это только один из примеров.
Скопировать сможет, .т.к. ссылка остается. Если набрать site/00fdsds (не сущ) то ссылка останется. У меня движок Друпал и я там в настройках указал "Страница по умолчанию для ошибки 404 (не найдено)" "Введите путь, на который будет выполняться перенаправление при возникновении 404-ой ошибки (страница не найдена)."
Поисковый робот не будет отправлять POST-запрос, то-есть, не будет заполнять форму и соответственно, не попадет на эту страницу. Хорошим тоном является отдавать 404 при запросе таких страниц методом GET. В этом случае, не заполнив форму, нельзя даже узнать о наличии таких страниц. Соответственно, если вы не будете сами информировать поисковых роботов о наличии таких обработчиков средствами robots.txt, поисковые роботы и не узнают о наличии таких страниц.
Также, перечисление адресов POST-обработчиков в robots.txt, упрощает работу людям, которые ищут пути для взлома вашего сайта.
А вот что с Вебформами. У меня так: кнопки типа "обр звонок", "вызвать спеца", "онлайн заявка" открываются в popup аяксом и сразу отдают post и статус 200 без редиректа. Следующий post запрос тоже аяксом без перезагрузки типа "спасибо заявка принята" в том же окне.
Но есть так же и Вебформы с полями, их не нужно вызывать они всегда на странице. Эти формы заполняешь и Request Method:POST Status Code:302 Found. Т.е. у меня метод пост, но при этом статус 302 - временное перенаправление на страницу типа "спасибо Ваша заявка получена" "возможно Вы захотите так же заказать".