- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте. У меня в процессе разработки сайта возник кое-какой вопрос, связанный с его индексацией поисковыми системами (Google и Yandex).
Дело в том, что я, дабы избежать попадания в индекс ненужных или одинаковых страниц, решил отредактировать файл .htaccess следующим образом:
Как видно из примера, я заменил страницы вида site.ru/page.php?id=1 на site.ru/1/
Сделал я это для того, чтобы в индекс ПС, как я уже сказал, не попадали такие страницы site.ru/page.php?id= или site.ru/page.php?id=1&num=
Вопрос 1: Избавит ли этот метод от попадания ненужных страниц или копий в индекс ПС?
Вопрос 2: Что будет, если ПС наткнется на ссылку вида site.ru/abc/ (дело в том, что значение id - только число)? Он добавит ее в индекс? Как сделать, чтобы подобные страницы автоматически перенаправлялись на страницу ошибок 404 (которая, как я понял, не будет индексироваться ПС, если ее добавить в robots.txt)?
Вопрос 3: Что мне сделать, чтобы ПС не индексировали страницы вида site.ru/id/, где id - число, которое не соответствует диапазону допустимых значений?
Если я где-то не прав, то исправьте.
Поднимаю тему.
Проще в роботсе закрыть все не верные ссылки, а лучше сделать, что бы они вообще не появлялись
Sergo_SeV, если страниц не много, тогда да.
Если такие ссылки нигде не засветятся, то они не будут проиндексированы?
это как это вы собираетесь в роботсе закрыть неверные ссылки все???
исходя из сообщения ТС, url вида site.ru/123213219/ - обрабатывается без ошибок.
вам нужно внутри кода, выполнять проверку значений, и если есть неизвестные get переменные, или несуществующие значения отдавать header location 404 (синтаксис погуглите)
Если такие ссылки нигде не засветятся, то они не будут проиндексированы?
Если "добрые люди" найдутся, то запросто
вам нужно внутри кода, выполнять проверку значений, и если есть неизвестные get переменные, или несуществующие значения отдавать header location 404 (синтаксис погуглите)
Спасибо. Вы ответили на часть моего вопроса.
Если "добрые люди" найдутся, то запросто
Но в таком случае, можно ведь это "отрегулировать" в .htaccess или тем же перенаправлением на 404?