- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет!
Может кто подскажет как сделать редирект на главную или 404 ошибку при наборе адресов вида http://www.site.ru/?123456
Буду благодарен!
Или это не так и важно?
Например серч тоже открывается по
99.9% сайтов так открываются.
Чтобы сделать редирект, нужно сначала в скрипте проверить валидность урла, проверить, есть ли все необходимые параметры, нет ли лишних параметров, в том ли порядке они идут и допустимые ли значения содержат.
После этого уже делать или не делать редирект.
Только так можно добиться уникальности, чтобы каждому урлу соответствова только одна определённая страница.
;11148170']Чтобы сделать редирект, нужно сначала в скрипте проверить валидность урла, проверить, есть ли все необходимые параметры, нет ли лишних параметров, в том ли порядке они идут и допустимые ли значения содержат.
Насчёт проверки на порядок следования GET-параметров - это уже паранойя, имхо, а так - идеологически полностью согласен. :)
Насчёт проверки на порядок следования GET-параметров - это уже паранойя, имхо, а так - идеологически полностью согласен. :)
Так уж если делать по-взрослому, то делать по-взрослому :)
Если взять два урла, в которых отличается порядок аргументов, и сравнить их как строки, то это будут две разные строки. Вряд ли поисковики утруждают себя при индексации перестановкой аргументов, т.к. во-первых, это технически трудоёмко (например, из 10 аргументов может быть 10! (факториал) различных комбинаций, это больше 3.5 миллионов), а во-вторых, то что в общем понимании является "строкой запроса" и "аргументами", может интерпретироваться вашим сайтом совершенно иначе, и по двум урлам с разной последовательностью аргументов могут выдаваться разные страницы.
;11148685']Вряд ли поисковики утруждают себя при индексации перестановкой аргументов, т.к. во-первых, это технически трудоёмко (например, из 10 аргументов может быть 10! (факториал) различных комбинаций, это больше 3.5 миллионов), а во-вторых, то что в общем понимании является "строкой запроса" и "аргументами", может интерпретироваться вашим сайтом совершенно иначе, и по двум урлам с разной последовательностью аргументов могут выдаваться разные страницы.
Тем не менее Яндекс, к примеру, понимает в роботсе Clean-param, но что-то у меня любопытство взыграло, не поленюсь, задам сегодня вопрос Платону.
Впрочем, если сайт даже умеет определять разрешенные параметры, все равно правильнее урлы с вопросом использовать только для служебных целей и запрещать их индексацию как класс.
правильнее урлы с вопросом использовать только для служебных целей
Но этого не получится при
редирект на главную или 404 ошибку при наборе адресов вида site.ru/?123456
серч тоже открывается по
Открывается.