- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Да так и запретите в роботс, если ?route больше нигде не используется:
Один минус. Гугл иногда может решить, что он хочет эти страницы индексировать. Тогда можно добавить на страницу
<meta name="robots" content="noindex, follow">
Чтобы не индексировал, но мог ходить по ссылкам. Ну или noindex, nofollow (чтобы не индексировал и по ссылкам не ходил). Ну а если будет ЧПУ, то закроете там что у вас в ЧПУ получится.
В принципе, мета-тег тут лучше сработает. Но я все равно его обычно дублирую в роботс. Чтобы робот лишний раз не совался.
Здравствуйте.
У вас скорее всего установлен OpenCart.
Ссылки вида ?route=information/contact должны делать 301 редирект на contact, если есть такая пара запрос/ключ в ЧПУ:
Посмотрите, переименовали ли вы находящийся в корне сайта файл в .htaccess.txt в .htaccess (но если .htaccess уже есть в корне, то сохраните его, возможно, там есть что-то, что может потом пригодиться). Именно в этом файле прописаны правила, которые помогают преобразовывать запросы с разными GET-параметрами в ЧПУ.
Убедитесь, что в Система - Настройки - *Название магазина" - Сервер стоит галочка "Включить ЧПУ".
Далее в левом верхнем меню выберите "Панель состояния", а потом справа вверху нажмите на шестеренку - сбросьте весь кэш.
И есть все правильно настроить, если будет 301-ый редирект, то страницы вида ?route=information/contact, ?route=account/login уйдут со временем сами.
Да так и запретите в роботс, если ?route больше нигде не используется:
Один минус. Гугл иногда может решить, что он хочет эти страницы индексировать. Тогда можно добавить на страницу
Чтобы не индексировал, но мог ходить по ссылкам. Ну или noindex, nofollow (чтобы не индексировал и по ссылкам не ходил). Ну а если будет ЧПУ, то закроете там что у вас в ЧПУ получится.
В принципе, мета-тег тут лучше сработает. Но я все равно его обычно дублирую в роботс. Чтобы робот лишний раз не совался.
Так лучше не делать. Гугл не будет видеть много чего из того, что ему видеть нужно. Будет ругаться где-то в глубине души и тд и тп.
Также возможно, что что-то пошло не так и на сайте в чистом ХТМЛ много ссылок вида "?route=information/contact".
ПС это учитывают и только по этой причине могут загонять страницу в индекс.
Стоит это проверить и исправить при необходимости. Со временем эта страница уйдет из индекса.
Здравствуйте.
У вас скорее всего установлен OpenCart.
Ссылки вида ?route=information/contact должны делать 301 редирект на contact, если есть такая пара запрос/ключ в ЧПУ:
Посмотрите, переименовали ли вы находящийся в корне сайта файл в .htaccess.txt в .htaccess (но если .htaccess уже есть в корне, то сохраните его, возможно, там есть что-то, что может потом пригодиться). Именно в этом файле прописаны правила, которые помогают преобразовывать запросы с разными GET-параметрами в ЧПУ.
Убедитесь, что в Система - Настройки - *Название магазина" - Сервер стоит галочка "Включить ЧПУ".
Далее в левом верхнем меню выберите "Панель состояния", а потом справа вверху нажмите на шестеренку - сбросьте весь кэш.
И есть все правильно настроить, если будет 301-ый редирект, то страницы вида ?route=information/contact, ?route=account/login уйдут со временем сами.
Да, спасибо. Разобрался, что нужно с ?route=information/contact сделать 301 редирект на contact.
Да так и запретите в роботс, если ?route больше нигде не используется:
Один минус. Гугл иногда может решить, что он хочет эти страницы индексировать. Тогда можно добавить на страницу
Чтобы не индексировал, но мог ходить по ссылкам. Ну или noindex, nofollow (чтобы не индексировал и по ссылкам не ходил). Ну а если будет ЧПУ, то закроете там что у вас в ЧПУ получится.
В принципе, мета-тег тут лучше сработает. Но я все равно его обычно дублирую в роботс. Чтобы робот лишний раз не совался.
Только гугл рекомендует не закрывать одновременно через роботс и noindex
Да, спасибо. Разобрался, что нужно с ?route=information/contact сделать 301 редирект на contact.
Да, спасибо. Разобрался, что нужно с ?route=information/contact сделать 301 редирект на contact.
У меня немного похожая проблема. Яндекс ходит по мусорным страницам темы. Сделала так в роботс, но все равно в Вебмастер отображается:
User-agent: *
Disallow: /?customize
Disallow: /?tdb_action=tdb_ajax
Disallow: /?from=webmaster
Подскажите, как сделать, чтобы такого не было
User-agent: *
Disallow: /?customize
Disallow: /?tdb_action=tdb_ajax
Disallow: /?from=webmaster
Подскажите, как сделать, чтобы такого не было
Disallow: /? - это для главной только. Вам нужно поменять везде на Disallow: /*?
И можете сократить до
Ну и если на главной параметров нет, отдельно добавить Disallow: /? А по своему опыту я бы еще добавил