- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Подскажите такого рода ссылки видны в sitemap.xml на движке simpla
<loc>http://www.site.ru/products?sort=price</loc>
<loc>http://www.site.ru/catalog/norka?sort=position</loc>
<loc>http://www.site.ru/products?sort=position&page=2</loc>
<loc>http://www.site.ru/catalog/me?sort=price&page=2</loc>
Такого рода сортировки, в робост же лучше закрыть от ботов?
А как закрыть ?
Disallow: /?sort
?
http://help.yandex.ru/webmaster/controlling-robot/robots-txt.xml
Disallow: /*?sort=
http://help.yandex.ru/webmaster/controlling-robot/robots-txt.xml
Disallow: /*?sort=
Если так ? - Disallow: /*?
Если так ? - Disallow: /*?
а тогда не останется 3-5 страниц? если нет, то закрывайте
а тогда не останется 3-5 страниц? если нет, то закрывайте
Почему 3-5 ?
Почему 3-5 ?
Потому что таким образом вы закрываете все страницы, содержащие что-либо после любого слэша.
В вашем случае для Yandex нужно закрывать таким образом:
Disallow: *?sort=*
(т.е. все страницы, содержащие ?sort= в URL)
Для Google на такие страницы нужно прописать
<meta name='robots' content='noindex,nofollow' />
Т. к. страницы, закрытые в robots Google все равно индексирует.
Потому что таким образом вы закрываете все страницы, содержащие что-либо после любого слэша.
В вашем случае для Yandex нужно закрывать таким образом:
Disallow: *?sort=*
(т.е. все страницы, содержащие ?sort= в URL)
Для Google на такие страницы нужно прописать
<meta name='robots' content='noindex,nofollow' />
Т. к. страницы, закрытые в robots Google все равно индексирует.
Disallow: *?sort=*
или
Disallow: /*?sort=*
Вообще хотел сделать Disallow: /*? - что бы избавиться от динамических страниц, всех сортировок. Остальные страницы на сайте стационарны.
IceHell, вам же сказали
Disallow: /*?sort=
если не нравится, то еще решения:
для гугла: Параметры URL - https://support.google.com/webmasters/answer/1235687?hl=ru
для яндекса: Clean-param - http://help.yandex.ru/webmaster/controlling-robot/robots-txt.xml#clean-param