- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Существует информация, что сегодня не стоит практиковать чрезмерный запрет адресов в robots.txt, по крайне мере для Google. Управлять индексацией страниц лучше через метатег robots.
У меня сайты на WP и имеются страницы вида:
www.site.ru/?p=1542 (который редиректит 301 на страницу с ЧПУ)
www.site.ru/?add-to-cart=1454 (при добавлении в корзину, вероятно, стоят на кнопках)
Все эти страницы генерятся за счет плагина WooCommerce и самой структуры движка.
Кто работает с этой cms, подскажите, плиз, убирали ли ссылки такого порядка, или что-то делали с их настройкой, или просто закрывали в robots.txt?
Как в этом случае вообще правильно настраивать такие страницы:
- убирать вообще
- ставить тег canonical
- редиректить на страницу с ЧПУ
- проставлять nofollow, noindex
или что делать вообще, чтобы не было система адекватно понимала, что это не дубли, и адекватно добавляла в индекс нужные с ЧПУ, без корзин и прочих параметров?
1) шортлинки - можно отключить прописав строчку кода в файле functions.php
2) можно закрывать в robots.txt, но если сильно переживаете - смотрите как сделали топовые конкуренты.
Зарубежные товарищи, где-то читал, рекомендуют добавлять add-to-cart в robots.txt, хотя сам WooCommerce ставит nofollow на ссылку.
А страницы без ЧПУ закрываются просто. Здесь же и всевозможные фильтры.
Существует информация, что сегодня не стоит практиковать чрезмерный запрет адресов в robots.txt, по крайне мере для Google.
robots.txt для гугла пофиг, он все равно индексирует закрытые страницы, особенно если на них ссылаются с других ресурсов. А вот контент, да, не индексирует
/ru/forum/974085