- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет!
Есть интернет-магазин на Вордпресс. В robots указано Disallow: /?
В индексе поисковиков появилось много дублей категорий товаров и самих товаров следующего формата:
domain.ru/tovar/?add_to_wishlist=[цифры]
domain.ru/category/?filter_razmer=[перечисление размеров]
Правильно ли будет заменить Disallow: /? на Disallow: /?* и стоит ли убирать дубли вручную в Вебмастере?
заменить Disallow: /? на Disallow: /?*
Это одно и то же.
заменить Disallow: /? на Disallow: /?*
Да.
Это одно и то же.
а каким образом можно избежать индексации подобных ссылок domain.ru/tovar/?add_to_wishlist=[цифры] и
domain.ru/category/?filter_razmer=[перечисление размеров] ?
В robots добавить */*/? ?
а каким образом можно избежать индексации подобных ссылок domain.ru/tovar/?add_to_wishlist=[цифры] и
domain.ru/category/?filter_razmer=[перечисление размеров] ?
гугл может игнорить роботс тхт
Игнорит вот прям в 90% случаев. Поэтому я лично после подобных экспериментов нынче ваще не морочусь с robots.txt, на некоторых проектах его даже нет в принципе как такового. И норм, всё в ТОПе, никто не жалуется.
Игнорит вот прям в 90% случаев. Поэтому я лично после подобных экспериментов нынче ваще не морочусь с robots.txt, на некоторых проектах его даже нет в принципе как такового. И норм, всё в ТОПе, никто не жалуется.
Всем привет!
Есть интернет-магазин на Вордпресс. В robots указано Disallow: /?
В индексе поисковиков появилось много дублей категорий товаров и самих товаров следующего формата:
domain.ru/tovar/?add_to_wishlist=[цифры]
domain.ru/category/?filter_razmer=[перечисление размеров]
Правильно ли будет заменить Disallow: /? на Disallow: /?* и стоит ли убирать дубли вручную в Вебмастере?
Не правильно, потому что "Disallow: /?" и "Disallow: /?*" означает ровно одно и то же😊
Нужно дополнительно добавить запись:
Она запретит индексирование вообще любых страниц, в пути которых есть "?".
Добавьте в файл функций вашей темы:
Проверьте конечно.
Можно вообще все гет отправить ноиндекс.
эх оптимизаторы самого главного не заметили - неправильное правило
конечно, url не закрыты от индексации. поскольку верное правило Disallow: */?
ваши url лежат не в корне домена, а на втором уровне.
и да гугл очень часто игнорит роботс, но такой мусор чаще выкидывает. для надежности использовать nofollow, noindex.