- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Disallow: /*?&size=
Disallow: /*?&sort=
И проверь тут https://webmaster.yandex.ru/robots.xml впиши список url и посмотри правильно или нет и подредактируй если понадобится
Disallow: /*?&size=
Disallow: /*?&sort=
И проверь тут https://webmaster.yandex.ru/robots.xml впиши список url и посмотри правильно или нет и подредактируй если понадобится
Спасибо, запретил, но все равно ?sort=desc&size=20 - открыт к индексации, если применяешь сразу два фильтра.
Может?:
Disallow: /*?size=
Disallow: /*?sort=
Попробуй добавить строчку
Disallow: /*?sort=desc&size=
Добрый день!
Запретил в robots.txt дубли страниц директивой:
Disallow: /*?PAGE
Но теперь не индексируется форум с комментариями и отзывами о товаре:
мой сайт/forum-review.php
мой сайт/forum-review.php?PAGE_NAME=list&FID=1 (темы)
мой сайт/forum-review.php?PAGE_NAME=read&FID=1&TID=5&TITLE_SEO=5-(наименование товара)
Как исправить ситуацию? Что прописать в robots.txt для индексации форума?
Allow: /forum-review.php?
Помогите пожалуйста кто-то разобраться с этой ситуацией
Реально очень много дублей и скрыть не удается
/bukety-iz-roz/korallovyye-rozy.html?___from_store=ru&___store=ua&dir=asc&limit=15&order=color
/bukety-iz-roz/korallovyye-rozy.html?___from_store=ru&___store=ua&dir=asc&limit=30&order=color
/bukety-iz-roz/korallovyye-rozy.html?___from_store=ru&___store=ua&dir=asc&limit=30&order=name
/bukety-iz-roz/korallovyye-rozy.html?___from_store=ru&___store=ua&dir=asc&limit=45&order=color
/bukety-iz-roz/korallovyye-rozy.html?___from_store=ru&___store=ua&dir=asc&limit=45&order=name
Параметры URL https://support.google.com/webmasters/answer/6080548?hl=ru
Подскажите в чем ошибка. Буду очень благодарен.
Спасибо заранее.
Насколько я знаю как не закрывай в роботсах - все равно будет висеть в дополнительном поиске.
Попробуйте в роботсах оставить открытыми, а на таких страницах прописать ноуиндекс/ноуфоллоу
зачем его блокировать гугл плохо к этому отнесётся
А это почему? Дубли то по умолчанию мусор для поиска
Disallow: /*.html?*?___from_store=ru=
Disallow: /*.html?*?___from_store=ua=
По поводу ? возможно не уверен
можете ещё добавить мета тег noindex nofollow
как вариант.. чтоб быстрее выкинуло