- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вобщем есть такая проблема - Яндекс съел дубли страниц, пытаюсь теперь от них избавиться через роботс.
www.site.ru/?book=23&book_id=12 - оригинал, который должен быть в индексе
www.site.ru/?book=23&book_cat=2&book_theme=2&book_id=12 - дубль предыдущей страницы, от которого нужно избавиться.
Кто знает, как убить данные дубли по маске, скажем, &book_cat=.
Не могу понять, как закрыть дубль (?book=23&book_cat=2&book_theme=2&book_id=12) через роботс, чтобы главная страница ?book=23 индексировалась и соответственно весь контент на ней ?book=23&book_id=12 тоже.
Буду благодарен за помощь, быть может, кто-то сталкивался с подобным.
SE03, а тут читали?
SE03, а тут читали?
Да, конечно, весь день ломаю голову в хэлпе Яндекса.
Честно сказать, так и не понял, что в моем случае подойдет лучше всего, да и возможно ли так закрыть, как мне нужно.
Ведь по сути мне нужно избавиться от такого дубля:
?book=23&book_cat=2&book_theme=2&book_id=12 по маске &book_cat=
Но как именно это осуществить без урона для индексации страниц book=23, book=24 и всего контента на них - ?book=23&book_id=12, ?book=23&book_id=123, - так и не понял.
Допустим у вас интернет магазин радиоуправляемых моделей, есть раздел Радиоуправляемые вертолеты, в разделе 50 товаров. Товары в разделе можно сортировать по цене и по популярности. Для сортировки к url страницы добавляется параметр order (www.site.ru/catalog.php?cat=01&order=price/best). Так как товар на страницах /catalog.php?cat=01, /catalog.php?cat=01&order=price и /catalog.php?cat=01&order=best фактически один и тот же, только расположен в разном порядке, чтобы не смущать поисковые системы можно в robots.txt добавить строки:
Disallow:
Clean-param: order
Это позволит исключить из индекса страницы catalog.php?cat=01&order=price и /catalog.php?cat=01&order=best.
Но данное решение никак не подходит вам, потому как вам нужно сообщить поисковым системам, что тех или иных страниц на сайте не существует, для этого лучше всего воспользоваться .htaccess файлом.
Redirect 301 /?book=23&book_cat=2&book_theme=2&book_id=12 www.site.ru/?book=23&book_id=12
301й редирект скажет поисковым системам, что старой страницы не существует и что её контент находиться по новому адресу, адрес старой страницы будет удален из индекса.
Для большого числа страниц можно составить регулярное выражение.
bigton, спасибо за развернутый ответ. только мне немного непонятен один момент
1. Если параметр
Disallow:
Clean-param: order
исключает все страницы из индекса по маске 'order', то по идее и я могу закрыть от индексации свои страницы по маске 'book_cat', если я правильно понял.
Вот, то что я в принципе хотел сказать.
Мне кажется в данном случае решение через robots.txt немного не корректным, потому как дословно:
В вашем же случае старые страницы получили новые адреса и об этом нужно сообщить Яндексу, сделать это нужно с помощью 301 редиректа, это позволит сохранить вес страниц.
Дело в том, что у меня страницы и дубли проиндексировало одновременно.
получается проблема только в распределении веса страницы? Если так, то мне легче закрыть через Clean-param, чтобы не мучаться с htaccess.
ПС bigton, последний вопрос к вам - если я сделаю все наиболее просто , т.е. через Clean-param, то дубли перестанут индексироваться Яндексом по маске? Т.е., если отбросить такие факторы как вес и т.д. и оставить один главный - индексация и запрет, то самым простым способом в моем случае будет:
User-agent: *
Disallow:
Clean-param: book_cat
Clean-param: book_theme
ПС bigton, последний вопрос к вам - если я сделаю все наиболее просто , т.е. через Clean-param, то дубли перестанут индексироваться Яндексом по маске? Т.е., если отбросить такие факторы как вес и т.д. и оставить один главный - индексация и запрет, то самым простым способом в моем случае будет:
User-agent: *
Disallow:
Clean-param: book_cat
Clean-param: book_theme
В таком случае вам надо сделать как сказал koras:
User-agent: *
Disallow:
Clean-param: book_cat&book_theme /
Но повторюсь, считаю для решения поставленной задачи использовать robots.txt не корректно (вдруг у пользователя где-то в закладках сохранен старый адрес страницы...).