Закрытие страниц в robots.txt

Pavelcreative
На сайте с 17.05.2007
Offline
96
880

Коллеги,

правильно будет прописать в robots.txt:

Disallow: /*?

Disallow: /*page

Disallow: /*,

Если я хочу закрыть от индексации:

1. все страницы, которые содержат в url знак вопроса (?)

2. все страницы, которые содержать в url page?

3. все страницы, которые содержать запятую

На самом деле все намного лучше, чем Вам кажется
Sheremet
На сайте с 01.06.2012
Offline
85
#1

Часть ответов найдете тут http://help.yandex.ru/webmaster/controlling-robot/robots-txt.xml#asterisk-dollar

и еще к примеру

Чтобы удалить все файлы определенного типа (например, .gif), добавьте в файл robots.txt такую запись:

User-agent: Googlebot
Disallow: /*.gif$

Чтобы удалить динамически создаваемые страницы, добавьте в файл robots.txt такую запись:

User-agent: Googlebot
Disallow: /*?

UI/UX. Разработка крупных интернет магазинов (http://polyarix.com). Дизайн сайтов | React, Angular | WP | Laravel |HTML5 баннеры (/ru/forum/comment/15344987)
Pavelcreative
На сайте с 17.05.2007
Offline
96
#2

Sheremet, спасибо.

Вот еще подсказали, сразу можно проверить как будет работать.

Sheremet
На сайте с 01.06.2012
Offline
85
#3

информация с официальных источников, самая верная :) Добавлю ссылку в избранное.

C
На сайте с 20.03.2012
Offline
48
#4

Странные у вас страницы особенно ","

secondary
На сайте с 20.12.2012
Offline
142
#5

Доиграетесь вы с таким роботсом...

Seo аудит сайтов. Консультации. Качественная внутренняя оптимизация. (/ru/forum/803695) Полная подготовка проектов с нуля! Оптимизация готовых сайтов.
Pavelcreative
На сайте с 17.05.2007
Offline
96
#6

secondary, до чего доиграюсь?

Если есть такие страницы и надо закрывать их от индексации.

Может подскажите еще какие-то способы?

rel canonical - в данном случае не подходит (хотя используется)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий