- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
есть вот допустим url - http://site.com/slon и есть дубль http://site.com/slon123
Подскажите, пожалуйста, как правильно закрыть /slon123 в robots, чтоб ничего лишнего не зацепить?
Спасибо.
User-agent: *
Disallow: /slon123/
User-agent: *
Disallow: /slon123$
или
User-agent: *
Disallow: /slon123
Имхо, такое правило не закроет от индексации /slon123
даже поточнее вот:
http://site.com/slon?view=123
так же встречается на других страницах это ?view=123 :
http://site.com/?view=123
http://site.com/uslugi?view=123
http://site.com/contacts?view=123
То есть, как мне закрыть именно вот эти ?view=123, чтоб с /uslugi
/contacts и тд все норм было?
dimazu, можете так:
User-agent: *
Disallow: /?view=123$
есть вот допустим url - http://site.com/slon и есть дубль http://site.com/slon123
Подскажите, пожалуйста, как правильно закрыть /slon123 в robots, чтоб ничего лишнего не зацепить?
Спасибо.
Если без дубля никак не обойтись, тогда возможно лучше использовать 301 редирект в htaccess ?
User-agent: *
Disallow: /slon123$
или
User-agent: *
Disallow: /slon123
Имхо, такое правило не закроет от индексации /slon123
Со слешем на конце мы даём понять ПС что это папка а не файл. И если ТС-у нужно закрыть папку то моё решение правильное.
P.S. Вот для примера http://www.google.ru/robots.txt
Со слешем на конце мы даём понять ПС что это папка а не файл.
Kurkov.ORG, не надо пытаться усложнить простую вещь, от этого она перестанет работать.
ТС совершенно ясно написал адрес без всякого слеша на конце:
есть дубль http://site.com/slon123
Поэтому ваша директива
Disallow: /slon123/
не запрещает индексацию этого урла. Папка-не папка, ничего про это в стандарте не написано.
The value of this field specifies a partial URL that is not to be visited. This can be a full path, or a partial path; any URL that starts with this value will not be retrieved.
/slon123/ - не является частью урла http://site.com/slon123 , хоть убейтесь.
Штудируйте первоисточники, они рулят.
Всем спасибо.
Kost, так как мне избавиться от этих дублей с ?view=123
ваше мнение интересно.
не запрещает индексацию этого урла.
Чушь несёте. Ещё как запрещает. Посмотрите сами http://webmaster.yandex.ru/robots.xml
Не, не запрещает