robots.txt для Яндекса

12
VK
На сайте с 30.01.2009
Offline
12
928

Привет всем.

Нужно запретить яндексу заходить на такую страницу /ssilki.php?rz=9

Правильно ли выглядит текст файла robots.txt

User-agent: Yandex

Disallow: /ssilki.php?rz=9 #

И если для гугла это нужно то тогда так правильно

User-agent: Google

Dissalow: /ssilki.php?rz=9 #

Цахес
На сайте с 15.03.2007
Offline
205
#1
Viorel Kurnosov:
Правильно ли выглядит текст файла robots.txt

Правильно.

Можно без "решётки" в конце правила. Символ '#' предназначен для описания комментариев. Если их не будет, то и символ ни к чему.

- Хорошие и плохие тексты для ваших сайтов (http://www.textsale.ru/team57397.html). - Удаленная работа. Вакансия копирайтера/рерайтера. (http://advego.ru/6myq8sgvKk) - Быстрое составление семантического ядра (https://topvisor.ru/?inv=39380).
VK
На сайте с 30.01.2009
Offline
12
#2

спасибо я понял.

а можно размещать в одном документе тхт сразу для двух поисковиков для гугла и для яндекса например или для каждого нужно создавать отдельные файлы и писать в каждом файле конкретно для каждого поисковика

angr
На сайте с 11.05.2006
Offline
413
#3
Viorel Kurnosov:
а можно размещать в одном документе тхт сразу для двух поисковиков для гугла и для яндекса

можно......

Требуется СЕО-Специалист в Кишиневе, в офис. ()
Алексей Барыкин
На сайте с 04.02.2008
Offline
272
#4
Viorel Kurnosov:
спасибо я понял.
а можно размещать в одном документе тхт сразу для двух поисковиков для гугла и для яндекса например или для каждого нужно создавать отдельные файлы и писать в каждом файле конкретно для каждого поисковика

Для Яши и Гоши


User-agent: Yandex
Disallow: /ssilki.php?rz=9 #

User-agent: Google
Dissalow: /ssilki.php?rz=9 #

Вообще для всех

User-agent: *

Disallow: /ssilki.php?rz=9 #

Мануал в помощь

VK
На сайте с 30.01.2009
Offline
12
#5

Спасибо всем за помошь буду работать.

H
На сайте с 16.02.2009
Offline
86
#6

А если у меня 10 страниц открываются только с одной (Т.е. в других местах на них ссылок нет) и если я закрою эту одну, то эти 10 тоже закроются, правильно?

АвтоТун - Шины, диски, сервис (http://www.autotoon.ru)
Алексей Барыкин
На сайте с 04.02.2008
Offline
272
#7
Hisus:
А если у меня 10 страниц открываются только с одной (Т.е. в других местах на них ссылок нет) и если я закрою эту одну, то эти 10 тоже закроются, правильно?

robots.txt закрывает урлы по маске.

если "10 других" вмаску вписываются - то они "закроются"

иначе - нет.

H
На сайте с 16.02.2009
Offline
86
#8

Допустим я закрою http://www.autotoon.ru/info.html

Закроется ли при этом http://www.autotoon.ru/sh4.html на которую можно попасть только с info.html?

Алексей Барыкин
На сайте с 04.02.2008
Offline
272
#9
Hisus:
Допустим я закрою http://www.autotoon.ru/info.html
Закроется ли при этом http://www.autotoon.ru/sh4.html на которую можно попасть только с info.html?

Нет. C чего вдруг?

DyaDya
На сайте с 11.04.2007
Offline
147
#10
Hisus:
Допустим я закрою http://www.autotoon.ru/info.html
Закроется ли при этом http://www.autotoon.ru/sh4.html на которую можно попасть только с info.html?

Нет. По крайней мере запрета на её индексацию не будет. И если где-то поисковики найдут на неё ссылку, то проиндексируют. Если ещё не проиндексировали.

Выбирайте качественный хостинг (http://vashmaster.ru/informaciya/o_poleznyh_programmah/news83.php) и продвигайте сайты в СЕОПУЛЬТ (http://seopult.ru/ref.php?ref=72b5ed9561fe66a1). А на «SAPE» я в обиде :) Не упрекайте за очепятки, пишу вслепую (http://ergosolo.ru/) и также делаю сайты (http://www.vashmaster.ru/) ;)
12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий