- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
При создании сайта я обычно сразу делаю файл robots.txt и прописываю в нем:
User-agent: *
Host: site.ru
При этом я полагаю, что основным адресом сайта будет site.ru. И, соотвественно, размещаю в сети ссылки на свой сайт типа <a href="http://site.ru/">Смотри</a> . А ссылки с адресом www.site.ru вообще не использую, поскольку директиву Host понимают не все поисковики.
Вроде бы, в этой части я всё делаю правильно. Но вдруг вкралось сомнение - а правильно ли?
Да, все верно.
Все верно, вроде бы. А в чем Ваши сомнения?
А в чем Ваши сомнения?
Даже не могу объяснить... Вроде, в сети обычно адреса с префиксами www, а я как-то совсем от них ушел. Подумалось, не нарушаю ли ненароком каких-либо сетевых правил.
Сейчас занялся первым в своей жизни коммерческим сайтом, вот и провожу ревизию по всем статьям. Решил и об этом спросить, чтобы не мучиться сомнениями.
Спасибо!
Вот вам интересная статья про роботс http://www.softdevelop.ru/articles3.html
В вашем случае я бы написал так:
User-agent: *
Disallow:
Host: site.ru
Соблюдаются две основные директивы.
User-agent: *
Host: site.ru
а правильно ли?
Нет, не правильно.
Во-первых, вы написали неверно User-Agent.
Во-вторых, директива Disallow обязательно должна присутствовать.
Ну а в-третьих, раз уж вам угодно прописывать Host, учтите, что работает это только для Яндекса, остальные могут игнорировать блок. Поэтому стоит заменить * на Yandex.
В итоге получаем:
User-Agent: Yandex
Disallow:
Host: www.site.ru
В итоге получаем:
User_Agent: Yandex
Disallow:
Host: www.site.ru
С директивами ясно, а вот с хостом я теперь совсем запутался. Если мне нужно, чтобы мой сайт адресовался без префикса, как я это указал в теме, то мне надо сделать роботс таким:
User_Agent: Yandex
Disallow:
Host: site.ru
Верно?
Верно?
Верно, только не User_Agent, а User-Agent
User-Agent: Yandex
Disallow:
Host: site.ru
Верно?
Верно. User-Agent - я виноват, я опечатался, а вы успели скопировать до того как я исправил ;) Правильно - через дефис, а не через подчеркивание.
я виноват, я опечатался
Уважаю. Жаль, что зеленый шар не лезет в лузу. Примите одобрение на словах.
Подскажите, а стоит ли прописывать в роботс указанное выше?
Какие от этого плюсы и какие минусы?
Спасибо.