- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Составляю robots.txt для DataLife Engine. Посмотрите, пожалуйста:
Может быть, нужно что-то добавить? Ничего не пропустил?
Заранее благодарен.
по моему кое-что даже лишнее
Если вас не затруднит! обьясните, что делает каждая строка, очень интересно
Если вас не затруднит! обьясните, что делает каждая строка, очень интересно
Подробно про robots.txt можно прочитать, например, здесь - http://robotstxt.org.ru/ (учитесь пользоваться поиском!)
А если коротко, то суть такая: Вы описали две секции "для всех" и "для Яндекса" (причём их порядок сейчас таков, что должна сработать только первая, если верить стандартам).
В оставшейся первой секции Вы запретили поисковым роботам индексировать страницы сайта, начинающиеся на следующие строки: /backup/ /cgi-bin/ /engine/ /language/ /templates/ /user/ /admin.php /autobackup.php
Во второй секции есть две дополнительных инструкции:
Host: example.tld
и
Sitemap: http://example.tld/sitemap.xml
Про них можно подробнее прочитать у самого Яндекса - http://help.yandex.ru/webmaster/?id=996567
и http://help.yandex.ru/webmaster/?id=1007070
А если коротко, то суть такая: Вы описали две секции "для всех" и "для Яндекса" (причём их порядок сейчас таков, что должна сработать только первая, если верить стандартам).
Не совсем так, использование robots.txt Яндекс ("Использование robots.txt" п.1 http://help.yandex.ru/webmaster/?id=996567):
"В самом robots.txt проверяется наличие записей, начинающихся с 'User-agent:', в них ищутся подстроки 'Yandex', либо '*' (регистр значения не имеет), причем, если обнаружено 'User-agent: Yandex', директивы для 'User-agent: *' не учитываются. "
Так что сработают обе секции.