- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Просматривая интересные и продвинутые в позициях сайты уже не раз вижу уникальную картину: в robots.txt сайт полностью запрещен для ботов, а в индексе поисковиков все странички присутствуют, есть ТИЦ и ПР нехилый...
Вот для примера сайт одного сеошника:
Сайт: http://seoprofy.net/
ТИЦ: 40
ПР: 3
Индекс Яшки: 694
Индекс Гошки: 733
Содержимое robots.txt (http://seoprofy.net/robots.txt):
User-agent: *
Disallow:
Получается:
1) на странички очень много ссылок снаружи и ПС просто в таком случае игнорит robots.txt
2) человеку лень возится с тем что индексить а что нет, он попросту влепил эту конструкцию, а такие конструкции(запрет всего) ПС игнорят.
3) какая-то супер-пупер секретная тема...
Проясните, пожалуйста, ситуацию если кто знает.... :)
Всего один символ после написанного запретит индексировать всё содержимое сайта: / (слеш). А как сейчас — всё ОК.
robots.txt сайт полностью запрещен для ботов
...
Сайт: http://seoprofy.net/
User-agent: *
Disallow:
Получается:
...
3) какая-то супер-пупер секретная тема...
угу, суперсекрет :)
Палю его: учим роботс.тхт. Хотя бы тут:
Отсутствие параметров у директивы трактуется следующим образом:
User-agent: Yandex
Disallow: # то же, что и Allow: /
В крайнем случае проверяем индексацию страниц
Спасибо, SeVlad, оказывается я не достаточно внимательно читал доки
http://help.yandex.ua/webmaster/?id=1115958
User-agent: Yandex
Disallow: # те саме, що й Allow: /
Вопрос закрыт! :)