- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день.
Подскажите, как спрятать наличие файла robots.txt от посторонних глаз, но оставить видимым поисковикам?
Подозреваю, что сделано через .htaccess
Обнаружил такое при посещении сайта: через rds bar файл robots не видно, а если в google посмотреть страницы, то там пишет на некоторые что описание закрыто правилом robots.txt
Хотя могу ошибиться, и прячут другими способами.
Спасибо откликнувшимся.
ну да,что-то типа
А в чем глубокий смысл прятать роботс?
Фильтровать по юзер-агенту. Только что видно ботам, разве не проверяться по айпи-адресу, можно получить и из под пользователя.
Там еще используется мета-тег robots
Хотя да, доступ к роботсу стоит по юзер-агенту
И после этого не забудьте в нём написать
Disallow: /robots.txt # дабы злоумышленники его не нашли через поисковик. Или как-то кроме мета-тега можно ссылку на кэш запретить?
Disallow: /robots.txt # дабы злоумышленники его не нашли через поисковик.
Тут же роботс итак доступен. А вот на указаном ТСе сайте его нет. Откуда
а если в google посмотреть страницы, то там пишет на некоторые что описание закрыто правилом robots.txt
??
И вообще речь же о клоакинге. Или я чего не понимаю?
А в чем глубокий смысл прятать роботс?
Не давать сторонним лицам названия закрытых папок и файлов. По крайней мере, затруднить слегка доступ к их списку.
---------- Добавлено 26.04.2013 в 21:37 ----------
И вообще речь же о клоакинге.
Нет, конечно. Поьзователь не видит и не должен видеть роботс.тхт
Поьзователь не видит и не должен видеть роботс.тхт
???
ПС видят (и должны видеть!) только то, что видят пользователи. Ну те. доступность в таком же виде. Иначе - клоакинг. Не?
Не давать сторонним лицам названия закрытых папок и файлов.
6666, а зачем их палить в роботсе если они закрытые? По нормальному если это закрытые папки, то они действительно должны быть закрытыми, а не ваять вот такие костыли. Ведь даже с запретом гугл не гарантирует их не индексацию.
ПС видят (и должны видеть!) только то, что видят пользователи.
Пользователям нефиг смотреть роботс.тхт, это не содержимое сайта а директива для роботов. :)
6666, а зачем их палить в роботсе если они закрытые? По нормальному если это закрытые папки, то они действительно должны быть закрытыми, а не ваять вот такие костыли
Еще раз: К примеру, я старался, прятал папку wp-admin, переименовал в admin-wp
Дальше самый простой парсер обходит нужные сайты, просто читает роботсы. Ага. Нужная папка - называется так-то. А еще лучше конкретный файл. Типа ага, закрыли от индексации файл supersecretlogin.php вот нам его и надо..
Палили же тему недавно :) Роботс никто никогда не прячет, поэтому его и парсят.
---------- Добавлено 26.04.2013 в 22:38 ----------
Ведь даже с запретом гугл не гарантирует их не индексацию.
Парсят напрямую, не через Гугл..
Добрый день.
Подскажите, как спрятать наличие файла robots.txt от посторонних глаз, но оставить видимым поисковикам?
Подозреваю, что сделано через .htaccess
Обнаружил такое при посещении сайта: через rds bar файл robots не видно, а если в google посмотреть страницы, то там пишет на некоторые что описание закрыто правилом robots.txt
Хотя могу ошибиться, и прячут другими способами.
Спасибо откликнувшимся.
вот их роботс
User-agent: *
Disallow: /cms/
Disallow: /search/
Disallow: /img/number.png
Disallow: /partnership/
Disallow: /make-harm-to-people/
Disallow: */?utm_source*
Host: www.smart-center.ru
Sitemap: http://www.smart-center.ru/sitemap.xml
/make-harm-to-people/
Даж страшно стало :)
tracker111, ну так расскажите, как посмотрели?