- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброго времени суток. Подскажите, как закрыть от публичного просмотра роботс, чтобы при вбивании он не отображался, но в тот же момент ПС его видели. (Сайт на жумле).
Заранее спасибо!
Доброго времени суток. Подскажите, как закрыть от публичного просмотра роботс, чтобы при вбивании он не отображался, но в тот же момент ПС его видели. (Сайт на жумле).
Заранее спасибо!
А зачем?...
Определить IP всех роботов, которые читают. Отображать содержимое через скрипт, предварительно определяя IP клиента. Все.
Определить IP всех роботов, которые читают. Отображать содержимое через скрипт, предварительно определяя IP клиента. Все.
:D Легкий такой вариант ... ТС, никак.
В принципе реально это сделать через .htaccess, но будет довольно гемморно...И то не полностью эфективно.. Поэтому назревает вопрос - стоит ли свеч эта игра? :)
Что там скрывать то?
Наверно ТСу кто-то по секрету сказал что через роботс можно сломать джумлу, вот он и страхуется.
ну а если допустим на сайте есть директории, которые не должны индексироваться и о которых должен знать только админ и пару человек? как эту директорию закрыть от ПС и одновременно не палить в роботс?
ну а если допустим на сайте есть директории, которые не должны индексироваться и о которых должен знать только админ и пару человек? как эту директорию закрыть от ПС и одновременно не палить в роботс?
В этом случае проще сделать ограничение доступа на уровне движка, чем заморачиваться с robotx.txt
ну а если допустим на сайте есть директории, которые не должны индексироваться и о которых должен знать только админ и пару человек? как эту директорию закрыть от ПС и одновременно не палить в роботс?
Не палить на нее ссылки и делать - "403 Доступ запрещен", если что. Если сайт нормальный, и его делает грамотный человек, то ему в robots.txt нечего скрывать, т.к. все уже должно быть защищено заранее!
отдавать роботс через php
в котором замутить клоакинг по юзерагенту с именами нужных ботов...
Всем спасибо! Реализовали этим методом... Сомневались малость, но теперь успешно сделали + роботы уже прошлись норм все!
Определить IP всех роботов, которые читают. Отображать содержимое через скрипт, предварительно определяя IP клиента. Все.