- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сразу оговорюсь, форум на предмет SetEnvIf порыл, нашел только одну похожую тему, но ответ, предложенный там, смутил. В гугле я находил несколько иной формат записи, правда без конкретных примеров.
Передо мной стала задача закрыть доступ на сайт заказчика для всех, кроме поисковых ботов (Сейчас как раз идёт АП, и есть надежда, что Яша таки проиндексирует сайт, который не так давно продвигался и регистрировался по каталогам).
В итоге родилась следующая запись в htaccess:
SetEnvIf Request_URI ^/forbidden\.html$ allowed
SetEnvIf User-Agent "^Yandex"$ allowed
SetEnvIf User-Agent "googlebot"$ allowed
<Limit GET PUT POST>
order deny,allow
deny from all
Allow from Моя_Айпишка
Allow from env=allowed
</Limit>
Так вот, вопрос к знающим:
Меня на сайт пускает, но насколько я могу быть уверенным, что также пустит поисковых ботов? правильный ли у меня синтаксис? Если не правильный, то какой правильный?
SetEnvIf User-Agent "Googlebot"$ allowed
Для проверки можно использовать FireFox + User Agent Switcher
http://chrispederick.com/work/user-agent-switcher/
Shtogrin, спасибо за поправку. Скачал плагин к FireFox. IP свой отключил из списка разрешенных. Добавил Юзер-агента Яндекса и гугла. Под ними пускает. Значит теоретически работает!
Значит теоретически работает!
Почему теоретически? Должно работать. Так как дело серьезное (роботов контролировать), для полной уверенности посмотреть еще логи в течении дня.