- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день!
Подключаю внешний сервис в виде установки js кода на сайт. Проблема в том, что в идеале его нужно поставить на все страницы. Закрыть от индексации обычным способом не получается.
Пришла в голову такая мысль - а что, если сделать <?php include('js_kod.php'); ?>
Далее, добавляем этот js не в "саму страницу", а в файлик js_kod.php
И запрещаем его следующим образом:
--------------------------------------------------------
SetEnvIfNoCase User-Agent "^Yandex" search_bot
SetEnvIfNoCase User-Agent "^Yahoo" search_bot
SetEnvIfNoCase User-Agent "^Googlebot" search_bot
SetEnvIfNoCase User-Agent "^Aport" search_bot
SetEnvIfNoCase User-Agent "^msnbot" search_bot
SetEnvIfNoCase User-Agent "^spider" search_bot
SetEnvIfNoCase User-Agent "^Robot" search_bot
SetEnvIfNoCase User-Agent "^php" search_bot
SetEnvIfNoCase User-Agent "^Mail" search_bot
SetEnvIfNoCase User-Agent "^bot" search_bot
SetEnvIfNoCase User-Agent "^igdeSpyder" search_bot
SetEnvIfNoCase User-Agent "^Snapbot" search_bot
SetEnvIfNoCase User-Agent "^WordPress" search_bot
SetEnvIfNoCase User-Agent "^BlogPulseLive" search_bot
SetEnvIfNoCase User-Agent "^Parser" search_bot
<FilesMatch "^.*js_kod\.php$">
Order Allow,Deny
Allow from all
Deny from env=search_bot
</FilesMatch>
--------------------------------------------------------
Как думаете, сработает?
И еще вопрос, не обидятся ли поисковики?
Проблема в том, что в идеале его нужно поставить на все страницы. Закрыть от индексации обычным способом не получается.
Далее, добавляем этот js не в "саму страницу", а в файлик js_kod.php
Так в итоге что? Будет оно на всех страницах, или только на одной?
Странный немного способ, надо тестировать ... а чем тебя не устраивает просто подключить JS код в виде JS файла?
Кстати, да! Насчет подключить js отдельным файлом - хороший совет. Спасибо!
А вот с точки зрения правильности и работоспособности кода .htaccess у меня серьезные опасения. Увы.
---------- Добавлено 19.11.2013 в 11:56 ----------
Так в итоге что? Будет оно на всех страницах, или только на одной?
Нужно на всех.
На одной я и так уже закрыл через robots и продублировал в заголовке:
<meta name="robots" content="noindex"/>
<meta name="robots" content="nofollow"/>
И все ссылки на эту страницу сделал следующего вида:
<a href="url" rel="nofollow">текст ссылки</a>
Можно было к тому же эти ссылки в <!--noindex--> <!--/noindex--> спрятать от Яндекса, но думаю, это уже излишество. К тому же надеюсь найти более приемлемое решение.
Код работает. Проверено. Остался последний вопрос. Какие исключения прописать и как, чтобы вместе с роботами не отсечь все браузеры от Яндекс, Mail.ru и подобные...
Поиск молчит, Википедия тоже... http://ru.wikipedia.org/wiki/User_Agent
Как они представляются то вообще?
Yandex user agent, Google user agent и так далее
mail browser user agent, chrome user agent и тоже так далее
Смотрим. Сравниваем. Пишем.
Как думаете, сработает?
Нет.
Ну т.е. сам файл "js_kod.php" не проиндексится, но ту же его инклудишь в страницу, которая уже будет индексится.
чтобы вместе с роботами не отсечь все браузеры от Яндекс, Mail.ru и подобные...
Надеяться на ЮА роботов может стать очень дорого. Они ходят и "обычными юзерама", а за клоаку можно отгрести по полной.
Вообще тему "закрыть часть контента от ПС" неоднократно обсасывали. Особенно (помниться) бурундук с богоносцем показывали решения. Стоит поискать в этом и сеошных разделах.
Работает так, как предложил md5by - при вынесении кода в отдельный js файл и закрытии именно этого файла. C инклюдом .php - глупо, согласен.
Ходят "обычными юзерами" - это как? Имеется ввиду - счетчиками на всяческих барах? Или сам поисковый робот маскируется?
---------- Добавлено 19.11.2013 в 21:57 ----------
P.S. Ищу тему, спасибо за наводку.
Ходят "обычными юзерами" - это как? Имеется ввиду - счетчиками на всяческих барах? Или сам поисковый робот маскируется?
Ну последнее - это точно. Что им стоит подставить ЮА
вместо
В итоге решил не рисковать - с одной стороны, действительно, метод закрытия через htaccess не стоит применять против поисковых систем, разве что против различных парсеров, чтобы не перегружали проект.
С другой - поисковые системы растут не по дням, а по часам, и методы, которые работают сейчас, могут запросто дать сбой уже завтра и все попадет в индекс со всеми последствиями.
Остановился на варианте одной "специально обученной" и закрытой наглухо от индексирования странице. Лучше уж медленнее, но верно, чем быстро, но в бан.
SeVlad, спасибо за предостережение.