- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В JavaScripte находятся тонны реклама, скрипты, скрывающие определённые куски текста, внешние ссылки, которые могут не понравится гуглу (а скоро и яндексу), которых с недавних пор принялся лазить по .js-файлам.
С отключёным JavaScript сайт выглядит отлично. Как его отвадить и гуглобота, чтобы не лазил, где ему не нужно?
Обфускаторы? Зашифровать? Клоакинг с ip или рефером? Сложные DOM-процедуры?
Вообщем как из ГСа, обвешанного рекламой и ключевиками, сделать подобие СДЛ?
serval, вынести во внешний файл и запретить папку с файлами от индексации
serval, вынести во внешний файл и запретить папку с файлами от индексации
и что? индексируется же не папка, а страница куда инфа выводится.
Есть сервером заблокировать бота на этой папке, то соответственно и скрипт не будет выполняться, так как вместо него вернется forbidden
Обверните скрипты в noindex
Есть сервером заблокировать бота на этой папке, то соответственно и скрипт не будет выполняться, так как вместо него вернется forbidden
Это как?
Сомневаюсь, о бот послушается noindex, robots.txt
Это как?
Я не силен в настройках сервера, об апаче знаю очень малое, но в nginx например множно в location /path/to/script.js сделать проверку user-agent и если это бот гугла, то deny.
Спросите как это делается у знающих.
и что? индексируется же не папка, а страница куда инфа выводится.
так для начала js необходимо выполнить :)
Я не силен в настройках сервера, об апаче знаю очень малое, но в nginx например множно в location /path/to/script.js сделать проверку user-agent и если это бот гугла, то deny.
Весь прикол во том, что поисковики иногда поставляют в поле User-Agent идентификаторы браузеров. Создатели поисковиков ведь не самые глупые люди, правда? ;)
Есть сервером заблокировать бота на этой папке, то соответственно и скрипт не будет выполняться, так как вместо него вернется forbidden
это клоакинг :)
всё намного проще, робот не исполняет js (он же не браузер) :)
Ну это уже проблемы автора, не мои :-)
Вот кстати и задачка, как вы отличите бота от пользователя, если оба выполняют js и у них одинаковый агент?
Toy добавил 27.09.2011 в 14:05
А с чего вы взяли что поисковик не выполняет js?