- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте! Прошу совета.
Есть сайт www.sitename.com
на сайте есть картинки и ссылки — переходы на CPA партнерку
переход осуществляется через субдомен api.sitename.com
(на субдомене срабатывает перенаправление на сайт партнера)
Задача - боты ПС не должны тратить силы на субдомен =)
на основном сайте все картинки и ссылки rel="nofollow"
на субдомене в роботс.тхт:
User-agent: *
Disallow: /
по логам видно, что бот гугла не ходит на субдомен,
а yandex.bot — ходит
Подскажите это нормальная ситуация? Пусть ходит, главное чтобы не индексировал?
И если неправильная, как запретить?
Спасибо!
blin3000, индексировать не должен. а ходить он все равно будет, он такой вот наглый.
Ситуация нормальная.
Запрет через <meta name="robots" content="noindex, nofollow"> надёжней, но всё равно нет 100% гарантии, что робот не сунется.
Ну или тупо фильтруйте по User-agent и отдавайте роботам 404, если любите хардкор.
Спасибо!
Большое количество 404 ведь может сильно навредить в общем? Разве не так?
Запрет через <meta name="robots" content="noindex, nofollow"> надёжней, но всё равно нет 100% гарантии, что робот не сунется.
Серьезно? Бот не сунется на страницу, у которой вот это в html прописано?)))
---------- Добавлено 28.06.2017 в 13:14 ----------
Ну или тупо фильтруйте по User-agent и отдавайте роботам 404, если любите хардкор.
А нет, не отжыг. Но смысла нет - добрые люди все равно подскажут.
Если не сложно, не могли бы вы попонятней разъяснить вашу позицию по этому вопросу, спасибо! Специально написал в ветку "для новичков" )
Ставьте куку секунд через 5 после загрузки страницы, потом на поддомене проверяйте эту куку, если она есть значит не робот, если ее нет - робот. Роботу 404 или что хотите.
по логам видно, что бот гугла не ходит на субдомен,
это вы так думаете ;)
blin3000, закрыли в роботс и забейте. Можно было бы и с этим не париться.
blin3000, закрыли в роботс и забейте. Можно было бы и с этим не париться.
там проблема что бы из индекса не выкинули за партнёрки;)
можно не переживать, рано или поздно выкинет 🤪
burunduk, это вообще не проблема, потому что выкинет:
1. Отслеживание поведения через тот же бар/браузер;
2. Добрые люди.