- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
А почему бы не запретить всех роботов, кроме Яндекса и Гугла в robots.txt? Какой в этом минус? Ну и всяким mailru, если кому-то это надо...
Почему не превратить robots.txt в белый список, перечисляя тех, кому можно, а остальным Disallow?
почему бы не запретить всех роботов, кроме Яндекса и Гугла в robots.txt
Потому что всем роботам плевать на robots.txt. Вроде как за 14 лет пребывания на форуме эту истину можно было усвоить.
Почему не превратить robots.txt в белый список, перечисляя тех, кому можно, а остальным Disallow
Потому, что robots - это рекомендация, а не правило.
Кто-то следует общепринятым рекомендациям, а кто-то - другие боты - плевали на эту рекомендацию.
Почему не превратить robots.txt в белый список, перечисляя тех, кому можно, а остальным Disallow?
Потому что роботс ничего физическм не запрещает, это рекомендация, которую можно игнорировать.
Потому что всем роботам плевать на robots.txt. Вроде как за 14 лет пребывания на форуме эту истину можно было усвоить.
Истину, которую необходимо давно усвоить, что это даже не рекомендация, а всеобщее заблуждение на серче.
Прописали в роботс и все успокоились
- Яндекс и обходит, и индексирует, и выкидывает основные страницы, ставя дубли в поиск. Потом исправляется, ой рекомендации увидел, но основная страница, была в топ ...улетела за сотню. Это одна из причин вылета из топа страниц
- Закрыли в роботс, и успокоились, а потом начинается ...почему у меня плохо индекструется. У вас дублей страниц больше, чес основных. И как всегда, ой да это не влияет, у меня каноникал стоит. Это тоже рекомендация.
Ну и основное в ваших каноникал и роботс, это бюджет ПС, которого вам потом не хватает, и вследствии чего ( плюс дубли) - одна из причин МПК (основная)
А почему бы не запретить всех роботов, кроме Яндекса и Гугла в robots.txt? Какой в этом минус? Ну и всяким mailru, если кому-то это надо...
Почему не превратить robots.txt в белый список, перечисляя тех, кому можно, а остальным Disallow?
Потому что в robots.txt указываются инструкции для поисковых роботов.
К паразитному бот трафику (если именно он вам беспокоит) этот служебный файл не имеет никакого отношения.
Почему не превратить robots.txt в белый список, перечисляя тех, кому можно, а остальным Disallow?
Формально в директиве User-agent вы можете запретить индексацию любым поисковым роботам, но:
а) только поисковым
б) это лишь рекомендация, которая может быть поисковым ботом проигнорирована
Потому что в robots.txt указываются инструкции для поисковых роботов.
К паразитному бот трафику этот служебный файл не имеет никакого отношения.
Давайте детализирую.
Никто не говорит, что все боты сразу сбегут. Но есть те, которые слушаются, однако, на сайте не нужны.
Вопрос, наверное, больше к тем, кто пробовал или видит очевидную причину так не делать.
User-agent: Yandex
User-agent: Googlebot
Allow: /
User-agent: *
Disallow: /
Вопрос, наверное, больше к тем, кто пробовал или видит очевидную причину так не делать.
Вопрос в том, какую конкретно задачу вы решаете.
Избавить сайт от всех ботов вы всё равно не сможете, часть из них будет игнорировать правило User-agent: *, Disallow: /
Вы конечно можете взять известный перечень имён поисковых ботов, например, здесь и запретить их через User-agent, но никакой особой погоды это для вас не сделает.
Блокировка ботов посредством файла .htaccess
Вы это имели ввиду?
Из 100к "Unique Visitors" вот столько попадает в перечень этих правил:
От всех ботов, как и говорил, понимаю, что не избавлю.
Но, например, от тех, кто доку к httrack не читал - избавлю. Кроме того, журналы на случай разбора полетов с ботами будут почище. Если бот лезет поперек правил - это плохой, негодный бот.
Всякие Semrush, даже Мылру и Bing, которые сканят все мои страницы, но приводят меньше 10 пользователей в месяц, зато могут быть источником каких-то совсем ненужных мне исследований сайта или выбора его для парсинга...