- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Такая ситуация, есть сайт, гугл налетает и начинает его индексировать.
По жесткому, мне нужно что бы он как то менее напористо индексировал сайт.
Т.е. можно как то на время закрывать от бота гугла сайт без потери позиций.
Т.е. какой то траф с гугла есть.
И я его потерять не хочу.
Но и гуглу когда он захочет ползать по сайту не хочу давать.
nofollow на страницы. можно конечно в роботс закрыть то что не надо или crawl-delay, но скорее всего роботс будет проигнорирован
Такая ситуация, есть сайт, гугл налетает и начинает его индексировать.
По жесткому, мне нужно что бы он как то менее напористо индексировал сайт.
Т.е. можно как то на время закрывать от бота гугла сайт без потери позиций.
Т.е. какой то траф с гугла есть.
И я его потерять не хочу.
Но и гуглу когда он захочет ползать по сайту не хочу давать.
По опыту могу сказать, что гуглбот жутко наглый, т.е. все что закрыто в роботсе или через метатеги, он все равно скачивает к себе и даже анализирует, но только не засовывает в индекс.
У Вас задача в том, чтобы бот сервер не нагружал? Или в том, чтобы в индекс не попадал материал, которые он скачает?
нужно что бы он как то менее напористо индексировал сайт
Вы первый, кого я встретил с таким запросом, то есть многие заказывают прогоны по трастовым площадкам, чтобы боты пс быстрее индексировали странички.
По сути, считаю что боты сами решают когда и сколько раз посещать ресурс, что индексировать и что выдавать в результаты поиска.
В целом, если ваш сайт имеет пополнение контентом и он для бота пс является хорошим (кол-во ссылающихся линков, поведенческие факторы, соц факторы и другое), то он по своей воле будет посещать ресурс и искать новое на нём.
Если хотите сократить количество страниц, ежедневно попадающих в выдачу, то сократите кол-во создаваемых страниц.
Если у вас ситуация имеет иное положение - опишите её.
Ну суть в том, что он начинает очень быстро все индексировать, страничек много, что то типа поисковика.
И через несколько дней, походу после быстрого скачка трафика, сайт банится.
Я хотел попробовать как то снизить скорость роста трафика или открывать этот доступ по своему усмотрению.
Ну суть в том, что он начинает очень быстро все индексировать, страничек много, что то типа поисковика.
И через несколько дней, походу после быстрого скачка трафика, сайт банится.
Я хотел попробовать как то снизить скорость роста трафика или открывать этот доступ по своему усмотрению.
Я правильно понимаю у Вас контент не уникальный (копипаст)?
Просьба уточнить, что Вы имеете ввиду под "сайт банится"?
Мне нужно что бы бот не ползал и не индексировал ничего, соответственно не банил итд
---------- Добавлено 26.09.2014 в 19:31 ----------
Ну да, не уник
---------- Добавлено 26.09.2014 в 19:32 ----------
Но раньше, пару месяцев назад вроде сайты держались в индексе, а счас чет больше трех дней после роста трафа банятся
Мне нужно что бы бот не ползал и не индексировал ничего, соответственно не банил итд
---------- Добавлено 26.09.2014 в 19:31 ----------
Ну да, не уник
---------- Добавлено 26.09.2014 в 19:32 ----------
Но раньше, пару месяцев назад вроде сайты держались в индексе, а счас чет больше трех дней после роста трафа банятся
гуглбот все равно будет лазить и скачивать и анализировать даже если запретить это.
Запрет означает лишь только то, что не попадет в индекс.
Он находит у Вас куча не уникального текста, сайт не трастовый и "кукуприехали".
Как вариант - в коде движка определять что зашел гугл бот и давать ему кастарированный контент, т.е. давать скачать только, например, 10 страничек, а на остальные не давать ссылок с этих 10 страничек.
А если ему задать частоту посещения сайта, он послушает?
кроу дилай?
А если ему задать частоту посещения сайта, он послушает?
кроу дилай?
Это не тот параметр, про который Вы спрашиваете, он нужен для другого
Т.е. реальной возможности полностью закрыть боту доступ нет? ОН в любом случае будет ползать и банить сайты?