- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вопрос такой: Если сайт забанили в Яндексе (например за спам), что происходит технически. Физически удаляется сайт из базы или работает какой-либо фильтр на выдаче результатов запроса?
Ходит ли робот на этот сайт?
На конференции спрашивал у Ильи об этом. Он честно :) сказал что не помнит (или не знает).
У кого какие будут мнения на этот счет.
Так это он на конференции не помнил. А сейчас уже было время в шпаргалку посмотреть. Нехай отвечает.
Физически удаляется сайт из базы или работает какой-либо фильтр на выдаче результатов запроса? Ходит ли робот на этот сайт?
А зачем хранить мусор? Возможно, исключение можно сделать для очень больших сайтов, которые сложно проиндексировать повторно, но такие сайты сами, как правило, не балуются спамом. Поэтому вполне логичное решение -- удалить сайт из базы и запретить роботу ходить на него. Как устроено в Яндексе на самом деле, ответить может Илья.
С уважением,
Александр Садовский.
Фильтр - это иерархия запрещенных и разрешенных вершин. Например *.com - запрещен по умолчанию, а www.spylog.com (скажем) разрешен.
Бан спама до сих пор делалася физическим занесением в этот самый фильтр.
С какой скоростью (точнее на какой фазе) происходит удаление существующих URL-ей, если они не проходят через фильтр, я точно не знаю. Но то, что к следующему выкладыванию их в поиске не бывает - это точно. Естетсвенно из индекса они при этом вычищаются.