Просто вы гуманитарий. Ничего личного, но вы не можете себе сопоставить вычислительные затраты, выдавая как вариант "попроще" достаточно сложно реализуемые алгоритмы :)
Вот, допустим, "мигание". Яндекс переиндексирует некоторые сайты по полгода. А мигание, значит, видит? :)
Количество исходящих из той же области.
Посчитать же "url" в списке запросов - один счетчик поставить и всё.
Поисковики всегда идут легким путем, т.к. вынуждены экономить ресурсы.
Немогут, немогут, успокойтесь. Видимо, про белые каталоги информацию вы не восприняли.
Ну это вообще ололо :) На месте Людкевича, я бы сгорел от стыда за вброс такой версии :)
Давайте-ка полегче!
Ибо ерунду пишите вы: " он прекрасно и без этого знает, какие сайты продают ссылки ". Откуда знает? Телепатия? У знаний должен быть источник.
Информация вам для размышления: т.н. "белые каталоги" очень мало пострадали от АГС-40.
Какой ещё "любой желающий"? Вы хотя бы одного знаете, кто так делал? В течение месяца, например, крутил конкурента по служебным запросам? До АГС-40 такое никому и в голову не приходило.---------- Добавлено 28.11.2013 в 23:42 ----------
Так и есть! Вопрос в том, что есть "наличие на сайте исходящих ссылок". Годная версия - выше.
То, что это единственный фактор, никто и не утверждал.
Ну тогда ничего интересного. Кто не продавал, тот и не пострадал, за исключением сайтов с явными ошибками, это и так понятно.
Кстати, это всё подтверждает факт, что яндексоиды-таки смотрят url-запросы, которых нет по обычным внешним ссылкам. Так биржи и палят.
Всё-таки, чудеса, что у вас ни один из сайтов не порезало :) Яндекс в этот раз был достаточно безжалостен, даже к тем, кто сидел 100500 лет в Яндекс.Каталоге.
Вероятно, всё-таки вы продали не так много ссылок, был хороший контент и хорошие внешние ссылки. Что и позволило остаться в "белой зоне".
Вообще-то это одна из разумных мыслей, которые здесь прозвучали.
Вы себе представляете, как работает поисковая система? Спарсить биржи - НЕ ПРОЩЕ! Это надо кого-то нанимать,чтобы он постоянно парсил, а там то формат изменится, то глюки, потом ещё эти данные загрузить как-то надо, какие-то сайты в бирже номинально, а общее количество ссылок не показывают, каждый день появляются новые биржи и т.п. Представляете, сколько проблем?
Данные же по запросам УЖЕ ЕСТЬ в системе. Их не надо ниоткуда парсить, не надо никуда загружать.
Если бы я программировал антиспам, определенно взял бы эти данные а не какую-то "спарсенную базу".
;)
Лучше биржам при проверке ссылок отказаться от этих многочисленных url, link и пр. Есть ведь альтернативы. ---------- Добавлено 28.11.2013 в 21:18 ---------- 87793, понятно, спасибо!
Вероятно, у вас пограничные значения, судя по описанию. Ссылки продавали, но и сайты обновляли пропорционально.
Микроразметка - хороший вариант.
Логично, что заявки сортируются по параметрам сайта.
Как-то надо объяснить яндексоидам, что это харакристика не "полезного сайта", а портала какого-нибудь, социалок и т.п.
Часто достаточно 10 секунд, чтобы получить полезную информацию. А дурацкий сайт приходится изучать дольше.
В общем опять роботы оценивают СДЛьность :)---------- Добавлено 28.11.2013 в 19:55 ----------
Уже обсуждалось. Разумно.
И именно поэтому и рулит посещалка с Я. Т.к. она разбавляет запросы, по которым сайт в топе.---------- Добавлено 28.11.2013 в 19:57 ----------
А вы пробовали? Думаю, так вполне можно загнать под АГC слабого конкурента с открытыми внешними ссылками (на форуме, например).