Даже хорошие СДЛы с размещением в основной ленте, но с тиц10 и фиговой тематикой покупают очень слабо.
Для маленького тица скорее всего залог успеха:
1. домен .ru (в любом случае, не 3-го уровня)
2. возраст от 1 года
3. "правильная" тематика
4. МР=100
На одном из проектов ощутимо (но не -50 - -100, а -10 - -30) улетела морда по ВК-ключам.
По запросу:
site:мойсайт.ком
первой идет не морда, и не самая прокачанная страница.
Это что за фильтр? Вариант пингвина?
Есть такие умники. Пример IP 188.143.235.50 - их там целая грядка. Довольно крупные сайты под прицелом.
Принцип работы:
Делают парсер с удалением шапки и футера, результат работы парсера кэшируют nginx'ом. Переписывают все урл (динамически), чистят все внешние ссылки. На куче ломанных сайтов вставляют ссылки на зеркало с тайтлом морды (в моем случае было больше сотни). Ждут.
Кто в опасности:
ИМХО, удар на домены третьего уровня, которые Яндекс по одному ему понятным причинам без внимания к роботсу часто клеит на .ru.
Как определить:
Смотреть логи на предмет кучи запросов с одного IP.
Как боролся я:
выпас по логам IP сборщика (подсказка: он отличается от IP сайта). Отдал мета-рефреш с заэскейпленным редиректом на меня. Через несколько дней Гугл приклеил его ко мне :) Яндексу все оказалось по боку.
Ну да, великий /dev/random на серверах Яндекса забыл :)
Внесу свои 5 копеек. ИМХО, основные факторы в порядке уменьшения значимости:
1. качество контента и вытекающие из него
2. поведенческие факторы.
3. соответствие тематики ссылок и статей, в которые они вписаны (более важно), соответствие тематики исходящих ссылок и ресурса (менее важно)
4. качество (спамность, поведенческие факторы) и тематичность Ваших доноров (те, кто ссылается на Вас)
5. качество (спамность) Ваших акцепторов (те, на кого ссылаетесь Вы)
6. прочие факторы
Вывод:
1. пишите качественные материалы, которые будут читать люди
2. принимайте только тематические ссылки и оценивайте качество/спамность того, на кого ссылаетесь. Т.е. ссылайтесь только на качественные сайты по тематике.
3. продавайте ссылки дорого (меньше шансов, что акцептор окажется/превратится в г...)
:))
Проверьте, для начала, что Вам отдается по хттп://ваш_сайт/robots.txt.
Друпалу (ядру) на обработку из коробки идут только URL, которые не существуют физически.
Если реальный файл роботс.тхт и отдаваемый через веб не совпадают. - Смотрите, что написано в .htaccess. Если там чисто, то, может быть, хостер что-то химичит.
У Гугла свои нюансы. В частности, ерунда с определением первоисточника, из-за которого часто под Панду попадают нормальные страницы. Но таких чудес, как в Яндексе, там пока что нет.
Продолжая тему юмора, переведите в гуглопереводчике слово "наяривает" с русского на англ., а потом наоборот. Тоже за месяц не исправили :)
А поправить сам файл роботс.тхт религия не позволяет? :)
Друпал создает болванку файла. Дальше правьте на свое усмотрение.
Кстати, неоднократно замечал, что страницы soft-404 (с кодом ответа 200) и при этом практически без ссылочного на легке выходят в топ Яндекса в среднеконкурентных нишах :)
Новое SEO © by Яндекс™.---------- Добавлено 15.07.2012 в 19:43 ----------
Там, судя по всему, ошибка взвешивания слов. + Траст выше релевантности текста.
Оффтоп:Вы прикольно в названии темы ударением ошиблись. Под стать Яндексу с его минетом :)