Проводил эксперимент, теория вроде бы подтвердилась. Есть страница с портянкой, но 50% ключевиков занимают ссылки на сопутствующие продукты, расположенные в одном блоке. После закрытия их в noindex абсолютно ничего не изменилось, в "Ещё с сайта" только проседание на 1 позицию.
Более чистый эксперимент пока ждет индексации, где кроме закрытия ссылок в noindex, текст в 5к символов и запредельной плотностью заменен на 3 предложения с 2 вхождениями. И для сравнения есть ещё страница с аналогичными параметрами, но с открытыми сопутствующими.
Тоже интересует реальный опыт. Сейчас как раз ставлю подобный эксперимент, но пока не проиндексировался. У bdbd вот проиндексировался, кто-нибудь следил за их позициями?
Как вариант, можно ещё попробовать закрыть через JS, если noindex не поможет.
Извиняюсь, перепутал. Имел ввиду livejournal. У qip действительно есть некоторые проблемы в этом плане.
А разве сейчас у кого-то есть проблемы с парсингом яши? Имею ввиду не промышленные масштабы, а реальные задачи.
Индексация проверяется через qip на ура, причем без задержек и капч. 30к урлов в день свободно проверяю десктопным софтом, серверным можно больше. Точность как у XML, специально сравнивал.
Для позиций есть Лидер, раз но хостинг залил и забыл. У меня около 4к запросов в сутки проверяет на одном ip. Правда, периодичность и время запуска настроить нельзя, получается что сбор запросов начинается в 24.00, когда выдача нестабильна во время апа. Но надеюсь в новой версии что-то придумают.
Я ничего не утверждаю, просто делюсь наблюдениями по упавшим запросам. Понять логику яши уже давно нельзя, остается только анализировать и пытаться подстроиться.
Понятно что 3к текста это не так уж и много, но они также попали под раздачу.
Это само собой. Сейчас 100% логики найти невозможно, на любой пример найдутся исключения.
ИМХО, рано паниковать, это всего лишь первая версия без корректировок, а значит число ошибок максимально. Со временем докрутят.
Но вот анализировать сейчас самое время, когда фильтр свирепствует по-полной и его ещё не успели обучить.
Поделюсь и своими наблюдениями по поводу вылетов. К сожалению, выборка получилась значительная.
Замеченные факторы:
1. Наличие длинного тайтла и/или большого количества ключей в нем. К примеру, 95% вылетевших страниц (запросов) имели тайтл 15+ слов и 2-3 вхождения.
2. Наличие простыни текста в 3-6к символов. Правда, некоторые не вылетели, но их менее 5%.
3. Отсутствие распределения запросов на странице. Т.е. когда 90% ключей находится в портянке, которая составляет 30% объема страницы. Страницы, имеющее большую плотность, но при этом с распределением ключей равномерно, не вылетели.
4. Возможно, как-то влияют внешние ссылки. Т.е. если на страницу стоит 100 ссылок с прямым вхождение ключа, это дает наводку яше на основной продвигаемый запрос.
5. Конкурентность запроса влияет однозначно. 100% ВК вылетели, а вот среди СК/НК имеется некий % выживших, хотя технология производства/продвижения та же.
И ещё наблюдения:
1. Подзапросы основного вылетевшего ключевика не пострадали.
2. Количество слов в запросе сильно влияет. В основном выпали 1-2 словники, 3 и более почти не пострадали.
3. 100% НЧ/НК, имеющие короткий тайтл с 2 вхождениями и текст на странице в 500 символов, остались на своих местах.
Вывод:
Как уже сказали выше, какой-то один фактор не может выбить запрос, для этого нужно сочетание нескольких. ИМХО, основным всё же является простыня текста. Если ее заменить на нечто объемом 1-2к символов с 2-3 употреблениями ключа, запрос вернется обратно. Но это пока только в теории, нужно проверять на практике...
Не знаю что имел ввиду ТС, но я на одном проекте вижу глобальную смену релевантных страниц чем-то абсолютно непонятным, и так несколько десятков СЧ/СК.
Причем при вводе "запрос | kjdhrgkdhgi8gog" страница правильная, со всех регионах кроме Москвы также результат вчерашний.
Это явный глюк который исправится в ближайшее время.
Глюк, в сегодняшний ап такое случилось. К следующему всё вернется.
Ничего удивительного, алгоритмы у каждого региона немного различаются.
Такое явление не редкость.
Ссылки в сапе продаете?
Скорее всего проверяют на "ты последний", если 000.ru это нулевой сайт. Или на какие-то другие фильтры.
GSiteCrawler, для создания сайтмапа и ещё много чего полезного.