Так прям Гугл их и продемонстрировал. Он сделал недурную ширму полностью разрывающую связь между SEO и результатом. Думаю, о сокрытии критериев он позаботился не меньше.
Может быть, если сигналы фильтра поступают фильтру-ограничителю постоянно, а нетолько в апдейты. Пока этот вопрос открыт.
"Знал бы прикуп, жил бы в Сочи"
Вооооо! Потому что это полностью соответствует понятию "улушение сайта".
Или наоборот. Некоторые предполагают, что одним из критериев является соотношение "важных" и "неважных" страниц на сайте. Вы уверены, что непродвигаемые страницы попадут в число первых?
Вообще-то до сих пор не известны критерии по которым Гугл делит страницы на эти две категории.
А если все это снизит "потолок" и не только не получишь трафик по основному целевому запросу, но и потеряешь трафик по НЧ. Впрочем, вы натолкнули меня на интересную идею.
В принципе, если теория верна, то задумка у Гугла не дурна, но имеет существенные пороки, а главное, Гугл до сих пор не смог распределить лимиты по сайтам таким образом, чтобы топ имел приличный вид.
Понятно, что "потолок" зависит от какого-то набора факторов, основными из которых являются некие "сигналы" фильтров. Иначе бы мы просто не сильно замечали их влияния. Ну и про скачки сайта по позициям по причине недобора/перебора квот уже писали.
Здесь еще больше непонятного. Количество показов зависит от страницы выдачи, но у каждой позиции на странице свой CTR. И хоть вы голову расшибите, получая нужный снипет, но CTR первой позиции даже близко не приблизится к CTR 10 позиции. Манипулируя выдачей и в этом плане, Гугл может регулирует не только число показов, но и число переходов. А искать зависимость падений просто не реально, т.к. оно зависит от ситуации с другими сайтами.
Представьте, что есть всего три запроса по три страницы выдачи и на каждой странице по одному сайту. И есть пять сайтов, которые нужно расставить по этим страницам.
Первый запрос ВЧ имеет 30 показов первой страницы, 15 показов второй страницы и 5 показов третьей страницы.
Второй запрос СЧ имеет 20 показов первой страницы, 10 показов второй страницы и 3 показа третьей страницы.
Третий запрос НЧ имеет 10 показов первой страницы, 5 показов второй страницы и 2 показа третьей страницы.
Всего у нас 100 показов.
Первому сайту выделено 30 показов и он релевантен только второму запросу. Поэтому он показывается на первой и второй странице по нему. Вот вам пример случая, когда один сайт занимает много позиций в выдаче.
Второму сайту выделено тоже 30 показов и релевантен он только первому запросу. Поэтому он попадает на первую страницу по нему.
Третий сайт получает 20 показов и релевантен он второму и первому и третьему запросу. Соответственно, он ставится на второй странице и там и там.
Четвертый сайт получает 10 показов и релевантен только третьему запросу. Ему достается первая страница по нему.
Пятый сайт тоже получает 10 запросов, но релевантен всем трем запросам, а потому получает все три третьи страницы. При этом владелец гадает, почему мой сайт в опе.
Я постарался максимально упростить схему, чтобы было понятнее. Увы, страдает наглядность. Нужно было бы ввести не один НЧ запрос, а десяток, но тогда пострадает понятность. Если ваш сайт развит и собирает НЧ-показы способные выбрать ваш лимит, то Гугл спокойно только их и будет давать, даже если они совершенно вам не нужны, а на первые места по ВЧ поставит ГС, который только данному запросу релевантен. И вы хоть обгадайтесь, почему ситуация такова. У вас же нет полной картины происходящего. Чтобы вылезти по ВЧ вам нужно либо полностью избавиться от НЧ-показов (вспомните, что некоторые поднимались в выдаче, удалив кучу страниц с сайта, правда, при этом нет гарантий, что удалением страниц вы не понизите себе "потолок", а потому кому-то это не помогало), либо как-то умудриться поднять установленный вам "потолок" на требуемый уровень, когда вы уже не сможете выбирать показы по релевантным вашему сайту НЧ и СЧ.---------- Добавлено 16.10.2012 в 07:25 ----------
Опять вы зацикливаетесь на вылетевшие запросы, хотя связи между ними и "потолком" может совершено не быть. И все ваши действия могут привести к тому, что "потолок" вы не поднимите, но будете выбирать его на новых нерелевантных НЧ, а значит по релевантным запросам падение усилится. Переключите свое внимание с конкретных запросов и страниц на общую картину в целом.---------- Добавлено 16.10.2012 в 07:26 ----------
Кстати, это тоже интересный показатель, на которым нужно подумать.
Может быть что-то подобное и существует, но только какой в этом смысл, если "потолок" - это изначальная основа алгоритма ранжирования, а значит "потолок" должен изначально быть определен для каждого сайта, а совокупное количество показов должно практически совпадать с общим количеством показов в выдаче Гугла? Фактически, если предположение верно, то Гугл установкой таких параметров должен сводить "дебет" с "кредитом".
А можно подробнее, о чем вы говорите? Руководство CTR как раз противоречит методе "потолка". В ПФ, как и в "социальные сигналы" крайне слабо верится по причине того, что это не подтверждается практикой.
Ка я предполагаю, это касается не только пингвина, но и всех фильтров Гугла. Ведь в случае Панды работа осуществлялась не над одной вылетевшей страницей, а над всем сайтом целиком.
ХЗ. "Знал бы прикуп, жил бы в Сочи".
Возможно новый сайт первоначально получает некое стандартное количество показов (вот вам и бонус новичка), а потом уже начинают поступать сигналы от фильтров и, если с сайтом ничего не делалось, то все возвращается на круги своя.
А тут то что непонятно? Есть некое множество запросов, которым страницы сайта релевантны, и есть лимит показов. Есть аналогичные данные по всем остальным сайтам. По каждому запросу есть статистика, сколько показов в день дает первая, вторая, третья и т.д. страницы выдачи. Есть лимит показов. Осталось раскидать сайты по страницам выдачи различных запросов, чтобы каждый сайт не выходил за пределы отведенных ему показов. Если вашему сайту отведен лимит в 3000 показов и вы на НЧ выбираете их, то по вашим ВЧ и СЧ вы спокойно улетаете за несколько сотен позиций. Если же у сайта спектр релевантных запросов узок, то он может улететь по ВЧ всего лишь на несколько десятков позиций и там выбирать свой лимит. А сайты, которые сидят на первой странице по ВЧ либо практически только по этому ВЧ трафик и получают, либо имеют достаточно большой лимит показов. Вероятно последние и получают кучу позиций в ТОПе и даже на нескольких страницах ТОПа.
Вот вам и ответ, почему ГСы повылазили. Они заточены под ограниченное число запросов и лимит у них достаточен, чтобы быть по этим запросам на первой странице. Нормальные же сайты имеют приблизительно такой же или даже больший лимит, но выбирают его на менее частотных запросах.
Рубит он не по самым продвигаемым запросам, а по самым частотным, т.к. именно за счет них проще всего подстроить сайт под потолок. И улетают запросы пропорционально тому, насколько трафик нужно срезать. Поэтому у одних запрос вылетает за третью сотню, а у других - за третий десяток. Все еще и очень сильно зависит от того, есть ли у сайта трафик по другим запросам. Если у сайта есть большой хвост НЧ, который способен исчерпать имеющийся "потолок", то ВЧ улетят в самую большую ж..у и даже СЧ могут улететь туда же. В общем, если теория верна, то она очень многое объясняет. Даже то, что первоисточник контента находится не на первом месте по точной фразе. Просто ГСы с ворованным контентом не могут выбрать даже маленький лимит показов, а первоисточник контента может исчерпывать его даже на хвосте НЧ. Вот и получаем выдачу не по релевантности и правообладанию, а по способности исчерпать установленный лимит показов. Ниже правообладателя оказываются сайты, которые тоже исчерпывают свой лимит.
И если теория верна, то разбавлять анкоры по вылетевшим ВЧ бесполезно, что и подтверждает практика. Нужен какой-то комплекс мер, который "улучшит качество сайта с точки зрения Гугла". Понять бы, что входит в этот комплекс.
Спасибо! Увидел то, что и ожидал. Похоже, фильтры Гугла никак не определяют насколько опустить страницу или сайт по какому-то запросу. Эту функцию выполняет какой-то глобальный фильтр-ограничитель. Он определяет, какое количество показов в день дать сайту. Этот "потолок" и его изменения на графике хорошо заметны. И уже из этого параметра определяется, на какой позиции выдать сайт по тому или иному запросу. Ведь Гуглу хорошо известно среднее количество показов по запросу той или иной страницы выдачи. Возможно, что если в течение дня идет недобор или перебор показов, то сайт может начать кидать по позициям в соответствующую сторону. Таким образом, если установленный "потолок" низок, о близости к ТОПу по ВЧ и не мечтайте, а если "потолок" близок к нулю, вылетите не только по НЧ, но и по своему бренду. А вот как фильтры управляют этим фильтром-ограничителем и от каких параметров зависит "потолок" пока не ясно. Ясно только, что работать надо не по улетевшему запросу, а по всему сайту целиком. Теоретически, можно переспамить по НЧ, а улететь по ВЧ с сохранением позиций по переспамленным НЧ.
Если эта теория верна, то ни о какой диагностике фильтра не может быть и речи. Это просто невозможно, т.к. не ясно, какие сигналы и когда были отправлены фильтру-ограничителю, и как каждый из этих сигналов влияет на "потолок". А главное, что не существует связи между вылетевшим запросом и сигналами, которые к этому привели. В общем, Гугл реально реализовал концепцию "работайте над сайтом".
График, который выводится перед таблицей. По умолчанию он выводится только за месяц. Измените начальную дату на минимум (около трех месяцев от текущей). Вот этот график и хотелось бы увидеть. Если не хотите светить конкретные показатели, просто обрежьте левый край со значениями. Интересует именно форма графика.
Ну, что поделать. Слишком хорошо знаком с такой аудиторией, т.к. в университете, где вел лабораторки, она составляла подавляющее большинство. И реакция на "фейсом об тейбл" у них была абсолютно такая же, как ваша. Очень обижались, почему их мучают и отчитывают, а не принимают лабораторку за сам факт их "явления" в зачетную сессию, требуют, чтобы им все разжевали и в рот положили, но даже разжеванное не способны понять и удержать в своей пустой голове даже 10 минут.
Сужу по описанию постановки исследования. Попробуйте сами проделать все то, то было описано, а потом расскажите здесь, сколько усилий вам это стоило и во сколько это обошлось.
SEO - это не лабораторный физический эксперимент. Даже там единственный способ построить прямую - это взять всего две точки, а в SEO факторов гораздо больше. Попробуйте хотя бы подготовить 15 близких по параметрам текстов, но при этом совершенно друг на друга не похожих. А если схем оптимизации не 15, а 225? А если для каждой схемы вам нужно по 10 сайтов, чтобы судить о результатах с точки зрения статистики? Вы сможете выдать пару тысяч таких текстов?
Вас изначально предупредили о масштабе исследования? Вас в чем-то обманули? Или вы реально настолько тупы, что рассчитывали получить то-то выдающееся при озвученных параметрах?
Да, забыл про это сказать. Форма подачи результатов не выдерживает никакой критики. Мне даже сложно представить, насколько паршивыми они были до переделок, о которых ТС писал здесь. Однако, для человека с головой важна не форма подачи, а исходные данные и результаты. А это в отчетах никуда не делось.