Slavomir

Slavomir
Рейтинг
107
Регистрация
05.12.2005
vagogrande:
И самое главное критерии меняющие потолок показов.

Так прям Гугл их и продемонстрировал. Он сделал недурную ширму полностью разрывающую связь между SEO и результатом. Думаю, о сокрытии критериев он позаботился не меньше.

vagogrande:
Тогда выход из под пингвина возможен автоматически если поднять потолок.

Может быть, если сигналы фильтра поступают фильтру-ограничителю постоянно, а нетолько в апдейты. Пока этот вопрос открыт.

vagogrande:
А теперь самый главный вопрос как его поднять?

"Знал бы прикуп, жил бы в Сочи"

vagogrande:
Я уже не раз писал, что устранение "дублей" поднимало.

Вооооо! Потому что это полностью соответствует понятию "улушение сайта".

vagogrande:
Было подозрение ( и есть) что увеличение количества нормальных не продвигаемых страниц должно дать результат. Попробую этот вариант действий.

Или наоборот. Некоторые предполагают, что одним из критериев является соотношение "важных" и "неважных" страниц на сайте. Вы уверены, что непродвигаемые страницы попадут в число первых?

vagogrande:
UP. Почему я так думаю. Сайт интернет -магазина описания очень краткие, в итоге в основном индексе порядка 150 страниц и 20000 в соплях. Попробую загнать еще 150 и посмотреть, что будет

Вообще-то до сих пор не известны критерии по которым Гугл делит страницы на эти две категории.

obizyana:
В любом случае, "развитие" сайта по большей части заключается в добалении нового котента и появлении ссылок на него. Это вроде как доказать, что и без поискового трафика люди интересуются твоим сайтом.
Ну а в недолгосрочной перспективе, чтобы вытащить нужные упавшие запросы и подтянуть их под "потолок", получается что нужно увеличить релевантность сайта этим запросам (?)... То есть, грубо говоря снести весь остальной контент, который распределется по вашей версии в выдаче и "занижает" нужные запросы, так как разбавляет в целом тематику сайта. При этом нужно угадать с частотой показов, чтобы нужный запрос не оказался частотнее "потолка".

А если все это снизит "потолок" и не только не получишь трафик по основному целевому запросу, но и потеряешь трафик по НЧ. Впрочем, вы натолкнули меня на интересную идею.

В принципе, если теория верна, то задумка у Гугла не дурна, но имеет существенные пороки, а главное, Гугл до сих пор не смог распределить лимиты по сайтам таким образом, чтобы топ имел приличный вид.

vagogrande:
Он может определяться кучей множителей, например
МаксимальноеКоличествоПоказовВДень=*Кстраницвиндексе*Кошибокнасайте*Квессылок*Кпингвин*Кпанда и т. д.
Количество показов по конкретным запросам в эту формулу не входят, при условии, что реальное число показов меньше максимального. А вот если имеется прогноз превышения количества показов, то начинается "мерцание" НЧ. Я просто до пингвина наблюдал скачкообразное изменение количество посетителей, по типу до 8 утра было до 30% от среднесуточного по гуглу, потом тишина до обеда и еще скачок и чуть-чуть вечером. Хотя основной поток у сайта в рабочее время

Понятно, что "потолок" зависит от какого-то набора факторов, основными из которых являются некие "сигналы" фильтров. Иначе бы мы просто не сильно замечали их влияния. Ну и про скачки сайта по позициям по причине недобора/перебора квот уже писали.

vagogrande:
Здесь мне непонятно падение разных позиций, по разному. Еще раз проверил, но падение не кореллируется с частотностью, некоторая зависимость есть, но слабо выраженная и есть некоторая зависимость между ctr и падением позиции. Имевшие больший ctr падали меньше.

Здесь еще больше непонятного. Количество показов зависит от страницы выдачи, но у каждой позиции на странице свой CTR. И хоть вы голову расшибите, получая нужный снипет, но CTR первой позиции даже близко не приблизится к CTR 10 позиции. Манипулируя выдачей и в этом плане, Гугл может регулирует не только число показов, но и число переходов. А искать зависимость падений просто не реально, т.к. оно зависит от ситуации с другими сайтами.

Представьте, что есть всего три запроса по три страницы выдачи и на каждой странице по одному сайту. И есть пять сайтов, которые нужно расставить по этим страницам.

Первый запрос ВЧ имеет 30 показов первой страницы, 15 показов второй страницы и 5 показов третьей страницы.

Второй запрос СЧ имеет 20 показов первой страницы, 10 показов второй страницы и 3 показа третьей страницы.

Третий запрос НЧ имеет 10 показов первой страницы, 5 показов второй страницы и 2 показа третьей страницы.

Всего у нас 100 показов.

Первому сайту выделено 30 показов и он релевантен только второму запросу. Поэтому он показывается на первой и второй странице по нему. Вот вам пример случая, когда один сайт занимает много позиций в выдаче.

Второму сайту выделено тоже 30 показов и релевантен он только первому запросу. Поэтому он попадает на первую страницу по нему.

Третий сайт получает 20 показов и релевантен он второму и первому и третьему запросу. Соответственно, он ставится на второй странице и там и там.

Четвертый сайт получает 10 показов и релевантен только третьему запросу. Ему достается первая страница по нему.

Пятый сайт тоже получает 10 запросов, но релевантен всем трем запросам, а потому получает все три третьи страницы. При этом владелец гадает, почему мой сайт в опе.

Я постарался максимально упростить схему, чтобы было понятнее. Увы, страдает наглядность. Нужно было бы ввести не один НЧ запрос, а десяток, но тогда пострадает понятность. Если ваш сайт развит и собирает НЧ-показы способные выбрать ваш лимит, то Гугл спокойно только их и будет давать, даже если они совершенно вам не нужны, а на первые места по ВЧ поставит ГС, который только данному запросу релевантен. И вы хоть обгадайтесь, почему ситуация такова. У вас же нет полной картины происходящего. Чтобы вылезти по ВЧ вам нужно либо полностью избавиться от НЧ-показов (вспомните, что некоторые поднимались в выдаче, удалив кучу страниц с сайта, правда, при этом нет гарантий, что удалением страниц вы не понизите себе "потолок", а потому кому-то это не помогало), либо как-то умудриться поднять установленный вам "потолок" на требуемый уровень, когда вы уже не сможете выбирать показы по релевантным вашему сайту НЧ и СЧ.

---------- Добавлено 16.10.2012 в 07:25 ----------

obizyana:
Думаю, в комплекс входит добавление много нового контента по теме вылетевших запросов, плюс прокачка его внешним ссылочным, наиболее похожим на естественное: статьи в блогах с брендом или урлом в ссылке вместо анкора, и какие-то левые анкоры + прокачка уже имеющихся жирных естественных беков (если такие есть) анкорными ссылками с нужными запросами.

Опять вы зацикливаетесь на вылетевшие запросы, хотя связи между ними и "потолком" может совершено не быть. И все ваши действия могут привести к тому, что "потолок" вы не поднимите, но будете выбирать его на новых нерелевантных НЧ, а значит по релевантным запросам падение усилится. Переключите свое внимание с конкретных запросов и страниц на общую картину в целом.

---------- Добавлено 16.10.2012 в 07:26 ----------

Lor:
Трафик меняется в зависимости от подключаемой гуглом базы. Обратите внимание на изменение общего количества страниц в индексе по конкретному запросу. В течение суток количество страниц в индексе может изменятся в несколько раз. Отсюда и возникает иллюзия "квоты"

Кстати, это тоже интересный показатель, на которым нужно подумать.

vagogrande:
Согласен. Более того есть ощущение, что максимально допустимое количество показов это основной показатель, почти "мифический траст". Но не все сайты достигают потолка. Есть сайты, которые имеют возможность показа пусть 10000, но из-за позиций имеют пусть 8000 показов. Тогда можно предположить, что достижение потолка показов приводит к проверке сайта. Вот такая гипотеза может объяснять подъем ГС в топ и их последующее падение. Хотя слишком просто.

Может быть что-то подобное и существует, но только какой в этом смысл, если "потолок" - это изначальная основа алгоритма ранжирования, а значит "потолок" должен изначально быть определен для каждого сайта, а совокупное количество показов должно практически совпадать с общим количеством показов в выдаче Гугла? Фактически, если предположение верно, то Гугл установкой таких параметров должен сводить "дебет" с "кредитом".

vagogrande:
А вот здесь не согласен. Близко, но статистика (правда маленькая), немного другая. А распределять можно за счет НЧ. Вот здесь может быть ctr и пф

А можно подробнее, о чем вы говорите? Руководство CTR как раз противоречит методе "потолка". В ПФ, как и в "социальные сигналы" крайне слабо верится по причине того, что это не подтверждается практикой.

vagogrande:
Если продолжить мысль если это понижающий множитель к количеству показов, то понятно почему выходов из-под пингвина нет. Но если он будет постоянным, то тогда ж... Сайт попавший под пингвин должен прикладывать усилий больше как раз на этот множитель. :(

Ка я предполагаю, это касается не только пингвина, но и всех фильтров Гугла. Ведь в случае Панды работа осуществлялась не над одной вылетевшей страницей, а над всем сайтом целиком.

vagogrande:
Ps. Интересно как влияет ПФ и CTR на распределение уровня позиций после падения.

ХЗ. "Знал бы прикуп, жил бы в Сочи".

vagogrande:
PPS а 301 редирект отменяет этот понижающий множитель и не отменяет его если делать внутренний редирект.

Возможно новый сайт первоначально получает некое стандартное количество показов (вот вам и бонус новичка), а потом уже начинают поступать сигналы от фильтров и, если с сайтом ничего не делалось, то все возвращается на круги своя.

vagogrande:
Если предположить, что основным у гугла является общее количество показов и пингвин и Панда его меняют, то остается вопрос каким образом распределяется падение на -9, на -50 и - 250. А это загадка и вот здесь может влиять ссылочное. Те запросы, которые продвигались только тщательным отбором в миралинкс упали -9, смешанные мира , ггл и блогун -50 и без миры в ж…

А тут то что непонятно? Есть некое множество запросов, которым страницы сайта релевантны, и есть лимит показов. Есть аналогичные данные по всем остальным сайтам. По каждому запросу есть статистика, сколько показов в день дает первая, вторая, третья и т.д. страницы выдачи. Есть лимит показов. Осталось раскидать сайты по страницам выдачи различных запросов, чтобы каждый сайт не выходил за пределы отведенных ему показов. Если вашему сайту отведен лимит в 3000 показов и вы на НЧ выбираете их, то по вашим ВЧ и СЧ вы спокойно улетаете за несколько сотен позиций. Если же у сайта спектр релевантных запросов узок, то он может улететь по ВЧ всего лишь на несколько десятков позиций и там выбирать свой лимит. А сайты, которые сидят на первой странице по ВЧ либо практически только по этому ВЧ трафик и получают, либо имеют достаточно большой лимит показов. Вероятно последние и получают кучу позиций в ТОПе и даже на нескольких страницах ТОПа.

Вот вам и ответ, почему ГСы повылазили. Они заточены под ограниченное число запросов и лимит у них достаточен, чтобы быть по этим запросам на первой странице. Нормальные же сайты имеют приблизительно такой же или даже больший лимит, но выбирают его на менее частотных запросах.

obizyana:
Ну тогда это как-то объясняет, почему одни запросы остались в топе, а другие - в попе... То есть получается, что алгоритм, если находит явные сигналы неестественности ссылочного, просто обрубает трафик до какого-то числа показов, а позиции по запросам какбэ "подстраиваются" под это число показов. Но все равно, рубит он по самым продвигаемым запросам, а не просто куда нибудь пальцем в небо. То есть анализ ведущих на сайт анкоров все-равно происходит. Поэтому нужно (было(?):)) разбавлять анкоры максимально в перемешку с безанкорными ссылками. Такие ссылки сложнее спалить.

Рубит он не по самым продвигаемым запросам, а по самым частотным, т.к. именно за счет них проще всего подстроить сайт под потолок. И улетают запросы пропорционально тому, насколько трафик нужно срезать. Поэтому у одних запрос вылетает за третью сотню, а у других - за третий десяток. Все еще и очень сильно зависит от того, есть ли у сайта трафик по другим запросам. Если у сайта есть большой хвост НЧ, который способен исчерпать имеющийся "потолок", то ВЧ улетят в самую большую ж..у и даже СЧ могут улететь туда же. В общем, если теория верна, то она очень многое объясняет. Даже то, что первоисточник контента находится не на первом месте по точной фразе. Просто ГСы с ворованным контентом не могут выбрать даже маленький лимит показов, а первоисточник контента может исчерпывать его даже на хвосте НЧ. Вот и получаем выдачу не по релевантности и правообладанию, а по способности исчерпать установленный лимит показов. Ниже правообладателя оказываются сайты, которые тоже исчерпывают свой лимит.

И если теория верна, то разбавлять анкоры по вылетевшим ВЧ бесполезно, что и подтверждает практика. Нужен какой-то комплекс мер, который "улучшит качество сайта с точки зрения Гугла". Понять бы, что входит в этот комплекс.

Jaf4:

Спасибо! Увидел то, что и ожидал. Похоже, фильтры Гугла никак не определяют насколько опустить страницу или сайт по какому-то запросу. Эту функцию выполняет какой-то глобальный фильтр-ограничитель. Он определяет, какое количество показов в день дать сайту. Этот "потолок" и его изменения на графике хорошо заметны. И уже из этого параметра определяется, на какой позиции выдать сайт по тому или иному запросу. Ведь Гуглу хорошо известно среднее количество показов по запросу той или иной страницы выдачи. Возможно, что если в течение дня идет недобор или перебор показов, то сайт может начать кидать по позициям в соответствующую сторону. Таким образом, если установленный "потолок" низок, о близости к ТОПу по ВЧ и не мечтайте, а если "потолок" близок к нулю, вылетите не только по НЧ, но и по своему бренду. А вот как фильтры управляют этим фильтром-ограничителем и от каких параметров зависит "потолок" пока не ясно. Ясно только, что работать надо не по улетевшему запросу, а по всему сайту целиком. Теоретически, можно переспамить по НЧ, а улететь по ВЧ с сохранением позиций по переспамленным НЧ.

Если эта теория верна, то ни о какой диагностике фильтра не может быть и речи. Это просто невозможно, т.к. не ясно, какие сигналы и когда были отправлены фильтру-ограничителю, и как каждый из этих сигналов влияет на "потолок". А главное, что не существует связи между вылетевшим запросом и сигналами, которые к этому привели. В общем, Гугл реально реализовал концепцию "работайте над сайтом".

Jaf4:
в WMT сайт был. top-search-queries? И что там смотреть?

График, который выводится перед таблицей. По умолчанию он выводится только за месяц. Измените начальную дату на минимум (около трех месяцев от текущей). Вот этот график и хотелось бы увидеть. Если не хотите светить конкретные показатели, просто обрежьте левый край со значениями. Интересует именно форма графика.

yerez:
И вообще ваши выпады про школоту в мой адрес и других недовольных попросту низки и оскорбительны, что прекрасно демонстрирует ваш уровень.

Ну, что поделать. Слишком хорошо знаком с такой аудиторией, т.к. в университете, где вел лабораторки, она составляла подавляющее большинство. И реакция на "фейсом об тейбл" у них была абсолютно такая же, как ваша. Очень обижались, почему их мучают и отчитывают, а не принимают лабораторку за сам факт их "явления" в зачетную сессию, требуют, чтобы им все разжевали и в рот положили, но даже разжеванное не способны понять и удержать в своей пустой голове даже 10 минут.

yerez:
Далее вы пишете "все было сделано максимально продуманно, качественно и добротно." - а откуда вы это достоверно знаете? Вы же не учавствовали в эксперименте. :)

Сужу по описанию постановки исследования. Попробуйте сами проделать все то, то было описано, а потом расскажите здесь, сколько усилий вам это стоило и во сколько это обошлось.

yerez:
Конструктивно обсуждать эту работу не имеет смысла, так как здесь просто нет никакой систематики. В институте в свое время у нас был предмет "Техника эксперимента", здесь ничем подобным просто не пахнет. При том, для начала можно было бы ознакомиться с литературой на эту тему, перед тем как браться за дело.

SEO - это не лабораторный физический эксперимент. Даже там единственный способ построить прямую - это взять всего две точки, а в SEO факторов гораздо больше. Попробуйте хотя бы подготовить 15 близких по параметрам текстов, но при этом совершенно друг на друга не похожих. А если схем оптимизации не 15, а 225? А если для каждой схемы вам нужно по 10 сайтов, чтобы судить о результатах с точки зрения статистики? Вы сможете выдать пару тысяч таких текстов?

yerez:
Есть попытка, я не отрицаю. Но зачем продавать такого рода недоделанные поделки? При том элементарно безграмотные с кучей опечаток.

Вас изначально предупредили о масштабе исследования? Вас в чем-то обманули? Или вы реально настолько тупы, что рассчитывали получить то-то выдающееся при озвученных параметрах?

yerez:
Если уж для финального анализа господа не потрудились сделать "красиво", то возникают сомнения в том, что всё изложенное в эксперименте, даже в том виде, котором оно изложено, так и есть, а не проделано с той же кучей ошибок и упущений...

Да, забыл про это сказать. Форма подачи результатов не выдерживает никакой критики. Мне даже сложно представить, насколько паршивыми они были до переделок, о которых ТС писал здесь. Однако, для человека с головой важна не форма подачи, а исходные данные и результаты. А это в отчетах никуда не делось.

Всего: 943