- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
И если теория верна, то разбавлять анкоры по вылетевшим ВЧ бесполезно, что и подтверждает практика. Нужен какой-то комплекс мер, который "улучшит качество сайта с точки зрения Гугла". Понять бы, что входит в этот комплекс.
Думаю, в комплекс входит добавление много нового контента по теме вылетевших запросов, плюс прокачка его внешним ссылочным, наиболее похожим на естественное: статьи в блогах с брендом или урлом в ссылке вместо анкора, и какие-то левые анкоры + прокачка уже имеющихся жирных естественных беков (если такие есть) анкорными ссылками с нужными запросами.
Трафик меняется в зависимости от подключаемой гуглом базы. Обратите внимание на изменение общего количества страниц в индексе по конкретному запросу. В течение суток количество страниц в индексе может изменятся в несколько раз. Отсюда и возникает иллюзия "квоты"
Он может определяться кучей множителей, например
МаксимальноеКоличествоПоказовВДень=*Кстраницвиндексе*Кошибокнасайте*Квессылок*Кпингвин*Кпанда и т. д.
Количество показов по конкретным запросам в эту формулу не входят, при условии, что реальное число показов меньше максимального. А вот если имеется прогноз превышения количества показов, то начинается "мерцание" НЧ. Я просто до пингвина наблюдал скачкообразное изменение количество посетителей, по типу до 8 утра было до 30% от среднесуточного по гуглу, потом тишина до обеда и еще скачок и чуть-чуть вечером. Хотя основной поток у сайта в рабочее время
Понятно, что "потолок" зависит от какого-то набора факторов, основными из которых являются некие "сигналы" фильтров. Иначе бы мы просто не сильно замечали их влияния. Ну и про скачки сайта по позициям по причине недобора/перебора квот уже писали.
Здесь мне непонятно падение разных позиций, по разному. Еще раз проверил, но падение не кореллируется с частотностью, некоторая зависимость есть, но слабо выраженная и есть некоторая зависимость между ctr и падением позиции. Имевшие больший ctr падали меньше.
Здесь еще больше непонятного. Количество показов зависит от страницы выдачи, но у каждой позиции на странице свой CTR. И хоть вы голову расшибите, получая нужный снипет, но CTR первой позиции даже близко не приблизится к CTR 10 позиции. Манипулируя выдачей и в этом плане, Гугл может регулирует не только число показов, но и число переходов. А искать зависимость падений просто не реально, т.к. оно зависит от ситуации с другими сайтами.
Представьте, что есть всего три запроса по три страницы выдачи и на каждой странице по одному сайту. И есть пять сайтов, которые нужно расставить по этим страницам.
Первый запрос ВЧ имеет 30 показов первой страницы, 15 показов второй страницы и 5 показов третьей страницы.
Второй запрос СЧ имеет 20 показов первой страницы, 10 показов второй страницы и 3 показа третьей страницы.
Третий запрос НЧ имеет 10 показов первой страницы, 5 показов второй страницы и 2 показа третьей страницы.
Всего у нас 100 показов.
Первому сайту выделено 30 показов и он релевантен только второму запросу. Поэтому он показывается на первой и второй странице по нему. Вот вам пример случая, когда один сайт занимает много позиций в выдаче.
Второму сайту выделено тоже 30 показов и релевантен он только первому запросу. Поэтому он попадает на первую страницу по нему.
Третий сайт получает 20 показов и релевантен он второму и первому и третьему запросу. Соответственно, он ставится на второй странице и там и там.
Четвертый сайт получает 10 показов и релевантен только третьему запросу. Ему достается первая страница по нему.
Пятый сайт тоже получает 10 запросов, но релевантен всем трем запросам, а потому получает все три третьи страницы. При этом владелец гадает, почему мой сайт в опе.
Я постарался максимально упростить схему, чтобы было понятнее. Увы, страдает наглядность. Нужно было бы ввести не один НЧ запрос, а десяток, но тогда пострадает понятность. Если ваш сайт развит и собирает НЧ-показы способные выбрать ваш лимит, то Гугл спокойно только их и будет давать, даже если они совершенно вам не нужны, а на первые места по ВЧ поставит ГС, который только данному запросу релевантен. И вы хоть обгадайтесь, почему ситуация такова. У вас же нет полной картины происходящего. Чтобы вылезти по ВЧ вам нужно либо полностью избавиться от НЧ-показов (вспомните, что некоторые поднимались в выдаче, удалив кучу страниц с сайта, правда, при этом нет гарантий, что удалением страниц вы не понизите себе "потолок", а потому кому-то это не помогало), либо как-то умудриться поднять установленный вам "потолок" на требуемый уровень, когда вы уже не сможете выбирать показы по релевантным вашему сайту НЧ и СЧ.
---------- Добавлено 16.10.2012 в 07:25 ----------
Думаю, в комплекс входит добавление много нового контента по теме вылетевших запросов, плюс прокачка его внешним ссылочным, наиболее похожим на естественное: статьи в блогах с брендом или урлом в ссылке вместо анкора, и какие-то левые анкоры + прокачка уже имеющихся жирных естественных беков (если такие есть) анкорными ссылками с нужными запросами.
Опять вы зацикливаетесь на вылетевшие запросы, хотя связи между ними и "потолком" может совершено не быть. И все ваши действия могут привести к тому, что "потолок" вы не поднимите, но будете выбирать его на новых нерелевантных НЧ, а значит по релевантным запросам падение усилится. Переключите свое внимание с конкретных запросов и страниц на общую картину в целом.
---------- Добавлено 16.10.2012 в 07:26 ----------
Трафик меняется в зависимости от подключаемой гуглом базы. Обратите внимание на изменение общего количества страниц в индексе по конкретному запросу. В течение суток количество страниц в индексе может изменятся в несколько раз. Отсюда и возникает иллюзия "квоты"
Кстати, это тоже интересный показатель, на которым нужно подумать.
всем привет!
возникла у меня проблема, помогите если можете в ее решении!
есть у меня сайт двуязычный в WP, я решил, что лучше разбить его на 2 сайта. Также у меня было много теговых страниц, которые делали большое количество дубляжей (тайтлов и сниппетов). эти теговые страницы, как и сами теги, я также забрал с сайта. После того как я снял второй язык с сайта и забрал теговые страницы произошло резкое падение сайта. Я решил поднять две свои ключевые страницы с помощью ссылок с прямыми вхождениями. 30 купил на сапе, е 4 на Миралинкс и еще парочку на гогетлинкс. Прошло некоторое время и сайт начал понемногу ползти вверх, а эти две страницы только падают в выдаче.
Что посоветуете в этой ситуации. Может стоит убрать эти ссылки?
стоит ли возвращаться к тегам? ибо эти страницы тегов были на топовых позициях!
Опять вы зацикливаетесь на вылетевшие запросы, хотя связи между ними и "потолком" может совершено не быть ... Переключите свое внимание с конкретных запросов и страниц на общую картину в целом.
В любом случае, "развитие" сайта по большей части заключается в добалении нового котента и появлении ссылок на него. Это вроде как доказать, что и без поискового трафика люди интересуются твоим сайтом.
Ну а в недолгосрочной перспективе, чтобы вытащить нужные упавшие запросы и подтянуть их под "потолок", получается что нужно увеличить релевантность сайта этим запросам (?)... То есть, грубо говоря снести весь остальной контент, который распределется по вашей версии в выдаче и "занижает" нужные запросы, так как разбавляет в целом тематику сайта. При этом нужно угадать с частотой показов, чтобы нужный запрос не оказался частотнее "потолка".
В любом случае, "развитие" сайта по большей части заключается в добалении нового котента и появлении ссылок на него. Это вроде как доказать, что и без поискового трафика люди интересуются твоим сайтом.
Ну а в недолгосрочной перспективе, чтобы вытащить нужные упавшие запросы и подтянуть их под "потолок", получается что нужно увеличить релевантность сайта этим запросам (?)... То есть, грубо говоря снести весь остальной контент, который распределется по вашей версии в выдаче и "занижает" нужные запросы, так как разбавляет в целом тематику сайта. При этом нужно угадать с частотой показов, чтобы нужный запрос не оказался частотнее "потолка".
А если все это снизит "потолок" и не только не получишь трафик по основному целевому запросу, но и потеряешь трафик по НЧ. Впрочем, вы натолкнули меня на интересную идею.
В принципе, если теория верна, то задумка у Гугла не дурна, но имеет существенные пороки, а главное, Гугл до сих пор не смог распределить лимиты по сайтам таким образом, чтобы топ имел приличный вид.
А если все это снизит "потолок" и не только не получишь трафик по основному целевому запросу, но и потеряешь трафик по НЧ. Впрочем, вы натолкнули меня на интересную идею.
В принципе, если теория верна, то задумка у Гугла не дурна, но имеет существенные пороки, а главное, Гугл до сих пор не смог распределить лимиты по сайтам таким образом, чтобы топ имел приличный вид.
Похоже на правду, но чтобы ее подтвердить нужен больший объем анализируемых сайтов.
И самое главное критерии меняющие потолок показов.
Попадание под контроль для принятия решения по пингвину скорее всего связано со слишком быстрым ростом сайта и достижением потолка. По крайней мере такая модель вписывается в задачу стоящую перед гуглом.
Тогда выход из под пингвина возможен автоматически если поднять потолок. А теперь самый главный вопрос как его поднять?
Я уже не раз писал, что устранение "дублей" поднимало. Было подозрение ( и есть) что увеличение количества нормальных не продвигаемых страниц должно дать результат. Попробую этот вариант действий.
UP. Почему я так думаю. Сайт интернет -магазина описания очень краткие, в итоге в основном индексе порядка 150 страниц и 20000 в соплях. Попробую загнать еще 150 и посмотреть, что будет
И самое главное критерии меняющие потолок показов.
Так прям Гугл их и продемонстрировал. Он сделал недурную ширму полностью разрывающую связь между SEO и результатом. Думаю, о сокрытии критериев он позаботился не меньше.
Тогда выход из под пингвина возможен автоматически если поднять потолок.
Может быть, если сигналы фильтра поступают фильтру-ограничителю постоянно, а нетолько в апдейты. Пока этот вопрос открыт.
А теперь самый главный вопрос как его поднять?
"Знал бы прикуп, жил бы в Сочи"
Я уже не раз писал, что устранение "дублей" поднимало.
Вооооо! Потому что это полностью соответствует понятию "улушение сайта".
Было подозрение ( и есть) что увеличение количества нормальных не продвигаемых страниц должно дать результат. Попробую этот вариант действий.
Или наоборот. Некоторые предполагают, что одним из критериев является соотношение "важных" и "неважных" страниц на сайте. Вы уверены, что непродвигаемые страницы попадут в число первых?
UP. Почему я так думаю. Сайт интернет -магазина описания очень краткие, в итоге в основном индексе порядка 150 страниц и 20000 в соплях. Попробую загнать еще 150 и посмотреть, что будет
Вообще-то до сих пор не известны критерии по которым Гугл делит страницы на эти две категории.
Так прям Гугл их и продемонстрировал. Он сделал недурную ширму полностью разрывающую связь между SEO и результатом. Думаю, о сокрытии критериев он позаботился не меньше.
1. Может быть, если сигналы фильтра поступают фильтру-ограничителю постоянно, а нетолько в апдейты. Пока этот вопрос открыт.
Вооооо! Потому что это полностью соответствует понятию "улушение сайта".
2. Или наоборот. Некоторые предполагают, что одним из критериев является соотношение "важных" и "неважных" страниц на сайте. Вы уверены, что непродвигаемые страницы попадут в число первых?
Вообще-то до сих пор не известны критерии по которым Гугл делит страницы на эти две категории.
Планка потолка по количеству показов меняется независимо от обновлениея пингвина или панды. Это сложно назвать выходом из под пингвина, но очень хочется посмотреть, что будет при поднятии потолка показов. Фактически это "улучшение" сайта.
У меня есть ряд товаров, которые НЧ, и при этом полезные и под них можно сделать уникальное описание. Тогда я думаю они войдут в основной индекс и при этом не сильно увеличат трафик. И они прямо не связаны с запросами попавшими под пингвин. Получится достаточно "чистый" эксперимент.
Один из критериев размер полезной информации -его я увеличить могу.
Ps хотя может и не сработать. Планка поднимется, а позиции расти не будут, но судя по тому как скачут запингвиненные страницы, то может и сработать.
Но если обдумать, то что мы написали, то получается, что Пингвин совсем не то, что декларирует явно гугл. Правильнее это наказание за несоответствие "качества" сайта и его позиции в выдаче.
Supplemental Index - сентябрь 2003 года
Для того, чтобы в индексе было больше документов и без ущерба для производительности, Google отделил некоторые результаты в "дополнительный" индекс.