- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Ну тогда это как-то объясняет, почему одни запросы остались в топе, а другие - в попе... То есть получается, что алгоритм, если находит явные сигналы неестественности ссылочного, просто обрубает трафик до какого-то числа показов, а позиции по запросам какбэ "подстраиваются" под это число показов. Но все равно, рубит он по самым продвигаемым запросам, а не просто куда нибудь пальцем в небо. То есть анализ ведущих на сайт анкоров все-равно происходит. Поэтому нужно (было(?):)) разбавлять анкоры максимально в перемешку с безанкорными ссылками. Такие ссылки сложнее спалить.
Рубит он не по самым продвигаемым запросам, а по самым частотным, т.к. именно за счет них проще всего подстроить сайт под потолок. И улетают запросы пропорционально тому, насколько трафик нужно срезать. Поэтому у одних запрос вылетает за третью сотню, а у других - за третий десяток. Все еще и очень сильно зависит от того, есть ли у сайта трафик по другим запросам. Если у сайта есть большой хвост НЧ, который способен исчерпать имеющийся "потолок", то ВЧ улетят в самую большую ж..у и даже СЧ могут улететь туда же. В общем, если теория верна, то она очень многое объясняет. Даже то, что первоисточник контента находится не на первом месте по точной фразе. Просто ГСы с ворованным контентом не могут выбрать даже маленький лимит показов, а первоисточник контента может исчерпывать его даже на хвосте НЧ. Вот и получаем выдачу не по релевантности и правообладанию, а по способности исчерпать установленный лимит показов. Ниже правообладателя оказываются сайты, которые тоже исчерпывают свой лимит.
И если теория верна, то разбавлять анкоры по вылетевшим ВЧ бесполезно, что и подтверждает практика. Нужен какой-то комплекс мер, который "улучшит качество сайта с точки зрения Гугла". Понять бы, что входит в этот комплекс.
И если теория верна, то разбавлять анкоры по вылетевшим ВЧ бесполезно, что и подтверждает практика. Нужен какой-то комплекс мер, который "улучшит качество сайта с точки зрения Гугла". Понять бы, что входит в этот комплекс.
Та да, разбавил около 40% анкоров прямыми ссылками, изменений не было. Радует что трафик с Яндекс после таких манипуляций не изменился и даже растёт, хотя может он растёт из-за того что люди стали искать чаще в Яндекс ))
Рубит он не по самым продвигаемым запросам, а по самым частотным, т.к. именно за счет них проще всего подстроить сайт под потолок. И улетают запросы пропорционально тому, насколько трафик нужно срезать. Поэтому у одних запрос вылетает за третью сотню, а у других - за третий десяток. Все еще и очень сильно зависит от того, есть ли у сайта трафик по другим запросам. Если у сайта есть большой хвост НЧ, который способен исчерпать имеющийся "потолок", то ВЧ улетят в самую большую ж..у и даже СЧ могут улететь туда же. В общем, если теория верна, то она очень многое объясняет. Даже то, что первоисточник контента находится не на первом месте по точной фразе. Просто ГСы с ворованным контентом не могут выбрать даже маленький лимит показов, а первоисточник контента может исчерпывать его даже на хвосте НЧ. Вот и получаем выдачу не по релевантности и правообладанию, а по способности исчерпать установленный лимит показов. Ниже правообладателя оказываются сайты, которые тоже исчерпывают свой лимит.
И если теория верна, то разбавлять анкоры по вылетевшим ВЧ бесполезно, что и подтверждает практика. Нужен какой-то комплекс мер, который "улучшит качество сайта с точки зрения Гугла". Понять бы, что входит в этот комплекс.
Я сейчас скажу еще больше, он рубит поисковый ВЧ и НЧ траф по квоте, даже тогда, когда видит увеличившееся число переходов с ютуба, блогера, возможно еще с некоторых других его проектов.
Если предположить, что основным у гугла является общее количество показов и пингвин и Панда его меняют, то остается вопрос каким образом распределяется падение на -9, на -50 и - 250. А это загадка и вот здесь может влиять ссылочное. Те запросы, которые продвигались только тщательным отбором в миралинкс упали -9, смешанные мира , ггл и блогун -50 и без миры в ж…
А тут то что непонятно? Есть некое множество запросов, которым страницы сайта релевантны, и есть лимит показов. Есть аналогичные данные по всем остальным сайтам. По каждому запросу есть статистика, сколько показов в день дает первая, вторая, третья и т.д. страницы выдачи. Есть лимит показов. Осталось раскидать сайты по страницам выдачи различных запросов, чтобы каждый сайт не выходил за пределы отведенных ему показов. Если вашему сайту отведен лимит в 3000 показов и вы на НЧ выбираете их, то по вашим ВЧ и СЧ вы спокойно улетаете за несколько сотен позиций. Если же у сайта спектр релевантных запросов узок, то он может улететь по ВЧ всего лишь на несколько десятков позиций и там выбирать свой лимит. А сайты, которые сидят на первой странице по ВЧ либо практически только по этому ВЧ трафик и получают, либо имеют достаточно большой лимит показов. Вероятно последние и получают кучу позиций в ТОПе и даже на нескольких страницах ТОПа.
Вот вам и ответ, почему ГСы повылазили. Они заточены под ограниченное число запросов и лимит у них достаточен, чтобы быть по этим запросам на первой странице. Нормальные же сайты имеют приблизительно такой же или даже больший лимит, но выбирают его на менее частотных запросах.
Если продолжить мысль если это понижающий множитель к количеству показов, то понятно почему выходов из-под пингвина нет. Но если он будет постоянным, то тогда ж... Сайт попавший под пингвин должен прикладывать усилий больше как раз на этот множитель. :(
Ps. Интересно как влияет ПФ и CTR на распределение уровня позиций после падения.
PPS а 301 редирект отменяет этот понижающий множитель и не отменяет его если делать внутренний редирект.
Если продолжить мысль если это понижающий множитель к количеству показов, то понятно почему выходов из-под пингвина нет. Но если он будет постоянным, то тогда ж... Сайт попавший под пингвин должен прикладывать усилий больше как раз на этот множитель. :(
Ка я предполагаю, это касается не только пингвина, но и всех фильтров Гугла. Ведь в случае Панды работа осуществлялась не над одной вылетевшей страницей, а над всем сайтом целиком.
Ps. Интересно как влияет ПФ и CTR на распределение уровня позиций после падения.
ХЗ. "Знал бы прикуп, жил бы в Сочи".
PPS а 301 редирект отменяет этот понижающий множитель и не отменяет его если делать внутренний редирект.
Возможно новый сайт первоначально получает некое стандартное количество показов (вот вам и бонус новичка), а потом уже начинают поступать сигналы от фильтров и, если с сайтом ничего не делалось, то все возвращается на круги своя.
Ка я предполагаю, это касается не только пингвина, но и всех фильтров Гугла. Ведь в случае Панды работа осуществлялась не над одной вылетевшей страницей, а над всем сайтом целиком.
.
Согласен. Более того есть ощущение, что максимально допустимое количество показов это основной показатель, почти "мифический траст". Но не все сайты достигают потолка. Есть сайты, которые имеют возможность показа пусть 10000, но из-за позиций имеют пусть 8000 показов. Тогда можно предположить, что достижение потолка показов приводит к проверке сайта. Вот такая гипотеза может объяснять подъем ГС в топ и их последующее падение. Хотя слишком просто.
---------- Добавлено 15.10.2012 в 23:02 ----------
А тут то что непонятно? Есть некое множество запросов, которым страницы сайта релевантны, и есть лимит показов. Есть аналогичные данные по всем остальным сайтам. По каждому запросу есть статистика, сколько показов в день дает первая, вторая, третья и т.д. страницы выдачи. Есть лимит показов. Осталось раскидать сайты по страницам выдачи различных запросов, чтобы каждый сайт не выходил за пределы отведенных ему показов. .
А вот здесь не согласен. Близко, но статистика (правда маленькая), немного другая. А распределять можно за счет НЧ. Вот здесь может быть ctr и пф
Согласен. Более того есть ощущение, что максимально допустимое количество показов это основной показатель, почти "мифический траст". Но не все сайты достигают потолка. Есть сайты, которые имеют возможность показа пусть 10000, но из-за позиций имеют пусть 8000 показов. Тогда можно предположить, что достижение потолка показов приводит к проверке сайта. Вот такая гипотеза может объяснять подъем ГС в топ и их последующее падение. Хотя слишком просто.
Может быть что-то подобное и существует, но только какой в этом смысл, если "потолок" - это изначальная основа алгоритма ранжирования, а значит "потолок" должен изначально быть определен для каждого сайта, а совокупное количество показов должно практически совпадать с общим количеством показов в выдаче Гугла? Фактически, если предположение верно, то Гугл установкой таких параметров должен сводить "дебет" с "кредитом".
А вот здесь не согласен. Близко, но статистика (правда маленькая), немного другая. А распределять можно за счет НЧ. Вот здесь может быть ctr и пф
А можно подробнее, о чем вы говорите? Руководство CTR как раз противоречит методе "потолка". В ПФ, как и в "социальные сигналы" крайне слабо верится по причине того, что это не подтверждается практикой.
Может быть что-то подобное и существует, но только какой в этом смысл, если "потолок" - это изначальная основа алгоритма ранжирования, а значит "потолок" должен изначально быть определен для каждого сайта, а совокупное количество показов должно практически совпадать с общим количеством показов в выдаче Гугла? Фактически, если предположение верно, то Гугл установкой таких параметров должен сводить "дебет" с "кредитом".
.
Он может определяться кучей множителей, например
МаксимальноеКоличествоПоказовВДень=*Кстраницвиндексе*Кошибокнасайте*Квессылок*Кпингвин*Кпанда и т. д.
Количество показов по конкретным запросам в эту формулу не входят, при условии, что реальное число показов меньше максимального. А вот если имеется прогноз превышения количества показов, то начинается "мерцание" НЧ. Я просто до пингвина наблюдал скачкообразное изменение количество посетителей, по типу до 8 утра было до 30% от среднесуточного по гуглу, потом тишина до обеда и еще скачок и чуть-чуть вечером. Хотя основной поток у сайта в рабочее время
---------- Добавлено 15.10.2012 в 23:36 ----------
А можно подробнее, о чем вы говорите? Руководство CTR как раз противоречит методе "потолка". В ПФ, как и в "социальные сигналы" крайне слабо верится по причине того, что это не подтверждается практикой.
Здесь мне непонятно падение разных позиций, по разному. Еще раз проверил, но падение не кореллируется с частотностью, некоторая зависимость есть, но слабо выраженная и есть некоторая зависимость между ctr и падением позиции. Имевшие больший ctr падали меньше.
Трафик -> Поисковые запросы -> "запрос" -50% для продвигаемой страницы, а в выдаче в основном участвует куча непродвигаемых внутряков, где "запрос" просто упоминается в тексте, десяток таких внутряков имеет по +200% показов.
это так, мысли в слух, в дополнение к предыдущим постам))