- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева

В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Уже не первый раз на одном ресурсе наблюдаю такую картинку. Сайт резко взлетает по жирному запросу, до 2-3 места штатовском гугле, 3-5 дней прет траф, потом идет откат позиции, на прежнюю. Причем иногда это 300-е место может быть. Гугл проверяет качество ресурса таким образом или что? Типа если человек вернулся в поиск, то ресурс плохой или я брежу? :) Можно ли по кукам такую инфу собирать? Гугл аналитикса на сайте нет.
Такой тест, имхо, невозможен - не жирно ли тестировать по 3-5 дней один сайт по одному запросу при счете на миллиарды как сайтов, так и поисковых запросов в системе?
Логичнее предположить локальную неустойчивость поискового алгоритма. Система достаточно сложная. При туче параметров, использующихся в алгоритмах ранжирования, вполне могут быть точки, когда при малом изменении какого-либо одного фактора результат достаточно сильно меняется...
seraphim, мысль интересная :) Еще бы понять тогда факторы так сильно влияющие, и при этом на столь не продолжительное время.
Вот тут есть забугорная статья по этому поводу. Это происходит по той причине, что после проставления ссылок идет такой себе всплеск позиций, то есть гугл посмотрел что на страницу поставили много ссылок и для того чтобы определить позицию сайта в выдаче он берет какие-то поверхностные данные, поскольку если собирать сразу все подробные данные о всех сайтах, с которых стоят ссылки, то у него тупо не хватит ресурсов, чтобы обработать все подобный проекты какие есть в сети. Но через некоторое время он возвращается обратно и начинает переколбашивать все ссылки разбираясь что к чему и только после этого уже выносит реальный вердикт сайту. Обычно оно обозначается всплеском позиций, а потом небольшим откатом. Вот как.
У меня где-то по 50 высокочастотным кеям постоянные пляски. Но не с таким размахом и длительностью.
Болтает между 1 и 15 местом приблизительно. И более одного дня не длится.
Т.е. день на первом месте, день на 3, день на 12 и т.д...
...Это происходит по той причине, что после проставления ссылок идет такой себе всплеск позиций, то есть гугл посмотрел что на страницу поставили много ссылок и для того чтобы определить позицию сайта в выдаче он берет какие-то поверхностные данные, поскольку если собирать сразу все подробные данные о всех сайтах, с которых стоят ссылки, то у него тупо не хватит ресурсов, чтобы обработать все подобный проекты какие есть в сети. Но через некоторое время он возвращается обратно и начинает переколбашивать все ссылки разбираясь что к чему и только после этого уже выносит реальный вердикт сайту. Обычно оно обозначается всплеском позиций, а потом небольшим откатом. Вот как.
Не выдерживает никакой критики. Зачем брать сырые второстепенные данные и колбасить выдачу, если намного логичнее поступить наоборот - использовать то, что уже есть в индексе и постепенно разбираться с новыми данными? В Гугле не дураки сидят - наверняка рабастные методы используют...
Может, просто неправильно статью резюмировал? *ушел читать"
Не выдерживает никакой критики. Зачем брать сырые второстепенные данные и колбасить выдачу, если намного логичнее поступить наоборот - использовать то, что уже есть в индексе и постепенно разбираться с новыми данными? В Гугле не дураки сидят - наверняка рабастные методы используют...
Может, просто неправильно статью резюмировал? *ушел читать"
А по вашему намного логичнее выводить сайт в том, чтобы посмотреть как по нему будут кликать и как на него будут возвращаться ?? Посчитайте какое количество переменных прийдется держать n-ое количество времени. Если вы считаете что так логичнее, это не значит что так считают в гугле. Почитайте буржуйский эксперемент.
А по вашему намного логичнее выводить сайт в том, чтобы посмотреть как по нему будут кликать и как на него будут возвращаться ?? Посчитайте какое количество переменных прийдется держать n-ое количество времени. Если вы считаете что так логичнее, это не значит что так считают в гугле. Почитайте буржуйский эксперемент.
Нет, это я просто не так выразился. Но обратите внимание на графики в статье - после локального пика позиция снижается, но остается выше предыдущего уровня. А ТС описывает возврат на прежние позиции... Конечно, там из приведенных соотношений можно за уши притянуть и описываемый ТС случай (типа A>>B, B->0), но именно что за уши...
UPD. Хотя сам подумал: скачок 300->top5->300 отдельно взятого сайта что для пользователей ПС не такое уж событие, что для ПС никак нельзя считать таким уж расколбасом... Так, личная трагедия оптимизатора :) Так что похоже на правду, пасиба за линк...
Нет, это я просто не так выразился. Но обратите внимание на графики в статье - после локального пика позиция снижается, но остается выше предыдущего уровня. А ТС описывает возврат на прежние позиции... Конечно, там из приведенных соотношений можно за уши притянуть и описываемый ТС случай (типа A>>B, B->0), но именно что за уши...
Ну это происходит именно из-за вливания ссылочного веса. На графиках видно что когда он делает вливания ссылочного на первых порах позиции подскакивают, потом они снижаются до какого-то уровня, но большего чем начальный, ладно если бы такое произошло один раз, потом делает второй раз подлив ссылочного и опять точно та же история. Если судить по тому что тут говорилось, то второго раза уже быть не должно или гугл по вашему уже забыл, что на этот сайт плохо кликают в топе ???
Ну это происходит именно из-за вливания ссылочного веса. На графиках видно что когда он делает вливания ссылочного на первых порах позиции подскакивают, потом они снижаются до какого-то уровня, но большего чем начальный, ладно если бы такое произошло один раз, потом делает второй раз подлив ссылочного и опять точно та же история. Если судить по тому что тут говорилось, то второго раза уже быть не должно или гугл по вашему уже забыл, что на этот сайт плохо кликают в топе ???
Сайт проседает после пика никак не потому, что на него "плохо кликают в топе" а потому, что ПС каким-то образом уточняет "вес" нового фактора. Графики очень показательны, по форме напоминают график переходных процессов в АСУ с обратной связью... Любопытненько, прямо скажем...
Сайт резко взлетает по жирному запросу, до 2-3 места штатовском гугле, 3-5 дней прет траф, потом идет откат позиции, на прежнюю.
А с обновлениями вашего сайта это никак не связано?