- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Траст и поведенческие стали влиять много сильнее всего остального, согласен с Sower. Стоит глянуть на тот же Амазон, который занял топы по миллионам среднечастотных запросов исключительно за счет общего веса/траста и высоких значений ПФ (большая глубина просмотра, малый процент отказов)
Траст и поведенческие стали влиять много сильнее всего остального, согласен с Sower. Стоит глянуть на тот же Амазон, который занял топы по миллионам среднечастотных запросов исключительно за счет общего веса/траста и высоких значений ПФ (большая глубина просмотра, малый процент отказов)
По поводу поведенческого фактора, как уже писал выше, не думаю, что эти данные сколько-то существенно влияют. Скорей есть минимум, при котором сайт получает минус. Если статистика по ним выше минимального порога, то просто не получаешь минус и всё. На сколько я понял, если сайт просматривается на 2 страницы при 2 минутах (например как aport.ru), то это не хуже, чем если бы просматривался на 20 страниц по 20 минут. С отказами и прочим так же.
В общем если сайт не имеет длинную безупречную историю, то уже не сможет занять прошлые позиции по ВК ВЧ, можно только попытаться уменьшить порог отката позиций.
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
Траст и поведенческие стали влиять много сильнее всего остального, согласен с Sower. Стоит глянуть на тот же Амазон, который занял топы по миллионам среднечастотных запросов исключительно за счет общего веса/траста и высоких значений ПФ (большая глубина просмотра, малый процент отказов)
На амазон стоят сотни тыщ беков, причем люди платят чтобы поставить на амазон беклинк, засчет его партнерской программы. Гениальная бизнес модель! Получать денюжку, чтобы наращивать себе ссылки.
На амазон стоят сотни тыщ беков, причем люди платят чтобы поставить на амазон беклинк, засчет его партнерской программы. Гениальная бизнес модель! Получать денюжку, чтобы наращивать себе ссылки.
А что сейчас стоят эти беки....
Ситуация изменилась. Рега домена сейчас важней беков.
У меня с гугли всегда было хуже, щяс посмотрел ещё траф упал раза в 2 оттуда.
А что сейчас стоят эти беки....
Ситуация изменилась. Рега домена сейчас важней беков.
Делаю сайты на старых доменах только, далеко не всегда помогает:(
Делаю сайты на старых доменах только, далеко не всегда помогает:(
На на доменах, у которых в whois написана древняя регистрация?
Если доменное имя 10 лет переходит из рук в руки, то оно не старое.
Рега домена сейчас важней беков.
Что же тогда под замес попал сайт на домене 2004 года? В 2008 году появился текущий проект, до этого был сайт такой же темы.
Unlock добавил 11.05.2011 в 18:36
Скорей есть минимум, при котором сайт получает минус.
Показатель отказов это какой-то сферический конь. В каждом случае абсолютно разные выводы можно делать. Есть к примеру у меня сайт-справочник. Человеку там надо узнать пару цифр. Он зашел, узнал и закрыл страницу. Врядли ему более 20-30 секунд понадобится. И что? Раз просмотрел одну страницу и не долго, то значит плохой сайт или же он нашел необходимую страницу?
А если будет MFA, то человек может долго читать заточенную под кеи статью и нифига в итоге не найти.
Что же тогда под замес попал сайт на домене 2004 года? В 2008 году появился текущий проект, до этого был сайт такой же темы.
В whois написано 2004?
Показатель отказов это какой-то сферический конь. В каждом случае абсолютно разные выводы можно делать. Есть к примеру у меня сайт-справочник. Человеку там надо узнать пару цифр. Он зашел, узнал и закрыл страницу. Врядли ему более 20-30 секунд понадобится. И что? Раз просмотрел одну страницу и не долго, то значит плохой сайт или же он нашел необходимую страницу?
А если будет MFA, то человек может долго читать заточенную под кеи статью и нифига в итоге не найти.
То есть, по вашему, если средний юзер просматривает 1 страницу за пол минуты, то сайту не будет минуса?
В whois написано 2004?
Да.
Creation Date: 2004.12.25
Updated Date: 2009.04.06
Expiration Date: 2011.12.25
То есть, по вашему, если средний юзер просматривает 1 страницу за пол минуты, то сайту не будет минуса?
Мне просто не понятно, как ПС могут делать однозначные выводы по этому показателю. И это меня пугает. Раз ввели это показатель, то вполне могу учитывать. Но он не является однозначным, очень сильно зависит от разных факторов. Если человек быстро ушел со страницы или вообще с сайта, о чем это говорит? Что он не нашел необходимую информацию или наоборот нашел? Очевидно что и тот и другой вариант имеет право на существование и так в действительности и есть. От ресурса зависит.
Показатель отказов хорош для рекламы, чтобы понять тот ли кейворд используется для рекламы или нет. По крайней мере в части случаев. А вот как показатель качества сайта для ПС, ох как спорно.