- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
А мне кажется, что самый зачет, это повторные посещения пользователя. Один раз нашел сайт (через СЕРП или рекламу, или еще как-то) и потом на него вернулся, тогда 100% сайт данному пользователю полезен. Если не заходил на другие сайты той же тематики - большая вероятность накрутки.
жирный + тебе в карму.
Не думал об этом. И все мои попытки накручивать ПФ как раз дают 0 эффекта, если говорить о полной имитации.
А что до отказов - JS + немного аналогичной магии и у меня стабильно меньше 20% отказов (по гуглу, по яше куда меньше), хотя по факту 90% трафика на сайте фреймовый левак. И яндекс метрика и гугл аналитика судя по всем отчетам довольны. Полёт тоже вполне нормальный
своими силами? или сервис какой?
своими. но у меня побочный эффект как раз те самые "перезагрузки". Невидимый фрейм и погнал делать от лица юзера что захочешь...)) Главное ничего плохого не делать, и "вопросов" не будет. Вообще откуда эти перезагрузки берутся я и сам не понимаю. Но просмотров много, отказов как положено (20% вроде как круто, меньше отказов было бы я думаю подозрительно) - в общем вроде нормально.
Косвенно плюсы мне в этом есть, минусов нет. Почему бы и нет. Кушать не просит:)
ErrorNeo, поделитесь техническим решением?
А когда пользователь (как я, например) открывает из десятки 7-8 штук по вкладкам, после чего читает, что-то закрывая сразу, а что-то чуть погодя? Всем в плюс, но если вернулся листать вторую страницу - то всем в минус?
Это ваша привычная логика.
У ихних любимых матрикснетов может и аддитивности не быть... а местами и определённости.
ErrorNeo, поделитесь техническим решением?
я и так написал, JS + скрытые фреймы, можно задержками на таймерах.
Не знаю есть ли в этом смысл, но мне приятно в аналитике и метрике видеть сравнительно мало отказов даже при 90% фрейм трафика.
if(top.location!=self.location)
{}
</script>
один из вариантов отличить своих настоящих юзеров от фреймовых.
=============
Что касается переходов из поиска - я две недели программно сканирую поиск и создаю левые переходы по ссылкам в гугле. На один сайт переходы сразу если он есть в выдаче, на другой по хитрому - если он есть в выдаче то запрашиваются рандомно сайты с шансом 20% каждый (около 10 сек задержка на каждом), пока не дойдет до нужного, и на нем завершаемся. Кукесы пробовал сначала вообще не использовать, потом начал в процессе обработки выдачи хранить, и обнулять только при следующей выдаче.
В общем итог всех этих мероприятий, при том что я провожу их уже как две недели каждый день - НОЛЬ. Полный :-) Могу на вскидку предположить, что если гугл только что выдал тебе свой внутренний идентификатор, то твои переходы в поиске не считаются. А переходы без кукисов видимо и тем более не учитываются
JS + скрытые фреймы
Ну, это же не решение, а лишь общая информация.
Кукесы пробовал сначала вообще не использовать, потом начал в процессе обработки выдачи хранить, и обнулять только при следующей выдаче.
Аналогично - что именно сохраняли?
создаю левые переходы по ссылкам
Через прокси или через белого провайдера?
Ото всех подобных деталей и зависит эффективность действий.
куки сохранял либо никакие либо все как положено. IP белого провайдера, иногда хотя не часто меняется, сколько-то раз в день. Интуиция подсказывает, что проблема тут вовсе не в деталях а в чём-то глобальном. Типа того, что переходы "нового" для поисковика пользоваля не засчитываются. Причина такой интуиции - эффекта полный ноль. Тестирую естественно не на себе а на среднячковых конкурентах, которые ничего не меняют, не публикуют, не рассылают итд. Просто висят себе в поиске и явно не имеют никакого особого траста
В куках были данные об авторизации в поисковых сервисах, вроде я.паспорта?
я говорю только о гугле, это рас. Два - программа без кук запрашивает поиск, дальше с куками (всеми какие ставят) проходит по выдаче (грубо 1 сайт из 5) и останавливается на целевом сайте №1. Либо сразу с куками, которые дала выдача идет на целевой сайт №2. Дальше перед следующим запросом выдачи куки обнуляются.
И это все не рабоатет даже если будет продолжаться неспеша на протяжении пары недель, и со сменой IP пару раз в день. Юзерагенты пробовал разные, пробовал одинаковые (у гугла привязка реф.ссылки к версии юзерагента, например для хрома играет роль только его версия, вся остальная часть юзерагента на формирование реф ссылки вобще никак не влияет, даже OS). Совершенно никакого изменения позиций сайтов #1 и #2 не добился.