Директ хорошо помогает, когда сайт новый и на сайтe уже проработаны зоны для поведенческих. Также при условии, что он постоянно работает и на это выделяется бюджет, а если брать отдельный случай, когда Директ не используется и нужно погасить паразитный трафик, то не во всех случаях Директ поможет. Кто того и недешево это, как ни крути, а конкурентную ставку придётся оплатить.
В аудитной практике тоже частенько требуется. Народ на шаблонах и готовых компонентах сайты клепает, с вопросами обращается, приходится выгребать всякий ссылочный мусор в виде копирайтных ссылок.
И SiteAnalizer действительно самый оптимальный вариант. Быстро, бесплатно и без ограничений на кол-во страниц.
Относительно директа - сомневаюсь, а касаемо вдумчивой накрутки в плюс для нейтрализации паразитного трафика здесь тоже нужно точечно работать. Накрутчики Зенку освоят и радостные, скорей темы создавать по типу той, которую уже снесли, где ты мебельный сайт доверил, но они даже со статистикой не работают, зачастую долбят вслепую, а так можно и банан схлопотать.
Не только. На покупных саттелитах всегда проверяю, да и на различных аудитах тоже бывает полезно.
Несколько раз было, заказчик обращался, мол, так мол так, SEO-шник в штате сидит, а пол года позитивных результатов нет.
Посмотрел сайт и кроме всего прочего оказалось, что как раз у SEO-шника позитивные результаты есть - втихую с сайта продаёт ссылки и статьи в обход начальства.
Грубо говоря, если сайт нацеленно и точечно валят, то успокоительные шаблонные письма от Яндекса не помогут, поэтому, как говорится, клин клином.
В Гуглике без ссылочного профиля глухо. Правильно выше подсказали - приобретайте.
Я вот не понял, заказчик сайта кто? Интересы самого банка учитываются?
Или вы работали с банком, потом сотрудничество закончилось и теперь вы ходите наработанные активы перевести в интересы других банков?
Или это чисто информационный проект под MFA монитизацию?
По IP и маске подсети общих признаков нет?
Володь, никаких загадок. Анализируем паразитный трафик, определяем его характер и логику.
Допустим, если идёт отказной 2-3х секундный type in трафик и общая поисковая видимость начинает ползти вниз, то добавляем такой же трафик, но уже с полноценными сессиями. Но чаще всего критическим является именно "пустышный" трафик по рабочим запросам, вот им реально можно навредить среднему сайту. Сортируем пустышки, определяем прицельные запросы и по ним начинаем в плюс догонять полноценные сессии.
Но! Есть важный нюанс. Если сайт сам по себе "плоский" и на нём плохо проработано взаимодействие с пользователем, то такой сайт очень тяжело "возвращать". Долгие сессии не замещают отказной трафик.
Работа как правило бесполезная, приходится реально реструктуризировать страницы и принудительно внедрять точки конверсий.
Сергей, опять-таки, всё несложно. Заходим в метрику, сортируем отказные заходы, анализируем на предмет аномалий, примерно отделяем отказной пользовательский трафик от паразитного накрученного, как правило по действиям мышки видно, какого рода паразитный трафик.---------- Добавлено 09.05.2020 в 01:52 ----------
Увы, да. Описка стандартная - "Не беспокойтесь, этим нельзя повлиять на результаты ранжирования".
Как в известном мультике - "У нас надёжная система фильтрации и бла-бла-бла"..
Так и есть. Если общие результаты поведенческих можно раскачать, то сайт идёт вниз.
Да, всё верно вы говорите. Для региональной компании конечно во все эти темы нужно втягиваться самостоятельно или хотя бы искать толкового работника/партнёра, который будет подробно прорабатывать эту тему на должности рекламного директора.
Так или иначе за годы практики эти знания нарабатываться, главное, чтобы была потребность и мотивация этим заниматься с пониманием того, что это делается на годы вперед.