По IP и маске подсети общих признаков нет?
Володь, никаких загадок. Анализируем паразитный трафик, определяем его характер и логику.
Допустим, если идёт отказной 2-3х секундный type in трафик и общая поисковая видимость начинает ползти вниз, то добавляем такой же трафик, но уже с полноценными сессиями. Но чаще всего критическим является именно "пустышный" трафик по рабочим запросам, вот им реально можно навредить среднему сайту. Сортируем пустышки, определяем прицельные запросы и по ним начинаем в плюс догонять полноценные сессии.
Но! Есть важный нюанс. Если сайт сам по себе "плоский" и на нём плохо проработано взаимодействие с пользователем, то такой сайт очень тяжело "возвращать". Долгие сессии не замещают отказной трафик.
Работа как правило бесполезная, приходится реально реструктуризировать страницы и принудительно внедрять точки конверсий.
Сергей, опять-таки, всё несложно. Заходим в метрику, сортируем отказные заходы, анализируем на предмет аномалий, примерно отделяем отказной пользовательский трафик от паразитного накрученного, как правило по действиям мышки видно, какого рода паразитный трафик.---------- Добавлено 09.05.2020 в 01:52 ----------
Увы, да. Описка стандартная - "Не беспокойтесь, этим нельзя повлиять на результаты ранжирования".
Как в известном мультике - "У нас надёжная система фильтрации и бла-бла-бла"..
Так и есть. Если общие результаты поведенческих можно раскачать, то сайт идёт вниз.
Да, всё верно вы говорите. Для региональной компании конечно во все эти темы нужно втягиваться самостоятельно или хотя бы искать толкового работника/партнёра, который будет подробно прорабатывать эту тему на должности рекламного директора.
Так или иначе за годы практики эти знания нарабатываться, главное, чтобы была потребность и мотивация этим заниматься с пониманием того, что это делается на годы вперед.
Нудить не буду, наливай штрафную ;)
p.s. А если серьезно, я думаю, TC сам пока не определился, что в итоге должно быть.
Поэтому я и написал,
Здесь всё зависит от информационной наполняемости и задач стратегического развития сайта.
Если сайту будет необходим коммерческий региональных трафик (допустим, у каждой компании, кроме общей информации будет свой перечень услуг и товаров), то конечно лучше разрабатывать инфраструктуру сайта с расчётом на региональные поддомены.
Если же это будет просто информационный справочник, который собирает ограниченную информацию по фирмам и юр. лицам, то проще в папках.
Пожалуйста. Желаю успехов! 🚬
Т,е. вы хотите спросить - злопамятный ли Яндекс? Нет, Яндекс беспристрастный (в анализе алгоритмов уж точно).
Вопрос не в том, припомнит ли старые грехи Яндекс, вопрос в том, какие ваши действия привели к фильтру.
Как разберетесь, вопрос уйдет сам собой.
Есть. Анализируются показатели, выявляются признаки, определяется логика.
То, что "давит" в минус, потихоньку "прибирается в плюс".
Вдумчивая, ручная работа..
Давно уже убедился в том, что СЯ надо собирать не под гипотетические запросы и рекомендуемые кластеры всякими сервисами (там порой такой бред), а строго под оффер т.е. под проработанное рекламное предложение. Так и только так!
Потому что чаще всего складывается так. Где-то под примерную тематику заказывают или собирают вслепую семантическое ядро, совершенно не понимания и не представляя специфику и тонкости бизнеса. Потом под эти запросные портянки пишутся портяночные тексты сторонним копирайтером, который тоже по сути лишь играет словами и переписывает то, что есть у конкурентов и на выходе получается сухой, абсолютно формальный текст, нашпигованный запросами и SEO-шник ломает голову, получит он под эти массы текста Баден-Баден или нет? Копирайтеру-то всё равно - он впишет сколько угодно запросов в какой угодно текст, получит деньги и досвидос. А то, что эти тексты читать невозможно, да и никто не будет.. ну вроде как надо для ключевой плотности - типа для SEO!
Заказчик потом смотрит и половину из написанного бракует со словами - этого нет и не будет, это вообще к нашей услуге не относится, это неактуально для продажи и т.д.
На этом этапе, кстати, нередко всё и заканчивается.. сеошник и копирайтер намолотили тонну запросов и десятки текстов, а заказчик говорит - вы конечно ребята старательные, но к моему бизнесу это постольку-поскольку: 10% вообще мимо, 10% не моё, 10% уже неактуально (не сезон и т.д.), 30% информационные запросы и в эти тексты я вкладываться не буду.. бюджет сокращается наполовину и люди расходятся с предубеждениями, что заказчики - жлобье поганое, а исполнители - непрофессионалы-любители, старатели быстренько получить деньги.
Вот и получается. Семантолог формально собрал, кластеризатор (или сам SEO-шник) по группам и кластерам на глаз раскидал, копирайтер тонны формальных текстов написал и SEO-шник думает, как эти простыни теперь в страницы воткнуть.. порочная практика.
Сначала подробно изучается бизнес модель клиента, потом выполняется SWOT анализ, потом разрабатывается УТП, - даже когда кажется, что всё одинаково - не всё одинаково и всегда есть специфические бизнес акценты и приёмы для проработки своего УТП. Потом разрабатывается концепция рекламного предложения и вот уже в контексте его с чётким понимаем услуг и товарного ассортимента надо формировать СЯ.
Семантика без маркетинга мертва.