"Ну, сиди, не сиди - а начинать надо" ©Я для себя пришёл к выводу, что ковид этот ваш - это первый реальный вирус, сделанный по типу компьютерных. Его задача - перепрограммирование клеточных и генетических свойств организма. По "ковидом" понимается как бесплатно распространяемая версия, так и версия, рассматриваемая как "вакцина". Оба варианта предназначены для обучения организма продуцированию S-белка. Ничего подобного ни один предыдущий вирус тупо не умел. Но ковид - биологическое оружие, искусственно выведенное для переформатирования человечества.И да: я не думаю, что он распространяется естественным образом, воздушно-капельным путём и т.п. Это вам, идренть, не Артём какой-нито, это - будущее.Короче, все там будем - кто благодаря заразе, кто от вакцинации, прозит.
Ну во-первых да. Во-вторых, даже несезонные тренды меняются - запрос может падать, может расти. Это тоже надо проверять.
Кейколлектором с Директа снимайте. Плюс "сезонность" по Вордстату из того же Кейколлектора. Плюс ключи стоит валидировать подсказочником, много мусора можно отсеять на старте.
Я в основном смотрю на CTR по Директу. Меньше 5% - заведомо мусор, можно на автомате фильтровать (если частотка не слишком вкусная). В Директе крутят много шлака, но CTR более-менее даёт объективные данные. Ну, и по итогам кластеризации - смотрите, кто там в топах и с чем. Если запрос хотя бы спектральный - можно брать в работу. Если блоги-статейки - в мусор (мы же о коммерции говорим?).
Над реализацией стоит думать уже ближе к финалу: после сбора, чистки-фильтрации, кластеризации и приоритизации запросов. Если есть сомнения - анализ топов всегда в помощь плюс возможность проработать список с помощью кастомных KEI (формулу выбирайте сами, из готовых или свою). Как по мне, Яндекс начал унифицироваться вслед за Гул, полнота соответствия запросу решает. То есть если с год назад вам надо было максимально развернуть коммерческую структуру на посадке, показав все доступные категории и теги, то сейчас опять надо смотреть и на вспомогательный текстовый (и медийный) контент. Чем более запрос похож на общий, а интент - мутный, тем больше необходимость в добавлении вспомогательного информационного контента.Ну вот для примера: месяц назад добавлен текст и чуть проработаны другие зоны - это товарная категория, в топах - цветуёчные магазины-сети по всей Мск. Это уже можно пинать ссылочным и ПФ. Текстик - общего характера, по сути для Вики в самый раз. Но контент реально уникальный, нету его в рунете, и страничка влезла в топы и по униграмме (её даже маркером тут не назовёшь). Траф по ней тоже пошёл, хотя по позициям пока до топов далековато.
А смысл? Стату Яндекс берёт с выдачи, внутренние посткликовые метрики, судя по всему, не так уж важны. Да и в целом любой сайт укладывается в некоторые нормативные шаблоны, о которых Яндекс и так знает всё (или делает вид).Хотя сейчас снос Метрики хотя бы ускорит загрузку сайта, потому что как система статистики Метрика уже явно не канает.
В регионах, где крутят мало - может быть, и вариант. Ну или там другие регионы блокнуть. В Мск и СПб - не вариант, потому что неизбежно будут заблокированы люди - и в основном именно люди.
Грубо говоря - любые, любой спам: текстовый, ссылочный, поведенческий и т.п.Вычислить "взломщика" не так просто, но можно. Оцениваете видимость по заданному пулу запросов и видите какого-то "спортсмена", вдруг резко полезшего вверх. Дальше - дело техники: если по текстовым факторам там сплошь соответствие медиане, ничего явно инновационного, и это явно не аффилированный партнёр Яндекса - что-то там не то.В любом случае стоит отталкиваться от усредненных значений по топам, отсеивая всякие там авито, яндекс-маркеты, профи, леруа, вайлдберриз и прочие ресурсы, торчащие в топах явно не благодаря проработке семантики и структуры.Накрученные же и надолго занявшие топы сайты вполне себе могут и должны оцениваться как эталон, если топы они держат стабильно - они и задают эту самую текстовую релевантность по итогам.
В Британии проблем не будет. А вот в каком-нибудь Бангладеш - вполне себе.
Аудитория сайта - весь мир. Ну, с монгольским и турецким проблем нету, а вот на языках международного общения уже траблы, и выдача была не всегда на том языке, на котором сформулирован запрос. Что там сейчас - не проверял, но проблема была - и решить её удалось только с помощью hreflang.
Такой-такой. Занимался многоязычным сайтом, Гугляша запросто собирал ссылки из разных документов на один сниппет, да и в выдаче по запросам на одном из языков было месиво. И длилось это долго, аккурат пока хрефланги не воткнули. Собственно, вот какая фигня на выдаче и сейчас: