Ботов в том числе через сервисы Яндекса и прокачивают.
Задача такая: есть 40 "моих" публикаций на разных сайтах. Есть три ключфразы по которым они двигаются. Проверять позиции нужно в 8 регионах гугла и сдавать отчет заказчику.
Сделать подобную проверку и отчёт классическими методами не получится. То есть, создать в чекере позиций 40 проектов, в каждом из которых съём по 8 регионам - получится 320 отчетов с позициями.
Есть ли какие то сервисы, с помощью которых можно решить подобную задачу?
Попробуйте через алиасы.
Т.е. формируете список доменов, где у вас размещается 40 публикаций.
Далее, например, в Allposition заводите рабочий проект, в проекте прописываете эти 40 алиасов,
и создаете 1-ый нужный вам регион (выдачу региона Гугла там также можно выбрать).
Далее последовательно создаете 8 таких проектов. Каждый проект - отдельный регион.
После разово запускаете проверку по 8 регионам и у вас будет 8 рабочих метрик по позициям.
Далее как вам угодно - хотите дайте гостевые ссылки, чтобы клиент смотрел сам, а можете выгружать собственноручно 8 Excel файлов и производить с ними последующие рабочие действия.
Корректно проверять в одной системе отчёта, либо XML режим, либо ручная проверка.
При ручной проверке на результат влияют персональные данные того, кто выполняет проверку.
Так даже при ручной проверке у вас может быть один результат (с учётов региона), у заказчика (в том же регионе) - другой.
Нет понятия "точно", есть персонализированная выдача.
Поэтому лучше использовать XML выдачу (в своём инструменте), либо через сервис и оценивать динамику в изменении позиций.
В отдельных случаях вполне может быть нормой.
Выполняете несколько анализов в разное время и в рабочую выборку берете тех конкурентов, которые устойчивы, а те, что эпизодично залетели и выпали - не берете.
Если по изображению, то нажав вот сюда
загрузите копию изображения (или вставьте ссылку на изображение).
Используете оператор site, далее переходите в режим поиска по Картинам.
Здравствуйте. Вопрос от новичка.
Как поступить. С нуля собрать СЯ (вордстат, кейколектор и т,п) , или же контент план на основе топ10 поисковой выдачи (конкурентов), дополнительно прорабатывая LSI ?
Сначала формируется семантика, затем по семантике планируются контентные задачи.
Когда нужно поделиться, конечно пользуюсь.
Покажите сайт и проблемы скорее всего будут наглядны.
p.s. Что по истории домена?
Не вижу проблемы. В чём сложность поставить галочку и работать дальше?
Примерно также как самочувствие на настроение.
Т.е. можно зайти в топы и с неестественным профилем, а можно получить пост фильтр за переспам анкоров.
Раньше Яндекс довольно сильно понижал за некачественные ссылки, поэтому и возникла эта методика "разбавок" и естественности ссылочного профиля. Сейчас в Яндексе ссылки не рулят от слова "совсем", но могут помочь для развития молодого сайта. В целом рабочий зрелый сайт должен иметь ссылки, поэтому когда ссылок вообще нет, а сайт рванул в топы накруткой, то это доп. признак алгоритмам для его пессимизации.
В Гугле тоже есть понижение за некачественные ссылки, но я его ни разу не ловил, хотя никогда и не спамил дешманскими ссылками на рабочие проекты.
Ключевой момент здесь вот в чём. Работу с сайтом (тем более с информационным) нужно планировать так, чтобы сайт сам прирастал естественным ссылками. Как минимум, если сайт активно продвигается, то в течение нескольких месяцев к нему прилипают всякие ссылки из доменных списков и различных сервисов, которые автоматически заносят сайт в базу и поисковик подхватывает оттуда рабочие ссылки. Поэтому, если сайт качественный и активно развивается, то он сам инициирует события, чтобы у него росла база естественных ссылок.
Поэтому нацелено покупать на зрелый сайт и вообще взять это как основную методику ссылочного развития я бы не стал. Делайте качественные рекламные посевы и пользовательские ссылки небыстро, но будут возникать благодаря вашему контенту и пользовательской активности. Понятно, что здесь нужна нацеленная работа с аудиторией, чтобы они шарили и ставили ссылки на ваш сайт, но это отдельная тема.
Это значит увеличивать объём внешних ссылок.
Внешняя ссылка - это цитирование. Слово "цитирование" закрепилось ещё с понятий: ТИЦ и ВИЦ, а оно в свою очередь появилось из "цитирования источников" из академической научной среды.
Рост позиций в целом зависит от уровня поисковой авторитетности сайта. А авторитетность сайта зависит от его хостовых характеристик и окружения внешних ссылок, поэтому в самом общем смысле мероприятия по увеличению ссылочной профиля - это путь к увеличению поисковой авторитетности и как следствие - росту позиций.
В инфо сайта основную часть трафика генерируют внутренние страницы, поэтому безанкорка на Главную конечно сможет улучшить трастовый показатель, но на более поздних этапах это будет гораздо меньше на ранжировании внутренних страниц.
На первых этапах - да, но потом, спустя пол года и далее вы не получите той динамики, придётся работать с целевыми страницами.
Не воспринимайте это как задачку по физике, что если увеличить напор общей трубы, то давление распределиться и также увеличиваться по остальным трубкам. В алгоритме уже давно действуют понижающие факторы, которые не дают увеличивать влияние ссылочного бесконечно и делать разрыв в ранжировании только благодаря ссылочному.
В целом, пробуйте, для этого у вас есть и бюджеты и возможности, но спустя 8-10 месяцев вы скорее всего придете к результату, что на более зрелых этапах покупка ссылок перестанет давать заметное увеличение. И вот тогда имеет смысл остановить и перераспределить ресурс в другие точки роста.