Это вопрос приоритетов - вам попроще заплатить за услуги сервиса или посидеть поковыряться самому и без переплат?
Если первый вариант, то делите запросы на группы, заряжаете в какой-нибудь Allposition и снимаете результаты. Заодно увидите результаты конкурентной видимости (это важно, если далее будете заниматься продвижением).
Если первый вариант будет (ой, всё-таки хочется принципиально дешевле), то поднимаете Keycollector (если он у вас есть), покупаете (или регистрируете несколько аккаунтов) и последовательно выполняете задачу по парсингу данных.
Если в настоящий момент по указанному адресу физически уже другой текст, то ждите результатов переиндексации.
И чтобы вы хотели? Чтобы усилием воли SEO сообщества всё оставалось на 74% улучшений?
Или бесплатно провели работу, которую должен делать SEO специалист по вопросам обнаружения проблем зон и прогнозирования последующих результатов? Без доступа к статистике это сделать невозможно.
Позиции могут улучшаться, а могут и падать. Результат ранжирования сайтов динамичен и искать причинно-следственные связи нужно в условиях плотного контроля сайта.
По формальным признакам вряд ли вы получите рабочие ориентиры.
Здесь необходимо понимать следующее. На условия нахождение конкретного web документа в индексe влияет не только фактор востребованности, но также уникальность содержания, структурность, хостовые характеристики самого сайта. Посему действительно, если на посещаемом сайте есть раздел с информацией, которая может долго время не посещаться (и не ранжироваться в кликабельной зоне видимости), то это ещё не значит, что она вы вылетит по МПС. Страницы могут годами держаться в индексе (и многие примеры это подтверждают).
Так что отрицания с указанным и вышенаписанным мною здесь нет. Недавно разбирал в аудите пример и было конкретно установлено, что резкий всплеск TYPE IN трафика и трафика по рекламным канал начал процедуру возврата сотен тысяч товарных страниц. Как только трафик иссяк, неуникальные страницы начали теми же объёмами вываливаться из индекса.
Как раз таки нет. Я считаю, что полезность страницы не должна так явно зависеть от поведенческих и доп. сигналов. По крайней мере последние года два влияние ПФ очень сильно отразилось на результат устойчивости страницы в индексе.
Соб-но, Яндекс и оговаривает, что если страница получит пользовательскую востребованность, то она имеет шанс вернуться в индекс.
Какая же тогда по-вашему у Яндекса логика?
Генерирует из поисковой выдачи 20-50 человек в день?
Нет, не скажу. Пока не увижу источник трафика - не скажу.
Так, допустим. А в чём тогда её некачественность?
Это может быть связано не с качеством, а например с проблемами в доступе.
Думается мне, что в этом сторонняя причина. Если желаете, можете показать мне страницу в личку, я посмотрю.
Но потребуется полный доступ к Вебмастеру и Метрике.
Т.е. получается, что у вас картина следующая - Яндекс исключает из индекса за переспам (в вашей логике), далее вы убираете переспам - страница возвращается, - но теперь вы не добираете в релеватности по Гугле, - затем вы снова увеличивается ключевую плотность, Гугл возвращается, но снова проблемы с Яндексом? Так?
В общем-то уже многократно говорилось и повторялось, но стоит того, чтобы повторять при необходимости.
Ценность определяется не субъективным содержанием идей изложенных в тексте, а откликом и востребованностью данного материала в пользовательских сессиях. Если на страницу есть входящий трафик и интерактивные взаимодействия - страница доказываeт своё качество и востребованность. Будь там просто красная кнопка "Купить" на белом фоне.
И полярный пример. Можно хоть научную диссертацию в 100K знаков на невостребованной странице разместить, куда никто не ходит и не производит никаких действий - страница имеет высокие шансы выпасть в "маловостребованные". В сущности, сама формулировка отражает причинно-следственную связь.
Отсюда вывод. Мало разместить субъективно-полезный контент, мало решить все технические SEO нюансы. Над PR активностями сайта нужно работать и именно по пользовательскую отклику Яндекс будет решать полезная страница или нет.
Частично для это годятся прочие полезные сигналы - внешние ссылки, share-ы и т.д.
Да, спасибо, ценное дополнение к разговору 👌
В Москве уже нет никаких проблем определить схематичные перемещения объeкта, все его контакты платежей, использование карты, телефона и т.д. Весь центр Москвы на камерах.
Вот QR коды повсеместно в обязаловку введут и всё, даже ФИО не нужно будет. ПО QR коду будут определять, контролировать, нормировать, собирать компромат и т.д., Оруэлл в действии. Полный цифровой контроль.
Говоря о силуэтах, очевидно речь шла о камерах наружного наблюдения.
Я для себя вопрос интерпетировал несколько иначе, но если в этом ключе, то для меня ситуация видится в двух взаимоисключающих характеристиках. Пользователь легитимный и нелегитимный (сомнительный). Сомнительного запишут в бот активность, имитирующую пользовательскую активность и отсекут. Легитимный пройдёт, даже если просто зайдет на страницу и вообще не будет никаких активных действий выполнять. Таким образом удачная имитация может сойти за легитимного пользователя.
Телодвижения в накрутках - это вообще отдельная тема.
Человек, пытавшийся убедить, судя по всему, имеет очень нехилый опыт за плечами и не одну собаку съел в оптимизации-продвижении (называйте как хотите), но аргументов особых не предоставил, поэтому я просто не стал спорить и отнимать у него время, а решил задать этот вопрос на форуме.
Почему этот вопрос не даёт покоя?
Всё это, как говорится, разговорные эмоции. Спор больше теоретический, нежели практический.
Очевидно, что если Яндекс не получает конкретных данных о пользователей, то он о нём ничего не знает и самое главное - он ему не интересен для таргетирования. Вот как только пользователь попадает в экосистему Яндекса (элементарно посещает сайт, где стоит Метрика), вот тогда Яндекс о нём знает. Поэтому, как только проходит по касательной, он в зоне и начиная с данных его гостевого посещения он в контексте рабочей аудитории.
Здесь не надо сильно упираться рогами с оппозицию разговора и впадать в мистификацию. Очевидно, что активный пользователь скорее всего не пройдет незамеченных для Яндекса, поэтому все эти споры довольно бестолковое занятие.
Есть доступные данные - они фиксируются, нет данных - объект в слепой зоне. Всё, определите для себя и спокойно без лишних волнений живите дальше.
Можно годами сидеть на каком-нибудь тёплом месте, коллективно изображать видимость работы и годами жевать разных собак.
Если оппонент не может привести аргументов, обосновать свою позицию внятно и убедительно, то и рассматривать серьёзно его позицию не стоит. А оптимизатору это непростительно вдвойне.