Смотрите. Очень важный, определяющий момент. Материал может быть написано кем угодно, в какой угодно уникальности.
Но, ключевой момент - как реагирует пользователь на ваш материал - именно это для поисковой системы является мерилом качества и складывается оно из вовлеченности, глубины и времени просмотра, дифференцированных взаимодействий и отклика.
Вы анализируете эти показатели? Вы создаете условия для качественных преобразований их аспектов? А ведь ключевой вектор именно здесь. Материал можно быть многократно эксклюзивным и интересном, но если отклик поведенческий слабый, для поисковой системы это сигнал - не пускать страницы/сайт в топ.
Именно так.
На самом деле её нет, но самое явление имеет место быть.
Пара сотен рабочих страниц или пара сотен, которые вредоностные?
Если вредоностные - принудительно на удаление то, что в индексе, остальное вредоностные (включая эти) - в disallow.
Если ошибка обработки заявки на удаление, значит код ответа сервера отличный от 404, а в вашему случае должен быть 404 (проверьте.)
Лопатить в заявки на удаление все 43,5K загруженных страниц не нужно, они сами вылетят в запрете в robots (правда не сразу).
Яндекс вполне справиться с исключением страниц и при явном запрете disallow в robots. Гугл может долгое время игнорировать инструкцию disallow.
Ставить плагин для переиндексации я смысла не вижу, ваша задача не переиндексировать инородные адреса, а убрать из индекса. Со временем актуальность их пропадёт и ничего особо специально здесь придумывать, на мой взгляд, не нужно.
p.s. Ещё одним вариантом (без disallow), это проставить noindex в тег X-Robots-Tag в коде ответа сервера - это действительно сработает более универсально и для Яндекса, и для Гугла. Но стоит ли оно того - решать вам :)
Простите, и не должен. Зачем Яндексу столь молодому сайту давать позиции, он себя ещё не зарекомендовал.
Кстати, почему контекст Казахстан, а домен .ru? На чью аудиторию рассчитываете?
В том, что просто сайт со статичными абзацами и фотки из интернета - этого недостаточно для уверенного старта.
Логично. Пока сделано слишком мало.
Потому что для Яндекса в приоритете поведенческие факторы ранжирования.
Ну вот и формируйте такой контент, чтобы люди сами ставили ссылки и рекомендовали ваш сайта.
Буду рекомендации - будут позитивные изменения.
Потому что нет нужно объёма поведенческих сигналов. Некоторые называют это "песочницей".
Суть явления от названия не меняется.
Копать в сторону качественных преобразований текста. Для этого надо очень хорошо разбираться в материала и в информационных потребностях вашей целевой аудитории.
То, что сейчас - это неконкурентно, поэтому и прироста трафика вы получить не можете.
Вариант - покупать дешевые статьи, снабжать из картинками из интернета и активно развивать инфо сайт - не работает.
Вы либо по уши уходили в нишу и тогда у вас не возникает вопросов как создавать конкурентные тексты, либо продолжаете тратить время и деньги в общем-то на бесполезное занятие, уж простите за прямоту.
Чтобы я рекомендовал сервисы по накрутке? :) Взять на себя такую ответственность? :) Ой нет, увольте :)
Могу лишь сказать, что доверять и рассчитывать на работу в долгую на сервисы по накрутке - глупость. Все публичные методы и агрегированные методы рано или поздно нарываются на бан. Так было и во второй половине 10-х годов, так будет всегда.
Поэтому советовать конкретные сервисы точно не буду.
Это всё равно не цель - это промежуточная задача. Позиции информационнику для чего? Контекстную рекламу продавать?
Поднять ИМ - для чего? Обеспечить бизнесу продажи или поместить в личное портфолио?
Не в этом дело. Затишье будет когда перестанете работать с постановкой и проверкой задач.
Там другая проблема - сколько бы вы не поставили ценник, всегда будет от 30 до 50% которые просто будут присылать фиктивные отчёты - это раз. И Метрика большую часть заходов не будет видеть - это два.
Можно написать и про три, и про четрые.. но это на собственном опыте. Поработаете на длинной дистанции - столкнетесь.
То, что ты называешь пессимизацией на самом деле банальная нехватка данных для соответствия текущему конкурентному уровню по поведенческим. Вследствие этого - сайт ползёт вниз.
Возвращается Метрика - для Яндекса возвращаются данные для анализа.
Это всё равно, что в поликлинике потерял карточку и тебя заново погнали по процедурам восстанавливать историю твоих болезней.
Ухудшение не равно наказанию. Я говорил о наказаниях, а то, что сайт теряет часть важных данных для анализа, которые участвуют в алгоритмах для ранжирования должно быть очевидно (выше об этом написал).
Т.е. сливать инфу? А как же заезженная многими фраза: «Мы никому не передаем и не продаем персональные данные». Или на большой выборке их уже можно не считать персональными?
Выдают под соусом «маркетинговые исследования»?
Вот здесь абсолютно верно.
А зачем Яндексу высоко ранжировать те сайты, где пользователь отсекает инструменты для проведения качественной оценки? Милости просим в конец очереди..
Вот оно и "пессимизация".
Грамотная накрутка и нехитрые способы - это антонимы.
Для всех страниц можно поставить canonical, а для тех, что не являются каноническими - уточнить канонические.
Всё зависит от конкретной рабочей ситуации.
Если у вас проблемы с вылетом из индекса страниц пагинаций, то им и нечего делать в индексе - указывайте каноникал на родительский раздел.
А если у вас вылетают карточки товара, потому что там дублируется описание, текст неуникальный и Яндекс выкидывает её как малоценную, то это уже совсем другой рабочий случай.
Нехитрых = несложных - нет.
Все нехитрые доступные вам вы уже озвучили.
Дальше, если легитимно и ответственного, то проработка SEO кондиций + дополняющие приёмы digital маркетинга (что скорее всего потребует доп. вложений).
Если заниматься качественной проработкой сайта не хотите (или нет ресурсов), экспериментируйте с накруткой.
Соб-но, здесь надо определиться с тем, к какому итоговому результату вы хотите прийти.
Просто держать информационник на плаву до лучших времен - одна история.
Получать лиды с ИМ магазина - совершенно другая история.
Устранять дубли, уникализировать, повышать его качество.
Ставьте региональность, потому что конкурировать с туристическими агрегаторами вы всё равно не сможете, а искать вас буду скорее всего по названию и через карту Яндекса.
Большинство сайтов - отелей/гостиниц/гостевых домов кормятся трафиком от тур. сайтов а-ля букинг. Конкурировать в серпе с ними - это долгие месяц/годы или накрутка.
Увы, ничего новому сайту очередного отеля в топе по такому запросу не светит, там годами ниша в состоянии сверхактивной конкуренции.
Правильно.
Да, потому что ищут нередко по локации.
Для того, чтобы рассчитывать на этот вариант нужно понимать, что сайт должен быть достаточно популярный и раскрученный, чтобы ПС рекомендовала его в других регионах, а там, к слову, свои местные тур. операторы, которые занимают топ.