Добрый день коллеги!Мучает такой вопрос:Есть старый корпоративный сайт 1.0 . Главная страница - основной продукт этой компании. - продукт 1
1-main/
Компания расширяется и делает вторую версию сайта 2.0. Главная страница - 4 включает в себя описание всех продуктов компании и для каждого продукта компании создается новая страница. В том числе и для продукта 1
1- main/
1.1 -product 1/ (бывшая main/)
1.2-product 2/
1.3-product 3/
1.4-product 4/
Посоветуйте как сделать это расширение сайта и продуктов компании с минимальной просадкой в поисковой выдаче?
Сфера остается прежней. Контент на главной сильно меняется.
Смотрите. Очень многое зависит от темы, специфики и текущего топа.
Давать универсальный совет сложно, потому что нужно чётко знать рабочий контекст, но если воспринимать ситуацию сугубо умозрительно, то я 4 продукта вывел как офферы на внутренние страницы, а для Главной закрепил релевантность для соответствия по брендовому трафику (название компании).
На самой Главной - анонсы 4 продуктов.
Ничего удивительного, если на внутренней странице сигналов больше, чем у родительского раздела - да, она будет воспринята как полезная. А если родительский раздел не дотягивает по внутренним метрикам - может выбросить из индекса.
Никакого издевательства, всё логично.
В вашем случае - развивать раздел site.ru/category/ и чётко понимать происходящие процессы.
Не стоит. Результат может повториться.
Ну, пожалуйста, ваше право.
Ну, пожалуйста, не нравится условия Яндекс - ставьте GA и продвигайтесь в Гугле.
Пожалуйста, пожалуйста.. пользуйтесь ли.ру, если вам хватает функциональных данных.
Несколько не так. Вы воспринимаете следствие. А Метрика (код метрики) лишь создаёт доп. нагрузку на данные Core Web Vital, также как и какой-нибудь онлайт чат, либо другой грузный скрипт, который создаёт доп. нагрузку обработки данных.
Поставите счётчик GA - он тоже ухудшит показатели GPS.
Mastic :На GGL есть 30 доноров со статьями
Что будет если разом или постепенно заменить вести эти ссылки на URL сайта B?
Будет нарушение правил GGL. Так бы все меняли ссылки на другие сайты, когда надо.
Я так понимаю верстку вы поправили, но остались проблемы, обратите внимание.
Смотрите. Очень важный, определяющий момент. Материал может быть написано кем угодно, в какой угодно уникальности.
Но, ключевой момент - как реагирует пользователь на ваш материал - именно это для поисковой системы является мерилом качества и складывается оно из вовлеченности, глубины и времени просмотра, дифференцированных взаимодействий и отклика.
Вы анализируете эти показатели? Вы создаете условия для качественных преобразований их аспектов? А ведь ключевой вектор именно здесь. Материал можно быть многократно эксклюзивным и интересном, но если отклик поведенческий слабый, для поисковой системы это сигнал - не пускать страницы/сайт в топ.
Именно так.
На самом деле её нет, но самое явление имеет место быть.
Пара сотен рабочих страниц или пара сотен, которые вредоностные?
Если вредоностные - принудительно на удаление то, что в индексе, остальное вредоностные (включая эти) - в disallow.
Если ошибка обработки заявки на удаление, значит код ответа сервера отличный от 404, а в вашему случае должен быть 404 (проверьте.)
Лопатить в заявки на удаление все 43,5K загруженных страниц не нужно, они сами вылетят в запрете в robots (правда не сразу).
Яндекс вполне справиться с исключением страниц и при явном запрете disallow в robots. Гугл может долгое время игнорировать инструкцию disallow.
Ставить плагин для переиндексации я смысла не вижу, ваша задача не переиндексировать инородные адреса, а убрать из индекса. Со временем актуальность их пропадёт и ничего особо специально здесь придумывать, на мой взгляд, не нужно.
p.s. Ещё одним вариантом (без disallow), это проставить noindex в тег X-Robots-Tag в коде ответа сервера - это действительно сработает более универсально и для Яндекса, и для Гугла. Но стоит ли оно того - решать вам :)
Простите, и не должен. Зачем Яндексу столь молодому сайту давать позиции, он себя ещё не зарекомендовал.
Кстати, почему контекст Казахстан, а домен .ru? На чью аудиторию рассчитываете?
В том, что просто сайт со статичными абзацами и фотки из интернета - этого недостаточно для уверенного старта.
Логично. Пока сделано слишком мало.
Потому что для Яндекса в приоритете поведенческие факторы ранжирования.
Ну вот и формируйте такой контент, чтобы люди сами ставили ссылки и рекомендовали ваш сайта.
Буду рекомендации - будут позитивные изменения.
Потому что нет нужно объёма поведенческих сигналов. Некоторые называют это "песочницей".
Суть явления от названия не меняется.
Копать в сторону качественных преобразований текста. Для этого надо очень хорошо разбираться в материала и в информационных потребностях вашей целевой аудитории.
То, что сейчас - это неконкурентно, поэтому и прироста трафика вы получить не можете.
Вариант - покупать дешевые статьи, снабжать из картинками из интернета и активно развивать инфо сайт - не работает.
Вы либо по уши уходили в нишу и тогда у вас не возникает вопросов как создавать конкурентные тексты, либо продолжаете тратить время и деньги в общем-то на бесполезное занятие, уж простите за прямоту.
Чтобы я рекомендовал сервисы по накрутке? :) Взять на себя такую ответственность? :) Ой нет, увольте :)
Могу лишь сказать, что доверять и рассчитывать на работу в долгую на сервисы по накрутке - глупость. Все публичные методы и агрегированные методы рано или поздно нарываются на бан. Так было и во второй половине 10-х годов, так будет всегда.
Поэтому советовать конкретные сервисы точно не буду.
Это всё равно не цель - это промежуточная задача. Позиции информационнику для чего? Контекстную рекламу продавать?
Поднять ИМ - для чего? Обеспечить бизнесу продажи или поместить в личное портфолио?
Не в этом дело. Затишье будет когда перестанете работать с постановкой и проверкой задач.
Там другая проблема - сколько бы вы не поставили ценник, всегда будет от 30 до 50% которые просто будут присылать фиктивные отчёты - это раз. И Метрика большую часть заходов не будет видеть - это два.
Можно написать и про три, и про четрые.. но это на собственном опыте. Поработаете на длинной дистанции - столкнетесь.
То, что ты называешь пессимизацией на самом деле банальная нехватка данных для соответствия текущему конкурентному уровню по поведенческим. Вследствие этого - сайт ползёт вниз.
Возвращается Метрика - для Яндекса возвращаются данные для анализа.
Это всё равно, что в поликлинике потерял карточку и тебя заново погнали по процедурам восстанавливать историю твоих болезней.
Ухудшение не равно наказанию. Я говорил о наказаниях, а то, что сайт теряет часть важных данных для анализа, которые участвуют в алгоритмах для ранжирования должно быть очевидно (выше об этом написал).
Т.е. сливать инфу? А как же заезженная многими фраза: «Мы никому не передаем и не продаем персональные данные». Или на большой выборке их уже можно не считать персональными?
Выдают под соусом «маркетинговые исследования»?
Вот здесь абсолютно верно.
А зачем Яндексу высоко ранжировать те сайты, где пользователь отсекает инструменты для проведения качественной оценки? Милости просим в конец очереди..
Вот оно и "пессимизация".