Драться - это про детей до 14 лет.
Для взрослых мужиков это чревато инвалидностью.
В любом возрасте это чревато инвалидностью. Безусловно, любой драки всевозможными путями нужно избегать, потому что чревато не только инвалидностью, но и принудительным ограничением свободы.
Однако, бывают моменты, когда обстоятельства не оставляют других шансов и ты должен быть готов, дабы уже лично для себя избежать унижения и инвалидности.
Для учета фавиконов есть отдельные апдейты.
Иногда полторы-две недели, иногда быстрее.
На скорость индексации фавиконки вы повлиять не сможете.
Да? Хмм.. странно, вроде не было такого. Спасибо за дополнение.
Теперь к сути вопроса,
Вообще никак причин для сомнения не вижу. Поисковикам абсолютно всё равно сколько стояла ссылка и в какой момент её заменили.
Добрый день коллеги!Мучает такой вопрос:Есть старый корпоративный сайт 1.0 . Главная страница - основной продукт этой компании. - продукт 1
1-main/
Компания расширяется и делает вторую версию сайта 2.0. Главная страница - 4 включает в себя описание всех продуктов компании и для каждого продукта компании создается новая страница. В том числе и для продукта 1
1- main/
1.1 -product 1/ (бывшая main/)
1.2-product 2/
1.3-product 3/
1.4-product 4/
Посоветуйте как сделать это расширение сайта и продуктов компании с минимальной просадкой в поисковой выдаче?
Сфера остается прежней. Контент на главной сильно меняется.
Смотрите. Очень многое зависит от темы, специфики и текущего топа.
Давать универсальный совет сложно, потому что нужно чётко знать рабочий контекст, но если воспринимать ситуацию сугубо умозрительно, то я 4 продукта вывел как офферы на внутренние страницы, а для Главной закрепил релевантность для соответствия по брендовому трафику (название компании).
На самой Главной - анонсы 4 продуктов.
Ничего удивительного, если на внутренней странице сигналов больше, чем у родительского раздела - да, она будет воспринята как полезная. А если родительский раздел не дотягивает по внутренним метрикам - может выбросить из индекса.
Никакого издевательства, всё логично.
В вашем случае - развивать раздел site.ru/category/ и чётко понимать происходящие процессы.
Не стоит. Результат может повториться.
Ну, пожалуйста, ваше право.
Ну, пожалуйста, не нравится условия Яндекс - ставьте GA и продвигайтесь в Гугле.
Пожалуйста, пожалуйста.. пользуйтесь ли.ру, если вам хватает функциональных данных.
Несколько не так. Вы воспринимаете следствие. А Метрика (код метрики) лишь создаёт доп. нагрузку на данные Core Web Vital, также как и какой-нибудь онлайт чат, либо другой грузный скрипт, который создаёт доп. нагрузку обработки данных.
Поставите счётчик GA - он тоже ухудшит показатели GPS.
Mastic :На GGL есть 30 доноров со статьями
Что будет если разом или постепенно заменить вести эти ссылки на URL сайта B?
Будет нарушение правил GGL. Так бы все меняли ссылки на другие сайты, когда надо.
Я так понимаю верстку вы поправили, но остались проблемы, обратите внимание.
Смотрите. Очень важный, определяющий момент. Материал может быть написано кем угодно, в какой угодно уникальности.
Но, ключевой момент - как реагирует пользователь на ваш материал - именно это для поисковой системы является мерилом качества и складывается оно из вовлеченности, глубины и времени просмотра, дифференцированных взаимодействий и отклика.
Вы анализируете эти показатели? Вы создаете условия для качественных преобразований их аспектов? А ведь ключевой вектор именно здесь. Материал можно быть многократно эксклюзивным и интересном, но если отклик поведенческий слабый, для поисковой системы это сигнал - не пускать страницы/сайт в топ.
Именно так.
На самом деле её нет, но самое явление имеет место быть.
Пара сотен рабочих страниц или пара сотен, которые вредоностные?
Если вредоностные - принудительно на удаление то, что в индексе, остальное вредоностные (включая эти) - в disallow.
Если ошибка обработки заявки на удаление, значит код ответа сервера отличный от 404, а в вашему случае должен быть 404 (проверьте.)
Лопатить в заявки на удаление все 43,5K загруженных страниц не нужно, они сами вылетят в запрете в robots (правда не сразу).
Яндекс вполне справиться с исключением страниц и при явном запрете disallow в robots. Гугл может долгое время игнорировать инструкцию disallow.
Ставить плагин для переиндексации я смысла не вижу, ваша задача не переиндексировать инородные адреса, а убрать из индекса. Со временем актуальность их пропадёт и ничего особо специально здесь придумывать, на мой взгляд, не нужно.
p.s. Ещё одним вариантом (без disallow), это проставить noindex в тег X-Robots-Tag в коде ответа сервера - это действительно сработает более универсально и для Яндекса, и для Гугла. Но стоит ли оно того - решать вам :)