Антоний Казанский

Антоний Казанский
Рейтинг
802
Регистрация
12.04.2007
Должность
Частный интернет-маркетолог и SEO специалист
Интересы
Интернет-маркетинг, SEO, интернет реклама
Подробности на сайте https://akazansky.ru
webinfo #:

Драться - это про детей до 14 лет.

Для взрослых мужиков это чревато инвалидностью.

В любом возрасте это чревато инвалидностью. Безусловно, любой драки всевозможными путями нужно избегать, потому что чревато не только инвалидностью, но и принудительным ограничением свободы.

Однако, бывают моменты, когда обстоятельства не оставляют других шансов и ты должен быть готов, дабы уже лично для себя избежать унижения и инвалидности.

dansing #:
Первый раз использую формат svg, все прописал, во всех браузерах видно, но вебмастер пока не видит.  

Для учета фавиконов есть отдельные апдейты.


dansing #:
Подскажите у кого как долго индексируется фавиконки? 

Иногда полторы-две недели, иногда быстрее.

На скорость индексации фавиконки вы повлиять не сможете.

Mastic #:
Да вроде GGL позволяет это делать за доплату!

Да? Хмм.. странно, вроде не было такого. Спасибо за дополнение.


Теперь к сути вопроса,

Mastic :
Как отреагирует ПС если 3-4 года был URL на один сайт, а в течение 1 месяца поменялся на URL другого сайта? 

Вообще никак причин для сомнения не вижу. Поисковикам абсолютно всё равно сколько стояла ссылка и в какой момент её заменили. 

StanKrake :

Добрый день коллеги!
Мучает такой вопрос:
Есть старый корпоративный сайт 1.0 . Главная страница - основной продукт этой компании. - продукт 1

1-main/

Компания расширяется и делает вторую версию сайта 2.0. Главная страница - 4 включает в себя описание всех продуктов компании и для каждого продукта компании создается новая страница. В том числе и для продукта 1

1- main/

1.1 -product 1/ (бывшая main/)

1.2-product 2/

1.3-product 3/

1.4-product 4/

Посоветуйте как сделать это расширение сайта и продуктов компании с минимальной просадкой в поисковой выдаче?

Сфера остается прежней. Контент на главной сильно меняется.

Смотрите. Очень многое зависит от темы, специфики и текущего топа.

Давать универсальный совет сложно, потому что нужно чётко знать рабочий контекст, но если воспринимать ситуацию сугубо умозрительно, то я 4 продукта вывел как офферы на внутренние страницы, а для Главной закрепил релевантность для соответствия по брендовому трафику (название компании).

На самой Главной - анонсы 4 продуктов.

dansing #:
Страница site.ru/category/  определена как  Малоценная или маловостребованная и выброшена из индекса, а страница site.ru/category/page/2 видимо очень востребованная и ценная и закинута в индекс.

Ничего удивительного, если на внутренней странице сигналов больше, чем у родительского раздела - да, она будет воспринята как полезная. А если родительский раздел не дотягивает по внутренним метрикам - может выбросить из индекса.


dansing #:
Ну что за издевательство

Никакого издевательства, всё логично.


dansing #:
как с этим бороться?

В вашем случае - развивать раздел  site.ru/category/  и чётко понимать происходящие процессы.


dansing #:
Может перекинуть на новый домен? Сайт все равно новый, вдруг чудо произойдет....

Не стоит. Результат может повториться.

dansing #:
и я воспринимаю метрику, только как источник статистики, а не как инструмент которым я должен помогать яндексу оценивать собственный сайт

Ну, пожалуйста, ваше право.


dansing #:
Как-то это все-таки я считаю не честным, что как таковой сервис статистики (у которого вполне могут быть конкуренты, такие как ли.ру) заставляет собой пользоваться, а то если не пользуешься, то "милости просим в конец очереди". 

Ну, пожалуйста, не нравится условия Яндекс - ставьте GA и продвигайтесь в Гугле.


dansing #:
P.S. причем мне искренне метрика не нравится, и как источником статистики, я до сих пор пользуюсь только ли.ру

Пожалуйста, пожалуйста.. пользуйтесь ли.ру, если вам хватает функциональных данных.


dansing #:
а метрика еще и параметры сайта по google page speed портит

Несколько не так. Вы воспринимаете следствие. А Метрика (код метрики) лишь создаёт доп. нагрузку на данные  Core Web Vital, также как и какой-нибудь онлайт чат, либо другой грузный скрипт, который создаёт  доп. нагрузку обработки данных.

Поставите счётчик GA - он тоже ухудшит показатели GPS.


Mastic :
На GGL есть 30 доноров со статьями

Что будет если разом или постепенно заменить вести эти ссылки на URL сайта B?

Будет нарушение правил GGL. Так бы все меняли ссылки на другие сайты, когда надо.

Я так понимаю верстку вы поправили, но остались проблемы, обратите внимание.


Anton1987306 #:
Все написано человеком, который разбирается в финансах. В том то и дело, что многие взгляды на фин тематику вы не найдете.

Смотрите. Очень важный, определяющий момент. Материал может быть написано кем угодно, в какой угодно уникальности.

Но, ключевой момент - как реагирует пользователь на ваш материал - именно это для поисковой системы является мерилом качества и складывается оно из вовлеченности, глубины и времени просмотра, дифференцированных взаимодействий и отклика.

Вы анализируете эти показатели? Вы создаете условия для качественных преобразований их аспектов? А ведь ключевой вектор именно здесь. Материал можно быть многократно эксклюзивным и интересном, но если отклик поведенческий слабый, для  поисковой системы это сигнал - не пускать страницы/сайт в топ.


Anton1987306 #:
Ясно, короче копать в сторону контента и улучшать поведенческие.

Именно так.


Anton1987306 #:
Да. я думаю, что это и есть песочница 

На самом деле её нет, но самое явление имеет место быть. 

Prodv1gator :
Явебмастер пишет что загружено примерно 43500 страниц,  в поиске только пару сотен страниц

Пара сотен рабочих страниц или пара сотен, которые вредоностные?

Если вредоностные - принудительно на удаление то, что в индексе, остальное вредоностные (включая эти) - в disallow.

Если ошибка обработки заявки на удаление, значит код ответа сервера отличный от 404, а в вашему случае должен быть 404 (проверьте.)

Лопатить в заявки на удаление все 43,5K загруженных страниц не нужно, они сами вылетят в запрете в robots (правда не сразу).

Яндекс вполне справиться с исключением страниц и при явном запрете disallow в robots. Гугл может долгое время игнорировать инструкцию disallow.

Ставить плагин для переиндексации я смысла не вижу, ваша задача не переиндексировать инородные адреса, а убрать из индекса. Со временем актуальность их пропадёт и ничего особо специально здесь придумывать,  на мой взгляд, не нужно.

p.s. Ещё одним вариантом (без disallow), это проставить noindex в тег  X-Robots-Tag в коде ответа сервера - это действительно сработает более универсально и для Яндекса, и для Гугла. Но стоит ли оно того - решать вам :)

Всего: 12940