согласен, но что сейчас делать с этим нет у меня идей.
давно сайт создавался - 2012 год, тогда с google норм шло на поддоммены
в выдаче гугла все же встречаю 1-3 сайта на поддоменах, например для "автосервис самара" -zoon и avtotochki
Есть опыт безопасного перехода с поддоменой структуры на директории?
Про ссылочное zoon и avtotochki изучал. На что то еще у них стоит посмотреть, что им может помогать получать траф на поддоменах?
Впихнул 301 и сразу. Видимо зря.
До этого несколько раз переезжал только по host по рекомендациям Яши и redirect-ом по рекомендациям Гугла. Раньше redirect клеил быстрее и без потери трафа (в Яше)
С 28 ноября начал переход на https, с 4 декабря не влетают новые страницы в индекс. То есть влетают, но по 10-20 шт., для сайта на 100000 страниц
Также не вылетают старые http страницы.
При этом по Яндекс Вебмастер информация, что старые (http) выпали из поиска, а новые (https) попали в него. Но по факту страниц в поиске новых нет, а старые остаются.
До этого считал, что у Яши какие-то интересные изменения или проблемы, хз что, но апдейтов, которые можно уверенно называть апдейтами, нет.
Тут же утверждают, что апы идут и все такое)
Все таки у меня какие-то проблемы, а у всех все "апается", или многие видят проблему с отсутствием полноценных апдейтов?)
Response Headers
Connection:close
Content-Encoding:gzip
Content-Length:18700
Content-Type:text/html; charset=utf-8
Date:Tue, 19 Dec 2017 07:50:42 GMT
Server:Apache/2.4.7 (Ubuntu)
Vary:Accept-Encoding
X-Powered-By:PHP/5.5.9-1ubuntu4.22
Сервак: https://fastvps.ru/dedicated#/ssd (hps-ssd). На серваке висят все наши проекты, с общим трафом 50 000 - 60 000. в сутки
Что за странные Апдейты?
Сайт из 160 поддоменов, все добавлены в ЯВ и на всех настроены уведомления, уведомления об АПе пришли только на 34 домена.
Сервисы, где обычно мониторю АПы http://tools.promosite.ru/ и https://tools.pixelplus.ru/updates/yandex молчат.
А бы ли Апдейт?
Такая картина с 4 декабря.
раньше была практика - все лишние элементы и функционал закидываешь в js.
Раньше - это, когда на пример оптимизации большого проекта было модно смотреть на Викимарт (хз насколько модно это было, но в моем окружении любили пообсуждать как все делает викимарт, ну и на конференциях вокруг Сливинского всегда были толпы народу с подобными вопросами)
Цель манипуляций с js - облегчить загрузку и индексацию страниц ботом. Страница, где лишнее обернуто js, в итоге в глазах бота была легче (все что в js не индексировалось и в сохраненке, например, этого не было) и имела меньше содержимого, а также не индексировались лишние служебные текстовые элементы мешающие релевантности.
Сейчас js активно индексируется (вроде как) и судя по всему в js, что то лишнее от индексации не спрячешь. В то же время текущие рекомендации ПС - не закрывать js в robots.
Таким образом вопрос) Как сейчас прятать лишние элементы от индексации, чтобы не портить релевантность страниц? Или для оптимизаторов больших проектов данная задача уже не актуальна?
Если посмотреть например на zoon.ru - там подобны приемы используются. Активно используется noindex и js.
Слева в ВК висит блок от РСЯ. Работает стандартно как вся РСЯ.
Я как то тоже задумался откуда это ВК узнает мою историю поиска, потом к коду блока присмотрелся и понял что это РСЯ.