name_nick

Рейтинг
13
Регистрация
23.03.2017
xVOVAx:
гугл и яндекс по разному относятся к поддоменам) вам надо было изначально думать про это. плюс ссылочное слабое - единственное что поможет это ссылки в больших количествах

согласен, но что сейчас делать с этим нет у меня идей.

давно сайт создавался - 2012 год, тогда с google норм шло на поддоммены

в выдаче гугла все же встречаю 1-3 сайта на поддоменах, например для "автосервис самара" -zoon и avtotochki

Есть опыт безопасного перехода с поддоменой структуры на директории?

Про ссылочное zoon и avtotochki изучал. На что то еще у них стоит посмотреть, что им может помогать получать траф на поддоменах?

Miha Kuzmin (KMY):
И да, надеюсь 301 сразу не впихнули?

Впихнул 301 и сразу. Видимо зря.

До этого несколько раз переезжал только по host по рекомендациям Яши и redirect-ом по рекомендациям Гугла. Раньше redirect клеил быстрее и без потери трафа (в Яше)

С 28 ноября начал переход на https, с 4 декабря не влетают новые страницы в индекс. То есть влетают, но по 10-20 шт., для сайта на 100000 страниц

Также не вылетают старые http страницы.

При этом по Яндекс Вебмастер информация, что старые (http) выпали из поиска, а новые (https) попали в него. Но по факту страниц в поиске новых нет, а старые остаются.

До этого считал, что у Яши какие-то интересные изменения или проблемы, хз что, но апдейтов, которые можно уверенно называть апдейтами, нет.

Тут же утверждают, что апы идут и все такое)

Все таки у меня какие-то проблемы, а у всех все "апается", или многие видят проблему с отсутствием полноценных апдейтов?)

XPraptor:
name_nick, а что вы отдаете в заголовках боту? Страницы меняются физически на сайте?
Если у вас ничего не меняется, то зачем вам обход гуглом всей массы - имеете стойкое желание хотсинг сменить на более дорогой?

Response Headers

Connection:close

Content-Encoding:gzip

Content-Length:18700

Content-Type:text/html; charset=utf-8

Date:Tue, 19 Dec 2017 07:50:42 GMT

Server:Apache/2.4.7 (Ubuntu)

Vary:Accept-Encoding

X-Powered-By:PHP/5.5.9-1ubuntu4.22

Сервак: https://fastvps.ru/dedicated#/ssd (hps-ssd). На серваке висят все наши проекты, с общим трафом 50 000 - 60 000. в сутки

Что за странные Апдейты?

Сайт из 160 поддоменов, все добавлены в ЯВ и на всех настроены уведомления, уведомления об АПе пришли только на 34 домена.

Сервисы, где обычно мониторю АПы http://tools.promosite.ru/ и https://tools.pixelplus.ru/updates/yandex молчат.

А бы ли Апдейт?

Такая картина с 4 декабря.

раньше была практика - все лишние элементы и функционал закидываешь в js.

Раньше - это, когда на пример оптимизации большого проекта было модно смотреть на Викимарт (хз насколько модно это было, но в моем окружении любили пообсуждать как все делает викимарт, ну и на конференциях вокруг Сливинского всегда были толпы народу с подобными вопросами)

Цель манипуляций с js - облегчить загрузку и индексацию страниц ботом. Страница, где лишнее обернуто js, в итоге в глазах бота была легче (все что в js не индексировалось и в сохраненке, например, этого не было) и имела меньше содержимого, а также не индексировались лишние служебные текстовые элементы мешающие релевантности.

Сейчас js активно индексируется (вроде как) и судя по всему в js, что то лишнее от индексации не спрячешь. В то же время текущие рекомендации ПС - не закрывать js в robots.

Таким образом вопрос) Как сейчас прятать лишние элементы от индексации, чтобы не портить релевантность страниц? Или для оптимизаторов больших проектов данная задача уже не актуальна?

Если посмотреть например на zoon.ru - там подобны приемы используются. Активно используется noindex и js.

Слева в ВК висит блок от РСЯ. Работает стандартно как вся РСЯ.

Я как то тоже задумался откуда это ВК узнает мою историю поиска, потом к коду блока присмотрелся и понял что это РСЯ.