Антоний, создайте уже топик и поговорите про то кто как бизнес строит) Стартпост и вопрос этого топика в другом)
Хорошо, давайте всё же по стартпосту и то, что я хотел вам сказать, но так и не написал.
Видите ли, здесь на форуме, да и вообще раз за разом повсеместно в рунете встречаю убеждение, что стоит только качественно сделать базовую техническую оптимизацию и сайт по НЧ запросам непременно должен появиться в TOP100. Вот прям живёт наш брат - оптимизатор с уверенностью, что впишет как надо запросы куда надо, заголовки/тексты/структура и ему поисковая система сразу выписывает билет в зону TOP100. А дальше он такой садится думает - ага, хорошо, составляю план по ссылочному, здесь с накруточкой пф, здесь статьи, здесь новости и дело попрёт.
Думает так сейчас, думал так 3 года назад, 5 лет назад, 10 лет назад (разве что тренда ПФ не было) и вот SEO отрасли уже более 10 лет, в неё ринулись всe деловачи или как минимум те, кто что-то пытался сделать у себя на сайте, конкуренция увеличилась на порядки, число SEO специалистов увеличилось на порядки, по базовому SEO в общем и в среднем, все уже грамотные, делают одно и тоже, но почему-то решили, что стартовая линия отмечена зоной TOP100.
Мне всегда хочется спросить - а с чего вы все решили, что забег конкурентных игроков начинается с зоны TOP100? Конкурентов - сотни, тематических страниц - тысячи, а релевантных страниц в том или ином виде поисковая система ранжирует уже миллионы. Я вот и спрашиваю, господа SEO аналитики, с чего вы решили, что зона конкуренции это непременно TOP10/20? По зонe кликабельности - понятно, но по части текстовой релевантности, если сайтов в конкурентной нише сотни, а то и тысячи - почему, своими старательными пассажами в заголовках уровня "Купить недвижимость в СПБ недорого без посредника", вы ожидаете, что в НЧ вариациях значимых зонах документа и контекстном совпадении вы обязательно попадете в TOP100 и для вас это будет точкой входа?
У вас не возникает мысли, что при увеличении тематических сайтов и их релевантных страниц зона конкуренции численно смешается?
Тогда может быть начать надо не с того, что - вот начали в течение 3 месяцев делать сайт, посмотрите что у меня вообще не так? Может всё-таки вам начать с решения стратегических задач? Изучить конкурентный TOP до предельных значений, где предположительно начинаются результаты целевой текстовой релевантности, определить конкретные тематические вопросы и интенты, сформировать целевым образом эти НЧ и микро НЧ группы запросов, создать под них целевые страниц и их нацеленно стимулировать, чтобы вообще понять, происходит у вас по рабочим документам изменения поисковой видимости или нет.
Когда поисковик находит новый сайт, то у нового сайта нет рекомендаций в какую конкурентную зону его надо определить - он определяет его малые характеристики и ставит в конец очереди текущей релевантности. Этот конец может быть и TOP100 и TOP200 и далее. Поэтому формулировать вопросы надо не общем контексте - почему меня нет где-то, ибо я вот такой замечательный что-то начал. А целевым образом - в зоне конкретной конкуренции, в контексте конкретных запросов и текущих результатов в динамике. Должны быть выкладки и конкретные наблюдения, тогда - да, по рабочему контексту и конкурентным срезам можно анализировать рабочую динамику. А когда ничего этого нет, то будут просто придирки к сайту, ну и к бизнесу, если он явно хромает.
Вот это то, что я хотел полезного вам сообщить.
Проблема в другом. Из-за бага в коде, когда на странице
site/catalog/item1
пользователь переключает язык сайта, скрипт не отправляет его на страницу
site/en/catalog/item1
а отправляет на страницу
site/catalog
А такой страницы не существует, отдается 404.
Понятно. Тогда в этому случае конечно надо решать вопрос с исходной причиной, а не со следствием.
Нарушать переобход бота внутри родительского уровня вообще не самая лучшая идея.
А что конкретно означает $
Допустим * значит все, что угодно
Вы можете решить эту задачу и классическим способом. В справке Яндекса как раз этот случай описан.
Насколько я понимаю, вы хотите временно закрыть индексацию для страницы категории и в этом случае я бы предложил вам закрыть индексацию через noindex в meta теге, сохранив возможность переобхода этой страницы.
И да, судя по указанному вопросу - родительские категории 301-ым редиректом нужно "закрывать" слэшем (/)
Тема скорее о предположении TC в том, что если прибавить себе несколько очков GPS, то сайт будет лучше индексироваться.
Так на шаред хостинге он и не должен быть один, на то он и шаред хостинг.
Однако First Byte до секунды - это довольно хороший показатель для шаред хостинга, весьма нечасто такое встретишь.
Тема заявлена про GPS, но когда вы спросили зачем TC это нужно, он ответил.
И так как улучшение и без того высоких показателей GPS никак не отразится скорости индексации (и вы сами об этом написали), я дал ориентир на инструмент который помогает решать вопросы оптимизации процесса индексации сайта.
По-моему, всё предельно ясно.
Логика проста. Если средствами XML карты поисковику более явно указать на новые и меняющиеся страницы, то при следующей рабочей итерации он скорректирует группу страниц для переобхода. Если этого не делать, то поисковик будет ориентироваться на те данные которые получил через последовательную навигацию на сайта + внешние сигналы, если они есть + сигналы Метрики, если она есть и привязана как раз для этого случая.
Ссылки.
Причём не обязательно только те, которые вы купили, могли и естественные появиться.
Пожалуйста.
Что может помочь TC - мы можем только предполагать. Но ему точно не поможет повышение пузомерки GPS, про которую TC сделал вывод или ему об этом кто-то сказал.
Какие у TC проблемы с индексацией мы тоже не знаем и есть ли эти проблемы вообще в контексте работы его сайта. XML карта сайта судя по всему у него настроена неверно, поэтому при ещё очередном скачивании и переобходе XML карты робот не получит достоверных данных о появлении новых страниц и даты последних изменений новых/измененных страниц, следовательно о новых страницах поисковая система может узнать только из навигационных связей сайта, что в общем рабочем процессе может быть медленнее, чем если бы XML карта использовалась корректно.
TC сказал про индексацию - я указал на инструмент, который может помочь в более оперативном обнаружении новых страниц сайта (и изменений внутри сайта).
Всё сугубо индивидуально. Если сайт по своим рабочим метрикам на пограничных конкурентных показателях, то даже незначительные колебания отказов в 5-10% могут оттягивать сайт вниз. А на высокопосещаемом и трастовом сайта бот трафик вообще не оказывает никакого влияния.
Определять влияемый % от трафика органики дело неблагодарное, потому что поведенческие складываются не только по показателям поискового трафика, но и конверсий с других источников трафика. Тут всё сугубо обстоятельно и индивидуально. Вы сами должны видит свои показатели и свои колебания видимости в зависимости от этих показателей.
Со скоростью загрузки сайта у вас всё в порядке. Вам нужно карту сайта довести до ума. Сравните объём индексации вашего сайта, сравните с тем, что выводится в карте. Части разделов в XML карте у вас просто нет.
Возможно есть и другие проблемы, но вы сказали про индексацию, я бегло посмотрел на карту и понял, что там далеко не всё, что нужно.