Страница просканировано, но не проиндексировано

Антоний Казанский
На сайте с 12.04.2007
Offline
786
#41
Denechka #:
А, может и правда у ТС банально проблемы с откликом?

Если бы у TC были критические проблемы с откликом, то рабочие обстоятельства были совсем другие. 

Тем более, что со слов TC у него уже был опыт с большими сайтами, так что проверить отклик и замерить скорость загрузки страниц  он бы всяко догадался.

√ SEO продвижение ► https://akazansky.ru - экспертный аудит сайтов ( https://akazansky.ru/audit-sajtov ), внедрение эффективных решений цифрового маркетинга. Разговоры о SEO и не только: культурно, вежливо, доброжелательно ► https://t.me/seotusovochka
D
На сайте с 29.10.2018
Offline
59
#42
Антоний Казанский #:
Тогда пожалуйста разверните более доходчиво свою мысль и лучше на живых примерах, чтобы стало понятно, каким образом вы предлагаете программно уникализировать тысячи страниц с помощью 3-5 предложений.
Алиэкспресс.(Результатов: примерно 81 900 000 (0,47 сек.)) и это только по моей локации. Китайских братьев, конечно много, некоторые за пайку риса работают, но неужели Вы думаете, что они каждое описание ручками делают? Кстати, к своим ошибкам они тоже нормально относятся (со здоровым пофигизмом), по площадям бьют. Да и не зацикливайтесь на количестве. Имелось ввиду для каждой стр. Методы генерации для каждой ниши свои. Тут желательная своя, индивидуальная изюминка для неповторимой, качественной генерации.
Виктор Петров
На сайте с 05.01.2020
Offline
240
#43
Denechka #:
Это всё софистика. Слушайте больше дружище Мюллера и его друганов. Они говорят лишь то, что им дозволено сказать. Так сказать официальную позицию. И это правильно, я бы и сам так делал.

Это не софистика. Я люблю ковырять логи. А то, что Мюллер не совсем в своём уме - это и так понятно. Хотя в случае "двух минут" здравое зерно всё равно есть. Если мне позарез нужно попасть на определенный ресурс - я буду ждать и 5 минут, перезагружая страничку. Не загрузится - позже зайду.
Другое дело, что владельцу сайта на такое рассчитывать не стоит, всегда есть альтернативы его ресурсу, и стоит поднапрячься, чтобы сайт был доступен - и быстро - и людям, и поисковым ботам.
Однако самый важный момент - это всё таки вопрос краулингового бюджета в этом контексте. Его искусственно не увеличишь, а тут человек 10 тыщ страничек разом влил без редиректов. 

S7
На сайте с 07.10.2017
Offline
56
#44

Подскажите, пожалуйста, как построить такой график?

D
На сайте с 29.10.2018
Offline
59
#45
Виктор Петров #:
человек 10 тыщ страничек разом влил

Это пыль для гугла. Вы краулинговый бютжет рассматриваете только в контексте дискового пространства?

А я ещё рассматриваю как бюджет реального времени.

D
На сайте с 29.10.2018
Offline
59
#46
Skanavy7 #:

Подскажите, пожалуйста, как построить такой график?

https://search.google.com/search-console/settings/crawl-stats (не знаю сработает ссылка или нет)

Настройки > Статистика сканирования

Google Search Console
  • search.google.com
Search Console позволяет следить за позицией вашего сайта в Google Поиске.
D
На сайте с 29.10.2018
Offline
59
#47
Виктор Петров #:
Я люблю ковырять логи.
Подскажите, пожалуйста, как путём ковыряния логов можно узнать сколько ждёт паук Вашего ответа?
S7
На сайте с 07.10.2017
Offline
56
#48
Denechka #:

https://search.google.com/search-console/settings/crawl-stats

Настройки > Статистика сканирования

~530мс. Не уж то из этого не продвигается сайт в Гугле? Просто фактическая скорость загрузки моего сайта превышает конкурентов минимум в два раза. 

D
На сайте с 29.10.2018
Offline
59
#49
Skanavy7 #:

~530мс. Не уж то из этого не продвигается сайт в Гугле? Просто фактическая скорость загрузки моего сайта превышает конкурентов минимум в два раза. 

Я не буду утверждать на 100%. С моей стороны это было бы однобоко. Но подумайте сами - за пол-секунды паук съедает 1 стр. А будь ответ ~50мсек - он МОГ бы съесть в 10 раз больше. Просто произведите элементарное арифметическое действие.

И не будем забывать, что он может опрашивать многопоточно, конвеером + другие боты + реальная нагрузка на сервак от пользователей.

~530мс - это-ж какая база у Вас?.  Допустим запрос к полумилионной основной таблице на 2,5 Гб у меня выполняется за ~1мсек (если в кеше, если нет - max - 7ms. Остальное - вспомогательные запросы, формирование ответа, отсылка ответа.

Виктор Петров
На сайте с 05.01.2020
Offline
240
#50
Denechka #:
Это пыль для гугла.

Для гугла и ваш сайт - пыль. Но его лимиты - не пыль для вашего сайта. Смотрите логи, сопоставляйте количество заходов гуглобота и сопоставляйте с реальным объёмом сайта.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий